算法的强大
1. iPhone 现在的拍照直出算法到底有多强
实际上,主流手机厂商的摄像头供货商就是那么几家。而 Sony 就是 iPhone 的主要摄像头供货商的一家。(另外一家是 omnivision ,他也向三星供货) 但是无可否认,近几代 iPhone 实际使用中的拍照效果是超越同期的 Sony 和 三星 的手机的。类似甚至一样的摄像头,结果有差的原因如下: 1 低像素 市场有个极为脑残的认识,就是像素越高拍照效果越好。而事实是,至少 iPhone5 的时期, 1200 万,无法超越 800 万。 但是 Sony 和 三星 这样的日韩厂家没有对用户说不的勇气。你们想要高像素?我就给你。 而苹果敢:苹果在摄像头的选择上总是青睐低像素。还记得乔布斯在 iPhone4(?) 发布会上计算单个像素大小的 keynote 吗?他就是想告诉用户,高像素并不一定有好的效果。 可惜强势如乔布斯,其实也没有扭转市场的认识。只懂小学算数的消费者,还是热衷于比较像素多少。今天这个脑残认识仍然深入人心。好在, iPhone 出色的单个像素质量为一张优秀的照片提供了更多保障, 他的拍照效果慢慢得到了用户的认可。(但是不可否认,一部分重视拍照的用户可能因为像素少,去买了 Sony 。) 2 软件优化 不同的厂家拿到摄像头,会通过软件调整各种功能和出片效果。这方面就见功力了。 苹果在 Mac 上做了多年图像处理软件,这方面的水准是足够的。(白平衡,锐度,噪点。。。) 而自己掌控的系统也应该让他更容易优化相机的各种功能。(快门延迟,对焦速度。。。) Android 厂家一般是买第三方的软件算法和功能自己集成。各种调整上感觉没有 iOS 细致用心。 (吃透一个摄像头的特性是需要时间的,他们出机的频率也不允许) 3 屏幕配合 苹果的软件调整再出色,比如他调整出了一流的白平衡,屏幕不给力也都白搭。 而 iPhone 搭载的是业界最高水准的屏幕。苹果绝不会拿偏色严重的”未来”技术忽悠用户。因为所有在摄像头,软件上下的功夫,都必须通过屏幕表现出来。 4 最后的话 所以,苹果真的是良心企业。 他既不会利用消费者在像素多少上面的无知,也不会在消费者看不到的算法调整上偷懒,也不会让消费者为半成品的屏幕技术埋单。 他所有的努力,都指向一个单纯的结果,他的手机用户对着家人按下快门的时候,可以留下一个美好的回忆。即使,为此牺牲营销上的优势,也在所不惜。 所以苹果能赢得我的尊敬,因为作为业内人士,我知道抵御销量的诱惑为用户做这种受累不讨好的事情有多难。
2. 人工智能有强大的算法不会出错对吗
不对。蓝皮书指出:“人工智能算法并不是万能的。”其准确度并无法达到百分之百,它向用户提供的信息有可能存在偏差桐姿。所以人工智能有强大的算法不会出错是不对的,依靠算法的掘橘人工智能,对人工输入的原始数据准确局散绝性要求极高,如果原始数据出错,则算法生成的产品就会出错。
3. 人工智能有强大的算法,一定不会出错对吗
不对。
人类是不完美的无法超越大自然,也必然设计不错完美的不会出错的人工智能,因此不如接受这个现实,人工智能必然会出错,就像人类会生病一样。
人工智能,英文缩写为AI。它是研究、开发用于颤蔽渣模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能茄悄以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语并歼言处理和专家系统等。
4. 大数据时代 无处不在的算法应用
大数据时代 无处不在的算法应用
能不能讲讲算法在工作中的运用?你个人学习算法的过程是怎样的?我对算法还是有点怕。除此之外,你认为大学是应该多花时间学应用技术还是理论知识呢?
今天就来聊聊我自己学习算法的过程,以及算法在实际工作中的应用。
以前,我们认为大数据总是优于好算法。也就是说,只要数据量足够大,即使算法没有那么好,也会产生好的结果。
前一阵子“极客时间” App 发布了一条极客新闻:“算法比数据更重要,AlphaGo Zero 完胜旧版。”新闻的内容是谷歌人工智能团队 DeepMind 发布了新版的 AlphaGo 计算机程序,名为 AlphaGo Zero。这款软件能够从空白状态开始,不需要人类输入任何命令,便可以迅速自学围棋,并以 100 比 0 的战绩击败了上一代 AlphaGo。
AlphaGo Zero 最大的突破在于实现了“白板理论”。白板理论认为:婴儿是一块白板,可以通过后天学习和训练来提高智力。AI 的先驱图灵认为,只要能用机器制造一个类似于小孩的 AI,然后加以训练,就能得到一个近似成人智力,甚至超越人类智力的 AI。
自学成才的 AlphaGo Zero 正是实现了这一理论。AlphaGo 的首席研究员大卫·席尔瓦(David Silver)认为,从 AlphaGo Zero 中可以发现,算法比所谓的计算或数据量更为重要。事实上,AlphaGo Zero 使用的计算要比过去的版本少一个数量级,但是因为使用了更多原理和算法,它的性能反而更加强大。
由此可见,在大数据时代,算法的重要性日渐明晰。一个合格的程序员,必须掌握算法。
我不知道大家是怎样一步步开始精通算法和数据结构的。大二时,我第一次接触到了《数据结构》,因为从来没有过这方面的思维训练,当时的我学习这门课比较费力。那时候接触到的编程比较少,所以并没有很多实际经验让我欣赏和体味:一个好的数据结构和算法设计到底 “美” 在哪里。
开始学习的时候,我甚至有点死记硬背的感觉,我并不知道 “如果不这样设计”,实际上会出现哪些问题。各种时间和空间复杂度对我而言,也仅仅是一些不能融入到实际问题的数学游戏。至于“每种最坏情况、平均情况的时间空间复杂度与各种排序”,这些内容为什么那么重要,当时我想,可能因为考试会考吧。
没想到后来的时日,我又与算法重新结缘。可能是因为莱斯大学给的奖学金太高了,所以每个研究生需要无偿当五个学期的助教 。好巧不巧,我又被算法老师两次挑中当助教。所以,在命运强制下,一本《算法导论》就这样被我前前后后仔细学习了不下四遍。这样的结果是,我基本做过整本书的习题,有些还不止做了一遍。我学习算法的过程,就是反复阅读《算法导论》的过程。
那么,学习算法到底有什么用处呢?
首先,算法是面试的敲门砖国内的情况我不太清楚,但就硅谷的 IT 公司而言,不但电话面试偏算法,现场面试至少有两轮都是考算法和编程的。
大一些老一些的公司,像谷歌、Facebook、领英、Dropbox 等,都是直接在白板上写程序。小一些新一些的公司,如 Square、Airbnb 等,都是需要现场上机写出可运行的程序。Twitter、Uber 等公司则是白板上机兼备,视情况而定。
虽说还有其它考系统设计等部分,但如果算法没有打好基础,第一关就很难过,而且算法要熟悉到能够现场短时间内写出正解,所以很多人准备面试前都需要刷题。
有一次我当面试官,电话面试另外一个人,当时是用 Codepad 共享的方式,让对方写一个可运行的正则表达式解析器。45 分钟过去了,对方并没有写出来。我就例行公事地问:“你还有什么问题想问或者想了解么?” 对方估计因为写不出程序很有挫败感,就反问:“你们平时工作难道就是天天写正则表达式的解析器么?”
一瞬间,我竟无言以对。想了想,我回复说:“不用天天写。那我再给你 15 分钟,你证明给我看你还会什么,或者有什么理由让我给你进一步面试的机会?” 对方想了一会,默默挂掉了电话。
老实说,我对目前面试中偏重算法的程度是持保留意见的。算法题答得好,并不能说明你有多牛。牛人也有因为不愿刷题而马失前蹄的时候。但是除了算法测试,显然也没有更好的方法佐证候选人的实力;然而怎样才能最优化面试流程,这也是个讨论起来没完的话题,并且每次讨论必定无果而终。
其次,编程时用到的更多是算法思想,而不是写具体的算法说到实际工作中真正需要使用算法的机会,让我想一想 —— 这个范围应该在 10% 的附近游走。
有些朋友在工作中遇到算法场景多些,有的少些。更多的时候,是对业务逻辑的理解,对程序语言各种特性的熟练使用,对代码风格和模式的把握,各种同步异步的处理,包括代码测试、系统部署是否正规化等等。需要设计甚至实现一个算法的机会确实很少,即使用到,现学可能都来得及。
但是熟悉基本算法的好处在于:如果工作需要读的一段代码中包含一些基本算法思想,你会比不懂算法的人理解代码含义更快。读到一段烂代码,你知道为什么烂,烂在哪,怎么去优化。
当真的需要在程序中设计算法的时候,熟悉算法的你会给出一个更为完备的方案,对程序中出现的算法或比较复杂的时间复杂度问题你会更有敏感性。熟悉算法你还可以成为一个更优秀的面试官,可以和别的工程师聊天时候不被鄙视。
最后,不精通算法的工程师永远不是好工程师当然,除了算法导论中那些已成为经典的基本算法以及算法思想(Divide-and-conquer,Dynamic programming)等,其实我们每天接触到的各种技术中,算法无处不在。
就拿人人都会接触的存储为例吧,各种不同的数据库或者键值存储的实现,就会涉及各种分片(Sharding)算法、缓存失败(Cache Invalidation)算法、 锁定(Locking)算法,包括各种容错算法(多复制的同步算法)。 虽然说平时不太会去写这些算法 —— 除非你恰恰是做数据库实现的 —— 但是真正做到了解这项技术的算法细节和实现细节,无论对于技术选型还是对自己程序的整体性能评估都是至关重要的。
举个例子,当你在系统里需要一个键值存储方案的时候,面对可供选择的各种备选方案,到底应该选择哪一种呢?
永远没有一种方案在所有方面都是最佳的。就拿 Facebook 开源的 RocksDB 来说吧。了解它历史的人都知道,RocksDB 是构建在 LevelDB 之上的,可以在多 CPU 服务器上高效运行的一种键值存储。而 LevelDB 又是基于谷歌的 BigTable 数据库系统概念设计的。
早在 2004 年,谷歌开始开发 BigTable,其代码大量的依赖谷歌内部的代码库,虽然 BigTable 很牛,却因此无法开源。2011 年,谷歌的杰夫·迪恩和桑杰·格玛沃尔特开始基于 BigTable 的思想,重新开发一个开源的类似系统,并保证做到不用任何谷歌的代码库,于是就有了 LevelDB。这样一个键值存储的实现也用在了谷歌浏览器的 IndexedDB 中,对于谷歌浏览器的开源也提供了一定的支持。
我曾经在文章中提到过 CockroachDB,其实又可以看作是基于 RocksDB 之上的一个分布式实现。从另一个层面上讲,CockroachDB 又可以说是 Spanner 的一个开源实现。知道这些,就知道这些数据库或键值存储其实都同出一系。再来看看 LevelDB 底层的 SSTable 算法,就知道他们都是针对高吞吐量(high throughput),顺序读 / 写工作负载(sequential read/write workloads)有效的存储系统。
当然,一个系统里除了最基本的算法,很多的实现细节和系统架构都会对性能及应用有很大的影响。然而,对算法本身的理解和把握,永远是深入了解系统不可或缺的一环。
类似的例子还有很多,比如日志分析、打车软件的调度算法。
拿我比较熟悉的支付领域来说吧,比如信用卡 BIN 参数的压缩,从服务端到移动 App 的数据传输,为了让传输数据足够小,需要对数据进行压缩编码。
每个国家,比如中国、韩国、墨西哥信用卡前缀格式都不一样,如何尽量压缩同时又不会太复杂,以至于影响移动 App 端的代码复杂度,甚至形成 Bug 等,也需要对各种相关算法有详尽地了解,才有可能做出最优的方案。
关于算法我们来总结一下:
在大数据时代,数据和算法都同等重要,甚至算法比计算能力或数据量更为重要。
如何学习算法呢?读经典着作、做题,然后在实践中阅读和使用算法。
算法是面试的敲门砖,可以帮助你得到一份自己喜欢的工作。
写程序中用到的更多是算法思想,不是写具体的算法。
不精通算法的工程师永远不会是一个优秀的工程师,只有对各种相关算法有详尽理解,才有可能做出最优的方案。
5. 人工智能有强大的算法不会出错对还是错
人工智能有强大的算法不会出错是错误的谈搭。根据查询相关公开信息显示:人毕则工智能会犯错,而且一旦犯错,往往会导致巨大的手侍棚危险。