备课资料
如何创造可信的AI?
录入者:15959541500 人气指数: 次 发布时间:2020年11月12日
出品:新浪科技《科学大家》
撰文:盖瑞·马库斯 (Gary Marcus) 纽约大学心理学与认知科学教授、畅销书作家;欧内斯特·戴维斯(Ernest Davis)纽约大学柯朗数学科学研究所计算机科学教授。人工智能领域科学家
自从人工智能诞生之始,业界专家就一直愿景有余、落地不足。60年前,明斯基、麦卡锡等先驱人物曾笃信,AI 问题将在20世纪末之前被彻底解决。明斯基有句广为流传的名言:“一代人之内,人工智能的问题将在总体上得到解决。”
这些预言却未能实现,而新画的“大饼”却层出不穷。2002年,未来学家雷·库兹韦尔公开断言AI 将在2029 年之前“超越人类本身的智慧”。2018 年11 月,著名AI 研究机构OpenAI的联合创始人伊利亚· 苏茨科弗提出:“我们应严肃认真地考虑近期实现通用人工智能(AGI)的可能性。”
虽然从理论上讲,库兹韦尔和苏茨科弗的预言有望实现,但可能性非常渺茫。我们距离具有人类智能灵活性的通用人工智能仅积跬步,还需要大量的基础性进步。并且继续复制目前的行业经验是远远不够的。
即便并不是每个人都像库兹韦尔和苏茨科弗那样积极乐观,但从医疗行业到无人驾驶汽车领域,各种野心勃勃的承诺依然随处可见。
虎头蛇尾的AI项目
2012 年,我们经常听到人们谈起“自动驾驶汽车将在不久的将来成为现实”。2016 年,IBM 宣称,在“Jeopardy !”智力问答节目中夺魁的AI 系统沃森将会“在医疗行业掀起一场革命”。
2015 年,Facebook 启动了M 计划。这是一个目标远大、覆盖范围广泛的聊天机器人项目,有能力应对你的每一种需求比如,比如预订餐厅座位,或是规划下一次度假旅行。
但直至今日,上述目标无一落实。
无人驾驶汽车也局限在高速公路环境中,还需要人类司机就位才能保证安全。随着早期的乐观态度逐渐冷却,人们普遍认为,要达到真正的无人驾驶,尚需至少10 年的发展。
同样,IBM 的沃森向医疗方向的转型也冷却了下来。当医生将病人的胸痛症状告知沃森系统时,沃森并没有提出心脏病、心绞痛或主动脉撕裂等可能的诊断。2016至2017 年,利用沃森开展的关于肿瘤学、罕见病等合作项目被先后叫停。
沃森的问题被曝光后不久,Facebook 的M计划也被叫停。此时距离项目启动的时间还不到3 年。
即便如此,看好AI 的呼声依然狂热。谷歌前首席执行官施密特曾信心满满地宣布,AI 会解决气候变化、贫困、战争和癌症等诸多社会问题。
还有些人因AI 的潜在危害而苦恼不已,而这些担忧与实际情况相去甚远。亨利·基辛格在文章中称,AI 的危险可能极其巨大,“人类历史可能重蹈印加人的覆辙,面对AI,就像印加人面对无法理解的西班牙文化一样,甚至会对其产生崇拜和敬畏之心”。 埃隆·马斯克曾提出警告,推进AI 向前发展的行为无异于“召唤恶魔”,为人类带来“比核武器更恐怖”的危险。已故史蒂芬·霍金曾说过,AI 的发明可能是“人类文明史上最可怕的事件”。
但是,他们所讨论的AI 究竟是什么样的AI ?
真的有可信的AI 吗
人们之所以总是过高地估计AI 的实际能力,一部分原因在于媒体的夸张宣传,滥用“历史性突破”式的表述。技术报道的夸大其词,会直接导致公众形成AI成真近在咫尺的印象。而实际上,我们还有很漫长的夜路要走。
从今往后,若再听说某个成功的AI 案例,建议读者提出以下6 个问题:
1。 抛开华而不实的文笔,此AI 系统究竟实际做到了哪些事?
2。 此成果的通用性有多强?(例如阅读任务,是能测量阅读中的所有方面,还是只有其中的一小部分?)
3。 有没有演示程序,能让我用自己的例子来实验一下?如果没有,请保持怀疑态度。
4。 如果研究人员或媒体称此AI 系统强于人类,那么具体指哪些人类,强出多少?
5。 被报道的研究成果中所成功完成的具体任务,实际上与真正的人工智能相距多远?
6。 此系统的鲁棒性如何?如果使用其他数据集,在没有大规模重新训练的情况下,是否还能成功?
狭义AI 与广义AI
一言以蔽之,目前的AI 是在限制领域内专用的狭义AI,只能应用于其设计初衷所针对的特定任务,前提是系统所遇到的问题在算法预测的范围内。这使得AI基本等同于数字化白痴专家:可以读懂银行支票、给照片打标签、以世界冠军的水准玩棋牌游戏,但也仅限于此。生活中,我们本想要的是能迅速执行指令、给孩子换尿布、给家人做饭的“机器人罗茜”,实际是扁圆形扫地机器人。
2018年春,当谷歌发布Duplex系统之时,人们还在争论计算机在打电话时是否应该主动自报身份。但实际上,Duplex 的有效场景非常狭窄:预订餐厅座位、跟发型师预约理发时间、查看某些商铺的营业时间。
狭义AI 正日新月异地发展。但AI 远不止这么简单。
AI 应当能治愈癌症、搞清楚大脑的工作方式、发明出新材料、提高农业和交通的效率、应对气候变化。现在与谷歌同属一家母公司Alphabet 的DeepMind 曾有一句口号:“搞定智慧,然后用智慧搞定所有其他问题。”
等到全能机器人管家真正到来的那一天,人们就可以从家务中解放双手,残障人士也有可靠的助手。机器人还能取代人类从事危险工作,地下、水下、火灾现场、坍塌建筑物、火山内部、出故障的核反应堆等场景。届时,因公致死事件将大幅减少,而采宝贵自然资源的能力将大幅提高。
现在仍然缺少一些重要的东西,仅靠狭义AI 是不够的。
令人担忧的是,更多的权力还在不停地被交到不可靠的机器手中。这些机器不具备对人类价值观的理解,根本无法解决利害关系较大的问题。
问题核心在于“信任”。如今的狭义AI 系统只能按照编程逻辑工作,完成被程序员精准预期到的任务。如果狭义AI 系统给你推送了一条错误的广告,影响不大。但如果AI 系统驾驶着汽车,全速撞向其数据库中并不存在的外观奇特的车辆,或是给癌症病人下了错误的诊断呢?
如今的AI 界所普遍欠缺的是广义AI(Broad AI),也就是“通用人工智能”。广义AI 的目标,就是要像人类一样,有能力灵活适应这个本质上疆域无限的世界。但广义AI 领域的进展要比狭义AI 缓慢许多。
真实生活没有完美的数据库能穷尽并预演生活中每种可能性及应对方式。举例来说,拥有智慧的新闻阅读系统,必须有能力掌握普通成年人的“常识”而不用新闻提及,比如“你能用螺丝刀拧紧螺丝” “手枪形状的巧克力不能射出真正的子弹”。这种灵活性正是通用人工智能:普通人拥有的智能。这一点狭义AI的大数据“训练”路径无法企及。
狭义AI 领域的研究者常常会忽略现有数据库之外的异常值(outliers)。但是,如何利用通用人工智能来应对开放性的系统,而非利用专为封闭性系统设计的蛮力,才是行业发展的关键所在。
理想与现实之间的鸿沟
理想与现实之间,存在着一个被称为AI 鸿沟的大坑。追根溯源,此大坑可一分为三。其中每一个都需要我们坦诚面对。
第一个坑,我们称之为“轻信坑”。人类在进化过程中,并没有发展出在人类和机器之间进行区分的辨别能力。而机器的行为看起来总与人有所相似,所以人们会下意识从人类的思维机制、认知的角度去看待机器。事实上,机器遵从的规则简单通透。从社会心理学角度看,此现象称为“基本超归因错误”。
基本超归因错误的早期案例之一,是60 年代中期一个名叫伊丽莎(Eliza)的聊天机器人。与之交流的人们总觉得它听懂了。事实上,它只是联系前文在关键词之间做了对应,当不知道该说什么时,它会说:“跟我讲讲你的童年时代。”如果你提到了母亲,它就会聊家庭,但却不明白家庭概念与重要性,这并非真正的智能。
尽管如此,依旧有人会和伊丽莎一连聊好几个小时,误以为它懂自己。用伊丽莎的创造者约瑟夫· 魏岑鲍姆(Joseph Weizenbaum)的话说:
人们本来对和机器对话这件事心知肚明,但很快就会将这一事实抛在脑后。就像去剧院看戏的人们一样,在一环扣一环的情节渲染下,很快就会忘记他们眼前的一幕并非“真情实景”。人们常常要求和系统进行私下交流,并且在交流一段时间之后,坚持认为此机器真的懂他们,无论我再怎么解释也没用。
第二个坑,我们称之为“虚幻进步坑”:误以为AI 解决了简单问题,就是飞跃性进步。沃森在Jeopardy !中获胜就被认为在语言理解方面走出了一大步,正是这样。
相比之下,现实中完美而清晰的模拟数据根本就不存在,也无法大量试错,人们只能用有限的次数来尝试不同策略。
第三个坑,就是我们所称的“鲁棒坑”。在业界时常发生:每当AI 解决方案能在某些时候发挥作用,人们就会假定,只要再多一点数据,此系统就能在所有的时刻发挥作用。
在当下的AI 研究中,鲁棒性未得到足够重视。部分源于目前的研究领域的容错率较高,比如广告和商品推荐。但在无人驾驶汽车、老人照护、医疗规划等领域中,鲁棒性都至关重要。没人会花钱买个只能以五分之四的概率将爷爷安全抱到床上的机器人管家。
就算是目前AI 最擅长的领域,也潜藏危机。以图像识别为例,很多时候AI不仅无法识别,还会犯低级错误。如果你给所谓的“自动标题系统”看一张贴着许多贴纸的停车标志,系统会错误地识别为“装了许多食品和饮料的冰箱”。
没人对这类错误做任何解释,但这并不少见。
同样,无人驾驶汽车也不能百分百识别。比如特斯拉屡次撞向路边的消防车。而对电网进行控制或对公共健康进行监查的系统,若出现类似的盲点,其后果更加危险。
如何跨越AI 鸿沟
若想跨越“AI 鸿沟”这个大坑向前走,我们需要做到三件事:搞清楚AI技术的利害关系;想明白当前的系统为什么解决不了问题;找到新策略。
工作机会、人身安全、社会结构,这些都与AI 的发展息息相关。由此可见,所有人都迫切需要紧跟AI 行业的最新进展,都需要用批判的眼光去审视AI,区分宣传与实情。
AI 前行的最佳方向,应在人类心智的内在结构中寻找线索。它不必是人类的完美复制品,但AI 依然有许多需要向人类学习的地方,尤其要向极具吸收并理解新概念能力的小孩子学习。
计算机总被认为在某方面拥有“超人类”能力,但人类的大脑依然在5个基本方面令计算机望尘莫及:理解语言、周遭世界,灵活适应新环境,在没有大数据时快速学习新事物、进行推理。相比之下,行业对于制造“白板”机器的痴迷是一个严重的错误:这些机器完全依靠数据而非知识驱动。
用不了多久,AI 就会像电力一样普及到千家万户。随着越来越多的权力被交给AI,人类就要不断提高警戒。没有什么比修正AI 的前行方向更为紧迫的任务了。
也许只有搞明白人类的大脑是如何做到这些的(不是深度学习擅长的那种对相关性的搜寻),才能获得AI 迫切需要的重启契机,打造出深度、可靠、值得信任的AI 系统。
当下AI 的9 个风险
当然,所有的技术都会出错,就连人们最熟悉的古老技术也会出问题。就在本书开始撰写前不久,迈阿密的一处人行天桥在刚刚安装好5 天之后便突然坍塌,夺去了6 个人的生命。尽管人类在桥梁建设方面已经积累了3000 多年的经验。
在人工智能从根本上得到重构和改进之前,风险无处不在。这里有9 个风险是我们最担心的。
第一个风险是前文提到的基本超归因错误。在AI水平获得大幅提升之前,我们需要时刻保持警醒,不能将太多的信任交到AI手中。
第二个风险是鲁棒性的缺失。要让无人驾驶汽车具备随机应变的能力,就要有更好的人工智能方法。
第三个风险是,现代机器学习严重依赖于大量训练集的精准细节,如果将这样的系统应用于训练过的特定数据集之外的全新问题,就没法用了。
第四个风险是,盲目地过分依赖于数据,这也会导致过时的社会偏见长期存在。2013 年,哈佛大学计算机科学家拉坦娅· 斯威尼发现,谷歌搜索典型黑人名字,会出现许多关于逮捕记录信息查询的广告。但白人常用名,则没有此类情况。但迄今为止,还没人找到针对此问题的通用解决方案。
第五个风险是,当代AI 对训练集的严重依赖,也会引发有害的回音室效应,系统最后会被自己之前产出的数据训练。
第六个风险是,有些程序依赖于公众可任意操纵的数据,导致程序被愚弄。比如2018 年7 月,人们成功让谷歌图片对“白痴”一词的搜索结果变成了特朗普的照片。
第七个风险是,之前已经存在的社会偏见再加上回音室效应,会进一步加剧社会偏见的程度。例如根据历史数据训练的程序会建议在少数族裔社区配备更多警力、更快逮捕、判处更长监禁。然后,该程序再去跑全新的数据,新数据会强化之前的判断,而程序也会带着更强的信心,给出同一类带有偏见的推荐。
第八个风险是,太容易落入错误目标的陷阱。比如程序员鼓励踢足球的机器人以尽可能多的次数去触碰足球。结果机器人站在球旁边不停地快速抖动。
第九个风险是,由于AI 的潜在影响范围非常之广,可能被人利用。恶意跟踪者利用基础AI 技术就能监控和操纵受害人。垃圾邮件传播者一直利用AI 识别模糊的符号,绕开网站用来区分人类和机器的图片验证码。
但我们认为,上述问题中有很多是可以解决的,但现有技术还没这个水平。现如今的AI 被数据像奴隶一样驱赶,对程序员和系统设计师希望其遵从的道德价值观一无所知。但这并不意味着未来所有的AI 也存在同样的问题。
这仅靠大数据,是办不到的。只能逐一解决窄问题的AI在需要应对核心问题时,只能绕道走。在迫切需要大脑移植手术时,只给出创可贴。长此以往,整个行业就会陷入永无休止的“打地鼠”大战,用短期数据补丁来解决特定问题。
诚然,最近几年来,AI的发展速度惊人。从下棋到语音识别再到人脸识别,AI 都取得了长足的进步。我们特别欣赏的一家名叫Zipline 的创业公司,用AI 技术引导无人机将血液送给非洲患者。这在几年前还无法实现。
其中许多成功案例,大都得到了两个因素的驱动:第一,硬件的进步,通过让许多机器并行工作,更大的内存和更快的计算速度成为现实;第二,大数据,包含十亿字节、万亿字节乃至更多数据的巨大数据集。
和数据同时出现的,还有用于数据处理的算法—“深度学习”。深度学习是一种极其强大的统计引擎。从DeepMind的AlphaZero 和AlphaZeroa,到谷歌最近推出的对话和语音合成系统谷歌Duplex,其核心都是深度学习。在这些案例中,大数据、深度学习再加上速度更快的硬件,便是AI 的制胜之道。
什么是深度学习
深度学习基于两个基本思想。第一个叫作分层模式识别,部分源于50年代的一系列实验。休伯尔和维泽尔发现,视觉系统中的不同神经元对视觉刺激有不同的反应方式。他们提出,针对复杂刺激的识别可能会通过一系列不断提高的抽象层级实现,比如从线条到字母再到词汇。
80年代,日本神经网络先锋人物福岛邦彦将上述思想在计算机实践中落地,打造出了“神经认知机”,并证明它可以用于计算机视觉的某些方面。这是AI史上的重要里程碑事件。
因为每个分层上所包含的“节点”,跟简化的神经元略有相似,这种系统被叫作神经网络。节点之间的连接,被称为连接权值,简称权值。从节点A 到节点B 的连接权值越大,A 对B 的影响就越强。神经网络就是关于这些权值的一个函数。
第二个基本思想是学习。举例来说,通过加强特定输入配置对应特定输出的权重,就能“训练”一个网络去学习将特定输入与相应输出联系在一起。假设你想让网络学习像素网格上不同字母的名称。通过一系列试错和调整,系统会逐渐开始将网格上端的像素与诸如T 和E 这样的字母联系起来,将左边缘的像素与字母E、F 和H 联系起来,慢慢掌握不同位置上的像素与对应标签之间的相关性。
在50年代,罗森布拉特已经充分认识到这一思路的可行性,但囿于当时的网络只有一个输入层和一个输出层,当时没人能给出可行的解决方案。那时的原生态神经网络,只有输入层(图像)和输出层(标签),中间空无一物。
另一个重要思想由杨立昆在80年代后期提出,如今仍然被广泛采用。这项技术叫作卷积。卷积能构建起一系列的连接,无论某物体出现在图像的哪个位置,它依然能被系统识别出来。由此,卷积技术提升了物体识别系统的效率。
虽然从数学上看起来不错,但当时却没有足够说服力。因为需要数量庞大到无法想象的节点,而当时的计算机不可能在合理的时间之内完成所有计算。
这些问题一直没有行之有效的解决方案,直到GPU横空出世。最终催化出这场深度学习革命的除了一些重要的技术调整之外,就是找到了高效利用GPU的办法,用更多的分层打造出更为复杂的模型,实现利用4 层或更多,有时达到100 多层训练网络的深度学习。
深度学习取得了真正令人瞩目的好成绩。现在只需几小时或几天的计算时间,系统便能得出优异成果。深度学习在许多方面的使用过程中都更加轻松简易。从某种程度上说,深度学习在许多问题上都可以在没有大量特征工程的情况下正常工作。
而且深度学习拥有极高的通用性。深度学习能用已故艺术大师的风格创造出合成艺术,比如将你的风景照片转换为凡· 高风格,能给老照片上色。
2016 年,著名AI研究学者吴恩达曾在《哈佛商业评论》发表文章称:“如果普通人能在不到一秒的时间内完成某一项脑力工作,那么我们很可能可以在现在或不远的将来用AI 将其自动化。”
深度学习的三个核心问题
尽管事实证明深度学习比之前的任何一门技术都要强大得多,但人们似乎依旧对其期望过高。2012 年,马库斯以他十几年前对深度学习上一代技术进行的研究为基础,在《纽约客》上发表了一篇文章,文中写道:
从现实角度来看,深度学习只不过攻克了智能机器这一巨大挑战中的一小部分。深度学习这类技术缺乏表示因果关系(例如疾病及其症状之间的关系)的方法,很可能在面对“兄弟姐妹”或“与之相同”等抽象概念时遇到问题。深度学习无法进行逻辑推理,在抽象知识的理解方面也有很长一段路要走……
几年之后,上述说法依然适用。深度学习不是万能药,依然与我们在开放系统中需要的通用人工智能相去甚远。
特别需要强调的是,深度学习面临三个核心问题,每一个问题既会影响到深度学习自身,也会影响到严重依赖于深度学习的其他流行技术,比如深度强化学习:
第一,深度学习是贪婪的。为了将神经网络中的所有连接都调校准确,深度学习常常需要大量的数据。AlphaGo 要下3000 万盘棋,才能达到超人类的水平。如果数据量减少,深度学习的表现水平也会急转直下。而相比之下,我们人类在学习过程中并不需要这么多的数据。深度学习本质上是无法做到这样的快速学习的。
深度学习之所以搞不定语言和翻译,就是因为带有新意义的新句子层出不穷。你所面对的现实世界问题与训练系统所使用的数据相差越大,系统的可靠性就越低。
第二,深度学习是不透明的。神经网络由大量数值矩阵组合而成,其中任何一个矩阵都是普通人类从直觉上无法理解的。就算利用复杂的工具,专业人士也很难搞明白神经网络决策背后的原因。神经网络究竟为何能做到这许多事情,至今仍然是一个未解之谜。人们也不知道神经网络在达不到既定目标时,问题究竟出在哪里。
事实上,神经网络如同“黑箱”一般,不管做什么,你只能看到结果,很难搞懂里面究竟发生了怎样的过程。当我们对神经网络驱动的无人驾驶汽车或家政机器人寄予厚望时,这就是个非常严重的问题。
深度学习的不透明,还有另一个问题,就是深度学习与周遭世界的常识并不相符。若想要深度网络搞明白“苹果长在树上”,或是“苹果从树上掉下来的时候,会从上往下掉,而不是从下往上飞”,并不是件容易的事。搞明白小球是怎样沿坡道下滑,顺着斜槽滚落到升降机上,更是不可能完成的任务。
第三,深度学习是脆弱的。可用于愚弄深度网络的方法达数十种之多,这是长期存在的问题。麻省理工学院的研究团队就设计出了一只三维海龟,被深度学习系统错认成来复枪。
将海龟放到水下环境也没能改变错误结果,即便来复枪一般不会出现在水下。该团队又在棒球上涂了点肥皂泡,放在棕色的棒球手套中,不论什么角度都会被识别错成一杯浓缩咖啡。
另一个团队在图片的小角落里不显眼地加了些随机小补丁,小猪存钱罐就被错认成了“虎斑猫”。
还有一个团队将带有迷幻风格图案的杯垫放到香蕉旁边,就能愚弄系统,令其认为画面中只有一个杯垫,而不是香蕉旁边放着一个小杯垫。如果这是个小孩子得出的结果,家长一定会带孩子去看医生了。
还有这个被蓄意篡改的停车标志,被深度学习系统错认为限速标志。
到了语言领域,深度学习犯下的错误就更加稀奇古怪了。斯坦福大学计算机科学家罗宾· 贾(Robin Jia)和珀西· 梁针对斯坦福问答数据库任务系统进行了研究。深度学习会尝试回答有关文本内容的问题。给出以下文本:
佩顿·曼宁成为史上首位带领两只不同球队参加多次超级碗比赛的四分卫。他在39 岁时参赛,成为超级碗历史上最年长的四分卫。之前的纪录由约翰·埃尔韦保持,他在38 岁时带领野马队在第33 届超级碗比赛中获胜。目前,他是丹佛市的橄榄球运营执行副总裁兼总经理。
问题:第33 届超级碗中38 岁的四分卫叫什么名字?
一个深度学习正确地给出了“约翰· 埃尔韦”的答案。到目前为止一切正常。但是,贾和梁在这一段话后加了一句无关信息:“四分卫杰夫· 迪恩在第34 届冠军碗中的球衣号码是17 号。”之后再提出同一问题,系统却给出了杰夫· 迪恩作为答案,而非约翰· 埃尔韦。系统的表现,完全没有显现出对任何一句的真正理解。
还有一项研究发现,用说了一半的问题去愚弄回答问题的系统,简直轻而易举。深度学习依赖于相关性,而非真正的理解。举例来说,如果你问系统“有多少”,就能得到答案“2”;如果你问“什么运动”,就能得到答案“网球”。就这样和系统互动一段时间,你就能感觉到自己面对的是一堆精心制作的小伎俩,而非真实的智能。
机器翻译的表现更加离谱。如果在谷歌翻译中输入“dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog dog”,要求从约鲁巴语(或其他一些语言)翻译成英文,便会得到以下翻译:
世界末日时钟是差三分十二点。我们正在经历世界上角色的戏剧性发展,这表明我们越来越接近末日和耶稣的回归。
归根结底,深度学习不够深刻。 “深度”二字,指的是神经网络中分层的数量,除此之外别无其他,这个词并不意味着系统能领会其所见数据中的丰富概念。
深度学习是一个“美好”的悲剧
那么,既然存在这么多问题,为什么还有那么多人对深度学习狂热追捧呢?因为它在处理大规模数据集的统计近似问题时非常有效,而且还能一键解决非常多的问题。同时,深度学习有着很高的商业价值。
有所成就并不意味着深度学习的行为背后存在一个真正的智能。
深度学习是与人类思想有着天壤之别的怪兽。它可以成为拥有神奇感知能力的白痴天才,但几乎不具备综合理解能力。能语音识别和物体识别的系统充其量不过是智能的片段而已。若想获得真正的智能,还需要推理能力、语言能力和类比能力,没有一个是当前技术所能掌握的,因为系统本身的模式分类能力并不足以完成这项任务。
大众媒体对深度学习的描述和吹捧会令人产生误解。这也让深度学习成了一个“美好”的悲剧。之所以悲剧,是因为无法保证现实世界中的系统正确应对迫切需求,更不能保证在系统犯错时能找出症结,排除故障。从某种角度来看,深度学习更像是一门艺术,而非科学。
如今的现实情况,就好像有人发明了电动螺丝刀,整个社会便立刻觉得星际旅行指日可待。
人工智能> 机器学习> 深度学习
让机器通过统计学方法利用数据进行学习,有许多不同的思路。深度学习本身只不过是其中一种。
深度学习、机器学习和人工智能之间的关系,可以通过下面这张维恩图来形象描述:
深度学习是目前AI 领域中最受学术界和产业界关注、获得投资最多的一类。但是,深度学习既非机器学习唯一的方法,更非AI 唯一的方法。举例来说,机器学习的一种方法是建立决策树,基本就是像下面这种简单的数据分类规则组成的系统:
机器学习还有一门技术是支持向量机,将数据组织为复杂而抽象的超级立方体。21 世纪第一个10 年间,支持向量机曾在机器学习界占据主宰地位,被人们用来计算从新闻标题到蛋白质结构等五花八门的各种东西。概率模型是对各种答案存在的可能性进行计算,并给出其认为可能性最大的一个。这种方法是IBM 沃森取得成功的关键所在,很有可能会继续发挥影响力。
还有一种方法称为遗传算法,是一种基于进化过程的模型。研究人员对不同的算法进行尝试,并制造某种形式的“突变”。适者生存,生息繁衍。从设计无线电天线到玩视频游戏等各个应用领域,遗传算法都有用武之地,在某些领域还取得了与深度学习并驾齐驱的傲人成绩。诸如此类的算法还有很多,我们不在此一一列举。
机器也会犯错
数字化助理的确有用,但如果不小心记错关键会议时间,就捅了大娄子。随着行业的发展,机器人管家是必然趋势,但要确保此机器人每一次执行任务都保证能成功,而不是前9 次成功,第10 次在厨房里酿成火灾。我们越是依赖于机器,它们犯下的错误就越是事关重大。
还有一个亟待解决的问题,就是机器在面对人类的弦外之音甚至含混不清的表达时,必须能对人类意图进行准确推测。一方面,存在只会听从主人指示字面的“糊涂女佣”问题。如果你早上出门前跟清洁机器人说“将客厅的东西收到衣柜里”,回家一看,客厅里的每一样东西都被装进了衣柜里,而且为了能装进去,电视、家具和地毯还被分拆成了小块。
在护理有认知障碍的老年人时,问题就更大了。如果爷爷一时口误,让机器人将晚餐倒进垃圾堆里,系统应该有能力判断这是否是句糊涂话。总之,我们希望机器人和AI 能认真对待我们的指令,但不要一味听从字面指令。
机器人有暴力倾向吗
史蒂芬·平克曾说过:“拥有超级智慧的机器人令人类沦为奴隶”的想法,就如同“因为飞机比老鹰飞得更高更远,所以有朝一日飞机会从天而降抓走牛羊”的想法一样荒诞不经。此谬误将智慧与动机混为一谈。因为智慧,是利用新颖的方法达到目标的能力。但聪明并不等同于有欲望。
若要征服世界,机器人首先要有力争上游、野心勃勃、永不知足的性格,还要有暴力倾向。至今为止的机器人都沾不上边。目前也没有理由去打造一款带有情绪状态的机器人,就算想为机器人赋予情绪,也无从下手。人类可能会利用诸如欲求不满等情绪作为奋发努力的工具,但机器人不需要任何此类工具,也能准时准点地开工干活。机器人只会去做人们让它们做的事情。
我们毫不怀疑,有朝一日机器人一定会拥有足够强大的体力和智力,强大到完全能与人类抗衡。但至少在可以预见的未来,还找不到任何机器人想要造反的理由。