展会信息港展会大全

为什么AI机器人有时候会有点“傻”?
来源:互联网   发布日期:2019-08-04 08:21:53   浏览:8465次  

导读:每周一本书 让阅读,丰满人生 21君:一个多世纪以来,科学家一直信奉相关关系不意味着因果关系这句统计断论,造成了闭口不谈因果关系的局面。 如今,这一禁忌终于被打破。 人工智能研究专家朱迪亚珀尔及其同事领导的因果关系革命确立了因果关系研究在科学探...

每周一本书

让阅读,丰满人生

21君:一个多世纪以来,科学家一直信奉“相关关系不意味着因果关系”这句统计断论,造成了闭口不谈因果关系的局面。

如今,这一禁忌终于被打破。

人工智能研究专家朱迪亚珀尔及其同事领导的因果关系革命确立了因果关系研究在科学探索中的核心地位。

来源丨本文内容综合选自《为什么:关于因果关系的科学》

编辑丨阿巷;实习生 思纯

图片来源丨网络,图虫创意

深度学习,恰恰是人工“不”智能的体现,因为其研究对象是相关关系而非因果关系,处于因果关系之梯的最底层。

题记

1

每当别人跟我提起“无人驾驶”汽车技术如何强大,又被大众赋予了怎样的期待,我都会想起HBO电视剧Silicon Valley《硅谷》中的一个情节:

硅谷大亨风险资本家Gregory的助手安排了一辆无人驾驶汽车送创业公司的小员工Jared回家,本以为这个剧情只是为了诠释一种硅谷式傲慢。

刚上车时一切都很顺利,谁知路程走了一半,这辆汽车突然开始执行日程中之前设置好的指令,罔顾乘客Jared高呼着“Stop”和“Help”,自顾自的奔向了另一个目的地:四千英里开外的一个荒无人烟的海中孤岛。

电视剧《硅谷》截图

Jared最终得救了,就在我以为剧情要改为《荒岛余生》后。

对多数观众而言这只是剧中设置的一个黑色笑点,而艺术本就源于现实,在现实中,若无人驾驶的汽车突然失控,会导致怎样的后果才是真的难以想象。

2016年5月7日,美国佛罗里达州,一位驾驶特斯拉Model S的车主使用了自动驾驶(Auto Pilot)模式后,发生车祸并身亡。

这是第一起自动驾驶模式下的致死车祸,这次事故也让所有为无人驾驶技术狂热的人们不得不直面这项技术带来的安全隐忧。

特斯拉曾发布消息:

“无人车的正确率达到99%相对容易,但要达到99.9999%却要困难的多,而这才是我们最终的目标,因为以70英里每秒行驶的车如果出现故障后果不堪设想。”

特斯拉并没有说100%。

在未来,即便这些科技公司声称无人驾驶的技术已经发展到无比成熟,或许依然有人很难放心的坐上一辆无人驾驶的汽车,从心理角度来说,这类汽车相对“自我操控”而言永远都“不够安全”。

2

无人驾驶技术的巨大发展离不开深度学习算法。

而在贝叶斯网络之父朱迪亚珀尔(Judea Pearl)的眼里,深度学习,恰恰是人工“不”智能的体现,因为其研究对象是相关关系而非因果关系,处于因果关系之梯的最底层。

珀尔曾在《量子杂志》采访中说到:

深度学习取得的所有巨大成就在某种程度上都不过是对数据的曲线拟合而已。

从数学层次的角度来看,不管你如何巧妙地操作数据,以及你在操作数据时读取的内容,它仍然是一个曲线拟合的训练过程,尽管它看起来比较复杂。

人工智能的发展在很多方面都得益于珀尔早期的研究,他却在最新著作《为什么:关于因果关系的新科学》中推翻了自己。

珀尔认为当前的人工智能和机器学习其实处于因果关系之梯的最低层级,只可被动地接受观测结果,考虑的是“如果我看到……会怎样”这类问题。

而强人工智能,则需要实现第三层级的“反事实”推理。

例如,如果无人驾驶汽车的程序设计者想让汽车在新情况下做出不同的反应,那么他就必须明确地在程序中添加这些新反应的描述代码。

机器是不会自己弄明白手里拿着一瓶威士忌的行人可能对鸣笛做出不同反应的,处于因果关系之梯最底层的任何运作系统都不可避免地缺乏这种灵活性和适应性。

无法进行因果推断的人工智能只是“人工智障”,是永远不可能透过数据看到世界的因果本质的。

因果关系之梯的每一层级都有一种代表性生物

(来源:《为什么:关于因果关系的新科学》

马雅哈雷尔绘图)

3

2016年,2016年3月,AlphaGo 以4比1的成绩战胜了多年来被认为是最强的人类顶尖围棋高手李世石,震惊了世界,很多人顿时对人工智能的发展燃起无数畅想,也给很多人带去了危机感。

可惜这一人工智能壮举只能证明:对让机器完成某些任务来说,深度学习是有用的。

人们意识到,在可模拟的环境和状态下,AlphaGo的算法适用于大规模概率空间的智能搜索,而对于那些难以模拟的环境里的决策问题(包括上文提到的自动驾驶),这类算法也还是束手无策。

深度学习采用的方法类似卷积神经网络,并不以严谨或清晰的方式处理不确定性,且网络的体系结构可以自行发展。

完成一个新的训练后,程序员不知道它正在执行什么计算,或者为何它们有效。

AlphaGo团队并没有在一开始就预测到这个程序会在一年或者五年内击败人类最好的棋手,他们也无法解释为什么程序执行能产生这样好的结果。

如果机器人都如同 AlphaGo一般,缺乏清晰性,那么人类也无法与他们进行有意义的交流,使之“智能”的工作。

假定你的家中有一个机器人,当你睡觉的时候,机器人打开了吸尘器,开始工作,在这时你告诉它,“你不该吵醒我。”

你的意图是让它明白,此时打开吸尘器是错误行为,但你绝不希望它将你的抱怨理解为不能再在楼上使用吸尘器。

那么此时机器人就必须理解背后的因果关系:吸尘器制造噪音,噪音吵醒人,而这会使你不高兴。

这句对我们人类而言无比简短的口令实际包含了丰富的内容。

机器人需要明白:你不睡觉的时候它可以吸尘,需要明白家中无人的时候它也可以吸尘,又或者吸尘器是静音的时候,它仍然可以吸尘。

这样看来,是否觉得我们日常的沟通所含的信息量实在是太过庞大?

一个聪明的机器人考虑他/她的行为的因果影响。

(来源:《为什么:关于因果关系的新科学》

马雅哈雷尔绘图)

所以说,让机器人真正“智能”的关键在于理解“我应该采取不同的行为”这句话,无论这句话是由人告诉它的还是由它自己分析所得出的结论。

如果一个机器人知道自己当前的动机是要做 X=x0,同时它能评估一下,说如果换一个选择,做 X=x1,结果会不会更好,那它就是强人工智能。

4

《人类简史》的作者尤瓦尔赫拉利(Yuval Noah Harari)认为人类发展出描绘虚构事物的能力正是人类进化过程中的认知革命,反事实推理是人类独有的能力,也是真正的智能。

人类的每一次进步与发展,都离不开反事实推理,想象力帮助人类生存、适应并最终掌控了整个世界。

因果论提供了一套反事实推理的工具,若被应用于人工智能领域,有望实现真正的强人工智能。

针对能否开发出具备自由意志的机器人的问题,珀尔的答案是绝对会。

他认为:人们必须理解如何编程机器人,以及能从中得到什么。

由于某种原因,就进化方面而言这种自由意志在计算层面也将是需要的。

机器人具备自由意志的第一个迹象将是反事实沟通,如「你应该做得更好」。

如果一组踢足球的机器人开始用这种语言沟通,那么我们将知道它们具备了自由意志。

「你应该传球给我,我刚才一直在等,但你没有把球传给我9

「你应该……」意味着你本应该做什么,但是没做。

因此第一个征兆是沟通,第二个是踢出更好的足球。

以前人们讨论强人工智能大多只限于哲学层面,学术界也一直对“强人工智能”保持着谨慎的态度,并不敢抱有太多奢望。

但科学的进步从不因失败而停止,不管是无人驾驶,还是其他各项人工智能技术的发展,最终都依赖于“人”,人类会研究出能够理解因果对话的机器人吗?能制造出像三岁孩童那样富有想象力的人工智能吗?

图片来源 / 图虫

回答这些问题的关键在于,如果人类自身还无法理解因果之梯,又要怎么样使“人工”变得“智能”?

机器不必复制人类,却可以比人类表现的更优秀,这着实是一个可怕的事实。

若是能用因果关系来取代关联推理,沿着因果关系之梯,走入反事实推理的世界,那么机器的崛起便不可阻挡。

珀尔在书中为如何实现这一目标给出了相当清晰通俗的讲解。

回想起来,其实我的日常生活与“人工智能”这个词并没有产生多少紧密关联,但我也曾在得知AlphaGo战胜李世石那个瞬间,产生了一股莫名又强烈的敬畏感。

科技的发展速度似乎总是超出我们的想象,打开手机搜索“重大突破”这个关键词,瞬间就会被满眼的科技快餐所淹没,机器究竟会变成怎样?它们又会怎么对待人类?

只有试着去理解因果关系,才能在面对这些问题时,少一些茫然,多一些信念。

赞助本站

人工智能实验室
AiLab云推荐
展开

热门栏目HotCates

Copyright © 2010-2024 AiLab Team. 人工智能实验室 版权所有    关于我们 | 联系我们 | 广告服务 | 公司动态 | 免责声明 | 隐私条款 | 工作机会 | 展会港