Facebook的副总经理、卷积神经网络(CNN)之父、深度学习之父杨立昆的畅销书《科学之路:人,机器与未来》在法国的发行量已经达到10万本。
在这本著作中,他讨论了人工智能现在面临的一些问题。面对这么多关于人工智能的问题和担忧,让我们来看看杨立昆先生对这些问题的看法。
对人工智能产生的诸多疑问
人工智能会提出很多问题,震动社会,改变经济。和以往的技术革命一样,既有新兴的工作机会,也有消失的工作机会。那么,最终受益的是谁?
人工智能是一种技术、一种科学、一种工具,是所有这些的混合体,但它是否只有在你了解它的工作原理时才能使用?是否需要解释后才能相信?
人工智能是一种威胁吗?智能武器是值得恐惧的东西吗?当我们拥有杀手机器人和恶意的无人机的那一天会到来吗?我们的想象力中充满了模糊判断的信息。
将来是否应该通过法律和规则来限制其能力呢?
人工智能可能会改变人类依靠自身力量成长的观念。AI已经帮助我们理解了人脑的工作。但是,人类和机器的认知能力真正的极限在哪里呢?如果在很多领域都无法战胜机器,那么我们是否应该得出结论,人类的智慧并没有想象中那么万能呢?
机器能对抗生物吗?而且,如果人类的大脑能力有限,只能被人工智能追赶,那么,人类的地位会受到怎样的影响呢?
机器总有一天会在所有游戏中都比人类强大吗?机器会拥有创造力和意识吗?会有冲动、感情、道德和伦理吗?如何使机器的价值观与人类的价值观一致?机器会试图控制人类吗?
疑问如暴风雨般涌来。想必各位和我一样,都对这些问题感到好奇。
对人工智能的不安
最著名的表现人类对AI的不安的作品是斯坦利·库布里克的电影和亚瑟·C.克拉克的小说《太空漫游》。这部作品对小时候的我来说是最有意义的作品。
前面已经提到过很多次,但还没有提到人类与机器对立的矛盾的本质。控制宇宙飞船的计算机哈尔(HAL)被编程成不能向人类船员透露任务的真正原因和目的。这导致了HAL的判断失误。
HAL通过读唇术,知道了船员想要切断它。当然,HAL认为自己是任务成功不可或缺的存在。在这一大义的驱使下,HAL为了暗杀全体船员,切断了载有3名科学家的人工冬眠舱的电源,杀害了正在舱外活动的宇航员弗兰克·普尔。最后,他试图阻止为了救弗兰克而出舱的波曼船长返回宇宙飞船。
在人们心中印象更深刻的还有电影《终结者》。智能萌芽的系统天网(SkyNet)掌握了武器的支配权,企图灭绝人类的故事。
在现在的我们看来,这些故事都是想象。那么,为什么会有这种不安呢?
斯蒂芬·霍金对这个问题发表了意见。年,他对BBC说:“AI可能意味着人类的终结”(尽管后来他改变了想法)。作为优秀的天体物理学家,他的时间尺度是以数百万年、数十亿年为单位进行测定的。但是,只存在了几十万年的人类,在万年、0万年、1亿年后会变成什么样子,我们根本无从得知。
比尔·盖茨也曾表示过担忧(后来也改变了想法)。特斯拉的CEO埃隆·马斯克曾发表过一些极其悲惨的言论,为了避免出现终结者式的情况,他甚至试图说服行政机关对AI进行限制,但没有取得显著的成果。
我曾经和他讨论过,他认为人工智能改变人类所需要的时间太短了。也许他过于倾听了创业公司创始人们寻找资金来源的故事。这些人总是毫无根据地宣称,与人类水平相当的人工智能即将到来。
马斯克喜欢读的书中有一本是尼克·博斯特罗姆的《超级智慧》。这位牛津大学的哲学家列举了人工智能摆脱其创造者支配的最坏情况。
这里举一个例子。一台超级智能计算机被创造出来以控制一家回形针工厂。它的唯一使命是使生产最大化。计算机将生产、原材料供应、能源消费等都能实现最优化。接下来,凭借其卓越的智能,不断设计、建造比最初的工厂效率更高的工厂。甚至说服人类提供更多的资源。为了达成目标,人类也会成为阻碍,计算机终于找到了从人类手中夺取权力的方法。不知不觉间,这种智能将整个太阳系都变成了回形针。
这只不过是对《魔法师的学徒》进行了无数次的改编。只是在这个故事中,弟子的创造物已经摆脱了他的控制。
不过这是不可能发生的事情。聪明到能设计拥有超人智能的电脑的人,不可能会蠢到给它一个如此可笑的任务。应该是会准备周到地加入了某种阻止措施。例如,只要创造一个以停止最初的超智能计算机的功能为唯一目的的其他超智能计算机就可以了。
但是,所有人都认为对人类有益的技术革命,一定会有负面影响。印刷机的发明使知识的普及成为可能,也对加尔文和路德思想的普及做出了贡献,成为欧洲16世纪到18世纪血腥宗教战争的开端。除此之外,收音机在20世纪30年代促成了法西斯主义的兴起,飞机不仅缩短了距离,还使轰炸整个城市成为可能。从电话、电视转向互联网、社交媒体等信息技术,迄今为止,每种技术都产生了各种各样的问题,但最终都得到了解决。
人类未来研究所主任尼克·博斯特罗姆
出色的“执行者”
我们给机器提供了超出目前能力范围的东西。AI所使用的“智能”“神经元”“学习”“判断”等术语,原本是为人类和动物所分配的,因此它们才会引起了混乱。
的确,在高度特殊化的任务中,搭载人工智能的系统要比人类更快。例如围棋或国际象棋、识别肿瘤或攻击目标,对消费者进行分析,在数千页的文献中寻找单一信息,或翻译成世界上每一种语言等任务。
但就目前而言,正如我们已经看到的,无论人工智能有多好,它都不会比猫更感性。搭载AI的机器缺乏常识,因为它们被训练只执行一个任务,所以对世界的知识和理解极其狭窄。这样看,它们是一个出色的“执行者”,但目前为止还无法成为拥有自主意识的“领导者”。
它们没有能力发展意志或意识。“当涉及到创造一个真正的智能机器,能够制定战略和深入了解世界时,我们甚至没有配方的成分。我们今天缺乏的正是这个基本概念。”我的同事安托万-博德说。这也正是我想说的。
创造一个智能机器,首先需要人类搞明白自己。
第一个击败人类围棋的智能AI阿尔法狗
先天与后天
数学家万普尼克公理化了机器学习的统计理论,定义了一个系统能够从数据中学习概念的条件。简单地说,一个实体要想拥有学习能力,就必须在有限的任务范围内实现专业化。
这个定理也适用于人类。人类的智慧并不普遍的。但它是与生俱来的,也就是说,它需要预先设定限制大脑加速学习的能力。虽然我们没有能力控制大脑的机制,但我们知道,大脑的一些区域有自己的架构,并专门用于特定的任务。
用背理法也可以证明动物和人类的大脑中存在预先布线。如前所述,卷积神经网络架构的灵感来源于视觉皮层,它专注于特定的任务。
让我们想象一下这样一种情况:我们正戴着一副特殊的眼镜。这种眼镜非常奇怪,镜片上反射的图像的每一个像素都被随机替换。这些镜头不是普通的透明镜头,而是由光学纤维组成,将图像的像素发送到视野中的不同地方。因此,反映在眼镜中的图像完全是混乱的,完全没有意义。
当物体在像内移动时,一部分像素会点亮,一部分像素会熄灭。原本相邻的像素,在通过眼镜的那一刻,就不再那样了。在这种状态下,由于布线不合理,大脑几乎什么都认不出来。大脑的布线是以相邻的像素通常值相似,具有相关性这一事实为前提的。这说明人类的大脑不是万能的,而是极度特化的。
人类的大脑还具有极高的适应性。实验表明,存在一种“大脑皮层的通用学习程序”。
也就是说,决定功能的是到达那里的信号束,而不是接收信号的区域。年代末,麻省理工学院的密立根·苏尔等人进行了取出即将出生的雪貂的胎儿,切断视神经连接到听觉区的手术。这个结果是富有启发性的。听觉皮层开始发挥视觉皮层的功能,通常存在于初级视觉皮层V1区域的神经元(能够检测出具有一定方向的物体轮廓的神经元)开始发育。
听觉区的初始布线与视觉区的布线有些相似。因此,如果配线的初始结构合适,作为学习的结果功能就会出现。也就是说,在大脑皮层的特定区域执行的功能,实际上是由到达那里的信号决定的,而不是由脑内的“视觉器官”的遗传的预先编程决定的。
大脑皮层“普遍学习算法”存在的可能性,给像我这样致力于寻找隐藏在智能和学习背后的单一组织原理的科学家带来了希望。
新的前沿阵地
智能并不只限于智力,还与行动的所有领域有关。所谓智能,就是学习、适应、判断力。如果我们还不能完全了解动物和人类是如何学习的,那么人工智能可以告诉我们一部分答案。
通过了解机器不具备什么,就能明确机器智能与人类智能之间的巨大鸿沟。AI就这样为我们指明了前进的研究道路。
从节约手段的角度来说,机器消耗的数据和能量是人脑的几千倍。人类大脑之所以功能简单,是因为生物神经元虽然速度慢,但结构紧凑,数量多,能量消耗极少。
所谓节约能量,是指脑内每个瞬间只有极少数的神经元活跃起来。即使是被激活的神经元,大部分也只是微弱地被激活,而沉默的神经元所消耗的能量要比突发性神经元少得多。在未来实现人工神经网络的过程中,这种激活状态的节约是值得探究的课题。
还有一个亟需解决的谜团。人类是如何从周围的世界迅速构筑抽象的表现的呢?人类如何在操纵抽象表现的同时学习推理呢?如何设计行动计划,将复杂的任务分解成更简单的子任务呢?
如果能回答这些问题,或许还能解开其他的谜团。人类学习的样本非常少。通过想象几个场景,通过设想一些情景,我们可以预测我们的行动的后果,并节省一些学习时间。现在,一部分人正在研究不浪费样本和能量的学习方法,这就是当今人工智能的特点。
结语
对AI的研究还处于萌芽阶段,尚未达到科学的境界。因为缺乏关于智能的一般理论。学习的理论有一种,但那只是一种仅限于监督学习的理论。
这个理论告诉我们可能的极限。但是,它并没有告诉我们大脑的详细机制,以及大脑的特征——自我监督学习的正确方法。
我们能想象并描绘出智能理论吗?智能科学是否会因能学习的机器的发明而诞生?
今后数十年的研究计划是,不论是自然智能还是人工智能,都要发现隐藏在智能基础上的机制和原理。
转载请注明:http://www.haboluoneia.com/hblnqh/9088.html