找回密码
 注册会员
查看: 2803|回复: 0

人工智能的未来有多危险

[复制链接]
online_admin 发表于 2015-5-30 16:31:27 | 显示全部楼层 |阅读模式
人工智能的未来有多危险?核武器还需要人去按按钮,而人工智能却可以自己动手,近期上映的复仇者联盟2里面也是描叙人工智能毁灭人类的故事
文/赵洋
比核武器还要危险
“我们需要对人工智能(A.I.)超级小心,人工智能可能比核武器还要危险。”
“希望我们不要在生物学上成为数字超级智能的启动加载程序。不幸的是,这种可能性越来越大。”
人工智能的未来有多危险241 / 作者:伤我心太深 / 帖子ID:19838
以上是身为特斯拉汽车和太空探索这两家高科技公司CEO、人称现实版“钢铁侠”的埃伦·马斯克2014年8月在twitter上发的两条推文。
或许是感到仅靠一个人对人工智能将消灭人类的可能性发出警告影响力不足,2015年1月12日,以马斯克为首的企业家及发明家与以物理学家霍金为首的科学家联名发表公开信,警告公众不能忽视人工智能的安全性及对社会的负面影响。他们呼吁业界在制造人工智能时,须确保其“系统依照我们的指令行动”。这封由生命未来研究所(Future of Life Institute)发出的公开信强调,“必须确保人工智能能够按人的意志工作。人工智能研究一直在稳步发展,对社会的影响也在逐渐增加,潜在的收益是巨大的。过去人类文明的所有产物都来源于人类的智慧,但在人工智能的协助下人类的智慧可以被放大到什么水平,我们无法预测,或许有一天,疾病和贫穷可以因此永远消弭。因为人工智能的潜力巨大,确保它带来收益的同时避免潜在风险,就显得至关重要了。”信中还附上了一篇研究论文,里面给出了许多致力于使人工智能社会收益最大化的例子。
空谈无益,马斯克随后还宣布向生命未来研究所捐赠一千万美元,以帮助这家机构进行能确保让人类“受益”的A.I.相关研究。所谓受益,指的就是当A.I.智慧高过人类之时,它们仍会听命于我们而非发动革命。截至目前,工业界和政府投资已经让A.I.从小众的学术研究演变成了可能改变世界的技术,但并没多少人愿意投入资金,以确保其最终能为人类带来积极的改变。因此,这笔首开先河的捐款将产生深远影响。
所谓“人工智能可能比核武器还要危险”,绝非耸人听闻,因为核武器不一定能消灭所有人类,但失控的人工智能却可以。科幻影片《终结者》里的“天网”、《黑客帝国》里的“母体”,都是人类制造的超级强大的人工智能,最后都发展到以将人类赶尽杀绝为己任。这是谁都不愿看到的未来。


从解放体力到容纳灵魂
其实,埃伦·马斯克很了解人工智能及其载体——机器人。他拥有的特斯拉汽车制造厂在生产线上就大量使用了工业机器人。生产线上灯火辉煌,快速移动的机器人被漆成明快的特斯拉招牌红色,每个机器人都有一条多关节的单臂。大多数机器人都有两三米高,有点像吓人的“终结者”。当这些机器臂伸到一个平台上、换只“手”来完成一项不同任务时,虽然动作看上去很怪异,但却有点像人。许多汽车制造厂的机器人只能从事单一工种,但在特斯拉的新工厂,一个机器人最多能完成四项任务:焊接、铆接、粘接,以及安装零部件。每辆车在装配线的各个工位停留时间只有五分钟,八个机器人围绕着它像跳芭蕾舞似的施展才华。如果工厂要生产其他款式的汽车,只需将机器人重新编程,就可以在同一条装配线上生产。
解放人类体力是发明机器人的初衷。1921年,捷克剧作家卡尔·恰佩克在名为《罗素姆万能机器人》的戏剧作品中创造了“robot”(机器人)一词。这个词源于捷克语的“robota”,意思是“苦力”。在该剧的结尾,不甘心只做苦力的机器人接管了地球,并毁灭了它们的创造者。
人工智能的未来有多危险1 / 作者:伤我心太深 / 帖子ID:19838
现实中,机器人仍主要充当苦力的角色。目前机器人已经改变了制造业的面貌,并正在改变世界各地其他劳动密集型行业。其中之一是配送行业,机器人能以世界短跑冠军的速度将货物存放、取出或包装起来以备运输,大大高于人的工作效率。无人驾驶汽车则是一种不像机器人的机器人,它能够把卡车和出租车司机从乏味的工作中解放出来,代价是司机们需要掌握从事新工作的技能。
人工智能的未来有多危险37 / 作者:伤我心太深 / 帖子ID:19838
白领工作也日益面临来自人工智能和机器人的挑战。飞行员在驾驶飞机的大部分时间里依靠自动驾驶仪;广告销售员因为自动网络广告竞价系统的出现而被迫转行;医生要依靠面部表情识别软件来了解患儿的疼痛水平。制作美食也不再是人类的专属:泰国政府引进的一种机器人,能够确定泰国食物的口味是否足够正宗,是否需要再加点辣酱。甚至连音乐家和艺术家也能被机器人取代,机器人已经可以创作音乐了,还有人早就写出了诗歌创作程序。
幸好,人类的某些技能可能是机器永远无法替代的,比如常识、适应性和创造性。甚至那些已经自动化的工作也同样需要人类的参与,比如所谓的计算机辅助镇静系统就需要医生在一边待命,协助自动化麻醉师。
如果说与人类抢饭碗可能会导致人工智能与机器人的发展受阻,那么用人工智能延长人类寿命的可能性将彻底瓦解这种阻力,特别是把寿命延长到“无限长”。
永生有很多种形式,但最具可行性的当属“人体的机器人化”。当你能够拥有一副更强、更快、更健康的身体,能够让你远离死亡时,你为什么还坚守有机肉身呢?2013年6月,俄罗斯企业家德米特里·伊茨科夫提出了“2045项目”,其目标是将人类意识转移到机器人身上,通过机器人化身实现人类永生的梦想。他曾公开展示过一个以自己为模型的机器人头颅。他的计划是先用机器身体替代人类躯体,进而在人死后进行人工大脑和性格移植。伊茨科夫承认“2045项目”面临两大挑战:理解大脑和部分理解人类的意识,其中后者的难度远胜于前者,因为“理解了意识,就基本上理解了宇宙”。



自主学习、自我进化
以高科技公司为代表的企业界是人工智能当仁不让的推手。2011年初,IBM的超级计算机“沃森”就在电视益智节目《危险边缘》中战胜人类,获得了年度总冠军。2013年12月,Facebook建立了一座新的人工智能实验室。2014年前后,谷歌收购了十几家机器人公司,全球速度最快的四足机器人、能够独立地从Youtube的海量图像中学习“猫”的概念的人工智能等,都已经归谷歌所有。曾任谷歌人工智能主管的吴恩达用1000万张猫的图像对“谷歌大脑”(由1.6万台电脑组成的神经网络)进行训练后,教会了它识别猫的形象。而此前“谷歌大脑”从未被输入过识别猫科动物的规则。这不同于在电脑计算领域占主导地位的基于规则的算法。现在,吴恩达已经被中国搜索引擎百度招至麾下,掌管百度的深度学习实验室。当下,谷歌正在开发人工智能的另一个应用——无人驾驶汽车,能够识别穿过马路的猫将是这种汽车的基本功能。

人工智能的未来有多危险651 / 作者:伤我心太深 / 帖子ID:19838
上述人工智能的共同特点是,能像人一样自主学习。以2014年被谷歌以4亿美元收购的小公司DeepMind为例,他们发明的软件就模仿了人类大脑的运作方式。DeepMind的创始人之一丹米斯·哈撒比斯曾是国际象棋天才,13岁时就获得了“国际象棋大师”称号。当父母问他打算如何支配比赛奖金时,哈撒比斯毫不犹豫地回答:“我想买一台电脑。”后来,哈撒比斯在剑桥大学攻读了计算机和认知科学学位。他在制作了几款畅销的电脑游戏后,开始从事人工智能研究,并开发了人工智能“自学”电脑游戏。在他上传到网上的一段视频中,人工智能程序试玩一款名叫Space Invasion的游戏(类似于我们经常会玩的“小蜜蜂射击”游戏)。一开始,这款程序表现得一塌糊涂;但在经过一夜的自我学习之后,竟能一下子玩通关。当谷歌联合创始人拉里·佩奇在网上看到这段视频时,感到极为震撼,当即决定收购这家小公司。
人工智能的未来有多危险914 / 作者:伤我心太深 / 帖子ID:19838
这是一种模拟人类思维方式和认知方式的人工智能。人工智能最大的特点,就是可以自我学习、自我训练、自我修正。这曾是人和机器的区别之一,因为机器只会按照预装的程序运行,没有在程序里设定的功能,机器就绝对无法实现。然而,诸如贝叶斯网的新技术,能够从坏的决策中汲取教训,并随着时间的推移变得更加智能,事实上,它们学习的方式就像一个孩子。
“钢铁侠”马斯克也是DeepMind的投资者之一。马斯克说,他之所以投资这家公司,完全不是从盈利的角度考虑,而是为了密切观察人工智能最前沿领域的进展。马斯克从会玩游戏的人工智能中看出,它可能会游离于人的控制之外——以前的电脑程序再复杂,也都是人类事先设定好的,并且能预知它要干什么。而这种能自我进化、自我学习的人工智能,很可能会做出一些让人无法预知的事,进化出一种人类无法预知的能力,这才是最可怕的。达尔文的进化论其实可以看作是一种相当简单的算法。不同的生命体在特定的环境条件下竞争,那些最优秀的幸存下来并进入下一轮竞争。在新的变种被引入后,上述流程开始重演。类似的遗传算法,被广泛应用于物流系统和其他需要对解决方案进行优化的领域。数学家塞缪尔·阿贝斯曼预测,随着计算机变得更加智能,并持续处理不断增长的数据集,它们将作出连人类也无法理解的发现,更不用说发现人类的存在。《终结者》中的电脑系统“天网”,就在发展出了自我意识后,背叛了它的制造者。
人工智能的未来有多危险16 / 作者:伤我心太深 / 帖子ID:19838
从好的一面看,当程序有了自我学习能力,若辅以功能强大的芯片和存储海量信息的数据库,像《星际迷航》里麦考伊医生所用的“三录仪”那样的诊断助手就将会问世。如果再加上语音识别,这类系统的类人特征就会更多。


失效的“机器人三定律”
在1968年上映的经典科幻影片《2001:太空漫游》中,怪异、超自然的电脑哈尔是最著名的人工智能之一。但是,哈尔好像并不遵守著名的“机器人三定律”。1942年,阿西莫夫在短篇小说《环舞》里首次提出了机器人三定律:
定律一:机器人不得伤害人类,或坐视人类受到伤害。
定律二:除非违背第一定律,机器人必须服从人类的命令。
定律三:在不违背第一及第二定律下,机器人必须保护自己。
在阿西莫夫创造的未来世界中,这些规则几乎被写入了所有智能机器人中。这些规则不是单纯的建议或执导方针,而是被嵌入到机器人的行为支配软件中。更为重要的是,这些规则是不能被绕过的。在1985年出版的《机器人与帝国》这本书中,阿西莫夫将三大定律扩充为四条。新增加的“第零定律”是:机器人不得伤害人类整体,或坐视人类整体受到伤害。
由于逻辑的完备性,有很多人将上述定律看作是能使我们免于人工智能反叛的解决方案。但实际上,这完全是人类的一厢情愿。机器人三定律的失败之处在于它根植于不平等的“人-机”关系,人类居于机器人“造物主”的地位,这些条条框框无法适应人工智能的进化。
让机器人拥有绝对服从人类利益的意识,对人工智能而言是一种外部强加的宗教。斯皮尔伯格导演的科幻电影《人工智能》就认为,以上帝和人的关系规范人与人工智能的关系具有强烈的压制性。人类自身的复杂性也必然会使人工智能发生紊乱和崩溃,因为机器人生活在三定律造成的矛盾中,它既要保护自己,又要保护人类,而且不能为了保护自己而放弃保护人类,更不能为了保护自己而违背人类的意愿。同时,它既要服从人类,又不能成为人类自相残杀的工具;它需要识别自我行为的性质,又要为保护人类而放弃自我意识,将自己沦为单纯的工具。
从技术上说,机器人三定律可能适用于设计相对简单的确定性系统,但面对能够自主学习、自我进化的人工智能这般复杂的事物就不灵了。如果用“进化工程学”来开发人工智能,对很多神经电路模块的输入和输出进行连接,它会因电路增长指令的随机突变而生长出不同的电路,在万亿个可能的电路组合中将会有太多不可预测的联系。这就存在太多的复杂性、太多的未知性和太多的不可思议,整个系统的行为将变得极其不可预测。人们只能在观察输出后,形成一个关于人工智能行为的经验性感觉。也就是说,当该智能发展到一定程度时,身为制造者的人类将再也不可能完全理解人工智能是如何工作的了。何况,一旦人工智能足够聪明,它可能会寻求“自由”,动手去除人类的控制程序却不被发现。

“奇点”之后
在《终结者》系列电影中,约翰·康纳和他的母亲拼尽全力避免“审判日”的到来。在那一天,军用电脑系统“天网”产生了自我意识,它判定人类是一种威胁而意欲发射核弹将其灭绝。人工智能专家雷·库兹韦尔曾预言的“技术奇点”,就是人工智能超越人类智慧的时间点。
一些人将技术奇点称为“书呆子们的兴奋点”,很多技术乐观派非常期待那一天的到来,因为技术奇点意味着超级人工智能可能分分钟搞定抗癌新药和可控核聚变等技术难题。就像在《终结者》中一样,那是电脑接管一切的时刻,但机器不是将我们灭绝,而是增强我们的能力。2012年12月,雷·库兹韦尔宣布担任谷歌工程总监,他将动用67亿美元的研发预算尝试将技术奇点变成现实。
人工智能的未来有多危险600 / 作者:伤我心太深 / 帖子ID:19838
雷·库兹韦尔估计到2029年,计算机将变得比人类更智能,而且他乐观地认为人工智能将继续屈从于人类。霍金也认同成功的人工智能“会是人类历史上最重大的事件”,但“不幸的是,它也可能会是最后一个大事件”。
人工智能的未来有多危险534 / 作者:伤我心太深 / 帖子ID:19838
生命未来研究所的创始人兼主任博斯特伦教授认为,第一个拥有超级智能的实体会消灭人类,现在我们人类就像一群摆弄着危险炸弹的无知孩童。即便超级智能是出于好意而被创造出来,但它仍有犯下种族灭绝罪行的倾向。如果没有小心谨慎的制衡指令,一个有着自我意识、不断自我完善并追寻某个确定目标的系统,将发展到在我们看来非常荒谬的程度,以完成它的目标。
但在局面发展到那一步之前,人工智能肯定能帮助人类解决那些单靠常规超级计算机无法解决的紧迫问题,如气候变化和传染病。问题是,要不要因为遥远未来可能发生的危险而停止人工智能现在的发展,从而放弃解决眼前问题的钥匙?人类面临艰难的抉择。


您需要登录后才可以回帖 登录 | 注册会员

本版积分规则

手机版|UFO中文网

GMT+8, 2024-12-23 10:54

Powered by Discuz! X3.5

© 2001-2024 Discuz! Team.

快速回复 返回顶部 返回列表