13910160652
010-52852558
| |EN
首页 > 互联网 > 人工智能
  • 13910160652
  • ciplawyer@163.com

透过炒作看本质:“奇点”离我们究竟还有多远?

日期:2018-02-02 来源:全球技术地图 作者: 浏览量:
字号:

许多人信誓旦旦地预言,称所谓的“技术奇点”即将来临,机器智能将实现一次前所未有的飞跃,远超人类的理解范围。


目前来看,“技术奇点”仍然是一个只存在于科幻小说中的概念。但是,也有种种迹象表明,曾经遥不可及的“奇点”正在一步步走向现实。上至谷歌与IBM这样的科技巨头,下至默默无闻的创业公司,各行各业的精英们为机器人以及AI技术的发展付出了大量的心血。如今,科学家已经研制出了外观与人类其相似的机器人,它们不仅可以和人类对话,掌握了察言观色的能力,甚至还能从事一些简单的工作。


在所有的业内专家中,谷歌公司首席工程师、知名未来学家雷·库兹韦尔的预测最为乐观,他认为人类最早将于2045年迎来人工智能发展的奇点。


与此同时,另一位颇具盛名的未来学家,软银集团CEO孙正义则认为奇点必将在本世纪内来临,最快只需要30年时间。近年来,软银集团对多家AI及机器人公司进行了战略收购(其中包括机器人行业初创公司Boston Dynamics),投入在科研的资金共计高达数十亿美元。由此看来,孙正义对于奇点的强烈追求在业界内无出其右。


但是,并不是所有人都欢迎奇点的到来。包括物理学家史蒂芬·霍金在内,不少专家都警告称,“超级AI”将在诞生的瞬间宣告人类社会的终结,特斯拉公司CEO埃隆·马斯克更是以对人工智能极力反对的态度而闻名,在他眼中,“奇点”一词就等同于“世界末日”。


对于这样一个众说纷纭的话题,我们必须在博采众长的同时,摒弃所有不切实际的科学幻想,现在就来看看各位业界权威人士是如何认为的。


Unanimous A.I.公司CEO

路易斯·罗森伯格


正如我在去年的一场TED演讲中所提到的,人工智能终有一天会产生自我意识,它们的智慧将远远超过人类——这一里程碑般的成就通常被称为“奇点”。为何我能够如此肯定呢?原因很简单:只要将大量简单的处理单元(例如神经元)组合成一个具有适应能力的网络(例如大脑),就可以孕育出一个拥有知觉的“智能”——大自然中已经有无数案例向我们证明了这一点。


回想上世纪90年代,当我刚刚开始思考这个问题的时候,我还以为AI要到2050年才能真正地超过人类。但是,最近发生的一系列事情将我的预测时间大大提前,或许2030年的AI就能实现这一目标——这一预测结果让我自己也大为吃惊。如今,随着科技的进步愈发陷入停滞,各方预测逐渐变得悲观起来,2030年这一数字必定会出乎所有人的预料。


在我看来,地球上出现高度发达的人工智能的危险性甚至与外星人入侵旗鼓相当。有句话叫做“非我族类,其心必异”——从本质来看,人工智能与外星智能并没有什么区别,它们的道德观念和情感都与人类大相径庭,更为致命的是,它们也有着自己的利益需要维护。


认为人工智能与人类的利益能够达成一致实在是一种过于天真的想法。想想古往今来人类对地球上其它物种的所作所为吧——人工智能无疑会将自己的利益放在首位,对人类的生存造成极大威胁。


因此,即将出现的超级人工智能与来袭的外星飞船一样,必定会成为人类的心头大患,在这样一个关乎存亡人类存亡的关键时刻,我们必须严阵以待。


那么,我们究竟应该做何准备呢?个人认为,我们或许应该将具有感知能力的“超级AI”扼杀在摇篮中。历史上的许多悲剧表明,人类总是无法对一些危险的技术加以掌控,虽然这些技术在发明之初往往是出于善意,但我们通常只能在问题曝出后才发现其中的不对头之初,可惜此时已经为时晚矣。


这是否意味着人类已经大祸临头了呢?很长时间以来,我都是这样认为的(我甚至还写了两部科幻小说专门来描写人类的末日图景)。但是,如今我已经改变了看法。我相信,人类仍然保有渡过难关的一线希望——只要我们能变得更加机智、更加聪敏,不断加快步伐,将机器人远远甩在身后。


Aiva Technologies公司CEO

皮埃尔·巴罗


我认为,目前大众对所谓的“超级AI”存在着十分严重的误解。实际上,人工智能无法始终保持指数级增长的势头。


首先,从硬件层面来看,摩尔定律已经逐渐开始失效,计算机硬件性能的发展已经陷入瓶颈。与此同时,新型计算机架构(如量子计算机)还仅仅存在于理论当中,我们无法确定今后的计算机性能是否能继续保持现有的增长势头。


其次,在软件层面上,我们同样还有很长的一段路要走。目前,即使是最优秀的AI算法也需要成千上万个、甚至数百万个样本才能顺利完成学习。相比之下,人类的学习效率要高得多,通常在短短几次学习后就可以开始工作。


目前,AI与深度学习技术的应用领域还十分狭窄。当前的AI系统只能专注于解决某些特定问题(例如识别猫狗图片,驾驶汽车或者创作音乐),我们至今无法制造出一个能够像人类一样同时处理所有这些任务的“全能”型AI。


这并不是说AI的未来发展不容乐观。但是,如果舆论继续大肆炒作AI技术,终有一日,大众将会发现人工智能并没有宣传中那样“神通广大”,其中的落差一定会让所有人大失所望。


如果这种情况真的发生,整个AI行业将再次面临“寒冬”,迎接它们的将是投资大幅缩水的窘境。这对AI研究的打击将会是毁灭性的,一切科研项目都可能颗粒无收—— “寒冬”越早来临,造成的破坏就越为严重。


那么,“奇点”究竟何时才会到来呢?我认为这取决于我们对“奇点”一词的定义:如果“奇点”代表AI能够通过图灵测试(这意味着它们至少看上去和人类一样聪明),那么在2050年我们或许就可以实现这一目标。但是,通过图灵测试并不意味着AI的智慧已经超越了人类。


如果“奇点”代表AI在任何领域的工作中都能远远胜过人类,那么我认为,人类至少首先需要理解自身的智慧是如何运作的,才有资格声称自己创造的人工智能已经超越了它的主人。在深不可测的人类大脑面前,即便是当今最复杂的深度神经网络也不值一提。


美国电气和电子工程师协会(IEEE)

机器人与自动化学会主席

巴黎第六大学

智能系统与机器人研究所主任

拉贾·夏蒂拉


“技术奇点”这一概念不具备任何科学或技术层面上的事实基础。


以雷·库兹韦尔为首的“技术奇点”的拥护者将所谓的“加速回报定律”(law of accelerating returns,根据该理论,技术改良以过去的成就为基础,每十年革新的步调会加倍。)奉为圭臬,而“加速回报定律”的渊源正是著名的摩尔定律——众所周知,摩尔定律并不是一条科学定律,而是半导体厂商对计算机处理芯片小型化、集成化发展趋势的观测与总结。(根据摩尔定律,计算机的性能以及储存容量大约每两年翻一番)


摩尔定律自身存在诸多缺陷,对此我们一定有所耳闻——例如,当电子元件的大小达到量子尺度时,摩尔定律就会失去作用。当然,目前也有科学家正在研究量子计算机以解决这一缺陷,不过,我们只需要认识到摩尔定律并不是一条严谨的科学定律即可。



但是,“技术奇点”理论的拥护者们却将这一虚无缥缈、毫无科学精神的推论推广到了技术发展乃至于物种进化的层面上,在他们眼中,日渐强大的计算机性能会给人工智能带来飞跃,帮助它们一举超越全体人类的智慧。根据这些人的预测,所谓的“技术奇点”将于2040年至2045年间到来。


但是,“计算机性能”绝不等同于“智能”。人类大脑中约有1000亿个神经元,正是得益于这些神经元的通力协作,人类才能够在世间生存下去。


但是在人工智能领域中,迄今为止,我们能做的只有精心编写算法,帮助计算机高效地完成某种特定运算——通过这种方式得到的“智能”从出生起就背负着沉重的枷锁,它们必须(而且只能)忠实地完成设计者交予的任务,无法逾越半步。


一言以蔽之,所谓“奇点”只是一个信念上的问题,而非科学问题。


eyeSight科技公司CEO 

吉迪恩·什穆埃尔


搞清楚如何让机器自主进行学习——这一问题可能会在某些小型实验室中引发众人一小时的讨论,也有可能吸引某家科技巨头(例如亚马逊和谷歌)耗费五年心血对此潜心研究。关键问题在于,一旦我们成功实现飞跃,真正地让机器学习迈出了“第一步”,它们就将以指数级的速度展开学习,在短短几小时(甚至几分钟)内将人类甩在身后。


我本想说,技术只是一个工具,没有好坏之分。而工具的好坏只取决于它的使用者——但是,这些陈词滥调很快就将成为历史:在“奇点”来临的时代,机器将成为一切的主导者,而我们人类对此只能无可奈何。唯一能够肯定的是,“奇点”后的世界将完全颠覆我们的想象。


许多科幻小说与电影中都出现过一个与人类为敌的“超级人工智能”。在故事中,主人公如果想要拯救全人类,就得摧毁这个人工智能,或者将所有人锁在家中动弹不得,更不用说那些更加惨烈的结局了。


对于AI技术,我们应当一分为二地进行考虑。比方说,eyeSight公司的主营业务(嵌入式计算机视觉)看上去就十分“人畜无害”。eyeSight的技术会让一台机器或者计算机会源源不断地对它们看到的物体或者文本进行学习(例如识别行人、座椅、标志牌或者人类的某个特定动作与交流行为),这样的学习行为很可能不会在计算机的“内心”中掀起波澜。


但是,一旦我们教会了计算机如何认识周遭环境,理解事情的发展动向及其内在含义之后,事情就会变得大为不同。AI大脑有可能认真地咀嚼消化接收到的外界信号,并最终将其转化为自己的行动。


这些行动既有可能发生在现实中(例如由AI操纵车辆、大门、起重机、管道阀门、机器人等等),也有可能在网络世界上演(例如扰乱信息流向、获取机密、、调控资源、伪造身份与权限等等)。


对这样的未来,你感到恐惧了吗?至少我已经在瑟瑟发抖了。


麻省理工学院

计算机科学与人工智能实验室教授

帕特里克·温斯顿


最近,许多人问过我类似的问题。他们总是说,人工智能在经历了50年的发展之后,将在未来20年内达到人类的水平。而我的答案是:对此我完全可以坦然接受,这样的AI终将成为现实。


有趣的是,早在1936年,阿兰·图灵就在他最早的一篇有关图灵测试的论文中提到了类似的概念。当时,他使用核反应堆中的链式反应来比喻智慧的爆炸式发展。有些人以奇点理论的创造者自居,殊不知这种问题对任何深入研究过AI的人来说都已经是家常便饭。


我个人认为,发展人工智能与“如何将人类送上月亮”这一问题大为不同。在载人登月计划之初,所有科研人员都对此信心满满——因为“将人送上月亮”这一目标十分明确,其中并不需要什么突破性思维。但是,达到一个“技术奇点”则需要实现一次乃至多次重大突破,这些突破通常不会按部就班地出现。


当然,这也取决于(至少部分取决于)投身到这一棘手难题中的人手数量。如今,机器学习与深度学习行业的盛况空前,无数人加入到了相关领域的学习与工作中。在他们之中,说不定会有一小群人受到吸引,转而思考人类智慧的本质。与十年前研究这一问题的人相比,这“一小群人”也可以称得上是“千军万马”了。


这么说来,我们究竟何时才能迎来下一个“沃森/克里克(DNA双螺旋结构的发现者)时刻”呢——如果有人把我逼进墙角,拿刀抵住我的喉咙问我这个问题,我会充满自信地告诉他:只要20年,绝对不骗你。

    相关文章
    本文暂无相关文章