|
悉尼大学陶大程:AI在路上
澳大利亚悉尼大学人工智能学家陶大程教授(右) 澳大利亚悉尼大学的人工智能学家陶大程在接受《环球科学》专访时认为,深度学习算法在基础理论上还有很多问题需要回答。另外,
澳大利亚悉尼大学人工智能学家陶大程教授(右)
澳大利亚悉尼大学的人工智能学家陶大程在接受《环球科学》专访时认为,深度学习算法在基础理论上还有很多问题需要回答。另外,由于目前对自然智能所知甚为有限,短时间内人工智能很难在真正意义上超越人类。
我 和同事按约定时间赶到陶大程下榻的酒店时,他刚开完一个电话会议。见到我们之后,他快步从房间里走出,热情地和我们握手,然后招呼我们在会客厅的沙发上坐下。这是2018年12月上旬的一天,陶大程受邀前来北京,参加由《环球科学》与中国数字科技馆联合主办的“科学连线”活动——我们举办这个活动的目的,是希望邀请全球知名科学家,通过现场或视频连线的方式,向中国公众分享各个科学领域的最新进展。就在我们见面的前一天傍晚,他刚乘飞机从澳大利亚抵达北京,下榻在鸟巢附近的一家酒店。
在这家酒店,我第一次见到陶大程,年轻、沉稳、真诚、睿智,这是他给我的第一印象。虽然是首次见面,但早在两三年前,陶大程这个名字就通过我的同事、同行和一些合作伙伴那里,多次传入我的耳朵。
陶大程于2002年从中国科技大学毕业,随后分别在香港中文大学、伦敦大学取得硕士和博士学位。博士毕业后,他又先后任教于香港理工大学、新加坡南洋理工大学、澳大利亚悉尼科技大学。目前,他就职于悉尼大学,是工程与信息技术学院的教授,也是优必选人工智能首席科学家,同时领导优必选悉尼大学人工智能研究中心。
过去10多年里,陶大程在机器学习、机器视觉等领域成果颇丰,尤其是在表征学习领域,他做出了突出贡献。迄今为止,陶大程发表的论文的被引用次数超过3万次,是人工智能领域论文引用次数最高的华人科学家之一。他的学术成就,也给他带来了很多的“明星光环”:2015年获得澳大利亚最高科学奖项尤里卡奖、2016年当选欧洲科学院外籍院士、2018年当选澳大利亚科学院院士。2017年,他还和吴恩达、李飞飞等科学家一起,入选了“中国AI英雄风云榜技术创新人物”。
那一天,当我在陶大程的对面坐下,希望从他的过往中挖掘更多故事,让读者更深入地了解这位明星科学家的人生经历时,他却谦虚地表示,“我的个人经历和大多数在海外的老师一样非常普通”,于是我们的对话很快回到了人工智能上。
《环球科学》:你的代表性贡献之一,就是表征学习,能否介绍一下什么是表征学习?
陶大程:我们可以很容易地理解现实场景,认出场景中的人和各种物体。但是,同样的任务对于计算机来说却充满了挑战,因为计算机并不知道摄像机获取到的图像和视频里的每一个像素表征了什么。这就需要我们有非常高效的表征学习算法来有效地表达这些像素,以帮助理解图像和视频。
表征学习并不是新的概念。比如传统机器学习、统计分析里面常用的主成分分析、鉴别分析,都是对原始数据(或者是原始特征数据)进行变换,找到有效的数据表征方式,为后面的检测、分类等任务做好服务。表征学习的目的是从原始数据中学到更精确、更鲁棒的特征,同时去除或者尽可能的减弱数据中的冗余信息以及噪声。
《环球科学》:近几年,深度学习得到了广泛应用,那么基于深度学习的表征学习算法的优势是什么?
陶大程:相比于传统的针对特定任务设计的特征,基于深度学习的表征学习能够自动地从原始输入数据中提取出更加适合目标任务的特征表达。近年来,随着算力的提高以及深度学习技术的迅速发展,基于深度学习的表征学习取得了巨大的成功。当前最好的表征学习模型可以从数据中提取出高度抽象的语义信息,用以高效地完成识别和推理等任务。即使在数据噪声较多、环境干扰较强的情形下,基于深度学习的特征学习方法也能取得鲁棒的效果。特别值得一提的是,借助先进的表征学习方法,计算机已经能够在识别、检测、分割等各类视觉识别任务中达到甚至超越人类的表现。
《环球科学》:除了表征学习,你目前还对哪些研究方向感兴趣?
陶大程:人类智能可以分为四个方面:感知(perceiving)、学习(learning)、推理(reasoning)和行为(behaving)。我们之所以研究人工智能,是为了尽可能地让机器来模拟人的智能,让机器帮助我们做一些事情。所以,我们希望机器也具有这四个方面的能力。在优必选悉尼大学人工智能研究中心,我们的研究也主要是围绕这四个方面展开的。
《环球科学》:在未来3~5年,你认为人工智能的哪些领域会出现较大的突破?
陶大程:我对两个方向抱有较大的期望。
第一是机器视觉。在未来的3~5年,生成对抗网络(GAN)将会产成更逼近真实场景的数据,比如自动驾驶仿真平台可以产生逼真的道路、交通标志、建筑物,还可以模拟天气变化、时间变化等。生成对抗网络的迅速发展将进一步提升感知模型在目标检测、识别、分割等任务上的性能。另外,机器视觉感知时域信息的能力也将得到进一步提高。基于视频的感知模型将在行为识别、姿态估计、场景的理解和重建等任务中表现得更加高效,为安防视频分析、机器人定位导航、虚拟现实、增强现实等应用提供更加强大的技术支持。
第二是自然语言理解。未来几年内,在对话任务上如何更好的结合检索式和生成式、利用好知识图谱(先验知识)、利用好预训练模型进行数据增强都是有待完善的。在翻译任务上,因为端到端架构在短期内还很难被替代,所以更多是增量性工作和提升模型效率的工作,比如改进模型,使之便于部署和训练、借鉴统计机器翻译的思想和特征到transformer中、多语种翻译、低资源甚至零资源翻译、融入更多语义特征等等。在基础词法、句法任务上,如何更好地表征和解释会很重要。
《环球科学》:如果做一个类比,人工智能目前能达到哪个年龄段的人类智力水平?
陶大程:在某些方面,人工智能的表现完全碾压人类,或者达到了人类的最高水平,比如下围棋、在一定环境中的认人识物。但在更多方面人工智能可能还不如五六岁的孩子,比如做加减法(基于固定计算规则的计算器不是AI)、图像的语义理解等等。人类演化了这么多年,达到了今天的状态,虽然人工智能的目标是模拟人的智能,但实际上,这只是一种期望,甚至是奢望,让目前的机器达到人类的智能水平还非常困难。
首先,人有很强的泛化能力(即使训练数据和测试数据来自不同的地方),而目前要获取高性能的人工智能算法(具体来说是机器学习算法或者深度学习算法)都要求训练和测试数据是相同分布的独立采样。举个例子,我记得我的孩子2~3岁的时候我给他看过很多卡通图片来帮助他认识各种动物,比如大象、长颈鹿等等。后来,我带他去动物园,他一下子就认出来了现实生活中活灵活现的大象、长颈鹿。可是如果我们用卡通动物图像训练机器学习算法,然后在真实的动物照片上去进行测试,那效果将会很差。即使我们考虑迁移学习,虽然有相当的提升,但是和人相比,差距依然非常明显。
其次,人是一个“综合体”,而目前的算法大多只能执行一个具体的功能。尽管研究人员已在努力实现多任务学习,并且取得了瞩目的进展,但依然困难重重。因为任务和任务之间的关系可以是相互促进的,也可以是互相矛盾的。如何有效地组织不同类型的任务依然是一个难题。
另外,对于什么是创造力、想象力、意识等问题,我们的认知还十分有限。著名的物理学家、诺奖得主费曼教授曾说过"What I cannot create, I do not understand"(我无法创造我不能理解的东西),这句话放在人工智能领域也非常恰当:要想赋予机器相关的能力,我们首先得深刻理解我们人类的自然智能到底是什么。
《环球科学》:但是,随着人工智能的增强,大家都在谈“奇点理论”,还是有人担心人工智能会超越人类,甚至威胁到人类的生存。
陶大程:相对于“奇点理论”,我更相信事物的发展是循序渐进的,人工智能技术也会遵循这样的基本规律。刚才我们谈到了人工智能的四个基本方面:感知、学习、推理以及行为。如果从这四个方面来说,很悲观地讲,目前没有任何一个算法能够达到人类的水平。但是,如果说到具体的例子,就有很多智能算法达到、甚至超过了人类的水平,比如AlphaGo、AlphaZero下围棋比世界冠军还厉害。类似的例子,大家应该听说过不少了。
总的来说,目前的人工智能算法还有很多缺陷,无法在真正意义上达到人类自然智能的水平。目前所谓的超越,都是在特定条件下、具体任务中达成的,需要通过大量数据训练或者大量的搜索来实现。时至今日,目前开发出的智能系统还没有自我学习、自我进化的能力,甚至是一些相对复杂的功能,比如无人驾驶,也还有相当的路要走。
另外,目前所谓的人工智能,跟人的思维方式、思维能力完全不一样。距离所谓的“奇点”也非常遥远。不过,这些技术已经在改善我们的生活,改善我们的工作环境,提高我们的工作效率了。未来五年,我们还可以期待有更多、更好、更成熟的技术出现,进一步提高生产力、帮助我们更好地认识世界、改善我们的生活环境。我相信,人工智能作为一种普世工具,将在各个方面惠及每一个人,让我们有更多的机会更好地实现自我价值、挖掘自我潜能。
《环球科学》:在基础研究层面上,人工智能科学家会考虑道德监管的问题吗?
陶大程:虽然目前的人工智能技术还有很多缺陷,甚至可以说还很弱,距离我们的期望还很遥远,但它的发展速度很快,因此考虑人工智能的伦理道德问题还是有必要的。目前在国际上,这方面的伦理道德研究已经在一定程度上展开了,所涵盖的科研人员非常广泛,涉及基础技术、社会科学、法律、艺术、行业应用等很多领域。
值得注意的是,我们需要在不同的阶段,考虑不同层次的人工智能理论的道德问题,而不是一开始就把方方面面都卡死。如果这样,技术就没法发展。从算法的层面来说,我们首先要搞清楚我们的算法为什么能够运行、如何运行、在什么条件下可以运行以及算法的局限在哪里。然后我们要去思考,它到了哪个阶段,我们应该如何去监管。
总的来说,人工智能的伦理道德问题非常重要。我们要尽早地理解人工智能未来能发展到什么状态,在每一个状态上,又应该如何从伦理道德层面进行监管。只有这样才能保证我们的算法在每个阶段都对人类是安全的,都能让大多数人受益。
《环球科学》:那么,理想的人工智能应该是什么样子?
陶大程:我们期望的人工智能首先是稳定的、鲁棒的,其次是普适的、大众的,是惠及每一个人的,而不只是对一小群人有益。我们还希望,人工智能可以跟人和谐地共存,提升人类的能力,而不是对人类造成威胁。
另外,我们还希望人工智能是可解释的。现在,我们总说人工智能是黑箱理论,深度神经网络是黑箱理论,如果一直是这样,相关技术在未来的应用就会面临很多障碍。就好比人与人之间的沟通,只有大家相互了解,才最容易达成一致。这对人和机器来说都一样。如果我们无法解释一个机器正在做的事,那么人也无法理解它的行为。此时,人就很难放心让机器去做这件事。因为我们永远无法知道下一步会发生什么。所以,当涉及人工智能本质时,还有很多问题。在基础理论等方面,也还有很长的路要走。
《环球科学》:我们距离通用人工智能还有多远?
陶大程:我理解的通用人工智能是能够像人一样聪明,不需要基于大量数据的复杂训练,或者通过快速的训练后,就可以有非常好的泛化能力,能够有效完成不同类型的任务。但是,今天的人工智能的主要能力是记忆和搜索,推理能力还非常有限,更不要说应用、分析和创造了。所以在人工智能的基础技术研究上,我们还有很多的事情要做,这与通用人工智能的距离还非常遥远。一句话概括人工智能技术当前的状态就是,它还在路上。 |
|