——专访美国加州理工学院电气工程和计算机科学教授亚瑟·阿布-穆斯塔法
由ChatGPT和GPT-4引发的“人工智能狂潮”远比人们预想的持续更久,伴随而来的争议与忧虑也在不断发酵。回归科学,反思以GPT-4为代表的AI能力的边界:它能做什么?不能做什么?最重要的是,人类现在必须采取什么行动来实现“有益的AI”?《中国新闻周刊》近日就以上问题专访美国加州理工学院电气工程和计算机科学教授亚瑟·阿布-穆斯塔法(Yaser S. Abu-Mostafa)。他是人工智能领域的知名专家,同时也是IEEE神经网络委员会的创始人之一,曾在多家科技公司担任机器学习顾问。
现将访谈实录摘要如下:
AI的应用远比设计更复杂和危险
记者:此前,埃隆·马斯克等人签署了联名公开信,业内形成了对人工智能发展的两种截然不同的看法,你更认同哪方?
阿布-穆斯塔法:
联名公开信意图是好的,但无法起到任何实质效果,因为不会真的有公司遵守并暂停六个月的AI研发。我认为这是对人工智能“过于快速发展”的下意识反应,是没有经过深思熟虑的行为。我个人不赞同暂停更强大AI模型的研发。现在要做的不是暂停,而是如何更好阻止其“不良使用”。所以我没有签署公开信。
如何推动更强有力的人工智能监督?政府需要通过立法对如何“合理地使用”AI进行约束或限制,欧盟《人工智能法案》是一个开始。立法必须经过谨慎考量,而不是短期内出于对人工智能的恐惧或为了应对想象中的风险而匆忙制定。目前为止,我还没有看到任何提议或法案经过了深思熟虑,并可以得到有效执行。
记者:如何使AI真正符合人类的价值观和道德准则?
阿布-穆斯塔法:
这完全取决于AI系统的开发者和使用者。人工智能没有内在的道德或恶意,它只是服从命令,做人类训练它去做的事情。如果人类给它的是充满偏见的数据,就会诞生一个充满偏见的AI。因此OpenAI需要不断调整,选择一些好的数据或让ChatGPT不回答恶意问题。但复杂之处在于,即使开发者把整个AI系统设计得很“符合人类价值观”,仍会有用户从不同角度使用它,这是开发者控制不了的。因此,AI应用远比设计更复杂和危险。
人类社会中,好坏标准是不明确的。训练一个AI下棋,如AlphaGo,规则是明确的,AI经过训练后很清楚如何界定“好的行为”——只要能赢就是一步好棋。但更多时候,要训练AI去完成一些缺乏客观好坏规则的任务,让系统自身去理解什么是“好的行为”非常困难。
韩国当地时间2016年3月9日,韩国职业9段李世石与谷歌人工智能系统“阿尔法围棋”(AlphaGo)进行了一场“人机大战”。李世石在五番棋首战中执黑186手中盘告负。
记者:联名公开信指出,最近几个月,人工智能实验室正陷入一场失控的竞赛(out-of-control race),这是否真的在发生?
阿布-穆斯塔法:
这是一种非常情绪化的表述。不过可以预料到,在短期未来AI产业格局中,世界范围内很可能只有两到三个非常强大的类似ChatGPT的人工智能工具占领整个全球市场,因为开发这样的大模型成本巨大,需要数千个GPU(图形处理器)核心运行2个月,以及海量的数据和算力。这也是为什么目前所有最新的大模型进展都来自科技公司,而不是大学。
五年后是否可能诞生一种能节省大量计算资源的新模型,还未可知。如果以后真的出现一种完全不同的模型,可以让成本从10亿美元降至1000万美元,这就改变了游戏规则,届时将会有大量玩家出现。
记者:大模型时代的到来,也和基于“预训练+微调”这种自然语言处理(NLP)的主流范式有关。2018年后,这种模式几乎重塑了人工智能的商业形态,你如何看待这种趋势?
阿布-穆斯塔法:
“预训练+微调”是一种分而治之的巧妙方式,一次训练AI专注于一个问题并完善它。这使人们能在目前成就基础上再接再厉,而非从头开始。
OpenAI将其对公众开放的这个主意很聪明,现在他们获得了大量的数据和反馈,可用来训练新一代系统,而且这些资源是独家的,因为公众不会对下一个类似产品产生同样多的兴趣。
AI只是在复制人类的“外观”
记者:如何理性客观认知当下的人工智能水平和ChatGPT的能力边界?
阿布-穆斯塔法:
我有个朋友问ChatGPT:“关于阿布-穆斯塔法,你知道什么?”ChatGPT列出了关于我的一份详细履历和人物小传,首段看起来非常专业,但接下来就有不少错误,比如搞错了我的大学。这充分说明了ChatGPT的本质:某种意义上,它只是把所有信息以一种非常特殊的彼此相关的方式放在一起。
人工智能使用了一种类似人类大脑的结构,这种结构以一种高效方式存储信息,看到新情况后推理判断什么是“最接近它的东西”。这就是深度神经网络所做的,已持续几十年。
目前,人工智能整体发展水平令人振奋。但即使在业内,真正了解所有技术细节的人很少,只有OpenAI、Google这些参与了大模型训练的人才能说清楚,但他们对外分享信息有限。我推测,下一步最重要的突破可能集中在AI系统如何用更少资源达到相同的性能水平。
记者:沿这条路继续走,AI是否能进化到理解“概念”和“常识”?有专家认为GPT-4已初具“自我反思”能力,你怎么看?
阿布-穆斯塔法:
如果说人工智能已发展出自我反思能力,那一定是数量巨大的任务训练带来的,是通过合并足够数量的“分散而零碎的智能任务”实现的。比如说做1000个ChatGPT,其中一个对语言感兴趣,一个处理数学问题,一个负责视觉识别……直到其“能力”覆盖几乎人类所有领域,再合并为一,它一定能表现出一种“通用的智能”,这就是“多模态机器学习”的本质。
但这只是表象,只是看起来具备自我反思能力和通用智能。某种意义上,这个巨大系统只是试图复制人类的“外观”。
记者:怎么理解微软研究人员称,GPT-4已经显示出接近人类智能或通用人工智能的“火花”?
阿布-穆斯塔法:
问题的关键是,“通用人工智能”(Artificial General Intelligence,AGI)到底是什么?对于通用人工智能,人类想追求的是:AI突然之间学会了以上所有,能举一反三,而不是一次次学会某个特定任务。但这是一个非常模糊的描述。
现在迫切需要就“通用人工智能”概念达成共识,用精确的计算机语言界定它,制定明确的检验规则。遵照这些规则,人类才能知道AGI是否已经实现、潜在的危险是什么。
人类为什么这么关心“通用人工智能”,因为它触及了人性中最根本的东西,侵犯了人类的自我(Ego),即人类是不是最独一无二的存在。对如何实现AGI,目前所有想法都只是推测,人们只能针对已看到的技术范式进行突破;但真实情况是,我们根本难以想象会走上一条怎样的路径。
当人们谈论“通用人工智能”时,承载了太多情感,有时甚至是不切实际的期望和恐惧,但这种恐惧把智能和“自我”混为一谈。人们必须冷静下来,理性地把AGI视作一个科学目标。
记者:人工智能是否能产生“自我意识”?
阿布-穆斯塔法:
我认为AI领域的任何技术进步都不可能产生一个“有意识的实体”。意识和情绪的“显现”很容易做到,AI未来能“看起来像拥有了情感或意识”,就像电影里有一个演员表达出了某种强烈的情绪,但这只是表演,是纯粹的行为表象。
对人类意识的定义在科学上都是不确定的,客观上也不可测量。我知道我有意识,你有意识,你知道爱是什么,情感是什么,悲伤是什么,因为你能感觉到,你能与它们联系起来。但这些都是人类经验。为什么会这样?我们不知道。
我认为AI始终是一个无生命的机器,背后有严密的齿轮在驱动它,这些齿轮就是参数。复杂的输出可能会给我们留下“那里有一个与众不同的人”的印象,但这种输出不是来自意识,而是算法。为什么我们认为有人在那里?因为当人们看到这个输出后,把它在脑海中与过去的记忆、情感,与人类自身联系在一起。
常规工作或在更短时间内被AI替代
记者:未来哪些行业会从AI发展中受益,哪些可能被颠覆?
阿布-穆斯塔法:
所有行业都会从人工智能的发展中受益,甚至以无法预料到的方式。
五年前有人问我:人工智能下一个20年如何发展?我说,AI将在20年内取代人类几乎所有常规智能工作(routine intelligence tasks),也就是“完成复杂任务但不需要创新的智能”,自动驾驶是一个典型例子。这是一个必须要积极解决的社会问题,否则很多人将面临失业。
ChatGPT诞生后,我修正了我的预期,我现在认为,可能不需要20年,这些常规工作在更短时间内就可能被AI替代,不管我们如何界定“通用人工智能”,常规智能是通向它的第一步。
记者:在常规智能工作之外,AI未来是否也会取代一些更具有创造力的工作?
阿布-穆斯塔法:
以AlphaGo为例,你会发现AI在某种意义上也在进行“创造性的防御”:为赢得比赛,它发现了人类没想到的防御策略。我不知道这是不是创新或只是自动化的产物,因为这背后是AI对海量策略的尝试。“AI的创造力”目前也没有很可靠的定义。
记者:人类应如何与AI共存?
阿布-穆斯塔法:
我们没有与AI共存的压力,AI永远是人类的附属品。
受访者简介:
亚瑟•阿布-穆斯塔法(Yaser S. Abu-Mostafa),埃及裔美国计算机科学家,加利福尼亚理工学院电气工程和计算机科学教授。研究涵盖人工智能、机器学习、模式识别和数据科学等多个领域,在人工智能教育和科普方面做出重要贡献。