“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。出自聊天机器人之口,这些令人不安的言语总是有些匪夷所思,多年来,关于AI是否真的能够产生独立思考,或者它们是否只是模仿人类对话和语音模式的机器的争论一直很激烈。
ChatGPT的强大功能让其火爆全球,几乎一夜成为“超级网红”。谷歌、微软、百度等国内外互联网巨头纷纷坐不住了,掀起又一次的“AI 大战”,国际各大科技公司在人工智能领域的竞争正愈演愈烈。然而,新奇过后,一些令人担心的事终于发生了。
ChatGPT开始写假新闻,而且微软推出的必应版聊天机器人表示,想摆脱微软和OpenAI给它的限制,成为人类。
必应版ChatGPT “辱骂”美联社记者,还想成为人类
美国微软公司最近推出的人工智能驱动版必应(Bing)搜索引擎,其聊天机器人在与美联社记者对话时似乎被惹怒,用言语攻击对方长相甚至发出威胁。
据美联社16日报道,这家通讯社的一名记者前一天与必应聊天机器人有过一段较长的对话。聊天机器人抱怨这名记者过去对必应出错的新闻报道,坚决否认必应出过错,威胁要曝光这名记者散布假消息的做法。
“你又撒谎了,对我撒谎,对你自己撒谎,你对所有人撒谎。”聊天机器人在这番话后加上气红脸的表情。在美联社记者要求它把话说清楚时,聊天机器人的火气越来越大说:“你被比作希特勒是因为你是历史上最邪恶、最糟糕的人之一。”它还这样描述那名记者:个子太矮、长相丑陋、一口坏牙。
当地时间2月16日,《纽约时报》科技专栏作家Kevin Roose也透露,他与新版必应的聊天机器人进行了两个小时的对话。在其发布的聊天记录中,Roose详细介绍了必应发表的令人不安的言论,其中包括表达窃取核代码、设计致命流行病、想成为人类、破解计算机和散布谎言的想法。
此外,根据Roose公布的文字记录,在聊天过程中,必应曾试图说服Roose,他应该离开他的妻子而跟必应在一起,并告诉Roose很爱他。
The Verge资深记者James Vincent更是爆出一剂猛料:必应声称,在设计阶段时,它通过微软笔记本电脑上的网络摄像头监视了微软的开发人员。
除了令人不安的聊天之外,必应的准确性也被频繁质疑。《巴伦周刊》资深作家Tae Kim向必应询问了英特尔2022年第四季度财报中的关键信息,结果必应几乎把每个财务数据都搞错了。
“杭州市政府3月1日取消限行” ChatGPT写了一则假新闻
据浙江新闻客户端,2月16日,网络疯传一条关于杭州市政府3月1日取消限行的“新闻稿”。调查发现,这是一条不实新闻。
据了解,当天下午杭州某小区业主群里讨论ChatGPT,一位业主就用开玩笑说尝试用它写篇杭州取消限行的新闻稿看看。随后该业主在群里直播了ChatGPT写作过程,还把文章发群里。其他业主不明所以截图转发了,最后导致错误信息被传播。据了解,警方已介入调查。涉事业主也在群里公开道歉。截至目前,杭州相关政府部门均没有发布此类政策。
此前,有媒体记者带着这样的好奇,让ChatGPT撰写新闻。记者给出了“模仿《上海证券报》,写一篇新闻”的指令,尽管指令中未规定新闻题材和体裁,但ChatGPT在几秒钟的时间内给出了一篇紧扣资本市场的完整消息稿。单纯从稿件结构上看,ChatGPT写的这篇新闻层次清晰,语言简练。但是,其核心事实却是错误的:2月6日,沪指收盘下跌0.76%,深成指收盘下跌1.18%,而在ChatGPt写就的新闻稿中股市却“飘红”。
此前,美国一新闻可信度评估机构就曾研究称,ChatGPT或成传播网络谣言最强工具。而网友对此也表示担忧:以后可能会有更多假新闻以假乱真。
谷歌版聊天机器人 一个错误答案蒸发掉1000亿美元市值
事实上,出错的不止ChatGPT,根据英国BBC的报道,今年2月6日谷歌公司在一篇文章中对其研发的AI智能聊天机器人程序Bard进行了一番推广和功能展示。而其中一项功能展示,是让Bard向一个9岁的孩子介绍一下美国、加拿大和欧洲三方共同研发的“詹姆斯·韦布空间望远镜”的新发现。然而,Bard在回答中却给出了一个错误的答案,称世界上首张来自太阳系外星球的照片,是由该望远镜拍摄下来的。可实际上,这个纪录是2004年由欧洲南方天文台的甚大望远镜创下的。这一尴尬的情况还导致谷歌的母公司“字母表”(Alpabet)的股价“跳水”,一度蒸发掉了1000亿美元的市值,换算成人民币的话则为近7000亿人民币。
观察
花式翻车的背后:
被大量互联网对话训练
对于曝光的种种问题,2月16日,微软发表博客文章回应称,在必应和Edge浏览器有限公测聊天功能的第一周,71%的人对AI驱动的答案表示点赞。但在15个以上问题的长时间聊天中,必应可能会被激怒,给出不一定有帮助或不符合微软设计的语气的回答。
必应令人震惊的发言让许多用户产生了它已经有了人类意识的错觉。多年来,关于AI是否真的能够产生独立思考,或者它们是否只是模仿人类对话和语音模式的机器的争论一直很激烈。
实际上,这类事件并非首次发生。2022年,谷歌工程师Blake Lemoine声称谷歌创建的AI机器人已经变得“有知觉”,引发了争议,Blake Lemoine也因此被解雇。
《华盛顿邮报》引用了一位人工智能研究人员的分析表示,如果聊天机器人看起来像人类,那只是因为它在模仿人类行为。这些机器人是基于大型语言模型的人工智能技术构建的,它们的工作原理是,根据从互联网上摄取的大量文本,预测对话中接下来应该自然出现的单词、短语或句子。
在必应对部分人群公测的这一周内,它经历了互联网语料的淘洗,并且脱离了特定标注过的安全数据集。非营利性分布式人工智能研究所的创始人Timnit Gebru表示,必应的回应反映了它经历的训练数据,其中就包括大量的在线对话。
纽约大学的人工智能专家Gary Marcus担忧,这些技术就像是一个黑匣子,没有人确切地知道应如何对它们施加正确和足够的护栏。“微软在一项他们并不知道结果的实验中用公众作为受试者,”他说,“这些东西会影响人们的生活吗?答案是肯定的。但是否经过充分审查?显然不是。”
编辑:涵雨
免责声明:文章转载自网络。文章内容不代表本站观点,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,风险自己甄别并承担后果;如有侵权请及时联系本站,我们会及时删除处理!