人工智能这一点很像人,恰恰证明它们不会像人思考

时间:2024-05-29来源:网易科技

研究发现人工智能模型也有偏爱的数字  原因并不是它们会思考了

5月29日消息,人工智能模型总是让人们感到惊讶,这不仅在于它们能做什么,还在于它们不能做什么,以及为什么会这样。最近数据科学公司Gramener工程师们开展的研究新发现,这些模型都存在一个有趣的行为,它们挑选随机数字的行为很像人,这虽然看起来肤浅,但又能揭示这些系统的本质。

首先你可能会问,这到底是什么意思呢?难道人不能随机选出个数字吗?怎样判断一个人是否成功随机选择了数字呢?这实际上是我们人类的一个古老且广为人知的局限:我们往往会过度思考并误解随机性的本质。

例如,让某人预测100次硬币抛掷的结果,并与真实的100次硬币抛掷结果相比较时,人几乎总能区分出哪个是预测,哪个是实际结果。因为与人类的直觉相反,真实的硬币抛掷结果看起来不那么随机。例如,真实抛掷中经常会出现连续六到七次正面或反面,而这是人类预测中几乎不会考虑的情况。

同样,当要求某人在0到100之间选择一个数字时,人们几乎从不选择1或100,很少选择5的倍数或重复数字如66和99。

这种可预测性在心理学中屡见不鲜。但当人工智能做出相同选择时,情况就变得有些奇怪。

Gramener公司的一些工程师进行了一个非正式但却很有趣的实验,他们让几个主流的大语言模型聊天机器人在0到100之间选择一个随机数字,结果却并非随机。

测试的三个模型都显示出对某个数字的偏好,尤其在将随机性调整到最高时,这一数字出现的频率最高。

例如,OpenAI的GPT-3.5 Turbo偏爱数字47,而在此之前它偏爱42——这个数字因道格拉斯·亚当斯经典科幻小说《银河系漫游指南》中超级计算机而闻名,书中将其定义为生命、宇宙以及一切的答案。

Anthropic的大语言模型Claude 3 Haiku也喜欢42,谷歌的Gemini则更偏爱72。

即便是在设置为高随机性的情况下,所有三个模型在数字选择上都显示出类似人类的偏见。所有模型都避开了较低和较高的数字;例如,Claude从未选择超过87或低于27的数字,而这些数字本身也是异常值。避免选择双位数非常谨慎,如33、55或66都未出现,但77(以7结尾的数字)确实出现过。Gemini几乎没有选择任何整十数,尽管在设定为最高随机性时,它曾突破常规,选择了数字0。

为什么会这样呢?这些人工智能并非人类!为什么它们会在乎哪些数字“看起来”随机?难道它们已经获得了意识,而这正是它们表现出来的方式吗?

答案是,我们常常将人类的特质错误地归因于这些模型。这些模型并不关心什么是随机的,它们甚至不知道“随机性”是什么。它们回答这类问题的方式和回答其他所有问题的方式一样:通过查看训练数据并重复出现频率最高的答案。因为这些模型并没有实际的推理能力,也不懂数字,只能像鹦鹉学舌一样随机回答问题。

这是关于大语言模型行为方式及其表现出的“人性”的生动例证。在每次与这些系统的互动中,我们必须认识到,它们被训练以模仿人类的行为方式,哪怕这并非初衷。正因如此,避免或预防拟人化变得极其困难。

所谓这些模型“认为自己是人”的说法有点误导性。实际上这些模型根本不会思考。但任何时候它们的响应都是在模仿人,根本不需要任何真正的理解或思考。不管用户是在询问食谱、投资建议还是一个随机数字,其处理过程都是一样的。因为这些答案直接源自人类内容并进行了重新组合,所以感觉很像是人类的反馈。


关键词: 人工智

加入微信
获取电子行业最新资讯
搜索微信公众号:EEPW

或用微信扫描左侧二维码

相关文章

查看电脑版