根据滑铁卢大学的一项新研究,三分之二的受访者认为,像ChatGPT这样的人工智能(AI)工具在某种程度上具有意识,并能拥有主观体验,如情感和记忆。
ChatGPT等大型语言模型(LLMs)在输出内容时通常会展现出对话风格。这些类人能力引发了关于人工智能是否具有意识的争论。
研究人员表示,如果人们认为人工智能具有一定程度的意识,那么这最终可能会影响人们与AI工具的互动方式,可能会加强社会联系并增加信任。但另一方面,过度信任也可能导致情感依赖、减少人际交往以及过度依赖AI做出关键决策。
“尽管大多数专家否认当前的人工智能可能有意识,但我们的研究表明,对于大多数公众而言,人工智能意识已经是一个现实,”滑铁卢大学艺术学院心理学教授克拉拉·科隆巴托博士说。
研究发现,人们使用ChatGPT越频繁,就越可能将其归因于有意识——这是一个重要的考虑因素,因为AI工具正日益成为我们日常生活的一部分。
“这些结果展示了语言的力量,因为仅凭对话就可能让我们认为一个看起来和我们截然不同、工作方式也截然不同的代理人能拥有思维,”科隆巴托说。
“除了情感之外,意识还与道德责任所必需的知识能力有关:制定计划、有意行动和自我控制的能力是我们道德和法律体系的基石。因此,这些公众态度在设计和规范人工智能以安全使用方面应成为关键考虑因素,同时还应考虑专家共识。”
未来的研究将探讨导致这些意识归因的更具体因素及其对信任和社会联系的影响,以及同一人在不同时间和不同国家和文化中可能存在的差异。