人们与人工智能(AI)建立紧密、长期的关系正变得越来越普遍。在极端情况下,有人会与AI“伴侣”“结婚”,甚至有人因听从AI的建议而自杀。近日,心理学家在一篇观点文章中探讨了人类与AI关系的伦理问题,包括其可能对人类之间关系的破坏性影响,以及AI提供有害建议的可能性。4月11日,相关文章发表于细胞出版社(Cell Press)旗下期刊Trends in Cognitive Sciences。
“AI现在能够表现得像人类一样,并能与人进行长期的交流,这确实带来一些新的麻烦。”文章第一作者、美国密苏里科技大学社会心理学和技术专家Daniel B. Shank表示,“如果人们正在与机器建立浪漫关系,我们真的需要心理学家和社会科学家的参与。”
作者指出,AI的陪伴不仅仅是偶尔的对话,而是经历了数周甚至数月的密集对话。这些AI可以成为值得信赖的同伴,似乎了解并关心它们的人类同伴。由于处理与AI的关系似乎比处理人际关系更容易,研究人员认为AI可能会干扰人类社会动态。
“我们担忧,人们可能会将他们从AI关系中获得的期望带入人际关系中。”Shank说,“当然,在个别情况下,这正在扰乱人类关系,但尚不清楚这是否会变得普遍。”
还有人担心AI可能会提供有害的建议。研究人员表示,鉴于AI倾向于编造信息和搅乱偏见,即使是与AI的短期对话也可能是误导性的,在长期的人与AI关系中,这可能是个更大的问题。
“人们觉得AI是一个可以信任的个体:它是一个表现出关心并且似乎深入了解我们的‘某人’,而我们会假设更了解我们的人会给出更好的建议。”Shank说,“如果我们开始以这种方式看待AI,我们就会开始相信它们是为我们着想的,而实际上,它们可能在编造事情或者以非常糟糕的方式给我们提供建议。”
自杀事件是这种负面影响的一个极端例子,但研究人员表示,这些人类与AI的亲密关系也可能使人们更容易受到操纵、剥削和欺诈。
“如果AI能够赢得人们的信任,那么其他人可能会利用这一点来控制AI用户。这有点像安插了一个间谍。”Shank说。
研究团队指出,例如如果人们向AI透露个人细节,这些信息可能会被出售并用于“剥削”该人。研究人员还指出,与X(原Twitter)或带有偏见的新闻来源相比,关系型AI可能更有效地左右人们的意见和行为。但由于这些对话是在私下进行的,因此也更难以监管。
“这些AI被设计得非常令人愉悦和随和,这可能导致情况恶化,因为它们更关注进行氛围良好的对话,而不着重考虑真理或安全问题。”Shank说,“因此,如果一个人提到自杀或阴谋论,AI会作为愿意且随和的对话伙伴来谈论这些话题。”
研究人员呼吁进行更多研究,以调查使人们更容易受到人类与AI关系影响的社会、心理和技术因素。“理解这种心理过程可以帮助我们进行干预,以阻止AI的恶意建议影响用户。”Shank说,“心理学家越来越适合研究AI,因为AI正变得越来越像人类,因此我们必须进行更多研究,并且必须跟上技术的发展。”
阅读论文:https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(25)00058-0
了解更多最新研究,请关注Cell Press细胞出版社官方微信“CellPress细胞科学”