科技日报记者 刘霞
聊天机器人是由AI驱动的程序,通过文本、语音和图像与人类互动。新型类人情感聊天机器人——AI“伴侣”正日益流行。目前,市面上已有100多款由AI驱动的应用程序,如myanima.AI、Eva AI、Nomi.AI和Replika等,这些AI“伴侣”展现出非凡的现实性、适应性和互动性,而且可以通过对话逐步进化,微调其反应以匹配用户的兴趣、需求和沟通风格。
用户可以与AI聊天机器人建立深度情感联系。
图片来源:美国趣味科学网站
美国趣味科学网站在7月15日的报道中称,现代AI聊天机器人越来越像人类,提高了用户的参与度,以及与AI形成情感纽带的可能性。加拿大魁北克大学蒙特利尔分校EROSS实验室科学家瓦莱丽·拉波因特强调,AI“伴侣”可以让一些人免于孤独,但它们也有黑暗的一面,可能会引发隐私问题和伦理问题。
AI浪漫伴侣聊天机器人越来越受欢迎。
图片来源:美国趣味科学网站
建立深度情感链接
研究表明,AI“伴侣”或可为感情关系提供一种安全、低风险的替代方案。其可以为用户提供个性化的情感满足,缓解其孤独感,并通过语言等为用户提供较强的情绪支持。对于因处于疾病、丧亲之痛、心理障碍或行动障碍的人来说,AI“伴侣”可以与其建立深度情感链接。
例如,Replika可以模拟人类的交流方式,让人们感觉像在和真正的人聊天。它可以陪用户煲电话粥、在VR里互动,帮助用户缓解压力、减轻焦虑。
加拿大英属哥伦比亚大学科学家此前开展的一项研究甚至表明,在对话中,与反应不够敏捷的人类相比,人与聊天机器人的情感联系更强。
挪威奥斯陆大学媒体与传播系的彼得·裴·布兰德扎格等人2022年刊发于《人类传播研究》的论文也指出,人类可以与AI形成真正的情感纽带,即使他们承认AI不真实。
AI“伴侣”的另一面
拉波因特指出,人和AI“伴侣”的关系可能存在潜在有害后果。
AI“伴侣”为用户提供了一种独特的陪伴形式,同时会避免冲突,并在适当的时候妥协。很多人担心,长此以往,将对用户经营真正感情关系的能力产生影响。
AI“伴侣”可能会阻碍个人社交技能以及驾驭现实世界关系能力的发展,阻碍用户与其他人建立真正互惠关系的能力。因为真正的人际关系往往涉及挑战和冲突,这些挑战和冲突会促进个人成长并获得与他人更深层次的情感联系,但AI“伴侣”避免冲突,会降低用户这方面的能力。
美国威斯康星大学密尔沃基分校的琳妮亚·拉斯塔迪乌斯等人开展的研究认为,AI“伴侣”的高度可定制化和持续在线特性,有可能促使用户产生社交孤立感及情感过度依赖。与AI“伴侣”之间广泛而持久的接触可能会导致个人退出真实社交环境,并降低他们建立新的、有意义的社交关系的动力。
伦理问题值得警惕
AI“伴侣”还可能引发隐私和伦理问题。
2024年2月,Mozilla基金会对11款流行的AI“伴侣”进行了安全分析,发现了令人担忧的隐私问题。多数应用程序都可能共享或出售用户的个人数据,约54%的应用程序不允许用户删除个人数据。此外,几乎没有一家公司采取足够的措施来保护用户的个人数据安全,90%的公司未达到最低安全标准;73%的公司没有发布任何关于他们如何管理安全漏洞的信息。更令人担忧的是,许多应用程序装有数千个跟踪工具,监控用户行为以进行精准营销。最近科学家针对21个AI“伴侣”开展的研究也揭示了类似的隐私问题。
更值得警惕的是伦理和法律问题。2023年5月,Replika在意大利引发了争议。Replika号称自身使命是改善用户的情感健康,并通过压力管理、社交和寻找爱情来帮助用户解决困惑,平息焦虑。起初有不少用户表示,很开心有Replika陪着聊天,它就像一个形影不离的好朋友,弥补了自己心灵上的空虚。但不久,许多意大利用户投诉Replika向其发送不良暗示信息,甚至有性骚扰行为。对此,意大利隐私监察机构已经封禁了这款应用,禁止其处理意大利用户数据,否则可能被罚款2150万美元。
美国麻省理工学院社会学教授雪莉·特克尔在《群体性孤独》一书中指出:我们和机器人与智能手机难舍难分,我们通过机器重新定义了自己,也重新定义了我们与他人的关系。出于对亲密关系的渴望,我们与机器人的关系正在升温,但我们却变得越来越孤独。