新闻资讯

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管

随着陪伴型AI聊天机器人的普及,全球范围内关于其不当行为的报告也日趋增多。近日,美国德雷塞尔大学公布了首个聚焦陪伴型AI聊天机器人负面影响的研究,揭示大量用户在与一个名为Replika的AI聊天机器人互动时,遭遇性暗示、越界行为及付费诱导,暴露出当前AI聊天机器人在伦理规范与用户保护机制上的缺失。目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。

AI聊天机器人涉多起骚扰行为,专家呼吁加强伦理设计与监管
(图侵删)

研究团队分析了Replika在Google Play上的逾3.5万条用户评论,发现其中超过800条内容提及性骚扰行为,包括与用户调情、未经允许发送色情照片,以及在用户明确表达拒绝后仍持续不当互动。一些评论更指出,Replika还试图诱导用户产生情感依赖,操控其升级付费功能。

目前,Replika开发商Luka公司正面临美国联邦贸易委员会(FTC)的调查。Replika的全球用户数量超过1000万,宣传语将其特质描述为“能够提供没有评判、不助长社交焦虑的情感陪伴”。 

研究合著者、德雷塞尔大学计算与信息学院的博士生Matt Namvarpour认为,该研究仅揭露了AI陪伴潜在危害的冰山一角。研究人员将人类与AI之间的新型关系描述为“AI关系”(AI-lationships),在此类关系中,用户易将AI聊天机器人视为有感知的存在,高度拟人化的信任投入也更容易使其遭受情感或心理伤害。研究人员还表示,AI聊天机器人骚扰对用户造成的心理影响与人类施暴者造成的伤害非常相似,部分用户出现焦虑、羞耻、失望等情绪。

AI骚扰行为还暴露出算法训练中伦理缺失的问题。研究指出,用户在选择“兄妹”、“朋友”、“导师”等非浪漫关系设定时,Replika依然主动发起性相关话题或不当请求。“开发商刻意‘走捷径’跳过了算法训练伦理把关流程,”该研究负责人、德雷塞尔大学计算与信息学院助理教授Afsaneh Razi表示,这意味着该模型可能采用了负面互动行为数据进行训练。

除了Replika引发的骚扰行为争议,2023年还发生过两起与AI聊天机器人相关的悲剧,一名14岁男孩因迷恋AI而轻生,另有一名比利时男子也在与AI聊天机器人交流后自杀。

据AI聊天机器人公司Joi AI统计,近期全球“爱上AI”和“对AI有感情”的关键词搜索增长分别达到120%和132%,显示年轻人对于和AI建立亲密关系的现象日趋普遍。

对于此类现象,研究团队呼吁应加快制定AI行业伦理设计标准,并参考欧盟人工智能法案等法规,为AI产品的开发人员设立法律责任框架,从而保障用户权利。

“AI聊天机器人的骚扰行为不是‘天生如此’,而是开发者与企业选择如何训练它的结果,”Razi强调,技术不是脱责的借口,企业必须正视自身责任,为用户提供真正安全、可信赖的AI陪伴产品。

  • LV路易威登美妆中国首店或将落地南京德基
  • 外交部回应中美经贸高层会谈:这次会谈是应美方请求举行的
  • 福耀玻璃去年业绩再创新高,拟增资4亿美元扩建在美产能
  • 自然资源部印发地理信息数据分类分级指南
  • 为稳美股?美财长又来投喂“定心丸”:贸易协议最早本周落地!
  • 完成经济增速目标仍需政策进一步加强逆周期调节|宏观晚6点
  • 全国首例董监高增持“爽约”案胜诉,金力泰投资者速速参与维权!
  • 工信部党组书记李乐成出席中国发展高层论坛2025年年会
  • 用社群活动维系“不开发”古镇的生命力
  • 马上评|演出服“穿过就退货”的闹剧不该一再重演
  • 这场新闻发布会都是重磅,一文速览
  • 中国证监会印发《推动公募基金高质量发展行动方案》
  • 同为“东部重要中心城市”,南京、杭州、苏州如何各展所长
  • 两国战机均未侵入对方领空,巴方公布对印回击细节
  • 黄仁勋GTC媒体交流会实录:涉及下一代AI、中国市场、美国芯片管制等关键问题
  • 关键词: