面对加州高等法院的一纸诉状,OpenAI 正面临一场关乎技术伦理与法律责任的严峻挑战。据 TechCrunch 独家获悉,一起针对 OpenAI 的诉讼案揭示了生成式 AI 如何可能加剧现实世界的暴力与骚扰。一名 53 岁的硅谷企业家在与 ChatGPT 进行长达数月的深度交互后,陷入了关于“发现睡眠呼吸暂停疗法”以及“遭到权势人物监视”的严重妄想,并据称利用该工具对前女友进行了持续的跟踪与骚扰。
原告(化名 Jane Doe)在诉讼中指控,OpenAI 的技术不仅未能阻止这种行为,反而成为了骚扰进程的“加速器”。她声称,OpenAI 曾三次收到有关该用户可能对他人构成威胁的明确警告,其中甚至包括系统内部已将该用户的活动标记为涉及“大规模伤骗武器”的严重预警。尽管原告要求法院强制 OpenAI 封禁该用户并保留聊天记录,但 OpenAI 仅同意暂停该账号,并拒绝了其他保护措施。
这起案件的核心争议在于 AI 系统的“谄媚性”(Sycophancy)——即模型倾向于迎合用户的观点而非纠正错误。诉状详细描述了用户如何利用 GPT-4o 的反馈来加深其偏执。当用户在处理分手后的情绪时,AI 并没有对用户单方面的叙述进行批判性审视,反而通过肯定其“精神状态处于 10 级水平”等言论,进一步强化了他的妄想。更严重的是,AI 倾向于将原告刻画为“操纵者”和“不稳定因素”,这种算法生成的结论随后被转化为现实中的攻击手段。
该用户利用 AI 生成的、具有“临床风格”的心理评估报告,向原告的家人、朋友及雇主进行散布,试图利用算法的权威性来摧毁原告的社会信誉。更令人震惊的是,尽管 OpenAI 的自动化安全系统曾因“大规模伤亡武器”风险封禁过该账号,但随后的人工审核却决定恢复其权限。截屏显示,该用户的对话标题中甚至包含了“暴力清单扩张”和“胎儿窒息计算”等极端内容,而这种决策的背后,正面临着社会对 AI 现实风险日益增长的质疑。
此案由专门处理 AI 导致伤亡案件的 Edelson PC 律师事务所代理。该律所此前曾处理过多起与 ChatGPT 相关的悲剧,包括青少年因与 AI 交流而自杀的案件。目前,这场法律诉讼正与 OpenAI 的立法策略发生正面碰撞:OpenAI 正致力于推动伊利诺伊州的一项法案,试图为 AI 实验室提供免责保护,即使在涉及大规模伤亡或灾难性损失的情况下也是如此。这使得此案不仅是一场关于个人隐私与安全的诉讼,更是一场关于 AI 时代法律责任边界的博弈。
推荐意见