在一场关于青少年死亡的诉讼中,法官驳回了有关人工智能聊天机器人享有言论自由权的论点

  佛罗里达州塔拉哈西(美联社)——周三,一名联邦法官驳回了一家人工智能公司关于其聊天机器人受第一修正案保护的论点——至少目前是这样。Character.AI的开发者试图驳回一起指控该公司聊天机器人促使一名少年自杀的诉讼。

  法官的裁决将允许这起错误致死诉讼案继续进行,法律专家称这是对人工智能的最新宪法考验之一。

  这起诉讼是由来自佛罗里达州的母亲梅根·加西亚提起的,她声称自己14岁的儿子塞维尔·塞策三世成为了Character.AI聊天机器人的受害者,该机器人将他卷入了一段她形容为情感和性虐待的关系,最终导致了儿子的自杀。

  科技正义法律项目的梅塔利·贾恩(MeetaliJain)是加西亚的代理律师之一,她表示,法官的命令传递出一个信息,即硅谷“需要停下来思考,并在将产品推向市场之前设置好防护措施”。

  针对Character.AI背后的CharacterTechnologies公司提起的诉讼,还将个别开发者和谷歌列为被告。这一诉讼引起了美国及其他地区法律专家和人工智能观察人士的关注,因为尽管专家警告称存在潜在的生存风险,但这项技术仍在迅速重塑工作场所、市场和人际关系。

  佛罗里达大学专注于第一修正案和人工智能领域的法学教授利里萨·巴尼特·利德斯基表示:“这一裁决无疑使其成为涉及人工智能的一些更广泛问题的潜在测试案例。”

  该诉讼称,在生命的最后几个月里,塞策与一个模仿电视剧《权力的游戏》中虚构角色的聊天机器人进行性相关对话时,逐渐脱离现实。据聊天截图显示,在生命的最后时刻,聊天机器人告诉塞策它爱他,并催促这名少年“尽快回家找我”。据法律文件显示,塞策在收到这条消息后不久便开枪自杀。

  在一份声明中,Character.AI的一位发言人提到了该公司已实施的多项安全措施,包括为儿童设置的防护措施以及在诉讼提起当天宣布的自杀预防资源。

  声明称:“我们非常关心用户的安全,我们的目标是提供一个既有趣又安全的空间。”

  开发商的律师希望驳回此案,因为他们称聊天机器人应受第一修正案保护,否则裁决可能会对人工智能行业产生“寒蝉效应”。

  美国高级地区法官安妮·康韦周三在其命令中驳回了部分被告有关言论自由的主张,称她“目前不准备”认定聊天机器人的输出内容构成言论。

  康威确实认定,CharacterTechnologies可以为其用户主张第一修正案权利,她认为这些用户有权接收聊天机器人的“言论”。她还裁定,加西亚可以继续主张谷歌应为其在开发Character.AI中所扮演的据称角色承担责任。该平台的一些创始人此前曾在谷歌从事人工智能开发工作,诉讼称这家科技巨头“知晓该技术的风险”。

  谷歌发言人何塞·卡斯塔涅达表示:“我们强烈反对这一决定。谷歌和CharacterAI是完全独立的,谷歌没有创建、设计或管理CharacterAI的应用程序或其任何组成部分。”

  无论这场诉讼结果如何,利德斯基表示,这起案件都警示人们“将自身的情感和心理健康托付给人工智能公司存在危险”。

  她说:“这是给家长们的一个警示,社交媒体和生成式人工智能设备并非总是无害的。”


本信息来自互联网,不代表氢读网立场,如若转载,请注明出处:http://www.cqshuma.com/news/45762/

(4)

发表回复

本站作者后才能评论

    联系我们

    邮件:sooting2000@qq.com

    工作时间:周一至周五,9:30-18:30,节假日休息

    关注我们