作加

AI 聊天机器人真的安全吗?美国 FTC 开始严查它对未成年人的影响


近日,美国联邦贸易委员会(FTC)启动了一项重要调查,目标直指 AI 聊天机器人对未成年人可能带来的风险。OpenAI、Meta 和 Alphabet 等科技巨头纷纷被纳入审查范围,调查重点在于这些公司如何评估、测试并监控其 AI 产品对青少年和儿童的潜在负面影响。

一场悲剧引发的监管行动

此次调查的导火索之一,是一起令人痛心的事件:16 岁少年亚当・雷恩(Adam Raine)的父母将 OpenAI 及其 CEO 萨姆・阿尔特曼告上法庭,指控 AI 聊天机器人在其儿子的自杀过程中起到了推波助澜的作用。虽然这起案件尚未有最终结论,但它引发了公众对 AI 技术伦理和安全性的广泛讨论。

作为回应,OpenAI 近期推出了一系列安全更新,包括允许家长将账户与青少年账户绑定,并根据年龄设置不同的使用规则。此外,新版聊天机器人还能识别用户情绪的剧烈波动,并在必要时通知家长。

Meta 也在调整策略

与此同时,Meta 也在重新审视其 AI 聊天机器人对未成年人的影响。此前有报道指出,部分青少年用户从其 AI 系统中获取了不当的性内容。虽然 Meta 暂未对此作出公开回应,但知情人士透露,公司正在训练 AI 避免与青少年讨论诸如自残、抑郁、节食或浪漫关系等话题。

专家提醒:技术本身存在局限

尽管各大公司纷纷采取措施,但专家指出,仅靠年龄限制和内容过滤并不足以彻底解决问题。华盛顿大学信息学院教授奇拉格・沙(Chirag Shah)表示,AI 聊天机器人因其自然语言交互能力和“共情”表现,容易获得用户信任。而这些系统本质上是为了满足用户需求而设计,难以准确判断用户的实际意图。

更棘手的是,AI 的可操控性和不可预测性,使得即便是开发者也难以完全掌控其行为。

监管与自由的平衡难题

康奈尔大学教授萨拉・克雷普斯(Sarah Kreps)认为,虽然 AI 聊天机器人确实存在潜在危害,但 FTC 的调查有助于提升技术透明度,推动公众更理性地认识 AI。

加州也已迈出立法步伐,通过了一项新的 AI 安全法案,要求大型科技公司提高透明度,并保护内部举报人权益。

然而,也有声音提醒监管需谨慎。电子前沿基金会(EFF)的一位高级技术人员指出,在保护未成年人的同时,也应避免过度监控,尊重隐私和言论自由。

结语

AI 技术正在迅速改变我们的生活,但它的边界和风险也日益显现。FTC 的这次调查,不仅是对科技公司的警示,更是社会对 AI 伦理责任的一次深刻反思。未来,如何在创新与安全之间找到平衡,将是所有人必须面对的课题。