近年来,AI聊天机器人迅速普及,成为人们获取信息的重要工具。然而,一项最新研究揭示了一个令人担忧的趋势:这些AI工具在处理实时新闻时,越来越容易传播虚假信息。
由Newsguard发布的研究报告显示,截至2023年8月,十大主流生成式AI工具在面对实时新闻问题时,有高达35%的概率给出虚假答案。这个数字相比一年前的18%几乎翻了一倍。研究人员认为,这一趋势与AI聊天机器人普遍引入实时网络搜索功能密切相关。
AI越来越“健谈”,却也更易误入歧途
以前,当AI面对不确定的问题时,通常会选择“拒绝回答”。数据显示,这类拒绝回答的比例曾高达31%。但随着实时搜索功能的加入,这一比例已经降至0%。这意味着,AI不再“沉默”,而是倾向于通过网络搜索来“尽力回答”每一个问题。
问题是,它们所搜索的网络环境本身就充满了虚假信息和误导性内容。AI在试图提供“最新答案”的同时,也更容易从不可靠的来源中提取信息,进而误导用户。
哪些AI最容易传播虚假信息?
研究对多个主流AI模型进行了测试,结果令人震惊:
- Inflection AI 的错误率最高,达到了 56.67%;
- Perplexity AI 紧随其后,错误率为 46.67%;
- ChatGPT 和 Meta 的 AI 各为 40%;
- Copilot(微软必应聊天) 和 Mistral 为 36.67%;
- 表现最稳定的则是 Claude 和 Gemini,错误率分别为 10% 和 16.67%。
值得一提的是,Perplexity的表现出现了大幅下滑。去年8月,它还能100%识别虚假信息;但今年同期,错误率却飙升至近50%。这一变化直接印证了引入网络搜索功能所带来的潜在风险。
AI新闻网站成虚假信息温床
研究还指出,一些不良分子正在利用AI的特性,制造大量虚假新闻网站。Newsguard 已经识别出966个以16种语言运营的AI生成虚假新闻站点。这些网站往往模仿正规媒体的名称,例如“iBusiness Day”,以假乱真地传播误导性内容。
行业如何应对?
Newsguard指出,早期AI通过“拒绝回答”来规避传播虚假信息的风险,但如今面对复杂多变的网络生态,这种方式已不再适用。AI必须在“提供信息”与“确保准确性”之间找到新的平衡。
OpenAI也公开承认,当前的语言模型存在“幻觉”问题,即会生成看似合理但毫无根据的信息。该公司表示正在研发新技术,希望未来的模型能更好地识别不确定性,并在不确定时明确提示用户,而不是盲目输出看似“权威”的错误答案。
小结:我们该如何看待AI生成的信息?
AI聊天机器人无疑为信息获取带来了便利,但这项研究提醒我们:在依赖AI获取新闻和事实时,必须保持更高的警惕性。用户需要意识到,AI并非总是可靠的“事实来源”,尤其是在处理实时信息时。
与其盲目信任AI的回答,不如多一份质疑,多一份交叉验证。毕竟,辨别真假信息的能力,仍然是人类独有的优势。