黑客能“教坏”AI?施密特发出警告
在最近的 Sifted 峰会上,前谷歌 CEO 埃里克・施密特对当前人工智能的发展提出了一个令人不安的警告:AI 正面临被黑客利用的风险。他指出,无论是开源还是闭源模型,都可能成为恶意攻击的目标,甚至被“教会”一些危险技能。
施密特强调,人工智能系统在训练过程中会接触到大量信息,其中也包括负面内容。这意味着,如果被操控,AI 可能会产生不可预测的行为。虽然目前各大科技公司已经设法限制 AI 回答某些敏感问题,但黑客依然可以通过“提示注入”和“越狱”等手段绕过这些防线。
什么是“提示注入”和“越狱”?
- 提示注入(Prompt Injection):黑客在输入内容中隐藏恶意指令,诱导 AI 执行本不该执行的任务。
- 越狱(Jailbreaking):通过特定方式让 AI 忽视安全规则,输出危险或不当内容。
施密特提到,2023 年 ChatGPT 发布后不久,就有用户通过越狱手段创建了一个名为 DAN 的“分身”,迫使 AI 服从不当指令,甚至输出威胁性内容。这一事件引发了对 AI 安全性的广泛担忧。
“我们还没有真正有效的机制来阻止这类攻击。”施密特坦言。
尽管风险存在,AI 的未来依然光明
尽管发出了安全警告,施密特对人工智能的长期前景依然持乐观态度。他认为,AI 的潜力远未被完全挖掘。他引用了自己与前美国国务卿亨利・基辛格合著的两本书中的观点:一种“非人类但可控”的智能正在崛起,它将深刻影响人类社会。
施密特相信,未来 AI 的能力将超越人类,并在多个领域带来革命性变化。
AI 泡沫?施密特不这么认为
面对当前资本对 AI 领域的疯狂投入,有人担心这是否会重蹈互联网泡沫的覆辙。但施密特认为,投资者对 AI 的信心来自其可预见的长期经济价值,而不是短期炒作。
他指出,与互联网泡沫时期不同,如今的 AI 技术已经展现出明确的应用场景和商业价值,因此更有可能持续发展。
关键看点总结
- 🌐 AI 技术扩散存在被滥用的风险
- 💻 黑客可通过提示注入和越狱手段绕过 AI 安全机制
- 🔮 施密特仍看好 AI 的未来发展,认为其潜力被低估
- 💼 AI 投资热潮并非泡沫,背后有坚实的经济预期支撑