OpenAI研究 为恶意使用 AI 做好准备
我们与人合着了一篇论文,预测恶意行为者如何滥用人工智能技术,以及我们可以预防和减轻这些威胁的潜在方法。这篇论文是我们与人类未来研究所、存在风险研究中心、新美国安全中心、电子前沿基金会等机构的同事持续工作近一年的成果。
人工智能挑战全球安全,因为它降低了进行许多现有攻击的成本,制造了新的威胁和漏洞,并进一步使特定攻击的归因复杂化。鉴于人工智能似乎给威胁格局带来的变化,该报告提出了一些公司、研究机构、个人从业者和政府可以采取的高级建议,以确保一个更安全的世界:
- 承认人工智能的两用性: AI 是一种能够产生非常积极和消极应用的技术。作为一个社区,我们应该采取措施更好地评估恶意行为者歪曲的研究项目,并与政策制定者接触以了解特别敏感的领域。正如我们在论文中所写:“监视工具可以用来抓捕恐怖分子或压迫普通公民。信息内容过滤器可用于掩埋假新闻或操纵舆论。政府和强大的私人参与者将可以使用其中许多人工智能工具,并可以将它们用于公共利益或损害。” 这些问题的一些潜在解决方案包括对某些研究进行出版前风险评估,在一小部分受信任的组织中选择性地共享某些类型的具有重要安全性或安全性组件的研究,
- 向网络安全学习:计算机安全社区已经制定了与 AI 研究人员相关的各种实践,我们应该考虑在我们自己的研究中实施这些实践。这些范围从故意破坏或颠覆系统的“红队”,到投资技术预测以在威胁到来之前发现威胁,再到围绕人工智能系统中发现的漏洞的机密报告的约定,等等。
- 扩大讨论范围:人工智能将改变全球威胁格局,因此我们应该让更广泛的社会各界参与讨论。参与方可以包括那些参与公民社会的人、国家安全专家、企业、伦理学家、公众和其他研究人员。
就像我们在 AI 安全的具体问题上所做的工作一样 ,我们已经解决了一些由在具体场景中恶意使用 AI 引发的问题,例如:由 AI 系统生成的具有说服力的广告被用于针对安全系统的管理员;网络罪犯使用神经网络和“模糊测试”技术来创建具有自动利用生成功能的计算机病毒;恶意行为者入侵清洁机器人,以便它向 VIP 运送爆炸物;流氓国家使用无处不在的人工智能增强监控系统先发制人地逮捕符合预测风险状况的人。
我们很高兴开始与我们的同行、政策制定者和公众进行讨论;在过去的两年里,我们一直在研究和巩固我们在 OpenAI 的内部政策,并将开始就这些问题吸引更广泛的受众。我们特别热衷于 与更多 认为自己可以为围绕 AI 的政策辩论做出贡献并取得研究突破的研究人员合作。