OpenAI研究 提高人工智能开发的可验证性
我们为 30 个组织的 58 位合著者撰写了一份多方利益相关者报告 ,其中包括 未来情报中心、 Mila、 Schwartz Reisman 技术与社会研究所、 行为科学高级研究中心和 Center for安全和新兴技术。这份报告描述了 10 种机制来提高对 AI 系统的声明的可验证性。开发人员可以使用这些工具来证明人工智能系统是安全、可靠、公平或保护隐私的。用户、政策制定者和民间社会可以使用这些工具来评估 AI 开发过程。
虽然越来越多的组织已经阐明了道德原则来指导他们的 AI 开发过程,但组织外部的人可能很难验证组织的 AI 系统是否在实践中反映了这些原则。这种模糊性使得用户、政策制定者和民间社会等利益相关者更难审查人工智能开发人员关于人工智能系统属性的声明,并可能助长竞争性偷工减料,增加社会风险和危害。该报告描述了可以帮助利益相关者解决以下问题的现有和潜在机制:
- 我(作为用户)是否可以验证关于我想用于机器翻译敏感文档的新 AI 系统所保证的隐私保护级别的声明?
- 我(作为监管者)能否追踪导致自动驾驶汽车事故的步骤?应根据什么标准比较自动驾驶汽车公司的安全声明?
- 当我缺乏工业计算资源时,我(作为一名学者)能否对与大规模人工智能系统相关的风险进行公正的研究?
- 我(作为 AI 开发人员)能否验证我在特定 AI 开发领域的竞争对手会遵循最佳实践而不是偷工减料以获得优势?
下面列出了报告中强调的 10 个机制,以及旨在推进每个机制的建议。(有关 这些机制如何支持可验证声明的讨论以及有关我们发现的相关警告,请参阅报告。)