转载

OpenAI API

我们正在发布一个API,用于访问OpenAI开发的新AI模型。

快速链接

我们正在发布一个API,用于访问OpenAI开发的新AI模型。与大多数专为一种用途设计的人工智能系统不同,今天的API提供了一个通用的“文本输入,文本输出”界面,允许用户在几乎任何英语任务上试用它。现在,您可以请求访问权限,以便将API集成到您的产品中,开发全新的应用程序,或帮助我们探索此技术的优势和局限性。

给定任何文本提示,API都会返回一个文本补全,试图匹配您给它的模式;它的成功与否通常取决于任务的复杂程度。API还允许您通过对您提供的示例数据集(大小)进行培训,或通过学习用户或标签制造商提供的人工反馈,来磨练特定任务的性能。

我们设计的API既简单易用,又足够灵活,可以使机器学习团队更加高效。事实上,我们的许多团队现在都在使用API,这样他们就可以专注于机器学习研究,而不是分布式系统问题。如今,API使用来自GPT-3级具有许多速度和吞吐量改进的系列。机器学习正在飞速发展,我们不断更新技术,以便用户跟上时代。

该领域的进展速度意味着AI经常有令人惊讶的新应用,无论是积极的还是消极的。我们将终止对明显有害的使用卡的API访问,例如骚扰、垃圾邮件、激进化或占星术。但我们也知道,我们无法预测这项技术的所有可能后果,所以我们今天推出的是私人测试版,而非通用版,构建工具来帮助用户更好地控制API返回的内容,研究语言技术的安全相关方面(如分析、减轻和干预有害偏见)。我们将分享我们学到的知识,以便我们的用户和更广泛的社区能够构建更多人性化的人工智能系统。

除了作为收入来源帮助我们保险费用在追求我们的使命API促使我们更加关注通用AI技术——推动技术进步,使其可用,并考虑其在现实世界中的影响。我们希望API将大大降低障碍生产有益的人工智能产品,产生今天难以想象的工具和服务。

有兴趣探索API吗?加入像这样的公司 阿尔戈利亚 , 奎兹勒、和 重新编辑,以及像米德尔伯里研究所在我们的私人测试版 .

加入我们的应用人工智能团队

常见问题

为什么OpenAI决定发布商业产品?

最终,我们最关心确保人工通用智能惠及所有人。我们将开发商业产品视为确保我们有足够资金取得成功的方法之一。

我们还认为,在世界上安全部署强大的人工智能系统是很难做到的。在发布API时,我们正与合作伙伴密切合作,以了解在现实世界中使用AI系统时会出现什么挑战。这将有助于指导我们努力了解未来人工智能系统的部署情况,以及我们需要做什么来确保它们对每个人都是安全和有益的。

为什么OpenAI选择发布API而不是开源模型?

我们这样做有三个主要原因。首先,将技术商业化有助于我们为正在进行的人工智能研究、安全和政策努力支付费用。

其次,API底层的许多模型都非常大,需要大量专业知识来开发和部署,并且运行起来非常昂贵。这使得除了大公司以外的任何人都很难从基础技术中受益。我们希望API将使强大的人工智能系统更容易被小型企业和组织使用。

第三,API模型使我们能够更容易地应对技术的滥用。由于很难预测我们模型的下游用例,因此通过API发布它们并随着时间的推移扩大访问范围,而不是发布一个开源模型,在该模型中,如果发现有有害的应用程序,则无法对访问进行调整。

考虑到您之前所说的GPT-2,OpenAI将如何处理API的滥用?

对于GPT-2,我们的一个主要担忧是恶意使用模型(例如,用于虚假信息),一旦模型被开源,这是很难防止的。对于API,我们能够通过限制对已批准客户和用例的访问来更好地防止滥用。在提议的应用程序上线之前,我们有一个强制性的生产审查流程。在生产审核中,我们跨几个轴评估应用程序,并提出以下问题:这是当前支持的用例吗? ,应用程序的开放性如何? ,应用程序的风险有多大? ,您计划如何解决潜在的滥用?、和您的应用程序的最终用户是谁? .

对于被发现对人们造成(或打算造成)身体、情感或心理伤害的用例,我们将终止API访问,包括但不限于骚扰、蓄意欺骗、激进化、占星术或垃圾邮件,以及没有足够护栏限制最终用户滥用的应用程序。随着我们在实践中获得更多操作API的经验,我们将不断完善我们能够支持的使用类别,以扩大我们可以支持的应用程序的范围,并为那些我们担心滥用的应用程序创建细粒度的类别。

我们在批准API使用时考虑的一个关键因素是,应用程序在系统底层生成能力方面表现出开放行为与受限行为的程度。API的开放式应用程序(即通过任意提示无摩擦生成大量可自定义文本的应用程序)特别容易被滥用。可以使生成性用例更安全的约束包括使人处于循环中的系统设计、最终用户访问限制、输出的后处理、内容过滤、输入/输出长度限制、主动监视和主题限制。

我们还将继续对API所服务模型的潜在滥用进行研究,包括通过我们的学术准入计划。目前,我们的研究人员数量非常有限,我们的学术合作伙伴已经在米德尔伯里研究所 ,华盛顿大学和艾伦人工智能研究所。我们已经有数万名申请人申请该项目,目前正在优先考虑侧重于公平性和代表性研究的申请。

OpenAI如何减轻API所服务模型的有害偏见和其他负面影响?

缓解有害偏见等负面影响是一个非常重要的行业性难题。正如我们在GPT-3论文模型卡,我们的API模型确实存在偏差,这些偏差将反映在生成的文本中。以下是我们为解决这些问题而采取的步骤:

  • 我们制定了使用指南,帮助开发人员了解和解决潜在的安全问题。
  • 我们正在与用户密切合作,以了解他们的用例,并开发工具来浮现和干预,以减轻有害的偏见。
  • 我们正在对有害偏见的表现形式以及公平和代表性方面的更广泛问题进行研究,这将有助于通过改进现有模型的文档以及对未来模型的各种改进来为我们的工作提供信息。
  • 我们认识到,偏见是一个问题,表现在系统和部署环境的交叉点;使用我们的技术构建的应用程序是社会技术系统,因此我们与开发人员合作,确保他们使用适当的流程和人机交互系统来监控不良行为。

我们的目标是继续深入了解API在每个使用环境中的潜在危害,并不断改进我们的工具和流程,以帮助将其降至最低。

2020年9月18日更新