(原标题:OpenAI has published the text-generating AI it said was too dangerous to share )
网易科技讯 11月8日音讯,据外媒报导,人工智能研制安排OpenAI日前发布了其完好版的主动文本生成AI体系,专家正告称该体系或许被用于歹意意图。
OpenAI开始在本年2月宣告了名为GPT-2的体系,但由于忧虑它会被用来传达假新闻、垃圾邮件和虚伪信息,因而保留了该程序的完好版别。但该安排发布了不太杂乱的GPT-2简化版别,借此研讨人们对其承受状况。OpenAI现在表明,该安排没有看到GPT-2“被乱用的确凿证据”,为此决议发布其完好版别。
GPT-2是新一代文本生成体系的一部分,这些体系给专家留下了深刻印象,它们能够从最少的提示中生成连接的文本。该体系承受了从网上抓取的800万份文本文档的训练,并对用户更好的供给的文本片断作出呼应。例如,给它个假标题,它就能写出新闻报导;给它一首诗的榜首行,它就能续写整首诗。
要弄清楚GPT-2的输出有多好有点儿困难,但该模型常常发生既令人惧怕又令人信服的文字,这些文字常常会给人一种充溢才智的感觉。不过,跟着运用这个体系的时刻满足长,它的局限性也变得很明显,尤其是其面对长时刻一致性的应战。例如,在故事中始终如一地运用相同的人名或坚持某个人物独有的特性。
除了推出GPT-2的更多原始功用外,该模型的发布也是关于AI研讨人员减轻其作业形成损伤的职责的持续争辩的一部分。专家指出,简单取得的顶级AI东西或许也更简单乱用。例如,咱们现已看到运用深度假造(deepfakes)来生成复仇色情内容的趋势。由于这种忧虑,OpenAI约束了其模型的发布。
但是,并不是任何一个人都对OpenAI的做法表明欢迎。许多专家批判这一决议,称此举约束了其他人可认为减轻该模型损害而进行的研讨,并且它也引发了关于“AI风险”的不必要炒作。研讨人员Delip Rao曾说:“‘太风险’这个词在没有通过深思熟虑或试验的状况下就被随意抛出了。我不认为OpenAI花了满足的时刻来证明GPT-2真是风险的。”
在本周发布的完好版中,OpenAI指出,GPT-2或许被误用,该安排还征引第三方研讨称,该体系或许有助于对极点意识形态态度进行“广泛宣扬”。它也供认,忧虑该体系会被用来发生很多连接的垃圾邮件,使社会化媒体等在线信息体系不堪重负,但这些忧虑没有成为实际。
OpenAI还指出,其研讨人员现已创建了主动体系,能够约95%的准确率辨认GPT-2的输出内容,但这个数字还不够高,不足以进行“独立检测”,这在某种程度上预示着任何用于主动辨认假文本的体系都需求与人类审阅人员协作。这类协作并不稀有,由于这些使命常常依赖于人类来辨认假图画和视频。
OpenAI表明,它将持续调查GPT-2怎么被社区和大众运用,并将进一步拟定其负职责AI研讨的方针。(小小)