编者按:本文来自微信群众号“量子位”(ID:QbitAI),作者 鱼羊,36氪经授权发布。
AI年代,以AI之名行骗的“伪AI”产品层出不穷,乃至影响越来越广泛。
有位名叫阿文德·纳拉亚南(Arvind Narayanan)的普林斯顿CS副教授坐不住了。他炮轰道:
某些公司为了卖货,运用群众的不了解,不论卖的是什么统统贴上“AI”的标签。
更可怕的是,像AlphaGo这样优异的AI们招引来了很多的投资者。光环之下,“伪AI”产品相同能征集到巨额资金,乃至在本钱的推进之下,成为趋势,影响渐渐的变多的人。
阿文德以AI面试举例。现在,全球已有百万求职者阅历过或正在阅历AI面试官的“注视”。
供给这类产品的公司非只一家,其间最闻名的HireVue,宣称全球有超越700家公司运用他们的产品,其间不乏国际500强企业。现在,这家公司已征集资金9300万美元(约合6.55亿元人民币)。
△康奈尔大学调研成果
阿文德指出:
没有经过同行评定的依据可以标明,这些东西真的可以猜测作业绩效。数百万求职者面临的不过是精心设计的随机数生成器。
令人置疑的,还远不只是这一种产品。
为了让我们不被这样的最新“智商税”收割,阿文德决计教会我们怎么辨认这些AI界的骗子们。
他的这份“防骗攻略”上台数小时,就已经在推特上收成了1500赞。
AI骗子长什么样
首要,阿文德以为,现在的AI使用可以分红三类:
真实行之有效的项目
不完美但发展显着的项目
底子不靠谱的项目
总结起来,在人脸辨认这样的感知使命,和引荐算法这样的主动判别使命上,AI的体现都比较靠谱。
而“伪AI”嫌疑人所做的,是猜测和人有关的“未来”。
人们无法猜测未来原本应该是知识,但遇上AI,知识总是被抛到脑后。
当然,口说无凭,阿文德引用了普莱斯顿大学软弱家庭和儿童福祉研讨的一项研讨成果(地址见文末)。
这项研讨旨在探明孩子们的体现究竟是不是可以猜测的。
流程是这样:先经过深化访谈和家庭调查搜集很多孩子及其家庭的数据。然后,用这些数据练习猜测模型。输入的变量有近13000个,输出成果将猜测这些孩子在15岁时6种体现。
假如模型可以完美猜测出成果,R^2=1,假如模型啥也没学会,R^2=0。
但练习的成果,却让参加研讨的研讨人员们大跌眼镜。
即使是体现最好的模型,也并没有哪一项猜测成果是让人服气的,乃至不如用4个变量线性回归拟合出来模型靠谱。
△绿线:4变量线性回归成果
这一成果并非个例。在一项再犯罪率的猜测研讨中(论文链接见文末),AI的猜测准确率只比随机成果好一点点,仍是比逻辑回归的成果低了2个百分点。
而且,不止是猜测成果不靠谱,这样的猜测AI,还暗含着更多危险。
首要,练习这样的AI需求搜集很多个人隐私数据。谁都没有很好的办法确保,这些数据会肯定安全。
其次,人们对这类AI的盲目信赖,会使得一个范畴的话语权,从范畴专家和从业人员身上,大规模转移到把握AI的科技公司。
更重要的是,AI的黑盒子特点使得它给出的成果缺少解说性。
就像是一开始举的AI面试的比如,AI面试官给你打了个低分,谁也没法儿解说,究竟是因为你体现不行自傲,仍是你身边的噪声影响了它的判别。
不是每一只AI都叫AlphaGo。阿文德供认,人工智能在某些使命上体现得非常超卓,但假如有人把AI当成了万金油,只为了分得AI风口上的一杯羹,那么,就要擦亮双眼,该对立对立,该抵抗抵抗。
一石激起千层浪
全国苦“伪AI”久矣。阿文德的“防骗攻略”一经发布,就在交际网络上引发了火热的评论。
有人责备“人工智能”一词本就带有营销颜色,假如要评论技能,就应该换一个词。
有人提及,连Facebook、Google这样的科技巨子都在AI方面造假。
注:谷歌可以主动打电话、被称誉经过图灵测验的AI Duplex,被《纽约时报》曝出4次成功完结的使命中,有3次靠的是人工。
有人以为,真实的AI会改动游戏规则,让人无法忽视,也无需大肆宣传。
还有人对“防骗攻略”做出了弥补:
我从前采访过这样一家AI草创公司。领英显现,他们对开发人员嗤之以鼻,但对“培训师”却较为重视。
我很置疑他们究竟是不是真的在造AI。
自AlphaGo一举成名,震动国际以来,人工智能逐步被推上高地,招引了很多的资金、人才,也招引了群众的注目。风口之中,真实的硬核技能光辉四射,而这样的光辉之中,也掩映着投机者的身影。
但滥竽充数者终会露出马脚。你觉得呢?
以及,有什么AI项目是你觉得“伪AI”的吗?
传送门
PPT地址:
https://binator.com/item?id=21577156
普莱斯顿大学软弱家庭和儿童福祉研讨:
https://fragilefamilies.princeton.edu/about
累犯猜测:
https://advances.sciencemag.org/content/4/1/eaao5580