您当前的位置:科技评论网资讯正文

任正非整个社会要对新技术宽容和信任

放大字体  缩小字体 2019-09-27 19:44:05  阅读量:3160 作者:责任编辑NO。魏云龙0298

科技向善Weekly由腾讯研讨院汇编,每周收拾最新一周全网科技向善相关资讯、观念与实践产品,为科技向善的探究注入全新燃料。

本周,谁议论了科技向善 ?

PingWest品玩创始人兼CEO骆轶航:科技背面是有价值观的,它应当是向善的。

9月22日,PingWest品玩与硅星人在硅谷山景城举办了第七届以「科技向善」为主题的SYNC科技峰会。

PingWest品玩创始人兼CEO骆轶航在致辞中表明:科技背面是有价值观的,它应当是向善的。而也只有当它是向善的时分,科技立异难以被量化核算的价值,才是正向的。科技若不向善,即便是现已体现在核算方针中的科技价值,也会遭到削弱。这也是此次峰会以「科技向善」为主题的原因。

SYNC约请到来自高通、腾讯云、Google、甲骨文、IBM、领英、亚马逊(AWS)等科技企业的高管、科学家等,共享了各自范畴最前沿的技能开展,提出了推进技能谋福社会的可行办法。

高通5G研制负责人Tingfang Ji博士表明,未来工厂、主动化交通、长途医疗等都将因5G取得新开展。领英数据科学负责人Ya Xu表明,领英从大数据中解读出职场信息,弥合肤色、性别、教育布景等不平等,为求职者供给更为公正的工作开展机会。

大会特别嘉宾Henry Evans,用自己的故事阐明晰「科技向善」。他原本是硅谷科技企业的首席财政官,但疾病让他成了瘫痪的失声者。而尔后他与企业、高校协作,开宣布一系列残疾人可以运用的机器人,用自己的力气推进科技前进。

——《PingWest品玩「SYNC」硅谷峰会推进科技向善》来历:新浪科技

本周,谁实践了科技向善 ?

AI协助地震学家猜想地震

地球物理学家保罗·约翰逊(Paul Johnson)等学者9月15日在网站arxiv上宣布论文称经过机器学习,可以对太平洋西北部慢地震进行猜想。约翰逊表明,该算法可以在几天内乃至更超前地猜想慢地震的发作。

约翰逊在研讨「实验室地震」的过程中,他和搭档记载下了粘滑现象中的声波,他们注意到每次滑动发作之前会呈现峰值。但他们无法将这些先兆工作改变成对实验室地震的牢靠猜想。

后团队测验运用机器学习来从头剖析数据,主要是将包含了20个粘滑周期的音频切成许多小段。研讨人员在核算了每个片段的80多个特征后,选用「随机森林」机器算法体系地寻觅和实验室地震发作强相关的影响要素,发现算法最依靠是声响信号的方差。因而可以运用该算法对何时发作滑动做出合理的猜想。

在承受了2007年至2013年的数据练习后,该算法可以根据每个工作发作前几个月记载的数据,对2013年至2018年之间发作的慢滑做出猜想。

论文信息:《A Silent Build-up in Seismic EnergyPrecedes Slow Slip Failure in the Cascadia Subduction Zone》https://arxiv.org/abs/1909.06787

——《AI Helps Seismologists PredictEarthquakes》from:https://

AI协助亚马逊流域水力发电削减碳脚印

近来,康奈尔大学牵头的团队研制出一套算法,经过运用人工智能,为亚马逊流域的水电大坝建造找到适宜的选址地址,以削减温室气体的排放。

他们指出,尽管和风能、太阳能相似,水电大坝能在发作较少碳排放量的情况下,供给很多动力,但因为选址等要素影响,水电大坝所发作的最低和最高温室气体排量之间,相差两个数量级以上。

博士后研讨员Rafael Almeida在9月19日宣布于《NatureCommunication》的一文中指出,假如没有没有对大坝进行规划,后续就很难处理好大坝发电和温室气体排放的问题。研讨者经过运用模型,核算出怎样选址可以在保证电量输出合格的情况下,制作最少的温室气体。剖析成果显现,在高海拔区域建大坝每单位输出功率排放的温室气体比低地要少。

该项研讨经过运用核算机技能,可以协助南美政府和安排在平衡动力运用和环境维护之间到达相对平衡。

——《AI helps reduce Amazon hydropower dams' carbon footprint》from:https://

大数据精准扶贫,让贫困生更有庄严

近来,西安电子科技大学经过自主开发的大数据渠道,剖析了学生2018年在校园刷一卡通的数据,找出每月在食堂吃饭60次以上、每天吃饭低于平均值8块钱的学生进行赞助。依照每天6元的补助标准,一学期720元餐补,悄然打进了一些学生的饭卡。

运用大数据「隐形赞助」学生,不只可以处理一些贫困学生生活上的压力,又可以维护他们的庄严。一起还避免了请求贫困生一系列杂乱的流程,以及避免造假的问题。

——《高校大数据精准赞助,让贫困生更有庄严》来历:人民网

谷歌发布FaceForensics, 对立深度假造

9月25日,Google已发布一个巨大的Deepfake视频数据集,包含了3,000个假造视频。该数据集旨在支撑研讨人员开发检测工具。运用该数据集来练习主动检测工具,协助研讨人员可以练习算法可以愈加有用精确地辨认AI组成图画。现在用户可以在FaceForensics Github上下载该数据集。

Google许诺将更多视频添加到数据库中,期望它可以跟上快速开展的Deepfake生成技能的脚步。该公司在布告中表明:

「跟着Deepfake技能开展迅速,咱们将添加到该数据会集,并且公司之间将继续坚持协作,一起研讨,以减轻组成媒体乱用带来的潜在损害。FaceForensics的发布朝着这个方向迈出的重要一步。」

除了Google,Facebook和微软也参加到对立deepfake中,估计在今年年底之前发布一个相似的数据库。

——《Google fights deepfakes by releasing 3,000 deepfakes》from:https://

本周,哪些问题值得考虑

数据立异与数据隐私维护之间怎样平衡

9月26日,在《与任正非咖啡对话》中,华为创始人兼CEO任正非与人工智能专家、未来学家Jerry Kaplan(杰里·卡普兰)和人工智能教授、英国电信前CTOPeter Cochrane(彼得·柯克伦)对话,讨论有关立异、规矩、信赖的论题。

在涉及到数据立异和数据隐私维护之间的联系问题上,任正非表明,首先是不同国家对隐私维护的概念不同,现在的我国相较于西方,对隐私愈加敞开。其次是,经过比照国内和美国的治安问题,他以为隐私维护是要有利于社会和个人的安全、有利于社会的前进,彻底过火的东西对社会形成的损伤也是欠好的。而关于隐私维护的标准,他以为一个主权国家对信息和数据怎样办理,是主权国家自己的工作,不需求全世界一致的标准。

华为战略部总裁张文林以为,并不是要取得一切的数据才干完成技能前进。有能辨认出正确类型的数据就可以,因而科技公司不需求取得一切的隐私数据。在初期阶段有些互联网公司并没有真实的搞清楚需求什么类型的数据,可是现在已逐步知道到必需求尊重和维护数据隐私。Peter Cochrane则表明,技能公司需求用最小化的数据,然后产出最大或许的价值。

针对怎样对数据隐私该怎样进行监管的问题上,任正非表明,整个社会要对新技能宽恕,因为没有学术和思维的自在就不或许有创造发明。当创造发明出来后是否有利于人类,都是要有创造发明今后渐渐知道的。

——《任正非对话人工智能专家全文实录:华为5G技能只卖给美国》来历:腾讯科技

人脸Deepfake的下一步全身Deepfake:组成技能开展具有商业价值,但要挟一向都在

现在对深度假造的忧虑会集在对虚伪面孔、仿照写作风格和声响上。可是组成媒体技能的另一种方法:全身假造正在迅速开展,在田径、生物医学、时髦服装职业均有运用,其商业价值也清楚明了,但背面的问题一向存在并逐步遭到人们重视。全身深度假造歹意运用者乃至可以做到,让停止的人物直接对着摄像机,说出运用者想让他们说的任何话。

佛兰芒广播公司查询记者汤姆·范·德·威格(Tom Van de Weghe)表明,遭到要挟的除了名人、政治家等,普通人也会成为深度假造的受害者。将交际媒体和深度假造相结合的话,很简单形成严重破坏,一起因为交际媒体公司很或许无法或不愿意调整渠道和内容,导致假造信息任意传达。

职业界也正在探究不同的处理计划。例如,有团队查询了镜头的数字水印;有团队运用区块链技能树立信赖。还有的是经过开始创立深层仿制技能的办法来辨认深层仿制。加州大学伯克利分校的研讨员Shruti Agarwal则运用软生物辨认模型,来确认面部抽动是否是为视频人工制作的。

海德堡大学图画处理协作实验室(HCI)和科学核算跨学科中心(IWR)的核算机视觉教授Bj rnOmmer表明,组成图画运用其间十分重要的一部分是职责问题,政府机构、公司应该看到自己的职责。可是两边应怎样处理这项职责,仍是扎手的问题。

——《You’ve been warned: Full body deepfakesare the next step in AI-based human mimicry》https://pany.com

AI需求怎样的监管方法?

据9月23日英国《金融时报》采访报道,Google首席履行官桑达尔·皮查伊(Sundar Pichai)表明,政府应该警觉「急于」对人工智能进行广泛监管。他指呈现有法令应当按部分从头规制后作用于不同部分的AI上。急于起草计划或许会阻止立异和研讨,不如着力处理当时的火急问题,如算法成见和问责制等。

前Google工程师劳拉·诺兰(Laura Nolan)也赞同皮查伊的观念,在《商业界幕》中,她说抽象的AI监管过分广泛,法令不应该和详细技能的完成挂钩,并且AI是一个十分含糊的术语。

而牛津互联网学院教授桑德拉·沃克特(Sandra Wachter)以为,人工智能的风险和收益会因为职业、运用和环境有差异。他举了人工智能在刑事司法和卫生部分运用面对的不同应战阐明,最重要的是评价法令是否契合意图。在某些情况下可以对现有法令进行调整。

一起,诺兰(Nolan)和瓦赫特(Wachter)都提到了或许需求新法令的特定范畴,例如面部辨认、AI兵器等。因为新技能的运用而呈现了显着的问题,因而不加以标准是成心答应损伤发作。而在作战中运用AI则有必要承受监管,其软弱和不行猜想性,制作运用AI来履行方针挑选是十分风险。

——《Google CEO Sundar Pichai warns against'rushing' into regulating AI, which happens to be vital to Google's futuregrowth》from:https://

科技向善是在腾讯创始人之一张志东先生指导下,于2018年头由腾讯研讨院建议的一个多方共建的研讨、对话与举动渠道,这一理念在2019年晋级为腾讯公司新任务。腾讯研讨院期望在这一任务下与社会各界一起重视技能演进带来的重大问题,寻求一致与处理计划,引导科技为社会带来最大福祉。

--END--

我美观吗?

“如果发现本网站发布的资讯影响到您的版权,可以联系本站!同时欢迎来本站投稿!