开发出了一种机器人之间进行沟通的“方言”
今年6月,国外一篇《AI隆冬将至》的文章曾引发业界对人工智能开展的争议,自动驾驶事端频发、AI军事化以及AI会导致人类失业等论题,也不断被媒体所报导,受众对AI的质疑和不信任感在添加。
媒体把握言论话语权,AI研讨员把握着专业技能,但两者的对立越来越大,面临媒体的误读和炒作,乃至很多科学家都要专门发文或出书进行驳斥谣言和纠正。但这样的情况是怎样发作的?媒体的人物应该是什么?又该怎样防止呢?
上一年6月,Facebook人工智能研讨部门的五位研讨人员宣布了一篇研讨陈述,展现了机器人模仿人类进行谈判的对话景象,发现机器人偶尔会说一些很古怪的话,比方:“对我来说,对我来说,对我来说,对我来说,对我来说球没什么用。”这在其时被以为是开发出了一种机器人之间进行沟通的“方言”。
这项研讨并没有新的打破,所以业界觉得没什么,但传到媒体那就变成了别的一件事,他们觉得这是一件很严重的工作。
比方,Fast Company(钛媒体注:美国最具影响力的商业杂志之一)宣布了一篇题为《人工智能发明了人类无法了解的言语,咱们应该阻挠吗?》的文章,全篇都在描绘机器人不断呈现违背规范英语的沟通,更重要的是,“Facebook的研讨员是在以为这些机器人失控的情况下,决议“拔掉插头”,完毕这项研讨。”
这篇文章出来后继续发酵,而且引发很多媒体的跟风,乃至鼓动咱们的恐惧情绪,称Facebook的工程师由于机器人进行了新创言语的自主沟通而感到恐慌,不得已叫停了他们的AI研讨项目。
《太阳报》还说“这与电影《终结者》的情节十分类似,其间有一个机器人呈现自我意识后对人类发起了战争”。
关于这些由媒体制作的“耸人听闻”消息,卡耐基梅隆大学机器学习系的助理教授Zachary Lipton感到万分懊丧。依据他的说法,近年来“机器学习”和“深度学习”等论题越来越受重视,导致了这种“见缝插针”的低质新闻的众多—— Lipton称之为“AI误报风向”(AI misinformation epidemic)——不光曲解了研讨意图,还对人们正确了解该职业的开展造成了负面影响。
在这种情况下,越来越多的AI研讨员也相同体会到了Lipton的挫败感,并开端忧虑人工智能猜想性的虚伪报导,会促进人们对其开展前景抱有过错的预期,最终要挟到人工智能未来的进步以及其他新式技能的运用。
由来已久的夸大报导,科学家出书驳斥谣言
事实上,媒体对核算机智能的夸大宣扬并非咱们这个年代所独有的,早在“核算”这一概念呈现时就现已存在。而最早可追溯到1946年2月,当体型巨大的电子数字积分核算机Eniac发布时,记者纷繁将其描绘为“电子大脑”、“数学怪人”、“气候预测者和控制者”,乃至是“巫师”。
为了遏制对这一新机器的炒作,防止群众遭到虚伪新闻的误导,闻名英国物理学家DR Hartree在《自然》杂志上宣布了一篇文章,描绘了Eniac简略而有用的工作方式。
但让他伤心的是,《伦敦时报》在他的研讨基础上宣布了一篇题为《电子大脑:处理谜题,带有回忆的阀门》的文章。对此,Hartree特意给该修改写信,称“电子大脑”一词具有误导性,机器“无法代替人类的思维”。
惋惜的是,误导现已构成,在媒体眼中Eniac永久成为了“大脑机器”的象征。
无独有偶,美国康奈尔航空实验室的工程师Frank Rosenblatt在1958年提出了一种名为“感知器”(perceptron)的根本机器学习算法,依照设计,它只能经过训练来辨认有限的形式规模,但《纽约时报》宣布了一篇文章声称该算法是一个“电子大脑”,能够“自学”,并很快“能学会走路、说话、看、写作、自我仿制,一起也能意识到自己的存在“。
到了20世纪60年代末,许多AI先驱者越来越显着地意识到自己轻视了在机器中模仿人脑的难度。
1969年,曾揭露表示机器智能将逾越人类的马文·明斯基与核算机科学家西摩尔·帕普特一起编撰了一本书,来证明Rosenblatt的感知器无法完结专家们从前的想象,一起还表示,其智能程度远没有媒体宣扬的那么夸大。
这本书出书后,敏捷在人工智能及其他范畴传达开来,掀起了一场拆穿人工智能“神话”的潮流。1972年,哲学家Hubert Dreyfus宣布了一篇名为《核算机所无法担任的工作》的文章,对机器研讨产生了深远的影响。一年后,英国数学家James Lighthill宣布了关于机器智能开展现状的陈述,得出结论——迄今为止,人工智能和机器智能范畴所获得的效果,并没有产生预期的重大影响。
“神话”幻灭后,人工智能便迎来了第一个隆冬。在这期间,该范畴的研讨经费简直悉数放缓。就连那么从前对“电子大脑”兴致勃勃的媒体,也失去了报导爱好。
尽管在20世纪80年代和90年代呈现了小规模的“复兴”迹象,但AI或多或少仍是成为了科幻小说家们嘴边的论题,而核算机科学家也尽力防止运用人工智能一词,由于惧怕被视为“白日梦空想家”。
隆冬过后,深度学习呈现引发媒体疯狂追捧
人工智能第一个隆冬的完毕,是在新一代研讨人员宣布关于成功运用“深度学习”技能的论文之后。尽管从实质上说,这也是一种类似于Rosenblatt感知器的数据核算技能,但核算才能的进步和庞大数据集的可用性,也意味着深度学习使语音辨认、图像辨认和言语翻译等使命变得切实可行。
而随着深度学习的炽热,比方越来越多的企业斥资研讨以及越来越多的学生打开学习,这也让沉寂了很长时刻的媒体开端了大肆的报导。
2013年,John Markoff在《纽约时报》上编撰了一篇关于深度学习和神经网络的专题文章《像人脑的核算机:从经验中学习》,不仅回忆了60年前的媒体炒作,还提出了新技能所带来的可能性。其间提到“在未来几年中,深度学习将会催生新一代人工智能系统,完结一些简略的人工使命,包含看、听、说和控制等等。”
从那时起,关于“AI末日”,“人工大脑”,“超级人工智能”和“令人毛骨悚然的Facebook 人工智能机器人”等夸大报导便开端每天呈现在各大媒体上。而随着越来越多的媒体对人工智能进行大肆宣扬,研讨员的失望和懊丧也越来越显着。
让人感到不安的不仅是记者的“常识盲区”,而是总有无知媒体自称是AI范畴的“大V”,但实践上,他们只会在其博客上引用马斯克的话进行内容质量低下的炒作。
对此,Lipton表示:“人工智能要想获得实践开展需求一个清醒和知情的论题环境。但现在,群众了解的都是与事实不符的信息。关于信息的真伪与重要性,他们无从得知。”
Lipton并不是第一个对人工智能新闻炒作感到忧虑的人。上一年,美国机器人专家Rodney Brooks编撰了一篇文章,批评了麻省理工科技谈论对人工智能未来开展前景的过度猜想。2013年,纽约大学教授Gary Marcus也写了一篇文章,以为炒作将带来不切实践的期望,进而让人工智能进入又一个隆冬。
媒体与研讨员加强合作,才能职业正确的方向
但关于Lipton来说,AI隆冬的危险并不可怕,可怕的是媒体将怎么误导人们对人工智能的了解。为了处理这个问题,他在上一年3月创办了自己的博客,企图能凭借一己之力平缓那些耸人听闻的AI新闻。
到目前为止,Lipton的博客得到了媒体的一些重视,并有了固定的读者群,但Lipton知道他的影响是有限的,“这个职业真实需求的是训练记者,让他们更诚笃,在这种情况发作之前,我的博客仅仅一块鹅卵石,激不起千层浪”。
新式技能范畴的专栏作家Joanne McNeil对此十分赞同,她也以为科技新闻中存在很大的问题,记者本身本质需求进步。尽管她也会在Twitter上戏弄一些带有《终结者》风格的文章,但仍是不会直接批评科技记者,由于在她看来,人工智能炒作的原因之一是资源分配不均。
依照她的话来说,假如你将记者的收入与人工智能研讨员的收入进行比较,很快就会清楚为什么新闻记者无法写出具有专业深度文章,究竟他们不能与专业人士混为一谈。研讨人员能够从炒作中获益,但对想要对这项技能进行批评的记者来说,仅仅在“遭受痛苦“。
事实上,相关常识过硬的媒体人很少,假如研讨员真关怀记者写出来的文章内容,那他们应该参加到新闻编撰中。一起,还要恰当进步记者的收入,以便鼓舞他们花费时刻去仔细挖掘与之相关的内容和专业常识。
尽管记者和研讨人员之间更密切的互动,将是朝着正确方向迈出的一步,但澳大利亚国立大学工程与核算机科学教授Genevieve Bell表示,消除人工智能新闻的炒作是不可能的,由于关于电子大脑或Facebook机器人的文章并不是关于技能的,而是关于群众的文明期望与焦虑。
总的来说,现在,毫无依据的猜想与真实的研讨之间的边界有些含糊,但从前史的开展视点来说,这种含糊的边界毕竟要明确起来,以便群众合理区别,哪些内容是重要的,哪些仅仅梦想。
