“走脑不走心”的AI真会思考了吗
2018年05月28日  来源:齐鲁晚报
【PDF版】
   本报记者 王昱
  某一天,你接到某家企业的客服电话,电话那头的“客服小姐”语调亲切而活泼,反应灵敏而不死板。当你挂上电话时,你丝毫不怀疑对方就是个大活人,尽管事实上,她是个不折不扣的人工智能语音助手——如果这一天实现了,你是否会认为AI已经有了与人类类似的思考能力?事实上,这个问题并非科幻,而是已经摆在我们面前。
    谷歌Duplex人工智能语音技术通过图灵测试
  本月中旬,在硅谷的I/O开发者大会上,谷歌展示了令人印象深刻的Duplex人工智能语音技术,这款AI能够模仿真人语气、语速,以流畅的人机交互方式帮助用户完成美发沙龙和餐馆的预约操作。
  在智能助理领域,谷歌助理Google Assistan原本就领先于亚马逊Alexa和苹Sir等一众竞争对手。在Duplex智能语音技术推出之后,谷歌再一次将竞争对手远远抛在了身后。
  而在大会的最后一天,谷歌母公司Alphabet董事长、前斯坦福大学校长约翰·轩尼诗宣布了Duplex(部分)已经通过了图灵测试的消息。该消息一石激起千层浪:通过了图灵测试,等于承认人工智能已经具有了与人类类似的思考能力。
  所谓图灵测试,是英国数学家、逻辑学家、现代计算机之父图灵在1950年提出的。这一年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:将一台计算机和一个人类分别关进A、B两个房间内,又让外面的人与他们进行交流,如果计算机对外界的回答能够“以假乱真”,让交流者已经分不出到底哪个房间是人工智能,哪个房间是人类。那么我们就可以认为这台计算机已经具有了真正的智能,能像人一样思考。
  图灵测试的意义在于,它将原本十分抽象,甚至可以归于哲学和伦理学的“智能”概念,具体化为一个可被测试的指标,所以一直有学者乐此不疲。20世纪90年代初,美国科学家兼慈善家休·罗布纳首次设立了人工智能图灵测试年度比赛,将图灵的设想付诸实践。比赛分为金、银、铜三等奖。自此之后,世界各地不断有学会推出类似奖项。
  2014年,一个名为“尤金·古斯特曼”的聊天程序横空出世,并成功让测试者相信它是一个13岁的男孩,成为有史以来首台通过图灵测试的计算机。不过,由于该程序对于很多问题采用了模棱两可的回答方式,很多批评者认为该程序只是在“讨巧”,因此不承认它通过了测试。
  而与“尤金·古斯特曼”相比,Duplex人工智能语音技术给出的回答显然更为“实在”,更像一个心智健全的成年人的反应。甚至当与其交流者语义含混不明时,Duplex也能准确领会到对方的意思。所以约翰·轩尼诗才会表示:“至少在商务预约领域,Duplex算是通过了图灵测试。”虽然他也承认Duplex只是通过了某类特定任务的测试,但这个突破依然是跨时代的。
  AI到底怎样才算“会思考”
  不过,也有评论者压根儿不买约翰·轩尼诗的账,甚至不买图灵测试本身的账。在聊天上能以假乱真,就算AI会思考了吗?有人对这个以结果论英雄的测试颇为不满意。最著名的反诘,是有人引用了加州大学伯克利分校的约翰·希尔勒教授在1980年提出的一个思想实验——“中文房间”。
  所谓“中文房间”,是指设想将一个完全不懂中文,只会说英语的人关进一间密室,屋里有一本超级全面的“汉语应对手册”(不是词典),里面用英文写满了使用者在看到什么样的“符号(汉字)”时,应该写下什么样的对应符号(汉字)进行回应。现在,让一个懂中文的测验者用汉语写纸条递进屋内。屋里的人在看到纸条后通过查阅手册写出相应的回应递出。这样重复几个回合,测试者很可能错以为屋里有一个精通中文的人,但事实上,屋里的人只是在根据手册做机械性的回应,却压根儿不知道自己在聊什么。
  希尔勒认为,上述过程中,房外人的角色相当于程序员,房中人相当于机器,而手册则相当于计算机程序。每当房外人给出一个输入,房中人便依照手册给出一个输出。而正如房中人不可能通过手册理解中文一样,机器也不可能通过程序来获得理解力。既然机器没有理解能力,那么所谓的“让机器拥有近乎人类的智能”则无从说起。而这样的机器却可以通过图灵测试,故而图灵测试无效。
  不过,这个反驳很快也遭受到了反驳,有人指责希尔勒犯了以部分代整体的错误:骨头不会飞,肌肉不会飞,就此却不能推出由骨头和肌肉组成的鸟不会飞。同理,虽然该实验中的人和那本《应对手册》都不理解中文,但作为整体的“中文屋子”却能理解中文。硬件、软件与人工智能整体的关系也与之类似。
  而这种反驳的反驳,很快又遭到了希尔勒支持者的反驳。他们进一步假设:如果那个人将手册完全记下,然后走出屋子,他照样可以用汉字和懂汉语的人笔谈,但却照样不懂汉语,而只是用手册中的既定答案对问题进行解答。
  这场争论争来争去,我们发现其实争执的焦点最终落脚到了对什么是“智能”的争论上。图灵的支持者们将智能简单归结为“正确的回应”,而希尔勒的思想实验则指出,“智能”的关键在于对所谈事物的理解——当两个人类谈起美食时,他们会先联想到这种食物的色香味,然后再流着口水给出它好不好吃的评价。而当你跟人工智能谈美食时,它会跳过那个联想的环节,直接在程序库中查阅对其评价,并给出结果。
  AI可能会忽悠你却“不走心”
  那么,这样的“计算过程”真的能算得上是思考吗?我们不妨将这种计算过程称之为“走脑不走心”。
  可别觉得上述讨论仅限于哲学学理的思考,它很快就将有现实意义了——尤其是当Duplex等技术走进我们的生活后。
  在本届I/O开发者大会之后,美国著名技术批评家,北卡罗莱纳大学教堂山分校教授泽伊内普·图菲克希就对Duplex的演示给出了一个异常严厉的评价:“我无法想象在场的人在看到如此恐怖的演示之后居然还能鼓掌,并且笑得出声!这种反应说明了硅谷已道德沦丧,失控,而且并没有吸取任何教训。”
  图菲克希的这个评论是反应过度吗?并不,稍微思考一下,你就会发现,这一评价是希尔勒对人工智能观点的自然延伸。如前所述,该观点的支持者一直强调,人工智能虽然能与人类谈论某项事物,但却无法真正理解该事物。那么问题来了,如果这样的人工智能给你打电话,进行的不是演示中那般的电话预约,而是电话诈骗,结果会怎样?
  结果是骇人听闻的,眼下已经十分猖獗的电话和网络诈骗,可能因为人工智能的加持扩大成千上万倍,人工智能将以更亲切的语言、更高明的话术忽悠你“上套”。而由于人工智能压根不理解事物的本质,所以它们也不会遭受人类一般的内心道德谴责,也无法负担相应的法律责任。
  事实上,正是为了应对这种担忧,在主题演讲之后,谷歌急忙表示,他们认为有义务通知每个与Duplex接触的个人,他们正在和一个软件通话。谷歌助手团队也正寻求产品保护机制,来避免诸如诈骗电话等滥用场景。
  但是,即便我们通过严加管控规避了上述风险,在未来有一种可能性是我们终究无可避免的。由于人工智能的拟人化回应比人类更耐心、更精准,终有一天,我们的生活会被这种拟人化的人工智能所充斥。不仅各行业的服务员会被人工智能承包,你甚至还会有一个人工智能的情人或人工智能的养父母。那么问题来了,当他们对你体贴入微、并一再为了照顾你的情绪向你表达爱意时,你是否能同时接受这个AI其实并不理解人类的感情?当人类生活在这样的世界中时,是否会感到无力而绝望?
  毫无疑问,技术的发展,正让AI越来越像人类。但“走脑不走心”,这恐怕将是一个长期难以克服的问题。

本稿件所含文字、图片和音视频资料,版权均属齐鲁晚报所有,任何媒体、网站或个人未经授权不得转载,违者将依法追究责任。
网友为此稿件打分的平均分是:
齐鲁晚报多媒体数字版
按日期查阅
© 版权所有 齐鲁晚报
华光照排公司 提供技术服务