我的人工智能奇幻漂流
三十多年前(1986年),我开始在台湾的清华大学学习AI。1992年,我在美国取得博士学位,回到台湾科技大学教授的第一门课,也是人工智能。教了几年,人潮散去、预算删减,觉得人工智能没有什么产业价值。这时期的AI我称之为“旧AI”,工程师必须设计出复杂的递推(recursive)算法,相信经过知识工程师的观察,可以分析出人类的知识,是一种白盒子AI(有清楚的推理逻辑)。渐渐地我们发现,人们知道的远比说得出来的多很多。当时也有黑盒子AI的机器学习,但是受限于计算能力与人类定义的输入特征值的好坏而无法进步,这些都是我当初教与学的“旧AI”。
这波“新AI”革命约从2006年的深度学习(deep learning)论文发表开始,但是所有的“旧AI”都红了,投资者要特别小心。在“旧AI”的机器学习上,人类有一项重要的工作是定“特征量”。像是在人脸辨识上,“旧AI”会先定义人脸的特征(如五官间的距离等等);或是在预测股票时,“旧AI”也要先定义股票市场的特征(如基本面、技术面、消息面等变量),再做监督下的机器学习(就是有老师告诉学习结果的对与错)。机器学习的好坏取决于人类是否能够定义出好的特征量(输入变量),“新AI”最大的贡献就是电脑可以自己找到特征表达的方式,不需要人类的监督教导,效果却比人类找到的还要好。
这波革命,对管理界到底产生了什么影响? 我认为是企业多了四双“眼睛”。过去企业只有收集来的数据,数据栏位都是由人类定义出来的。互联网与物联网的世界中却充满着沉淀的数据,这种不经意留下来的数据,却代表着真实的世界。但是这些沉淀出来的数据杂乱无章,毫无规则。这些特性正好符合了“新AI”的强项,不再倚靠人类设计的逻辑,反而依靠大量无序的数据,进而找到特征表达,做出分类、判断与推论。“新AI”是人类的新眼睛,让我们看见了真实的世界(沉淀的数据),眼睛明亮了,就将产生一系列的新物种大爆发。
寒武纪物种大爆发: 眼睛的诞生
最近一本书提到,寒武纪物种大爆发是因为生物有了眼睛。早在五亿四千四百万年前,单细胞生物就已在地球上出没,当时的动物物种只有三个动物门。而在短短的五百万年后(这段时期仅占生物演化史的千分之一),这三个动物门的物种突然演化成三十八个动物门,几乎现今所有动物的祖先,全在一瞬间蜂拥而出!这个物种快速暴增的现象发生在寒武纪初期,称为寒武纪大爆发。
为什么会发生寒武纪物种大爆发? 最近的研究(Andrew Parker)指出是因为出现了第一双眼睛。Parker认为眼睛改变了生物生存的两项法则。第一项生命法则是“吃”,“避免被吃掉”与“吃掉别人”。第二项生命法则是“性”,找到优质的对象繁衍后代。在没有眼睛的时代,生物的捕食与繁衍靠的是机率;有了眼睛之后,就是主动的捕食与求偶,靠的是战术,也就是智慧的开端。
简单的说,有了眼睛之后,生物可以经由战术,来战胜机率。
人类的经济历史不也是一直借由“看见”的战术来战胜机率吗? 在狩猎时代,人类借由看见足迹与粪便来预测猎物的位置;在农业时代,人类借由看见四季天气时令来决定何时播种与收割;在工业时代,人类借由科技如POS系统来看见市场端的变化;在互联网时代,人类借由数字足迹看见每一个人的精准。紧接着来的是人工智能时代,人工智能的眼睛,又看见了什么?
我认为人工智能共有四双眼睛,已经睁开了三双眼睛,而第四双眼睛,也即将要睁开。第一双眼睛是互联网,让我们经由人们在网络上沉淀的数据,精准看见个人与社群;第二双眼睛是物联网,让我们经由实体世界中沉淀的数据,看见了智能生活;第三双眼睛是让电脑有了人类的视觉与听觉,成为这个世界上最方便携带的感知器,看见了真实世界; 第四双眼睛,让人工智能开始与世界博弈互动。有了四双AI眼睛,企业将更看清这个世界,发展新的战术,吃掉猎物与繁衍后代。
第一双AI眼睛的战术: 看见精准
建立商业信任最好的方法,就是你看得见我,我也看得见你。有了信任之后,就产生了物种大爆发,出现了大量P2P的商业模式。
第一双人工智能眼睛让我们看见数字世界中所沉淀的数据。为什么叫做沉淀的数据,因为这些数据不是规划出来的,而是遗留下来的,数量很大,而且很乱。沉淀的数据是一开始不知道要做什么? 但是沉淀到一定的数量,它的用处是被挖掘出来的。挖掘数据的人称之为数据科学家,因为这些人必需要懂数据工具、懂领域知识、懂数学模型,导致人才非常缺乏。基本上有以下几类的应用。
数据掘矿
商业决策,不再靠因果机率,而是靠看见关联后的战术。产生了数据公司的大爆发。
借由建构好的数据模型,分析大量储存好的结构化(表格化)数据。像是阿里巴巴,在淘宝光棍节累积了相当大的交易数据,经过各类数据模型的分析,马云可以知道:哪一省的客户买最多的比基尼泳装(答案竟然是内蒙古);光棍节到了,各城镇的人都在买什么? 此外,常用的还有关联分析,像是亚马逊分析买过这本书的人,也买过其他几本书。或是决策树分析,经由过去大量数据的分析,我们可以判断什么样子的人是比较高风险的人,帮助第一线的员工做决策。
看见个人化精准服务
遇见客户,不再靠机率,而是靠看见精准后的战术。产生了个人化服务与营销的新物种大爆发。
沉淀的数据为什么巨量,因为这是为精准的个人化预备的。因为联网了,所有的数据都在为个人化服务,所以数据就巨量了。
这是一个共享开放数据的概念,POS、电子支付、电商、朋友圈、百度、微信与Fintech等数据的开放共享。POS系统让我们看到几点几分在什么地方卖出了什么? 电子支付又告诉了我们交易的人是谁。电商看到这个人的过去购物纪录,可以判断这个人的信用与喜好。朋友圈看见这个人何时对什么文章点赞、分享与留言,借此判断这个人的喜好。百度关键字搜寻表示这个人对什么议题有兴趣。微信更是知道你哪位朋友在沟通什么议题。第一双眼睛看见了一个人所在的“人时地事物”的场景,给予精准化的个人服务。
看见弱连结的信任
相信陌生人,不靠机率,而是靠看见公开透明后的战术。于是产生了许多P2P的新物种大爆发。
弱连结指的是陌生人,网络上交易的对象可能都是陌生人。但陌生人可以相信吗? 当然不行。过去对陌生人的信任主要来自于第三方的认证,像是出租车的品牌、推荐信、银行的收入证明录等。但是这些第三方认证,都不如数据的公开透明。
另外,你比较相信专家还是大数据? 过去亚马逊网络书店会聘请一批专家来帮助你挑选好书与写书评,但是现在这些专家都被解聘了,因为人们比较相信上百位读者为一书所写的书评。在智能手机上下载APP时,如果已经有上百万人下载,给的评语很好的话,这个APP就不会差到哪去。
旧金融对支付的看法就是转帐的功能,但是在新金融中,却是生活,因为生活,才能沉淀出个人与社群互动的大数据,因为普惠金融需要信任,在新金融中,却是由现在与过去的生活足迹来建立征信系统。像是台湾的玉山银行,只要回答18个选择题,三分钟内,配合网络大数据,就能决定可以贷款给你的额度与个人化的利息。让这类小额借贷的对象扩大,依据玉山银行的资料,这类贷款的呆帐率比人工审阅还要低。
新零售不也是如此,我们在挑选店家的时候,网友的推荐,也远胜过企业公关发言人说的话。
看见舆情分析
市场预测,不只靠机率,还靠看见市场底层声音后的战术。于是产生了社会倾听(social listening)新物种。
网络上有许多舆情言论,处理的主要是大量储存好的非结构化数据。如果企业想知道网络社群上讨论的舆情是什么,可以通过网络爬虫技术、关键字的声量(出现次数)计算、正负评论的分析。也有人用做品牌监控,特别是当有广告出去了,评估广告对品牌声量效果,或是企业在做危机处理时,想知道网络舆论的正负评论声量。
读懂文件
阅读文件机器人将是另一项新物种爆发。
每年上市公司有许多财报需要阅读,已经高出人类能够阅读的数量。未来的智能理财机器人可以帮忙阅读上市公司的财报与新闻事件,提出投资的建议与警讯,同时也可以读到犯罪或洗钱迹象的数据;协助律师阅读条文与过去判例;协助医生阅读医学期刊;也能够由保险人提出的相关文件发现不一致的诈保嫌疑。
江河运算(Streaming computing)
因为物联网与感知器的普及,要处理大量即时侦测,并没有储存的大数据,这些应用需要即时的运算。像是智慧工厂、智慧城市、智慧家庭、智慧健康、智慧能源等应用越来越普及,这些即时收集到的感知器与物联网资料,开启了人工智能革命的第二双眼睛。
第二双AI眼睛的战术: 看见智慧生活
物联网让万物皆可联网,问题是,联网后要做什么?
我认为,第一双眼睛(商业互联网)看见的是人(P2P),所以产生了C2B逆商业时代。第二双眼睛(工业互联网)看见的是物品(M2M),因为万物联网,产生了智慧星球的概念。让未来互联网的中心不再是平台,而是你所在的地方,就是网络的中心。
具体而言,人工智能的第二双眼睛有三个层次:
(1) 端点感知(sensing or UI): 感知器的种类非常多,这类科技,又称数据科技。
(2)云端智能(meaning or DB):不只是收集数据,还需要整合不同数据、探索数据的意义、归类与场景(context)。
(3) 启动服务 (judgement or AP),对判断与未来行为的推估,启动适合的服务应用。
端点感知层
过去沉淀的数据多半来自于网络世界,但是人们主要活动的世界却是实体,因此如何从实体世界取得沉淀的数据,就是万物联网下的人工智能眼睛。
物联网是一个很模糊的名词,举凡能将物体与互联网连结的技术如感知器,统称物联网。重点不只在技术,而在联网做什么? 举例来说,这篇文章可以联网吗? 联网要做什么? 目的确定了,才思考要用什么技术联网(晶片、条码、AR技术等等),一旦联网,这本书就是物联网中的一份子了。端点感知器种类非常的多,在我们日常生活中,有温度感知器、湿度感知器、速度感知器、生理数据感知器、监视器、汽车倒车雷达、声音感知器、手机定位感知器等等
举例来说,绿能科技需要感知环境监测、物联网产业需要感知器资料收集与网实整合、智能机器需要机台元件感测整合、国防工业需要精密感测IC、生技医疗需要生物感测IC,借以收集数据,做出智能判断,并回应做出管理行动。物联网将是未来工业的基础,需要基础建设来支撑。这个基础建设就是物联网的数据要整合上传到云端数据库,由人工智能的学习判断给予分类,最后启动该有的服务。这种“端点感知、云端判断、启动回应”,就成了人工智能第二双眼睛的基础建设。
不过端点感知器不久将来就会有一千亿个以上,为避免网络的负荷并兼顾回应速度,感知科技也会让产品主动发号施令。过去,产品是被制造的,未来产品的晶片能告诉设备,你要怎么制造我。像是制造墨水,墨水的染料配方,不是由自动化电脑所决定的,而是由瓶子的智慧晶片所决定。红绿灯的秒数也不是中央控制的,而是随着老人智慧手环的晶片,告诉红绿灯说,我是老人,绿灯的秒数需要长一点。
云端判断层
通常我们在说大数据时,不是因为你拥有的数据大,而是联网了,云端的数据就无限大了。这是一个分享经济的概念,许多银行跟我说,他们拥有许多的数据,但是不知道要怎么用? 我提醒他们,大数据不是分析大量数据,而是联网后的整合数据。
举例来说,传统零售业的POS系统累积了大量的数据,传统银行存折上也累积了大量的数据,但是这些数据都只能做报表,跟过去没有差别,但是一旦连线了,就是个人化的服务。举例来说,当人们用手机作为支付工具,因为联网,我们马上看见他所在的位置、过去的交易纪录、银行的信用、社交媒体的贴文、年龄性别……这些联网的信息,构成了大数据。大数据是为个人化预备的,不是为产生分析报表的。
当所有感知器的内容都送到云端之后,除了数据可以跨屏(让手机、电脑、电视等等屏幕同步),更重要的是,这些整合的数据,可以经由数据科学家,设计出算法,做人工智能的判断。
启动服务层
端点感知、云端判断之后,最重要的就是启动应用服务。举例来说,当我知道车子的驾驶不是车主、当智能手表发现老年人摔倒、当智能电表发现有异常的用电,下一步要启动什么服务? 这就是最早提及的,万物都可以联网,重点不再是科技,而是联网之后,可以做什么?
从智慧生活的角度,人才是物联网的核心。为了管理这么多的连结,未来智慧生活的入口将不是电脑,也不是手机,而是一个跨平台智能生活助理。最近亚马逊的智慧音箱(Amazon Echo)走入了家庭,成为了智慧家庭的整合中心,或是智慧家庭的入口,但是智慧家庭要成功,必须仰赖更多的“万物联网”。而亚马逊最近也开放软件公司能够在Amazon Echo上开发应用服务,未来相关应用将如APP一样的多元起来。譬如冷气机家店可以与Amazon Echo联网,可用声音做温度的调控;电视、广播、网录影音也可以与智能音箱连结,做音乐电台的自动播放;电商业者也可以与Echo连结等等,让Echo成为智能家庭中的平台。如此一来,未来的智能家庭就会迅速发展起来,产生物种大爆发,成为一个以机器人为中心收集家庭大数据,提供更精准的服务。
汽车可以上网吗? 目前手机的GPS不仅能够导航,还把大家的时速地点上传到云端,Google就可以算出各路段的平均时速,引导你走最不塞车的一条路。此外,轮胎泄气了,冷却水不够了、煞车油与机油不够了,感知器会在第一时间让驾驶知道。如果汽车发生事故,车子也会把时间地点的信息自动传给救援公司,同时也统计了发生事故的机率,未来事先可以提供警示。当然,如果是货车,司机就不能偷懒,因为你开车的路径都有纪录,对于货车的调配也更精准。
关于医疗健康保健,微软早在2008年就用视频的方式勾勒出未来的梦想,可是常常实践梦想的却不是微软自己。譬如人们可以借由可穿戴设备将自己的健康数据上传到个人化的健康平台,或整合第三方医疗数据,提供更精准的医疗服务。阿里巴巴的未来医院,更将医疗就医流程与支付宝完美地结合,以搭建未来大健康产业的医疗平台,这些都成为联网的目的。
同样的道理,血压计、血糖计、运动手表、药罐都可以上网,看见你个人的行为,影响你的个人化保费。在智慧医疗照护上,医生可以看见内视镜而微创手术,病人身上可以接上感知器随时知道生理数据、甚至可以知道老人的位置与是否跌倒的判断。
在智能工厂上,评估生产系统性能的关键指标如产量、品质、成本、零组件的精密度,感知器要收集影响关键指标的数据以做事前自动察觉与自我预测性的警示,而不是事后报表式的信息。在智慧设备上,感知器收到的资讯不断被收集,是一种江河运算,随时监测异常状态,并记录设备状况。与过去正常模式做对比,以判断当前的设备健康状态与故障预测。也可与相同或相似机台做信息感知、相对比较、异常侦查,这是一种机器对机器的联网,借此发现异常,并建立异常数据库,以做未来判断数据的学习。
我们需要更多想象力,万物可以上网,便在真实世界中,沉淀了数据。这些数据,经过机器学习,就可以产生无限智能化的应用。
第三双AI眼睛: 看见与听见世界的意义
这一波人工智能的革命主要在第三双眼睛,电脑可以听见与看见这个世界了。
电脑视觉一直是人工智能中最难突破的环节,因为真实世界中的“特征值”太多。人们对复杂世界的认知处理,都会有一个“降维”的处理,将复杂真实世界的维度,降低到到可以接受的特征值。举例来说,真实的股票市场太过复杂,于是投资专家便会定义重要的变量,希望用较少的变量,能够解释最多的变异量。人类必须要定义有效的变量,电脑帮忙运算。
过去,人类负责降维,但是找到的特征值都不够好;未来,将由AI负责降维。
人脸将是最容易携带的O2O标签代码
举例来说,目前台湾桃园机场的人脸辨识系统就是“旧AI”,工程师定义了人脸五官的特征比例,借此运算辨认人脸,所以在机场辨识人脸时你必须立正站好,两眼直视镜头,因为镜头要确认你五官的位置。人类降维的数量不会太多,当你在林志玲脸上只定义出20个特征(五官的几何位置),你能够很容易地在十亿人口中找到她吗? 如果人工智能能够在林志玲脸上找到一百万个特征(脸形的勾边特征),再逐步降维,就比较容易在十亿人口中找到林志玲。
一百万个特征如何找?这种用电脑自己归纳出林志玲脸上特征值的降维方法,是深度学习的重大突破。过去的机器学习比较类比像是非线性回归分析,人类定义出输入特征值X(数量无法太多),来调整权重预测Y。深度学习比较类比像是因素分析,让输入等于输出时,经过多层降维的运算,就能逐步归纳出最佳的特征值。过去人类定义人脸辨识的变量,多半是五官间的几何距离,再由人类设计精妙的算法来辨别人脸;而电脑则是由不断地试误,找到最小误差的特征值,多半是细微的勾边,再逐步降维到简化过的图像。只要有够多的图片去训练电脑,让电脑找到这些勾边如何继续降维。深度学习算法是固定的,不像过去必须倚赖程序设计师的逻辑能力,反而重点是谁掌握到够多的人脸照片,谁就能在人脸辨识上胜出。
在线上与线下数据整合上,我们过去都需要代码(如客户编号、二维条码、电话号码等等),未来如果人脸就是代码,就可以用人脸配合密码来支付,用人脸取代会员编号,只要你一走进店家,店家就知道谁来了,我们在真实人类的世界上,本来就是靠人脸辨识你是谁。
辨识图片的意义,并且说出来意义
除了人脸,电脑开始可以辨别这个世界的物件与意义。
如果电脑要开始辨别出更多的物件,必须要有庞大标签化的图片库来学习。人工智能科学家李飞飞在2007年开始了一项ImageNet的图片库建立的计划,他们在网络上下载了大量的图片,并由全世界约五万名义工帮忙给每一幅图片分类与下标签(图的意义)。2009年,ImageNet图片库中有了一千五百万张图片,超过二万两千个分类标签。这些庞大标签化的图片库让许多人工智能算法在其中比赛准确度。2012年,加拿大多伦多大学Prof Hinton的团队,居然以新的算法(卷积神经网络,Convolutional Neural Network)与GPU处理器(擅长处理矩阵运算),让他们的准确度遥遥领先其他团队10%以上。至此,有了附有说明的练习图片,有了新的算法,电脑视觉产生了显著的进步,能够辨识许多真实世界的物件,并且能够以自然语言,说出图片的意义。
这项突破是这波人工智能主要带来的里程碑,让电脑逐渐可以取代人类的眼睛看见这个世界的物件与意义,并以人类的语言说出来。
举例来说,未来人工智能的眼睛可以看到驾驶正在打瞌睡或酒醉,是否摔跤,可以看出人们的喜怒哀乐、可以看得出自驾车前方路上出现的是纸袋还是石头,可以帮助医生判读X光,辨别人际关系、辨别美丑、提供穿衣服与化妆的建议等等。蚂蚁金服也提出了定损宝的服务,汽车如果有事故,只要在指定位置照三张照片上传,打通电话说明发生了什么事,就可以在几小时内,完成理赔的服务,原来,那通电话在测谎,而你上传的几张照片,由人工智能程序判断应该理赔多少,准确度不输给真实人类定损员。
听见声音,并且完美翻译
这波人工智能的革命主要发生在图片的特征表达,因此举凡能够转换成类似图片像素二维矩阵格式的数据都可以使用深度学习,但是每一行列的像素如果换了位置,意义就不一样的数据,就不拥有图片像素的特征。过去一般资料库的表格因为栏位变动意义还是一样,像是栏位信息是“编号、姓名、地址”,还是“编号、地址、姓名”,如果换了栏位顺序没有影响的数据,就不是图片像素数据,就无法使用深度学习算法。
声音是一个很容易转换成图片像素档案格式的另一个应用,譬如纵轴是音频高低,横轴是声音的时间排序,因此声音很容易转换成类似图片像素的档案格式,一旦转换成功,电脑就可以自行发现声音的特征值。过去数十年语音识别的声音模型一直很难突破,因为人类制定的语音特征模型的方式不够好且因人而异,但是2006年 Hinton提出了深度学习的算法,由电脑自行找到的特征值,让语音识别的错误率,降到5%甚至更低的水准,产生许多智能音箱的物种大爆发。
当AI听懂了声音,接下来还需要了解语言的意义。过去靠的是语言学家的文法结构,文法是人类定义出的结构,但是人类知道的比说出来得多,文法的例外可能与规则一样多。譬如我看过一则中文文法,是“动词+名词”=“把名词动词掉”,“吃饭”=“把饭吃掉”,“关灯”=“把灯关掉”,但是“开灯”=“把灯开了”,到底是开掉还是开了,就是例外状况。其实只要中文讲多了,根本不需要记忆文法,因为从大量生活对话中,人们有一种统计直觉本能,找到正确的介系词。
人工智能正用统计智能取代规则智能。语言翻译也因为网络上翻译对照的网页越来越多,一种以统计对应而不是用字典对应的新方法产生。过去的人工智能对语言的翻译是要先将语言按照文法句型结构(parsing)辨认出主词、动词、形容词、副词、名词,再依照字典加以解释,但是翻译的品质一直不到小学程度,而且无法充分考虑上下文情境对于翻译的影响。早期IBM也尝试由三百万句完美翻译中找出翻译的统计关系,但是效果并不好,但是在网页上累计了九百亿句的翻译网页,品质良莠不齐,但是因为数量庞大,反而开始有了良好的表现。举例来说,看电视、看书、看医生都是用看,但是如果从大量中英对照的网页中统计出“看”这个字会因为不同的受词而有不同的英文翻译,反而有更好的翻译表现。
语音比图片单纯太多,语音辨识将是“新AI”第一个产业化的应用,目前我们已经能够用语音对着手机发号指令,如“打电话给某某某”、“今晚会不会下雨”、“高速公路路况”等的查询,各种类似Amazon Echo的智能音箱也问世了,Amazon智能助理Alexa可以帮助主人处理家庭内的问题解答与家电控制,而Amazon的智能助理Alexa的自然语言介面已经开放给各行各业使用,像是福特汽车开始使用Alexa成为仪表板的声音控制,未来你只要说“Alexa,开大灯,Alexa,听音乐,Alexa,帮我导航到……”即可;当然,未来你的购物助理、理财助理、健康助理可以通通都是Alexa,如此一来,Alexa就掌握了未来你所有的拼图,比你自己还要了解你自己。这会侵犯你的隐私吗? 当然会,所以有人说在人工智能时代,隐私权将要被数据权保护,因为若要使用脸书、谷歌、LINE等等精准服务时,你的隐私已经被机器阅读了,机器阅读你的个人信息算不算是侵犯隐私? 还是我们必须先立法制定各种数据权,允许在什么情况下,机器可以使用你的个人信息,反而是更重要的一件事。
第四双AI眼睛: 看见环境博弈
当电脑有了视觉与听觉,就开始可以与真实世界互动,甚至是博弈了。
走迷宫,建立探索树了解环境
在“旧AI”时代最喜欢挑战的游戏之一就是走迷宫,其实任何迷宫只要任机器人多走几遍,画出探索决策树之后,未来的决策就是照着探索决策树走。如图1所示,如果你的位置在B,走到出口最快的方式,就是依照探索树,B-A-C-G就出来了。重点是要如何画出探索决策树? 目前先进的扫地机器人到了你家之后,会先探索把你家都走一遍,建立你家的探索树,未来就能很快地到达想要去的一个点。物流搬运机器人也是,建立了仓库的探索树,就能很快的移动。
博弈,当探索树有了对手探索树是机器人自己的探索,如果有了对手,就表示探索树的结构不再固定不变了,而是我每走一步,对手都会有不同的走法,那我要走哪一步能让我胜出的机率最大? 这时必须沙盘推演与模拟对手的各种可能回应,并计算出我的胜率。这个博弈游戏如果简单如井字游戏就简单了,我可以画出整个所有可能,但是如果复杂到西洋棋或围棋,就复杂了很多。Alpha GO的胜出所代表的即使复杂如围棋,我都能快速地计算出所有的沙盘推演与模拟,算出每步的可能胜率。博弈阶段包含了开局、中局与残局,开局在布局、中局在攻防、一但到了残局,因为棋子较少,能使用的策略也较少,一但人工智能能建立整个残局的博弈树,人类将必败无疑。AlphaGo的成功代表电脑在处理与环境互动的能力往前增进了一步,未来无论是投资理财、无人自驾都可以解释成一种博弈。
人工智能毁灭人类
两个人工智能程序在彼此博弈的时候,就有可能损害第三者。
比较可怕的是,电脑可以在人类无法感知的时间内替人们做决策并采取行动,像是Google可以精准地投放广告;Amazon Echo更可以接受语音,替你订餐、购物与控制家电;脸书可以帮你自动辨识人脸与挑选资讯;理财机器人可以在计算大数据的同时,以每秒10万次的高频交易帮你低买高卖。当然,智慧工厂、智慧城市、各种机器人、无人自驾车……都是自动执行的代表。目前许多公司已经开始免费提供具有机器学习、视觉、语言等功能模组的机器人作业系统(ROS)给各界使用,未来机器人的开发门槛愈来愈低,甚至会像安卓系统一样普及。
人工智能各为其主,有可能为了保护自己的主人而不经意地毁灭他人,如2010年5月6日,道琼斯工业指数莫名其妙跌了9%,1兆美元瞬间蒸发,美国证券交易委员会(SEC)六个月后才搞清楚,原来是一群高频交易的理财机器人,在试探并利用彼此交易策略的行动上失控了。我们再有一点想像,如果两辆自驾无人车要相撞了,唯一能够保护主人安全的方式就是要牺牲十几位路人的生命,这时人工智能程告诉你为了要拯救十几位路人,我们决定要牺牲你,这时,你还会买这辆车吗? 当两个人工智能在博弈的时候,就有可能牺牲第三者,如果这是武器系统呢?
人工智能已经来了。传统企业“对过去的坚持,与对未来的无知”,才是人工智能发展的隐忧。
本文责任编辑:刘永选[email protected]