人工智能直接挑战现代管理学的三大核心基础概念:有限理性、交易成本经济化、机会主义行为。在设定的业务主题内,智能决策系统基本不受计算能力限制,可以追求无限优化。同时,与人工智能相适配的区块链技术支持数据化的互信。它将“有限可靠性”从概念落实到可以追溯的交易责任。在这二大概念变化的影响下,管理决策的形态也从马奇的二分法,即利用与探索, 丰富发展到四种形态。中国人工智能企业“第四范式”和协同软件企业“互联致远”为正在形成的管理决策趋势提供了实证支持。未来,不止于赋能,人工智能影响管理决策的负面效果也必须列入研究议程。
在《组织与市场》一文中,西蒙(Herbert Simon)假想一个场景:如果火星人造访地球,他们用绿色标识组织,用红线条显示市场,用蓝色记录组织内部等级,那么看到的一定是大片的绿色被稀落的红色线分割开来。火星人给总部发送的密电码一定是:地球是组织的,但被一种叫市场的机制分割着。
西蒙认为,人的有限理性(Bounded rationality)造成组织的市场边界。市场自发自愿的交易配对可以解决组织规模和内部规划成本之间的矛盾:受决策者认知能力有限性的影响,超过一定的规模,内部治理成本超过外部市场交易成本。
借助“有限理性”和自利假设,威廉姆森(Oliver Williamson)建立其交易成本经济学。这二位诺奖经济学家的理论为现代管理的决策学奠定了三大基础概念:有限理性(Bounded rationality)、交易成本经济化(Transaction cost economizing)、机会主义行为(Opportunistic behavior)。
然而,“有限理性”正被爆发式发展的人工智能解构。业务主题领域边界确定后,人工智能的计算能力可以假设为无限充足。它否定了“有限理性”的有限计算能力前提。因此,决策者可以追求“优化”(optimization)而非交易成本经济化(economizing)。简言之,人工智能允许“极限理性”(unbounded rationality)。本文用第四范式案例显示它是如何在现实中生效的。
于此同时,受到人工智能和区块链技术的影响,维博克(Alan Verbeke)的“有限可靠性”(Bounded reliability)的概念越来越有现实的意义。“有限可靠性”解释交易中的非机会主义的违约现象。交易一方可能没有自私自利的欺诈行为,但确实无法按照合约履行责任。过去,有限可靠性具有理论上的合理性,但无法落地实施,因为追溯历史活动太困难。随着人工智能的记忆能力、计算能力和算法的提升,在区块链技术的支持下,过去难以追溯的非机会主义活动,现在可以量化解析。这个概念具有现实意义。以携程的“亲子园”为例,携程为员工设立亲子园的决策是在过去条件下尽责的选择。如果社会接受“有限可靠性”的概念,就不会对高管无限追责。这也许可以避免后来关闭亲子园的双输结果。
在“有限理性”和“有限可靠性”二个概念共同变化的影响下,管理决策的形态也丰富化,从“利用”和“探索”(Exploitation and exploration)二种选择发展到至少四种形态。不过,组合作用下的形态有些是可取的,有些需要审慎对待。
本文首先讨论人工智能对“有限理性”在二个方面的解构:有限计算能力和隐性知识。然后,我们指出人工智能区块链是怎样赋能“有限可靠性”概念,并使之成为组织协同活动的保障。最后,我们讨论被解构的有限理性和被赋能的有限可靠性对管理决策形态的影响。
从“有限理性”到“极限理性”:“第四范式”案例
1955年,西蒙提出管理决策中的“有限理性”概念。不久,它就成为现代管理的一个奠基性质的概念。有限理性的前提假设是:现实世界里,管理人的认知能力有限。因此,管理人的决策原则不是优化,而是“满意即可”(satisficing),即受有限的认知能力影响(例如计算能力),管理人在决策中不是追求最优选择(optimal solution),只是寻找和接受足够好的解决方案(good enough solution)。有限理性概念对管理学影响深远,包括对威廉姆森“交易成本经济化”理论的影响。这二位诺奖经济学家和他们的核心概念深深影响了现代管理决策的理论和实践。
有限理性是针对自然人决策能力和特征的。日新月异的人工智能和大数据的发展直接挑战这个核心概念。首先,在选定的业务主题范围内,机器的计算能力可以推向极限(即可以满足对任务目标的最优化处理)。其次,人工智能的五个发展纬度(BRAIN,Big data, Response, Algorithm, Infrastructure, Needs)中任何一个纬度的发展都会给系统带来几何级数的爆发能力,让人工智能的决策支持能力超过管理人的决策最优化需要。再次,机器交互和迁移学习破解隐性知识的壁垒。最后,衡量人工智能水平的VC维的逻辑突破“满意即可原则”背后的妥协逻辑,体现“最优化”的逻辑。这些打破有限自然人的有限理性的应用在人工智能企业“第四范式”的“先知决策”系统中已经实现。下面是具体解释。7
“第四范式”概念来自于一位科学家,戈瑞(Jim Gray)。戈瑞把人类科学发展分成了四个阶段,每个阶段为一个范式。第一范式是原始记录自然现象,比如钻木取火,人们就记录了这个自然现象,下次需要火的时候重复这个活动,就有火了。第一范式也叫做实验科学。第二范式代表对自然现象背后规律的总结。例如,牛顿总结物理记录的那些自然现象,得出三条规律,即牛顿三大定律。又如爱因斯坦修正了牛顿的三大定律,总结出相对论。这又叫做理论科学。那个阶段的理论科学有个特征,就是个人手工推演, 以至于很多复杂的现象没有办法推演到。第三范式阶段就是使用电子计算机,用计算机去推演定律,总结规律。天气预报就是一个代表。如果靠手工推演,不可能做出天气预报。类似的模拟实验都是第三范式阶段的计算科学。
戈瑞认为,未来的科学会发展到第四范式阶段,第四范式阶段说的夸张一点就是牛顿和爱因斯坦都失业了,由计算机来替代那些科学家总结规律,计算机从数据里面总结、提炼规律。同时,未来的科学家也不再是牛顿和爱因斯坦这样的类型,未来的科学家叫做数据科学家。他们教计算机成为牛顿,教计算机成为爱因斯坦。
这样的由人工智能机器总结规律的知识自动化并不仅仅限于物理学,各行各业都可以。例如,金融领域在信审,反欺诈,甚至营销方面,都可以像牛顿那样总结出很多规律。现在,这些总结规律的事情都希望交给计算机来做。这就是第四范式的业务。第四范式的“先知系统”(Prophecy 3.0)就是用人工智能的方法帮助各行各业总结规律。计算机总结科学规律直接挑战有限理性的概念,因为人工智能的认知能力可以无限扩展,可以追求极限优化。
以第四范式与银行信用卡中心的合作为例(见图1),该银行需要通过数据精准识别出所有客户当中的信用卡账单分期客户。过去,该信用卡账单分期模型只能到达两百维(变量)。现在,它提升至“五千万维”,使账单分期推荐短信的响应率提升了68%,卡中心的账单分期手续费提升61%。其实,千万、甚至亿万维的模型都没有技术上不可逾越的坎。模型的复杂性是根据业务主题和场景设计的。最优化不是无限大,而是不再受制于人脑的认知限制,不需要遵守“满意即可”的决策原则。
打破有限理性的还有人工智能的系统优化能力。它体现在五个方面,取其第一个字母,我们称之为BRAIN优化能力。
BRAIN 系统决策的优化能力
完整的人工智能系统需要五个前提条件,首先是符合人工智能格式的大数据(Big data),这个数据是需要按照人工智能的要求来收集数据。例如,在一些营销场景,过去企业收集的通常是财务数据,比方说顾客买了商品,企业就记录你买了这个东西。但是过去通常不会记录顾客过来看了哪些,买了知道,没买就不知道。所以,第四范式首先帮助企业按照人工智能所要的格式要求收集数据。第二部分是要形成反馈(Response),要定义准确什么是好的,什么是不好的。没有反馈,机器无法学习和成长。第三部分是算法 (Algorithm)。科学家越优秀,算法越高级。第四部分是体系架构(infrastructure),因为现在对AI来说都是大数据环境。一个简单的系统问题,大数据环境下就不是一个简单的问题。就好像盖房子,盖一层楼可能找一些泥瓦匠就盖起来了,盖一百层,那就非得要有结构设计。第五个最重要的是需求(needs)。有了需求,就有业务主题范围,就可以在此范围内追求优化决策。第四范式的先知决策系统在这五个要素之间建立闭环回路。当需要(业务主题)确立后,BRAIN的系统决策能力可以不断提高,并不受过去的有限理性概念的限制。以组织的一般活动复杂度,人工智能的系统能力高过决策需要。在这个意义上,我们说人工智能打破有限理性,追求极限理性。
机器交互让“有限理性”不相干
机器交互(机器之间直接沟通)是第四范式的先知系统另外一个打破人脑思维有限理性的设计。第四范式做的人工智能和过去的那些感知相关的人工智能会有很大的区别,过去的人工智能其实是在模拟人或者理解人。比方说自然语言理解,我能去理解你说的这句话是因为我代入到你的场景,我才能去理解,这就要求计算机把自己变得越来越像人,比方说图像识别,我们需要让计算机看到这张图片的时候知道人看到图片的时候焦点在哪里,它才可以识别。而计算机本性不是这样的,计算机本性是非常高带宽的,高速的,大内存,大存储这样一个机器,人是低带宽,运算速度是比较慢的,容量也是比较小。同样,理解自然语言的时候,我们要让计算机有上下文,其实计算机是没有上下文的。它读《红楼梦》读到最后一个字的时候,它还记得第一个字是什么。简要地讲,所有过去感知类的AI其实在做一个和人打交道,让自己变得像人的工作。第四范式的设计思想却不同。第四范式要干的其实是(没有人参与决策过程沟通时)机器怎么能够做。整个运作里面没有人参与的时候,其实机器和机器的交互是可以在非常大带宽的情况下交互。举例来说,如果机器做牛顿的工作是怎么做的,机器做牛顿不会只总结三条定律,而是在每一个速度区间内,它把速度划分出更多区间,一到十一个区间,十到二十一个区间划分,可能几千万的区间,每个区间总结三条定律。按照速度区间划分,那就不会出现高速情况下牛顿定律不可用的情形。如果需要,它可能最后总结出三千万条定律、三亿条定律。这个事情对于人来说不可能,如果牛顿总结哪怕三千条定律,就没人想看他的理论了。但是机器没关系,A机器告诉B机器三亿条规律没有问题,B机器一秒钟就接受了。这就是机器交互的特征。它让有限理性概念变得不相关。
从这个方向看,过去,人叫机器做什么;现在,机器提醒人做什么。第四范式系统有知识自动化特征。一方面是知识的自动化,这样的话有更多的知识会被发现,另外一方面即便是过去人已经发现了知识,机器能做的比过去更细。
举一个实例,第四范式在帮助一家企业开发它的汽车贷款时,机器发现一条规律,某一台POS机上它刷卡办汽车贷款概率远远高于其他的POS机。那台POS一个月几百单交易,它是很小的店。经过调查发现,那个店是一个母婴店。假设是,可能太太怀孕,然后买车或者换一辆更大的车是刚需,手头上比较紧张所以就办汽车贷款。这个规律其实人是可以发现总结的。为什么没有?因为关注这样的细节,处理分析这些细节信息都太繁琐,成本太高。这样的业务决策对一个企业来说,如果让人做根本划不来。雇一个人做这个业务决策,你所付给它的工资要是二十块钱,这个决策给这个企业赚了五块钱,是亏本的。但是如果计算机只需要付给计算机一块钱的电费,能赚五块钱,这就是值得追求的极限理性决策。
总之,有限理性对自然人决策有影响。但在机器交互环境中,有限理性的概念没有相关性。机器之间遵循极限理性的规律。
消失中的隐性知识优势
人工智能对有限理性概念的挑战还体现在学习范式的改变和被解构的隐性知识上。隐性知识是支持动态竞争能力的一个重要支柱。它也受到人工智能的挑战。下面以第四范式的迁移学习为例,我们解释受隐性知识支持的竞争优势未来可能无法维持。
有限理性不仅表现在速度和容量,也还有范畴。属于个人经验范畴的、没有标准化语言呈现的、需要身体力行才能理解的隐性知识就是典型的例子。匈牙利哲学家波兰尼(Michael Polanyi)曾说“你(专家)能讲出来的比知道的少。”讲不出的部分就是隐性知识。日本学者野中郁次郎(Ikujiro Nonaka)把它和东方思维结合在一起,总结出知识管理中显性和隐性知识的问题。
长期以来,组织中的隐性知识构成动态竞争能力的一部分,是竞争优势的来源。用有限理性概念来解释,后来的学习者认知能力有限,难以跨越专业知识范畴的樊篱,难以立即获取专家取得的经验判断和洞见。但是,人工智能遵循的迁移学习方法可以超越知识范畴的限制,可以解构隐性知识。更值得注意的是,人工智能的VC维同时包括机器认知的宽度和深度,有着人的认知无法比拟的优越性。这些技术消解了有限理性的前提条件,向未来的管理决策提出新课题。
如图2所示,目前隐性知识还能够为人的管理决策带来竞争优势。一旦迁移学习技术发展到一个成熟阶段,人工智能的优势已经先行设定在系统中。自然人的决策优势就越来越小。下面我们解释它是怎样在人工智能的影响下消失的。
隐性知识的背后其实是知识呈现和表述形式。人的知识表述受限于个人经验、标准化语言形式、沟通双方理解和表达能力的差异、人的学习习惯。但人工智能的“迁移学习”不必依循人脑思维路径,也就不必受隐性知识因素的约束。迁移学习最关键的一个点就是叫做知识表述。比方说数学和物理,为什么数学能帮到物理,是因为我们要能够建立起数学和物理两部分知识的公共知识表述,如果建立不起来,这方面是没办法迁移的。
迁移学习其实是我们人所具备的很基本的技能。比方说我们如果学过英语的人学西班牙语会容易一些;学过数学的人学物理会容易一些;学国际象棋,后来从国际象棋转中国象棋的时候就会比那些新入门的中国象棋学得快很多,这就是迁移学习。这个对于人来说是很自然的,过去学过的东西对于未来如果相关的场景我就是可以帮助到。
主流的机器学习技术像神经网络,过去的神经网络来说如果是学数学,定义一个神经网络,就好像生成一个大脑,然后让它去学数学,等要学物理的时候,机器形成了一个新的大脑让它去学物理。而人为什么能迁移,是因为人用同一个大脑,既学数学也学物理,在这中间我们会有一些公共的脑细胞,这些脑细胞既在解决数学问题,也在解决物理问题,这就形成了两个迁移。所以,其实就背后的原理来说,就是一种公共知识的表述。人(专家)有无法全部表达的问题,主要原因是专家自己不全然知道自己知道什么。专家只能把自己会的东西5%~10%描述出来。比方说,一个医生写一本医学的书,可能写出来的是会的10%,另外的90%是看到具体病人的时候才知道要做哪些事。人工智能略有不同。从0101的信号来说,都是可以呈现的。这领域的难点在于,不是它无法呈现,而是它无法以一种人可以理解的方式去呈现。就好像阿尔法狗赢了李世石。阿尔法狗没有办法告诉李世石它为什么下这个棋会赢。不是说不能告诉李世石,而是它无法用人类的语言去描述。
过去机器学习都没有迁移学习,所有的机器学习都像是从刚出生的婴儿开始学。它把数学学会了,当它进入到物理的时候,过去学过的所有的东西都忘记了,又重新开始。所以,我们会发现像阿尔法狗需要下一千万盘以上的棋才能达到一个九段以上的水平,但是人类只需要下几万盘棋,因为人类在下棋的时候大量借鉴了自己生活的场景,生活上博弈的场景,其实都帮助我们在思考如何去下盘,但是机器不行,机器就是一个只会下棋的执行者。这是过去的机器学习或者说人工智能的缺陷,迁移学习要解决的是未来能不能让机器活到老学到老,不断跨领域终身学习,而不是每次进入到一个新的领域。
迁移学习在公共知识表述上取得突破。人工智能的知识表述不仅可以做到高带宽的,高速的,大内存,大存储,而且能够以人不能理解的编码方法让机器交互。这就突破人脑决策的有限理性。我们经常用一个成语叫做面面俱到。它对于人是贬义词。又如事无巨细,那也是贬义词。但是在计算机就是褒义词。反之也然,我们说抓大放小,形容一个人有水平。但是放在计算机就是贬义词。
如图3所示,在机器交互和迁移学习的支持下,传统的有限理性假设可以不断被突破。人工智能的认知技术能力超过了组织决策对认知条件的要求。只要决策需要明确,涉及到决策的长尾数据可以尽然囊括。因此可以决策优化,而不是满意即可。
人工智能的另一概念和实践也直接消融隐性知识对竞争优势的影响。它就是VC维。VC维理论是由Vapnik和Chervonenkis于1960年代至1990年代建立的统计学习理论,它反映函数集的学习能力。VC维越大则模型或函数越复杂,学习能力就越强。举个例子,如果人类的智商水平可以用大脑的脑细胞数来衡量,那么机器的智商水平就可以用VC维来衡量,即超高智商的人工智能,需要超高维度的机器学习模型来实现。简单地讲,过去模型很难兼顾深和宽二个维度,数据特征的多元性、多样性越高,模型拟合度越低,可靠性越低。现在我们的研究突破这个二难悖论,提高机器学习的模型维度。我们比喻VC维是人工智能的IQ,是机器智商。VC对AI很关键的。就好像我们判断一个生物聪明的程度,我们会说脑容量,人为什么比狗聪明,是脑容量比狗大,狗比昆虫聪明,是脑容量比昆虫大。换到人工智能情境下,脑容量或智商用一个统计学概念来解释就叫VC维。这个VC维甚至可以解释生物的脑容量。未来,我们可以把生物的脑容量和机器的脑容量做一个对比,形成一个统一的度量标准。在第四范式看来,未来,所有的企业都是AI公司。公司A和公司B比谁厉害,用VC维衡量一下就得了。因此,隐性知识来评估动态竞争能力的方法将被VC维替代。
数据化信任允许“有限可靠性”
组织决策者并非永远是自利的机会主义者。这一命题是对交易过程成本理论的证伪和发展。研究非机会主义行为,维博克和他的合作者提出“有限可靠性”的概念,即人们违背诺言的原因可能不是出于机会主义的动机,可能有其它原因。有限可靠性帮助我们认识违约的另一面。它提示交易中的非机会主义的现象。因为过去认知不足或环境条件变化,交易一方没有自私的欺诈行为,但确实无法按合约履行责任。
“有限可靠性”的概念一直没有被广泛实际操作,因为追溯决策者非机会主义行为的难度大。但是,人工智能和区块链技术让它越来越有现实的意义。随着人工智能的记忆能力、计算能力和算法的提升,在区块链技术的支持下,过去难以追溯的非机会主义活动,现在可以量化解析。有限可靠性正在成为可以量化的实践。致远互联的“致远狗”(区块链机器人)就是一个实例。
按照交易成本理论,交易中,不可靠的行为可能来自个体的机会主义(opportunistic behavior)。但维博克认为存在另外一种不可靠的行为。它不能用恶意的机会主义(malevolent opportunism)去解释。在下面的三种情况下,早先的承诺可能无法完全兑现。
1)优先排序改变 (Reprioritization)。组织决策情境出现重大变化。组织必须马上调整方针政策。过去的承诺无法按计划兑现。例如,911之后,美国的外交承诺必须优先考虑反恐的目标。又如, 2008年次贷危机发生后,华尔街银行拒绝兑现过去的资本往来承诺,以求自保。
2)过分的许诺(Over-commitment)。出于良好的主观意愿,决策者错误估计自己的能力、不合适地计算成本和收益,以至于做出超过实际情况的承诺。例如,中国企业家有讲义气的文化,时常对于朋友的交易做出过度的承诺。又如,受文化影响,在一些家庭式的传统组织中,人们看重的是高度承诺的态度。高度承诺时常沦为过度许诺。
3)身份失调引起的违约(Identity-based discordance)。经济活动中,决策除了受经济成本收益影响外,还被深层的政治、文化、心理因素左右。心理身份认同是这些因素的集中表现。当身份认同改变或被干扰后,决策者可能会违背经济原则,遵守心理身份失调和再平衡的原则。例如,温州地区长期以来有凭借社区关系信用组织贷款的活动。当一方受到严重欺骗后,他们会回归到在商言商的经济与法律原则,拒绝兑现过去基于身份文化做出的承诺。
接受有限可靠性有潜在的价值和现实的意义。它允许和鼓励人们在不确定的条件下的合作行为。如果人们看到非机会主义行为的连带责任是有限的、是可以合适区别划分的,人们更加愿意以合作的态度尽可能做贡献。但是,这个概念难以落地执行,因为追溯非机会主义行为的技术难度很高。
人工智能和区块链技术正减少它的技术障碍。与国家电子政务仿真试验室合作,北京致远互联设计的“区块链机器人”(又被称为“致远狗”)就是一个运用实例。他们的设计有下面的特征:1)区块链机器人借用“万物帐本”追溯各种机器设备仪表数据。同样的逻辑和应用软件也可以追溯各个决策者的合作行为。2)区块链机器人建立在数据港和服务云的基础上,把服务和数据分离开。3)它实施端到端的连接,无需人的参与,直接按照设定的算法实施机器人交互。4)对决策者的行为互动结果,区块链机器人可以识别责任等级、范围和性质。它为有限可靠性提高软件和硬件的支持。
以企业在环境保护中的决策行为为例(见图4),企业端口的信息直接传到区块链机器人,政府对企业环保的要求可以量化到企业的生产和排放系统中。机器人自动监控企业环保表现。只要企业按照事前设定的合规行为去做,企业的责任就可以追溯。有了上面的设计,即使出现下面的情况,企业的环保责任也是可以厘清的:1)因为紧急或特殊情况变化,无法完全合规。2)因为环境中其它因素变化,如政策改变、其它企业造成污染等。3)涉及到探索性的企业活动而造成的污染,事先没有这类探索性活动排污的信息。通过区块链机器人,政府监管部门可以有效地识别哪些承诺已经兑现,哪些超过企业本身的能力,哪些是非机会主义行为造成的(例如探索创新项目)。企业也因此厘清自己对早先决策的有限责任。
管理决策四种新形态
针对决策者对外部环境变化认识特征,马奇(James March)曾经提出有限理性下的二种决策形态:探索(Exploration)和利用(Exploitation)。前者倾向于探索新市场、新产品、新方法和新流程。后者倾向于利用现有的市场、产品和方法收获效率回报。我们的研究说明,人工智能影响下的管理决策可以有四种形态(见图5),它们丰富了马奇的二分法。
在有限理性和无限责任的情形中,规避风险和利用现有优势收割效率回报将主导管理者的决策。以携程“亲子园”发生虐童案后的管理决策为例,因为没有有限可靠性的概念。管理者难以向社会说明自己的责任边界。为规避风险,决策者选择关闭“亲子园”,而非改善它。没有人工智能支持,这种自保的决策形态较为普遍。
在有限可靠性已经建立,但仍然受制约于有限理性的情形下,步步为营的“探索”风格可能为主导性的决策形态。保险公司的决策和策略就是经典。在调查大项目保险产品时,我们发现大项目(如南水北调工程和卫星发射)具有小概率事件的特征。保险公司对它理解有限,因为对小概率事件的认知能力有限。但保险公司会采取风险分类、风险排序、风险认定等专业方法划定有限责任边界。在保险市场,有限可靠性的概念与实践已经成为通例。它比较容易被容纳到交易双方的策略决策中。但是,在其它管理领域,有限可靠性还是一个新概念,还需要普及推广。
第三种是极限理性和无限可靠性下的决策形态:冒险先行。领先的独角兽企业常有这样的决策风格。我们的研究发现,一方面,交易一方已经获得人工智能支持下的分析规划能力,另一方面,有限可靠性的概念还没有被容纳到交易双方的共同理解中。这时,掌握极限分析规划能力的一方会积极开发新产品、新市场、新流程。而这种开发可能对另一方带来不公平的侵占,也因此让这样的商业模式充满高风险。但在风险没有爆发之前,有能力的一方仍然执意冒险先行,因为他们只有利用先知先觉的机会窗口才能享有竞争优势。冒险先行决策形态的典型案例就是脸书(Facebook)和剑桥分析(Cambridge Analytic)合作,向政治选举提供大数据分析服务。结果,使用者被严重侵权,政府监管干预,剑桥分析宣布破产,大数据分析市场的游戏规则彻底改变。
在有限可靠性和极限理性情形下,管理决策形态更加可能是渐确定性的实践。以第四范式为银行业开发的决策系统为例,在确立业务主题后,它可以无限扩大对决策质量的追求,在实践中逐渐完善。以致远区块链机器人为例,它能追溯合约参与者的历史承诺、贡献、活动和表现。因此,参与者摆脱了无限责任的压力,能够全力投入协同活动。在这样的情形下,管理者对决策不确定性的态度和策略也发生变化。他们认识到不确定性的存在,也认为不断提高确定性是值得追求的目标。没有人工智能和区块链技术,不确定性是难以突破的魔障。有了它们,管理决策将主要是渐确定性的实践。
目前这个阶段,上述的四种管理决策形态同时存在。未来,随着人工智能技术的发展和有限可靠性概念的普及,渐确定性实践将是管理决策的主旋律。
结论:关注极端不确定性
人工智能已经并且必将带来更多的管理决策新问题。它已经改变了有限理性这个决策前提,并让有限可靠性落实到执行层面。在极限理性和有限可靠性这二个新前提下,管理决策形态也从过去的二种倾向发展丰富为四种倾向。需要强调和重视的是人工智能隐含的极端不确定性的难题。它将随影随行,挑战新一代管理决策者。
极端不确定性(Radical uncertainty),即我们常说的“无知的未知”(unknown unknowns)可能带来灭绝危机。极端不确定性经典案例之一便是6千万年前天外陨石造成地球物种大灭绝。对人工智能隐藏的极端不确定危险,牛津大学的博斯特伦(Nick Bostrom)假设四种发展前景:AI为工具(Tool),AI为专业领域的专家系统(Oracle),AI为超人的任务执行者(Genie),AI为具备超级智慧的独立主体(Sovereign)。后二种情形,无论是超级执行者或超级智慧主体,都可能给人类带来极端不确定性的危险。当我们看到极端不确定可能带来灭绝危机时,一切将无法改变。如博斯特伦所言,较好的选择是平行思考超级智慧出现的可能性和对它的控制。
博斯特伦的研究表明,超级智慧诞生也许是一个百年的历程。可是,一旦越过意愿的门槛,即人工智能有了自我意识,它就会以人类意想不到的速度和方式获得决定性的战略优势(Strategic decisive advantages)。到那时,人可能被机器奴役,可能被超级智慧改写意识和潜意识,可能成为杂交的新认知物种,也可能世界大同、合作共存。几种情境中,人性被改造的可能性最高。
事实上,即便在目前的弱人工智能阶段,它已经有了不可控的因子。深度学习中有“监控的学习”(Supervised learning)和“无监控的学习”(Unsupervised learning)。后者依靠人工智能的内部自我组织优化旧知识、制造新知识。所谓“人的最后一次创新”就是指创造出从此可以自我组织新知识的人工智能。在这一奇点之后,“控制”是一个过期的词。如何与超级自由因子(Super agent)合作共存便成为人类不得不做的选择。
2016年,地质气候学家认为,我们迈入“人类纪元”(Anthropocene),即人类的活动已经改变了地球基本自然条件,一切自然都是社会化的自然。试想一下,百年之后,超级智慧宣布进入无机智能纪元(AI Epoch),即有机生命皆已改造完毕,一切智慧由无机领先。这样的巨变人类可否承受?
本文责任编辑:刘永选[email protected]