提个问题:“站在人类历史的角度,你觉得哪些发明让人类实现了飞跃式的进步?” 钻木取火、印刷术、蒸汽机、电灯、计算机、互联网……除了这些,你肯定还会想到许多答案,但我猜有一个选项你未必想得到—— 辩论。 为什么说辩论是一个让人类实现飞跃式进步的发明? 因为它解决的是人类的生存问题。 哪些因素会危及到人类的生存? 首先是外部因素,最直接的就是天灾;其次就是战争。如果把人类当作一个整体,那么无论是国与国之间的战争,还是同一国家地区内部之间的战争,本质上都属于“内战”;而“内战”的消耗是巨大的。在远古时期,一场部落之间的混战就可能导致一个部落全体族人的消亡。 这个时候,人类学会辩论就有了里程碑般的意义。当集团或个人用语言,而不是用暴力来申明己方立场时,就会减少无畏的牺牲。发生在集团内部的辩论有利于做出最优化的决策;发生在两大集团之间的辩论则表现为谈判,双方的目标是权衡利益,达成和解。 西方自古希腊苏格拉底等“诸神”建立起论辩术以来,绵延至今,已经发展成“哲理辩”、“政策辩”两大分支:一则指向哲学思考,一则指向公共政策。诸如边沁的功利主义、亚达·斯密的自由主义,都既包含哲理论,亦给出公共政策。 而当商业取代农耕,正式成为全世界的主流经济形态的时候,辩论所涉及的领域自然也覆盖到了商业决策。无论是宏观方面的并购、出售、投融资;还是微观方面裁撤人员、部门,进行组织架构变革,每项决策出台前,都少不了进行内部辩论。但饶是如此,从决策效果来说,对少错多依然是常态。一项20年来针对400余例企业高层战略决策的分析就表明:半数的企业决策最终都归于失败。 而这也并不难理解。 就决策架构分类来看,那些个性张扬、率性而为的公司老板就是一枚核弹,你并不知道其威力是会在自家还是友商那里显现,“我赢公司荣,我败公司溃”。 也有些领导人,虽然自己并非率性而为,却因种种原因一定要大权独揽。因此即便他(她)并不缺少理性,但强势权威驱动下的公司战略也有着不可估量的触礁风险。 最后,就算是集体决策公司,也难免陷入左右为难的选择。看看某知名影像产品厂商,早在1975年就研制出数码相机的他们,却在胶卷时代和数码时代之间左右互搏,结果后面的故事大家也都知道了。 决策之困 通过上面的几个例子,我们已能清晰梳理出决策失败的几大原因了。 最浅显的教训当然是不要把公司和个人高度绑定,要不老板任起性来,神仙都救不了。 另外,最好也别让最终决策者的话语权太大,当一个人在董事会的投票权能达到接近80%的时候,就算其他董事存在反对意见,恐怕也得三思而后(不)言。 最后就是信息量。在今天,决策的制订越来越依赖丰富且具有相关性的数据支撑,不夸张的说,遗漏任何一个重要信息都可能让公司走上弯路(如果不说是“不归路”的话)。 反过来想,如果柯达的时代有今天这样的大数据分析技术,也许在那场“向左走还是向右走”的蒙眼选择中,他们也能猜中正确答案。 总结一下,要想避免决策失败,一家公司的决策层至少需要以下两个抽象角色: 一个能理性听取分析意见的决策者;一个能提供可靠数据和分析意见的咨询师。 同时,这位咨询师也应该不惧权威,敢于给出与决策者向左的意见。 说到底,除了决策者——这个无法改变的变量外,你只需一个靠谱、公正的咨询师。 然而这谈何容易? 首先,信息量层面,大数据时代,企业所能接触到的数据的丰富程度是空前的。除了内部数据,还有供应链上下游企业之间点对点的数据交互,还有更大的云化的外部数据;如果要把所有这些数据都纳入决策分析考量,单靠几个数据分析师团队终归力有不逮。 退一步,就算分析师能够完成海量的数据处理工作,他们是否就真的会把自己的意见和盘托出呢?办公室政治、团队氛围、以及老板的性格特质,所有这些都可能会影响其个人选择——尤其是当他(她)得出的分析意见与老板的预设立场相左时。 但要这么说的话,这个活儿怕是没人干得了了。 简单,那就别让人去干了。 智能商业时代的AI 今年5月20日,在HBRC年度对话×IBM思想之夜上,几位业界大咖讨论了一个颇为烧脑的问题:“人工智能是否会改写商业规则?” 当时,完美世界控股集团董事长池宇峰直截了当的给出了他的答案,“不会”,原因是商业的底层逻辑并不会因AI的介入而改变。 “如果我们定义商业规则,就是说收入大于成本等于利润,那么这个不可改变。不过,AI确实可以提高效率。” 的确,无论是何种形式的新技术,在底层逻辑上都必须符合既有的商业底层逻辑,不赚钱的生意是不能称之为商业的,那最多只能是慈善。 可是话又说回来,商业规则毕竟不是一个狭义概念,除了收入要大于成本这样的底层逻辑,它自然也包括其他内容。而如果要讨论AI是否能够改写商业规则,势必要去看AI能在多大程度上给予人类以帮助。 搜狗CEO王小川认为,“机器的行为方式和决策能力是跟人截然不同的。人擅长的事情上,它可能无能为力;但对很多普通人并不容易做的事——比如围棋——它们就非常强大。” 对此,IBM中国研究院院长林咏华也深以为然,她给出了一组数据:“AI可以帮助机器一分钟完成180万篇的文献的自动读取和理解,并从中寻找化合物互联的关系,从而大大缩小试验所耗费的时间。采用这种方法,每年能为医药界减少540亿美金的研发费用。” 基于此,如果将机器擅长的这部分技能引入到商业世界中,比如,当人类做决策时,机器能够有效参与,那么诚如王小川所言,“在机器参与到做辅助决策的时候,就已经在改写商业规则了。” 现在的问题是:AI能够扮演“辅助决策”者的身份吗? 回顾历史,自从计算机诞生以来,人类就一直试图借助其强大的数值计算能力来建设一个可依赖的决策支持系统。按照星河互联CEO傅淼在《从商业智能到智能商业》中的说法,未来的决策机制应该是AI增强的决策支持系统,或者说是“智能商业(Intelligent Business,IB)”。这种方法能“服务于企业中需要决策的各级人员,具备实时、闭环、自动进化、全局优化的特征,以及自动识别问题的能力。” 同时,与传统商业决策支持系统相比,它至少还有两个突出特点: 用人机交互,而不是单纯由人来做商业决策。数据应实时更新、来源则完全开放。 也就是说,在“智能商业”体系下,AI负责掌握、分析全行业数据且能通过与人类互动的方式参与决策。 那么这样一来,上文所说的瓶颈之一,信息量瓶颈也就顺利突破了。 剩下的是第二个问题:这个机器人敢不敢说。 我们目前应用较广的智能语音助手比如Siri,敢说吗? 我深表怀疑。 因为无论是现有窄人工智能时代的Siri,还是漫威电影里的人工智能Jarvis,从应用场景看都只是个人助手——笔者认为顶多算是管家型机器人。它们是基于你的命令来执行具体任务,却不是对你的决策本身做出评估。换句话说,这种机器人或许能成为你的私人助理,却未必是个好的咨询。因为好的咨询,应该是敢于跟你唱反调的。 哪个机器人敢唱反调? 答:辩论型“机器人“。 商事不决问AI 行文至此,你肯定要问了:辩论型“机器人“,有吗? 有。IBM公司的Project Debater。 它的辩论能力OK吗? 这么说吧:从战绩看,她(这位AI的声音是女声)赢过以色列国家辩论冠军Noa Ovadia和以色列国际辩论协会主席 Dan Zafrir;也跟欧洲辩论冠军Harish Natarajan对阵过。作为一个常常跟同事吹嘘自己在辩圈混了十年有余的人,笔者的观感是,Project Debater“女士”和世界一等一的英语辩论高手交锋是有来有往;即使在身处下风的时候,也尚未出现被“碾压”的场面。 所以关于辩论能力,这篇文章不会多谈,感兴趣的朋友应该已在它去年大战以色列辩论冠军时见识了她的辩论文稿生成能力与即时反驳能力。所以今天我们讨论的重点问题理应更进一步:现在的Project Debater能否给予决策者准确的商业决策? 这取决于你的具体需求。如果你是想要直截了当的获取其自主独立意见,目前还做不到。可话又说回来,就今天AI的发展阶段来说,如果这位女性AI真做到了,那就不是科学,而是科幻了。 所以她现在能做的究竟是什么? 在今年2月11日与欧洲辩论冠军Harish Natarajan的交锋中,在主办方给观众出的问题,“辩论双方哪一方让你获得了更丰富的知识?” Project Debater获得了优势,55%的人把票投给了这位AI女辩手。 正因为此,在5月21日举行的2019 IBM中国论坛上,IBM研究院人工智能技术副总裁Aya Soffer女士在回答虎嗅提问时也认为:目前,Project Debater在商业决策领域的应用主要体现在其能提供更丰富且与决策强相关的信息。 “现在的企业其实已经能获得不少信息了,但到底哪些信息对他(她)有帮助,很多决策者未必看得到。”Aya如是说 确实如此。在传统的决策支持系统里,由于没有明确的相关性,外部数据的利用率很低。但外部环境对企业经营可能有更大的影响;同时,外部数据也隐含着很多相关性,而这些相关性却并非是目前的人类分析师所能完全照顾到的。 与之相比,Project Debater能在装满上亿篇主流报纸、杂志文章的海量知识库中快速精准地找到数百个恰如其分的论据,并能在几分钟内快速组织语言,进行回应。这种快速拣选和提取信息的能力显然已足够当得起决策者身边“咨询师”的角色。 不过坦白讲,如果只能提供丰富的信息,那么这样的辩手不过是一位优秀的资讯整合与播报者而已。唯有在遭到对方直接挑战时仍能做出即时有效的反驳,坚持本方的有利论点,方可称之为优秀辩手。 在Project Debater就“本院应该/不应该资助学前教育”的辩题进行辩论时,反方,人类辩手Harish Natarajan在开篇陈词中就质疑该项政策的有效性,指出“政府的财政资源是有限的,无法面面俱到”,并暗示“资助学前教育目前未必处于政策制定的优先级”。 对此,Project Debater在驳论环节从两个角度给予回应。首先,Project Debater表示,“给那些家境不算宽裕的孩子们提供更好的成长机遇是全人类应该达成的道德共识,它同样也应该是政府决策中的核心考量。” 这个回应对应的正是Harish 所提及的政策优先级的问题。 接下来,Project Debater还指出,虽然财政预算所涉内容深广,但在具体操作层面,各项预算之间的关系并不是非此即彼的关系,因此,“她”强调,Harish对政策可行性的讨论其实“与今天的辩题无关”。 别小看这两段回应。如果细细分析,你会发现,在短短几句话里,Project Debater做的事情是进行价值观比较和可行性分析。这意味着它已能够习得并对人类熟稔的诸如“人本主义”、“功利主义”进行价值权衡了。从这个角度来看,Project Debater确实具备了IBM所说的“模拟人类困境”的能力,也即,它能通过自己习得的知识表达方式来模拟人类的争议和困境,在不同价值观碰撞的情况下,给出持方所需要的原则性论点。而落实到企业决策层面,这位Debater不仅能给出有效信息,同样也能同它的“对方辩友”(可能是CEO、CMO或其他职位)进行有效辩论。 信息量、即时回应能力,二者都是决策辅助者所必需的技能。但技能之外,作为一个优秀的“智囊”,它还应该敢说。而在这一点上,Project Debater的表现可谓是相当直率了。 举个例子,在“政府应该规范人工智能”这一辩题里,如果Project Debater的持方是正方,那么诸如“人工智能需进行监管以保护个人和组织”的陈述会被其认定为“赞成”;而像“任何国家对人工智能的严厉监管都会阻碍其发展”这样的陈述则会被归类为“反对”。简言之,作为一台机器,Project Debater无论持方如何,都不会有先入为主的成见,这就能做到完全意义上的无偏颇。 靠谱、敢说、公正,对于这样一个咨询师,我觉得已然很OK。尤其是对于每天需要战战兢兢给老板做汇报,还要小心翼翼的给老板提“建设性意见”的人来说,我猜你会更喜欢这样的AI。 而且你也不必担心自己被它取代。毕竟它没有独立思考,其所做出的论断和表达也只针对特定立场,远远称不上全知全能。如果说角色的话,类似Project Debater这样的机器人只是你的帮手、伙伴,最多算是“同事”而已”。 不过,一旦它进入工作状态,那个场面一定很有趣…… 想象下,如果在2018年,某知名手机制造商的决策者要给一台“辩论机器人“定下立场,找论据,那么这场旷日持久的知识产权诉讼战是否会提前一年结束呢?如果某知名O2O企业在做出那个并购案前让“辩论机器人“表述,“我们没必要收购那家提供红色自行车租赁服务的公司”,后者之后的命运又会如何? 当然,上述故事也只是“如果”,历史毕竟不可假设。且就算机器人们真给出了建设性意见,决策者也未必会听得进去。 不过,历史虽然不可重来,当下却值得好好把握。在人工智能已进化到机器人能在辩论赛上击败人类顶级辩手的时代,是时候考虑将它们投入智能商业世界了。就算这些直率的AI还没有独立思考,但正如Aya所言,“我们希望能有一些技术帮助人们来做决策,而且不是让机器做决策,是帮人做决策,给人一些他们没有的东西。” 作为老板,就让机器去做它们擅长而你并不擅长的事吧,反正最终的决断者——是你是你还是你。 (原文刊登于虎嗅,作者钱德虎) |
为积极响应人口老龄化战略,促进智慧养老与精神文化艺
2024年3月21日,中国平安保险(集团)股份有限公司(
近日 , 继牛津大学校园惊现神秘来客后 , 另一英国顶级
随着新能源减免购置税新政一出,影响最大的无疑是小微
站在即将告别2023年的岁末时点,“认知”意外地成为多