第17章
你的学习策略
2017年3月,谷歌首席执行官桑达尔·皮查伊(Sundar Pichai)在年度I/O活动的主题演讲中宣布,该公司正从“以移动优先的世界转向以人工智能优先的世界”。接下来,他公布了一系列与人工智能相关的消息:开发用于优化机器学习的专用芯片,在包括癌症研究在内的新应用中使用深度学习,把谷歌人工智能助手放到尽可能多的设备上。皮查伊称,公司要从“搜索和组织全世界的信息”过渡到“人工智能和机器学习”。
这一宣言比根本性的愿景转变更具战略意义。2002年,谷歌的创始人拉里·佩奇(Larry Page)就勾勒出了这条道路:
我们并不总能展示人们想要的搜索结果。我们付出艰苦努力就为了做到这个。但这真的太难了。要做到这一点,你必须聪明,必须理解世界上的一切,必须理解查询的内容。其实我们尝试做的是一种人工智能……终极搜索引擎会很聪明。我们努力工作,就是为了一步一步地接近它。
从这个意义上说,谷歌多年前就踏上了构建人工智能之路。直到最近,它才公开宣称把人工智能技术置于一切工作的中心。
做出这一战略承诺的并不只有谷歌。就在同一个月,微软公布了自己从“移动优先”和“云优先”转移到“人工智能优先”的意图。但“人工智能优先”到底是什么意思呢?对于谷歌和微软来说,它们变革的第一部分(不再是“移动优先”)为我们提供了一条线索。要做到“移动优先”,就是把流量放到你的手机体验上,为消费者优化手机界面,哪怕这意味着牺牲自己的整个网站和其他平台。最后一部分是它的战略意义所在。“在手机上表现好”是目标。但如果说,你宁可牺牲其他渠道也要做到这一点,那就是真正下定决心了。
回到“人工智能优先”的背景下,这意味着什么呢?谷歌的研究总监彼得·诺维格(Peter Norvig)给出了一个答案:
就信息检索而言,任何回忆度和精确度高于80%的东西都很好——不是所有建议都必须完美,因为用户可以忽视糟糕的建议。可就智能助手软件来说,壁垒要高得多。你不会使用一个20%的时候都执行错误预订的软件,哪怕错误率只有2%,你也不会用。所以智能助手需要更加准确,也就是更智能,对情景更有意识。这就是我们所说的“人工智能优先”。
这对计算机科学家来说,是个很好的答案。它强调了技术性能,特别是准确性。但这个回答里隐含了一些别的东西。如果人工智能排第一了(最大化预测的准确度),那什么排第二呢?
透过经济学家的滤镜我们知道,任何“我们将把注意力放到X上”的声明都意味着一种权衡取舍。总会放弃某些东西用于交换。强调预测准确度高于一切,要付出些什么代价呢?我们的答案来自核心的经济学框架:“人工智能优先”意味着把资源投入到数据收集和学习(一个长期目标)中,同时牺牲重要的短期考量,如直接的客户体验、收入和用户数量。
颠覆的“微风”
采用人工智能优先战略是一项承诺,即优先考虑预测的质量,并支持机器学习的过程,哪怕要以牺牲消费者满意度和运营绩效等短期因素为代价。收集数据可能意味着,要部署预测质量尚未达到最佳水平的人工智能。其核心的战略困境在于,是应该以学习机器为重,还是以保护他人免受因此带来的绩效损失为重。
面对这一困境,不同的企业会做出不同的选择。但为什么谷歌、微软和其他科技公司选择了人工智能优先的战略呢?这种做法,其他企业可以效仿吗?还是说,这些公司有什么特别之处?
这些公司的一个突出特点是,它们已经收集并生成了大量数字化的数据,并一直在充满不确定因素的环境下运营。所以,预测机器有望带来能让它们在旗下产品中大面积使用的工具。对内而言,它们对更高级且预测更廉价的工具有需求。除此之外,它们还有身处供给方的优势。这些公司已经延揽了可用于开发机器学习及其应用的技术人才。
用第十五章提及的杂交玉米来做类比,这些公司就像是当年艾奥瓦州的农民。但人工智能主导的技术表现出另一个重要特征。由于学习需要花时间,还常常导致性能下降(尤其是对消费者来说),它跟克莱·克里斯坦森所谈到的“颠覆性技术”有着共同的特征,也就是说,一些老牌公司发现自己很难迅速应用此类技术。
假设现在需要对一款既有的产品开发出人工智能版本。为开发产品,它需要用户。人工智能产品的第一批用户,会因为人工智能需要学习而碰到糟糕的用户体验。一家公司说不定本来就拥有稳定的客户群,故此,它可以让这些客户使用产品,让他们提供训练数据。然而,这些客户对现有产品感到心满意足,因此无法忍受将它切换成临时且低劣的人工智能产品。
这是典型的“创新者困境”,即老牌公司不愿破坏现有的客户关系,哪怕长远来看这么做会更好。出现创新者困境是因为,创新刚出现的时候,它兴许还未好到可以为行业中老牌公司的客户效力的地步,但它们已经好到可以在某个小众领域内催生一款产品,从而给初创企业带来足量的客户。随着时间的推移,初创公司会获得经验。最终,该初创公司将学到足够多的知识来创建出强大的产品,从规模更大的竞争对手那里夺走客户。到了那个时候,规模较大的竞争公司已远远落后,而初创公司将获得压倒性优势。人工智能需要学习,初创公司恐怕比更成熟的老牌对手们更乐意为这种学习投资。
如果上述老牌公司面临严峻的竞争,尤其是当它们的竞争对手刚进入市场,没有受到要让现有客户群满意的约束时,创新者的困境就没那么棘手了。此时,竞争的威胁意味着,无所作为的代价太高。即使你是一家老牌公司,此类竞争也会改变天平的指针,促使你迅速采用颠覆性技术。换句话说,像人工智能这样长期拥有巨大潜在影响的技术,其威力可能会使它在早期就被采用。老牌公司也不例外。
机器学习需要大量的时间和数据,才能让预测变得准确而可靠。一台预测机器一问世就能发挥作用,这样的例子实属罕见。有人向您推销一款以人工智能为驱动的软件时,它兴许已经完成了劳神费力的训练环节。但要是你想依据对自己企业至关重要的核心目的来管理人工智能,现成的解决方案可能做不到。较之用户手册,你更需要的是训练手册。这种训练要求通过某种方式让人工智能收集数据和改进。
学习的途径
经济史学家内森·罗森伯格(Nathan Rosenberg)用“边用边学”的说法来形容企业通过与用户互动来改进产品设计的现象。他使用这个词主要跟飞机性能有关。飞机的初始设计较为保守,但随着飞机用得越来越多,制造商不断学习,飞机的设计变得越来越好,容客量越来越大,效率越来越高。最早起步的制造商学得更多,因此更有优势。当然,在各种各样的情境下,这样的学习曲线都能带来战略优势。它们对于预测机器特别重要,毕竟,机器预测靠的就是机器学习。
到了眼下这一步,我们还没有花太多时间来区分构成机器学习的不同类型。我们把重点几乎都放在了“监督学习”上。当你对想要预测的东西拥有了优质的数据时,你就可以使用这种技术。比如,你有数以百万计的图像,你知道图像里包含了猫或肿瘤;你根据这一认识来训练人工智能。监督学习是我们作为教授的工作中一个关键的部分;我们向学生们提出问题和相关解决方案,以此展示新的素材。
相反,当你没有对想要预测的东西的优质数据,但你能在事后判断自己的对错程度时,会怎什么样呢?此时,如我们在第二章中所述,计算机科学家们会使用“强化学习”技术。很多小孩子和小动物都是这么学习的。心理学家巴甫洛夫给狗喂食时摇一声铃铛,之后发现,铃铛的响声能触发这些狗的唾液反应。这些狗学会了把铃铛声和获得食物联系起来,并逐渐知道铃铛声预示了周围会有食物,因此会做好相应的准备。
在人工智能领域,强化学习在教机器玩游戏方面取得了很大进展。DeepMind让旗下的人工智能操作一款电子游戏(如《打砖块》),如果人工智能在无须任何其他指令的条件下获得更高分,它就得到“奖励”。人工智能学会了玩一大堆雅达利游戏,而且玩得比最优秀的人类玩家还好,这就是“边用边学”。人工智能玩了成千上万次游戏,像人类那样学会了怎样玩得更好,只不过,人工智能比任何人类玩家玩的次数都多,而且玩得更快。(在电子游戏的例子中,由于目标(得分最高)与预测(这么做会提高还是减少得分)紧密相关,自动化的过程不一定需要不同的判断。判断很简单,只需分辨出目标是赢最多的分就行了。教一台机器玩《我的世界》等沙盒游戏,或是《精灵宝可梦GO》等收集游戏就需要更多的判断,因为不同的人喜欢这些游戏的不同方面。他们的目标并不明确。)
让机器做出特定的动作,接着用动作数据和过去的经验(动作和对应的得分)来预测哪些动作能带来分数的最大提升,这个过程就出现了学习。学习的唯一方法是上手真正玩。如果没有学习的途径,机器既不能玩好,也不会随着时间的推移而进步。这样的学习途径很昂贵。
何时部署
熟悉软件开发的人都知道,为了锁定错误(bugs),程序员要进行大量的代码测试。在某些情况下,公司把软件发布给用户,让其帮忙查找一般使用过程中可能出现的错误。不管是“内部测试”(让内部人员试用软件的早期版本)还是“beta测试”(邀请早期用户来测试软件),这些“边用边学”的形式都涉及对学习进行短期投资,以促成产品的进步。
这种为获得长期利益而付出的短期训练成本,与人类学习怎样更好地完成工作的方式类似。尽管麦当劳的工作人员不需要大量的训练,但跟资深员工比起来,新员工的速度较慢,而且犯错较多。可随着他们为更多客户提供服务,新员工也会越变越好。
商业航空公司的飞行员也会随着就职经验的积累而不断进步。2009年1月15日,全美航空1549号航班撞上了一群加拿大黑雁,致使所有发动机关停,机长切斯利·萨伦伯格尔(Chesley Sullenberger,也就是“萨利机长”)神奇地将飞机迫降在哈得孙河上,挽救了155名乘客的性命。大多数记者把他的表现归功于经验。按照记录,他积累了19663个飞行小时,驾驶空客A320的时长是4735个小时。萨利本人回忆说:“可以这么看,42年来,我一直定期往这家经验、教育和训练的银行里存入小规模的款项。而在1月15日,我有了可观的余额,足以取出一大笔存款。”萨利和飞机上的所有乘客,都从他从前服务数千人的经验中受益。银行新柜员和新飞行员之间“好到足以上手”的技能区别是建立在容错率上的。很明显,我们对飞行员的容忍度要低得多。值得欣慰的是,飞行员资格认证由美国交通部下属的联邦航空管理局管理,哪怕飞行员会从之后的在职经验中不断学习,也至少需要1500小时的飞行时间,其中包含跨国飞行时间500小时,夜间飞行时间100小时,仪器操作时间75小时。对不同的工作岗位而言,人类要接受多长时间的训练方可胜任,我们有着不同的定义。对于能够学习的机器,也是如此。
公司会设计制度来培训新员工,直到他们的水平足以胜任不同岗位,同时它们也知道员工将从完成工作的过程中学习以获取经验。但判定“足够好”的范畴是个很关键的决定。就预测机器而言,它可能是事关时机的重大战略决策:什么时候从内部培训转为在岗培训。
预测机器达到什么程度才叫“足够好”,这里没有现成的答案,只有权衡。要通过使用预测机器实现成功,公司需要认真对待这些权衡,并且有策略地进行取舍。
首先,人们对错误的容忍度如何?我们对某些预测机器的容忍度较高,对另一些机器的容忍度较低。比如,谷歌的收件箱程序会读取我们的电子邮件,它使用人工智能来预测我们会怎样回信,并生成3条简短回复供你选择。许多用户表示喜欢使用这一功能,哪怕它的失败率高达70%。(在撰写本书时,人工智能生成的回复仅有30%的概率对我们有用。)对错误的容忍度这么高,原因在于,缩短写文章和打字的时间带来的好处,抵消了预测的简短回复出错、建议派不上用场、浪费屏幕空间的成本。
相反,我们对自动驾驶领域出现的错误容忍度较低。由谷歌引领的第一代自动驾驶汽车是通过人类驾驶专家的指导来培训的,人类司机会负责有限数量的汽车,开着它们行驶成千上万公里,就像一位家长监督青少年开车那样。
这些人类驾驶专家提供了一个安全的训练环境,但他们也极端受限。机器只能学习到几种情况。人类在学会应对少数可能导致事故的情形之前,说不定已经在不同的环境和场景下驾驶了数百万公里。对自动驾驶汽车来说,现实中的道路充满危险,不留情面,正是因为人类曾在真实的道路上遭遇过充满危险、没有弥补机会的情况。
其次,在现实世界中获取用户数据有多重要?特斯拉明白训练可能要花很长时间,遂为旗下所有最新的车辆型号推出了自动驾驶功能。这些功能包括一套用于收集环境数据和驾驶数据的传感器,这些数据将上传到特斯拉的机器学习服务器。在很短的时间内,特斯拉就能够通过人类司机的驾驶方式来获得培训数据。特斯拉汽车越多,特斯拉的机器可以学到的东西也就越多。
然而,除了在人类驾驶特斯拉汽车时被动地收集数据,公司还需要自动驾驶数据,以理解自动驾驶系统的运行情况。为此,它需要让汽车切入自动驾驶模式,以便评估性能,还要同时分析什么时候人类驾驶员(需要他或她的在场和关注)会出手干预自动驾驶。特斯拉的最终目标不是生产一辆需要在监督下驾驶的副驾驶或青少年司机,而是一辆完全能自动运行的车辆。这就要求机器的驾驶水平高到足以让人类在自动驾驶汽车里感到舒服。
这里藏着一项棘手的权衡。为了变得更好,特斯拉需要机器在真实情况下学习。但把当前的车辆放到实际情况下,意味着交给客户一个年龄较小且缺乏经验的驾驶员——哪怕它与许多年轻驾驶员的水平一样高,甚至更高一些。即便如此,这么做的风险比人工智能助手Siri和Alexa能不能理解你在说什么、谷歌收信箱能不能正确预测你怎样回复一封电子邮件要大得多。就Siri、Alexa或谷歌收件箱而言,错误意味着低质量的用户体验。可就自动驾驶车辆而言,错误意味着生命危险。
后一种体验可能会令人感到恐惧。汽车有可能没发出提醒就驶出高速公路,或是把地下通道当成路障而采取紧急制动。神经过于紧张的司机可能会选择不使用自动驾驶功能,而这样一来,又妨碍了特斯拉提高学习的能力。就算公司可以说服一些人充当试用测试员,这些人会是它想要的人吗?说到底,自动驾驶测试版的测试人员,说不定比普通司机更喜欢冒险。如果是这样的话,公司会把自己的机器训练得像什么人?
有了更多的数据,机器学习得更快;而如果将机器部署在自然环境中,它们生成的数据会更多。但是,现实世界里可能发生糟糕的事情,最终损害公司品牌形象。越早把产品投放到实践中,越能让机器加速学习,但也有着危害品牌(甚至客户)的风险;越晚把产品投放到实践中,越会减慢它的学习速度,但也让公司内部有更多的时间改进产品,保护品牌(以及客户)。
对谷歌收件箱一类的产品来说,权衡的答案似乎很明显:性能糟糕付出的代价很低,而从客户使用中获得的收益却很高。把这类产品尽早投到现实世界是有道理的。而对汽车这一类产品,答案则更加模糊。随着各行各业起来越多的公司试图充分利用机器学习,处理这类权衡的相关战略也会越来越重要。
通过模拟学习
有一种过渡步骤可缓和这一权衡,那就是利用模拟环境。人类飞行员接受训练时,要先在复杂而逼真的模拟器上花数百个小时,才能摸到真正的飞机。人工智能也可采用类似的方法。谷歌训练DeepMind的人工智能AlphaGo,好让它击败世界上最优秀的围棋选手时,不光让它看了数万盘人类棋局,还让它跟另一个版本的自己对弈。
这种方法的其中一种形式叫作“对抗性机器学习”,即让主人工智能及其目标与试图阻止该目标实现的另一种人工智能进行对抗。例如,谷歌的研究人员让一套人工智能通过加密程序向另一套人工智能发送信息。两套人工智能共享密钥,并对信息进行编码和解码。第三套人工智能(对手)获取了这些消息,但没有密钥,它尝试解码。通过大量模拟练习,对手会训练主人工智能在不使用密钥且难以解码的条件下进行通信。
这种通过模拟来学习的方法不能在现场进行;它们需要类似实验室方法的东西,来生成新的机器学习算法,接着将之复制、推送给用户。它的优点是,机器不必实地训练,这就减少了用户体验上的风险,甚至用户本身可能承受的风险。缺点是,模拟法可能无法提供足够丰富的反馈,这削弱了(但无法消除)趁早发布人工智能的必要。总有一天,你还是得把人工智能投放到真实世界去。
在云端学习与在实地学习
在实地学习可以改进人工智能。之后,公司可以利用预测机器经历的实际结果来改进下一次预测。通常,一家公司会收集现实世界中的数据,对机器进行微调,然后发布更新后的预测模型。
特斯拉的自动驾驶仪从来不会在实际用户正在使用它的时候学习。它进入实地后,会把数据传回到特斯拉的计算云上。特斯拉进行汇总,并利用数据对自动驾驶仪进行更新。直到这时候,它才会推出新版本的自动驾驶仪。学习发生在云端。
这种标准方法的优点是可以为用户屏蔽掉不完善的版本。不利的一面是,驻留在设备上的通用人工智能,无法考虑迅速变化的本地条件,或至少要等到数据构建到新版本之后才能这么做。因此,从用户的角度来看,改进是跳跃式的。
反过来说,假设人工智能可以在设备上学习,并在该环境下得到改进,那么,它能更轻松地回应本地的环境,并针对不同的环境进行优化。在迅速变化的环境下,改进设备自身的预测机器很有益处。例如,在Tinder(一款热门的约会软件,用户选择时,向左滑动代表“讨厌”,向右滑动代表“喜欢”。)等应用程序里,用户可以快速做出很多决定。这些决定能立刻反馈到预测当中,进而显示更可能的潜在约会对象。品位是依用户而定的,并随时间的推移(一年也好,一天也好)而改变。如果说人总是大同小异,且有着稳定的偏好,发送到云端并进行更新就能起到很好的作用。但如果说人的品位因人而异,而且变化无常,那么,具备可在设备层面调整预测的能力就很有用了。
公司必须权衡,自己应该多快将预测机器的现实经验用于生成新的预测。立即使用这一经验,人工智能就可以更快地适应当地条件的变化,但代价是质量缺乏保证。
学习的权限
学习往往需要愿意提供数据的客户。如果战略牵涉到要牺牲其他事情来做某件事,那么,在人工智能领域,几乎没有哪家公司比苹果做出的承诺更早以及更坚决了。蒂姆·库克(Tim Cook)在苹果主页上专门讨论隐私的版块里写道:“在苹果,您的信任对我们来说意味着一切。这就是为什么我们尊重您的隐私,并通过强大的加密系统来保护您的隐私,我们还设定了严格的政策,来管理所有数据的处理方式。”他继续写道:
几年前,互联网服务的用户开始意识到,如果一项在线服务是免费的,那么,你不是客户,你是产品。但在苹果,我们相信,卓越的用户体验不应以牺牲用户的隐私为代价。
我们的商业模式非常简单:我们销售优质产品。但我们不会把您的电子邮件内容或网络浏览习惯建立成一个文件夹,卖给广告商。我们不会将您存储在苹果手机或iCloud里的信息“货币化”。而且,我们不会阅读您的电子邮件或消息以获取信息,然后向你推销。我们的软件和服务,其目的在于让苹果的设备变得更好。仅此而已。
苹果做出这一决定,不是出于政府的规定。一些人声称,苹果公司做出这一决定是因为它在开发人工智能方面落后于谷歌和Facebook。没有哪家企业可以避开人工智能,苹果自然也不能。这一承诺会使其工作更加艰难。它打算以尊重隐私的方式开发人工智能。这是一个很重要的战略赌注,认为消费者会希望控制自己的数据。无论是为了安全还是隐私,苹果都认为,它的承诺会让消费者更愿意(不是更不愿意)让人工智能进入自己的设备。(这一赌注之所以可行,是因为用于保护隐私的数据分析有了技术上的进步,尤其是辛西娅·德沃克发明的“差分隐私”。)苹果并不是唯一一家押注在保护隐私能带来回报上的企业。Salesforce、Adobe、优步、Dropbox和许多其他公司都已经在隐私方面做出了大量投入。
这个赌注有着战略意义。包括谷歌、Facebook和亚马逊在内的许多其他公司选择了一条不同的道路,它们告诉用户,自己将使用数据以提供更好的产品。苹果以隐私为重,限制了它产品的功能。例如,苹果和谷歌都在自家的照片服务中加入了人脸识别功能。要让它对消费者有用,就必须对照片里的脸进行标记。不管用户端的设备怎么设置,谷歌都会保留标签,因为识别是在谷歌的服务器上发生的。但出于隐私考量,苹果公司选择在设备层面进行识别。这意味着,如果你在苹果电脑上标记了熟人的面孔,你的苹果手机或者iPad则不会收到这些标签。不足为奇,正是在这种情形下,隐私考量和消费者的用户体验撞到了路障。(在本书撰写期间,苹果将怎样处理这些问题未为可知。)
我们不知道实践中会出现些什么。无论如何,我们的经济学家滤镜清楚地表明,用人们的隐私来换取预测的准确性之间的权衡所带来的相对损益,将引导企业的最高战略选择。加强隐私保护或许能让企业获得从用户那儿进行学习的许可,但这种学习也可能并不是特别有用。
体验(经验)是新的稀缺资源
导航应用程序Waze通过收集其他Waze用户的数据,来预测交通出问题的位置。它可以为你找到最快的路线。如果这是它所做的一切,那也没什么问题。然而,预测会改变人类的行为,这也正是Waze设计的用意。当机器收到来自人群的信息时,其预测也可能因为所得信息而遭到扭曲。
对Waze来说,问题在于,用户会遵循其指导,将车开进小巷以避开拥堵。除非Waze针对这种情况(用户遵循指导)做了调整,否则它无法收到交通问题已得到缓解的提醒,此时常规路线已变回最便捷的路线。为了克服这一障碍,应用程序必须派一些人类驾驶员回到交通拥堵的地方,看看情况变成了什么样。这样做会引发一个明显的问题:受此指引的人,兴许会为了更大群体的利益而变成牺牲品。这无疑会降低产品的质量。
这将会出现一种难以解决的权衡:人工智能的预测改变了群体的行为,而这又会阻碍人工智能获取形成正确预测的必要信息。本例中,多数人的需求高于少数人的需求。但用这种方式来管理客户关系,显然让人不舒服。
有时候,为了改进产品,尤其是涉及“边用边学”的时候,有必要大幅调整系统,让消费者拥有全新的、可供机器学习的体验。被迫进入新环境的客户往往体验较差,但其他所有人都可从他们的体验中受益。对于beta测试,这一权衡是自愿的,因为客户主动选择试用早期版本。但是beta测试版所吸引到的客户,可能并不会像普通客户那样使用产品。为了获得所有客户的体验,你有时也需要针对这些客户进行产品降级,以获得能造福所有人的反馈。
人类同样需要体验(经验)
如果你从人力资源体验的角度思考,体验的稀缺性会变得更为突出。如果机器获得了体验,人类说不定就没获得体验。近年来,一些人担心自动化可能会导致人类技能的丧失。
2009年,法国航空公司447号航班在从里约热内卢飞往巴黎的途中坠入大西洋。一开始是恶劣的天气引发了危机,但飞机的自动驾驶仪失灵加剧了危机。据报道,与全美航空的萨利机长不同的是,当时驾驶飞机的飞行员相对缺乏经验,对危机情况处理得很糟糕。而且在更有经验的飞行员(之前在睡觉)来接手时,他又未能恰当地评估当时的情形。这位资深飞行员前一晚睡得很少。底线:初级飞行员或许拥有3000小时的飞行时间,但这并非高质量经验。大部分时候,他都是靠着自动驾驶仪飞行的。
飞行自动化早已是司空见惯的实践,这是因为,从证据上来看,20世纪70年代以后,大部分飞机事故都是人类的失误所致。人类因而被移出了控制环。然而,这么做又带来了更为讽刺的意外结果:人类飞行员获得的经验更少,驾驶能力变得更糟了。
在经济学家蒂姆·哈福德看来,解决方案一目了然:必须缩减自动化的规模。他认为,能够自动化的都是较为常规的情况,所以,需要人为干预以应对更加极端的情况。如果你以应对普通情况的心理来学习应对极端情况,问题就出现了。法航的飞机在面对极端情况时,恰恰没能引起资深飞行员的足够重视。
哈福德强调,自动化并不是总会带来这样的困境:
在很多情况下,自动化并不会制造这样的悖论。网站上的客服界面兴许能够处理日常投诉和咨询,让员工无须在重复的工作上浪费时间,从而为碰到更复杂问题的客户提供更好的服务。飞机却不是这样。自动驾驶仪和电传操作系统提供的更细微的辅助并不能把机乘人员的时间解放出来,让他们专注于更有意义的事情。相反,它们让机乘人员边开飞机边打瞌睡(“打瞌睡”有时是比喻,有时是真的)。2009年年底发生过一起臭名昭著的事件,两名飞行员开着自动驾驶仪,结果飞过了明尼阿波利斯机场100多英里。两人当时在看笔记本电脑。
不足为奇,我们在本书中讨论的其他例子更倾向于飞机这一类,包括整个自动驾驶汽车领域,而不是客户投诉这一类。如果我们大多数时候都不自己开车,但碰到极端情况时却让汽车把控制权交给我们,我们会怎么做呢?我们的孩子会怎么做呢?
解决方案是确保人类获得并保留这些技能,减少自动化的程度,给人类的学习提供时间。实际上,经验(体验)是一种稀缺资源,为避免技能的消失,机器必须把一部分时间分给人类。
反过来的逻辑也成立。为了训练预测机器,让它们学习潜在的灾难性事件肯定很有价值。但如果你把人类放在循环中,这台机器又怎么能获得处理相应事件的经验呢?故此,人与机器的体验的取舍是创造学习途径的另一个权衡。
这些权衡揭示了谷歌、微软和其他公司领导层“人工智能优先”宣言的言外之意。这些公司愿意对数据进行投资,帮助它们的机器学习。它们会优先考虑预测机器的改进,哪怕这必定会降低客户即时的体验或员工培训的质量。数据战略是人工智能战略的关键。
本章要点
※转变为“人工智能”战略意味着给此前的优先选项降级。换句话说,“人工智能优先”不是句流行语——它代表的是真正的权衡。“人工智能优先”战略把最大化预测的准确度作为组织的中心目标,哪怕这意味着要牺牲其他目标(如收入和用户数的最大化、用户体验的最优化等)。
※人工智能会带来颠覆,因为老牌公司采用技术的经济动机往往比初创公司弱。以人工智能为动机的产品,往往最开始比较差,因为训练预测机器执行任务要花时间,不管是遵循人类指令的硬编码机器还是自行学习的机器,都是如此。然而,一旦部署,人工智能便可继续学习和改进,把竞争对手的非智能产品抛在身后。对老牌公司来说,采取等待和观望的态度,站在场外观察人工智能在行业内的应用,这是很诱人的做法。一些公司说不定适合这么做,但另一些公司会发现,一旦竞争对手抢先训练和部署人工智能工具,自己就很难赶上了。
※另一项战略决策需要时机,也就是什么时候把人工智能工具投入实地。人工智能工具最初是在内部进行培训的,它们远离客户。然而,等把它们部署到商业用途中,它们会学得更快,因为它们暴露在了真实的运营条件下,往往还能接触更多的数据。早部署的好处是学习速度快,代价是风险高。(让客户接触尚未经过恰当训练的不成熟的人工智能工具,对品牌甚至客户的安全都会产生风险。)在某些情况下,权衡是明确的,例如对谷歌收件箱而言,快速学习的好处远远大于绩效糟糕的成本。在另一些情况下,比如,自动驾驶,权衡就更加模糊了:在商业产品上抢先一步带来的优势与产品尚未充分准备就发布一旦失误造成的代价比,到底谁大?
