.

相信人,还是相信机器重新思考数字化之九

胡泳/文从网络的早期开始,戴维·温伯格就一直是一位先锋思想领袖,探讨关于互联网对我们的生活、对我们的企业以及最重要的——对我们的想法——的影响。

几十年来,他保持为一个互联网价值的预言家,但在《混沌:我们如何在一个充满可能性的互联网世界中蓬勃发展》一书中,他承认预测并不见得有用:有关网络的声音并没有以言说者期待的方式改变世界。商业和技术总是比预言家更快。

一方面,这是由于世界的不可预测性增加了。人工智能、大数据、现代科学和互联网都在揭示一个基本事实:世界比人类所看到的要复杂得多,也不可预测得多。

我们不得不开始接受这样一个事实:这个世界真正的复杂性,远远超过我们用以解释它的定律和模型。正是“深不可测的复杂性”令我们开始启用人造的机器来打破预测的旧界限,而这一转向表明,了解我们的世界如何运作,并不是为未来做准备的必要条件。

另一方面,温伯格提出一个更加惊人的看法:人类的预测是不是可欲的?

过去,当我们面对未来时,我们往往依赖于预测。“预测方式的故事也是我们对世界运行方式的理解的故事。”可既然预测是不可行的,那让我们换一种认知策略会怎样?

这种想法并不像表面上看起来那么简单,因为它不只是策略变换,而是有可能颠覆我们作为人类对自己的一个核心假设:人是一种能够理解世界运行机制的特殊生物。若该假设不再成立,宇宙就从可知的变为不可知的。而想要改变如此根深蒂固的人类自我认知,无疑会带来很深的痛苦。

在此基础上,温伯格把问题挖得更深:“至少从古希伯来人开始,我们就认为自己是上帝创造的独一无二的生物,有能力接受他对真理的启示。自古希腊人开始,我们就把自己定义为理性的动物,能够看到世界的混乱表象之下的逻辑和秩序。”我们把自己放在一个基座上,并加以膜拜。

如果我们发现,我们不仅不知道我们不知道的东西,也不理解我们认为我们知道的东西,那会如何呢?如果我们需要放弃对这个世界的理解,对不可解释的事情也需要从不接受到接受,那又会如何呢?如此富有挑战性的问题,吸引你把这本书读下去。

不预测未来,而是创造可能性

每隔一段时间,整齐有序的世界就会受到一些科学家/哲学家的冲击。他们说,事情不是大家想得那样。你为什么想和你如何想,都错了。

世界以不同的方式运作,有不同的理由、不同的关系和不同的结果。牛顿、爱因斯坦、哥白尼、达尔文甚至弗洛伊德都扮演过这类角色,他们永远改变了思想和行动的进程。现在,温伯格似乎期待着人工智能(AI)来承担该角色。

温伯格分析了人为什么喜欢作预测。人喜欢提前了解所有的可能性,并为它们做准备,尽管常常会出现准备过度、准备不足和准备不当。假如上述这三种情况发生,社会就不得不承担巨大的成本。

与人相比,机器则没有这些盲目性。它们在非预期的情况下运作,听从数据的指示。机器学习能在对数据背后意义一无所知的情况下,发现数据之间的关系。它们发现并证明一切都在同时发生,而不是按顺序发生。

温伯格的第一个也是最好的例子,是一个名为“深度患者”(DeepPatient)的医疗学习怪物。

纽约某医学院的研究人员向它输入整整70万份病历,并让它不受限制地找出它能做的事情。结果,它作出的诊断和预测远远超出了人类医生的能力。虽然该“黑盒”诊断系统无法解释它给出的预测,但在某些情况下,它的确比人类医生更准确。

这就是深度学习,会带来人类从未考虑过或甚至无法想象的发现。温伯格说,“深度患者”的教训是,深度学习系统不必将世界简化为人类能够理解的东西。

这违背了我们迄今为止所建立的一切。机器学习对天气、医疗诊断和产品性能的预测比我们做得更好,但往往以牺牲我们对其如何得出这些预测的理解为代价。

温伯格强调,虽然这可能带来危险,但也是一种解放,因为它使我们能够驾驭我们周围大量数据的复杂性,从混乱和琐碎的数据中获益。

温伯格将此形容为“从混沌理论转向混沌实践——将这一理论那令人兴奋的想法应用于日常生活”。这就是本书英文书名EverydayChaos的由来,它讨论的并非理论意义上的混沌,而是每日每时的混沌。

温伯格指出,这种转向并非始于人工智能,而是从有互联网以来就开始了。各行各业都采取了那些完全避免预测未来的做法,比如柔性生产、敏捷开发、A/B测试、最小化可行产品、开放平台和用户可修改的视频游戏等。他甚至极而言之地说,我们在过去20年里做的那些发明与革新,都是为了避免去预测未来会发生什么。

我们对这种新的认知模型已经如此适应,以至现在我们对上述与传统认知模型相悖的新事物,已经习以为常了。

我们在互联网上公认的工作方式,事实上推翻了关于未来如何运作的旧假设:互联网并不试图预测未来并为其做准备,而是通过创造更多深不可测的可能性来造就我们的繁荣。网络也降低了在没有定律、假设、模型、甚至对什么会成功的直觉的情况下运作的成本。

战略不是漫长的计划,也不通往可知的未来

预期和准备,是我们处理日常事务的核心,也是企业做战略规划的核心。

长期以来,人类一直认为,如果能够理解事件发生的永恒定律,我们就能够完美地预测、规划和管理未来。但认知模型发生转换后,我们的最佳战略往往需要忍住不去预测,因为预测总是着眼于通过减少可能性来集中资源。

很多人把战略理解为“长期规划”,只有存在一个有序、可预测的未来,这样的规划才有意义。在不同程度上,以不同的方式,战略规划要求公司能够将各种可能性缩小到自己可以追求的可能性。

正因如此,温伯格才说:“战略规划通常被视为一种限制性操作。它识别可能性,并选择企业想要实现的可能性。”

这种线性思维激发了一种异乎寻常的战略制定方法——场景规划(scenarioplanning)。在场景规划的过程中,战略制定者发明并深入考虑有关企业的若干同样合理的未来故事。虽然这无疑有助于打开思路,探索未来如何影响现在,但它受限于一种错误的世界观。

从根本上说,不管设计出几个场景,面对世界的复杂性,都还是过于简单化。线性思维当然也可以努力增加自身的复杂程度,但无论线性思维趋向多么复杂,世界都不会有如其所愿的规则结构。我们需要的是非线性思维。

在《瞬时竞争力:竞争优势的终结》一书中,丽塔·麦克格拉斯教授,驳斥了迈克尔·波特关于企业可以拥有“可持续竞争优势”的看法。相反,她提倡一种“持续重构的战略”。

这种对战略的理解要求公司必须对环境中的任何变化保持警惕。它们也必须拥有特定的组织结构和文化,使其能够通过脱离当前的轨迹来作出反应,从而创造一个新的轨迹。与波特式的战略观相比,这是度的翻转,那种认为战略是一个漫长的计划、通往一个基本可知的未来的观点彻底过时了。

场景规划寻找的是大规模的变化,而麦克格拉斯的方法是意识到可见的变化。这是对商业生活中各方面的微妙关系的更恰当的反应,其中不乏一些变化,可能对企业业务产生终结性的影响,或者令企业在竞争激烈的赛道上跛行。

在这样一个混乱和不可预测的时代,战略应该比以往更加重要。它确实重要,但前提是我们必须深刻地调整对战略的思考方式。混沌状态下的战略应转变思路,不是缩小可能性,而是去尽可能创造更多可能性。

这也是互联网给我们带来的教训:惟有随机应变,方能创造可能性。这样的战略路径也意味着,我们不再需要为准备过度、准备不足或准备不当导致的资源浪费或机会错失,而付出沉重代价。

以预测准确性为目标,放弃可解释性

商业实践中的这些变化预示着,我们对世界如何运作和未来如何发生的想法,有了更多的试验机会。

机器学习正在让我们面对我们一直凭本能感觉到的事情:这个世界远远超过了我们理解它的能力,更不用说控制它的能力。如同书的前言所说:“万物皆一体。”一切都会影响其他一切,一直如此,永远如此。这种混乱是我们生活、商业和世界的真相。

面对这一事实,温伯格扮演了AI代言人的角色。他批评说,我们坚持让机器向我们解释自己,显示了我们的不安全和无知。我们坚持要知道它们是如何得出结果的,对机器的要求比对人类的要求更高。

为了让机器更好地发挥潜力,温伯格建议我们接受超出我们理解能力的系统。这些系统只需要以预测准确性为目标,而毋需保证可解释性。在许多情况下,如果这些系统的历史表现良好,我们就可以接受它们的建议,就像我们会接受医生基于一个我们不能理解的有效性研究而给出的建议一样。

他诗意地描述说:这些新工具“创造了一个因特殊性而蓬勃发展的充满联系和创造性的世界。它们开启了一个世界,在这个世界里,每个微粒都相互依存,而粗暴的解释只会侮辱这种复杂的关系”。

在这样歌颂了机器以后,温伯格也认识到,如果不加以控制,系统很可能以最残酷的方式对待最弱势的群体。

但他笔锋一转:“我们之所以制造这些工具,总的来说,是因为在大多数时候,它们都是有效的。”由此来看,衡量系统的标准是有效而不是伦理:“机器学习系统极度非道德化。它们只是机器,而不是代表正义的机器。”

温伯格承认,人工智能系统需要底线价值观,但又指出,正是在这里,我们遇到一个棘手的问题:“将价值判断程序化意味着,计算机要达到我们所要求的具体和精确程度。然而,关于价值观的讨论往往是混乱、不精确和争论不休的。”所以人类应该怎么办呢?停止试图将人的价值灌输给机器?

读到这里,我觉得温伯格此书,在暗自敦促人类向机器投降。尽管他的说辞是,机器可以通过创造更多未来的可能性,从而让人类更加蓬勃地发展下去。但是,如果说他之前关于混沌的日常应用及企业应用等尚能引发我的共鸣,到了机器与人关系这一部分,就不由我不产生怀疑了。他的两个前提都不能让我信服。

其一,不管怎样,机器也会越来越多地接手人类事务。“这个未来不会安定下来,不会自行解决问题,也不会屈服于简单的规则和期望。感到不知所措、困惑、惊讶和不确定是我们面对世界的新常态。”就是说,反正你也注定搞不清楚人的未来境况,所以不如就把自己交给机器好了。

其二,机器本身可能教会我们新的伦理。虽然人工智能需要学习更多的伦理知识,但伦理学科是不是也可以从人工智能中学习一些东西呢?“当你试图开发一个影响人的机器学习应用时,你很快就会知道,公平比我们通常认为的要复杂得多,而且公平几乎总是要求我们做出艰难的权衡。”

所以,机器不仅是我们的管家,也可能是我们的导师。最后,温伯格把这一切上升到敬畏的高度:我们比以往任何时候都对未来更具掌控力,但我们驾驭世界的技术和认知手段,恰恰证明了这个世界已经超出我们自欺欺人的理解。他将此称作“一个新悖论的起点”,并说人类应该感到敬畏,一如以往敬畏星空。

敬畏什么呢?敬畏算法的有效性,因为它们比任何人类都能更好地掌握“宇宙的相互关联性、流动性和纯粹的美丽”?

理解,还是不理解,这是一个问题

温伯格对网络化知识的认识曾给我们打开新疆界(见《知识的边界》),而现在,他对人工智能时代的知识的见解,可以归纳如下:

人类努力获得对复杂系统的理解。然而,我们基于“人类的理解”所做的预测并不像人工智能那样准确,虽然人工智能并不真正理解任何东西。

不过,鉴于人工智能的预测比基于人类理解的预测更准确,我们应该放弃对理解的追求,而专注于建立能够为我们做决定的人工智能。将主导权交给预测性人工智能,我们将迎来人类进化的下一个阶段。

毋庸置疑,人工智能的未来关键在于,到底我们是应该放弃理解,还是致力于建立可以理解的人工智能?

这提出了令人匪夷所思的问题。随着技术的发展,我们可能很快就会跨越一些门槛,而越过这些门槛,使用人工智能就需要信仰的飞跃。当然,我们人类也并不能够总是真正解释我们的思维过程,但我们找到了直觉上信任和衡量人的方法。对于那些以不同于人类的方式思考和决策的机器来说,这是否也是可能的?

我们以前从未制造过以其创造者不理解的方式运作的机器。我们能指望与这些不可预测和不可捉摸的智能机器,达成多好的沟通和相处?这些问题将把我们带向人工智能算法研究的前沿。

人工智能并不一向这样。从一开始,对于人工智能的可理解性,或可解释性,就存在两派观点。

许多人认为,建造根据规则和逻辑进行推理的机器是最有意义的,这样将使它们的内部运作,对任何愿意检查某些代码的人来说是透明的。

其他人则认为,如果机器从生物学中获得灵感,并通过观察和体验来学习,那么智能将更容易出现。这意味着要把计算机编程转给机器。与其由程序员编写命令来解决一个问题,不如由程序根据实例数据和所需输出生成自己的算法。后来演变成今天最强大的人工智能系统的机器学习技术,遵循的正是后一种路径:机器基本上是自己编程。

任何机器学习技术的工作原理本质上比手工编码的系统更不透明,即使对计算机科学家来说也是如此。这并不是说,所有未来的人工智能技术都将同样不可知。但就其性质而言,深度学习是一个特别黑暗的黑盒子。

一旦面对黑盒子,就产生了人对系统的信任问题。而温伯格恰恰没有深入处理人对人工智能的信任。比如,即便“深度患者”的诊断比人类医生更准确,但要是它无法解释自己给出的判断,医生和患者会对它表示信任吗?

人类的信任往往基于我们对其他人如何思考的理解,以及对这些思考可靠性的经验了解。这有助于创造一种心理安全感。而AI对于大多数人来说仍然是相当新颖和陌生的。它使用复杂的分析系统进行决策,以识别潜在的隐藏模式和来自大量数据的微弱信号。

即使可以在技术上解释,AI的决策过程对于大多数人来说通常都是难以理解的。更何况目前的人工智能发展,是在朝着不可理解的方向加速前进。同自己不明白的事情互动会引起焦虑,并使我们感觉我们失去了控制。

芯片制造商英伟达推出的自动驾驶汽车,看上去与其他自动驾驶汽车没什么不同。

但它实际上迥异于谷歌、特斯拉或通用汽车所展示的任何东西,而是显示了人工智能的崛起。英伟达的汽车并不遵循工程师或程序员提供的任何一条指令。相反,它完全依靠一种算法,这种算法通过观察人类的行为而学会了自己驾驶。

让一辆车以这种方式行驶是一项令人印象深刻的壮举。但它也有点令人不安,因为并不完全清楚汽车的决定是如何做出的。来自车辆传感器的信息直接进入一个巨大的人工神经元网络,该网络处理数据,然后提供操作方向盘、刹车和其他系统所需的命令。其结果似乎与你所期望的人类司机的反应一致。

但是,如果有一天它做出一些出乎意料的事情——比如撞上了一棵树,或者在绿灯前停止不动呢?按照现在的情况,可能很难找出它这样做的原因。该系统是如此复杂,甚至设计它的工程师也难以分离出任何单一行为的原因。而且你也不能向它提问:没有办法来设计一个系统,使它总是能够解释为什么它做那些事。

除非我们找到方法,让深度学习等技术对其创造者更容易理解,对用户更负责任。否则,将很难预测何时可能出现失败——而失败是不可避免的。

麻省理工学院研究机器学习应用的教授托米·贾科拉说:“这是一个已经凸显意义的问题,而且在未来它将变得更有意义。无论是投资决策、医疗决策,还是可能的军事决策,你都不希望仅仅依靠‘黑盒子’方法。”

所以,理解,还是不理解,绝非可以轻易得出结论,因为我们投入的赌注太太了。

正如人类行为的许多方面也无法详细解释一样,也许人工智能也不可能解释它所做的一切。或许这就是智力性质的一个特点:它只有一部分被暴露在理性解释之下。而另外一些是本能的,或潜意识的,或不可捉摸的。

如果是这样,那么在某个阶段,我们可能不得不简单地相信人工智能的判断(这是温伯格所主张的),或者干脆不使用人工智能。相信或者不使用,这种判断将不得不纳入社会智能。

正如社会建立在预期行为的契约之上,我们将需要设计和使用人工智能系统来尊重和适应我们的社会规范。如果我们要创造机器人坦克和其他杀人机器,重要的是它们的决策必须与我们的道德判断相一致。

哲学家丹尼尔·丹尼特对可解释性持很审慎的态度。他说:“如果我们要使用这些机器并依赖它们,那么让我们尽可能坚定地掌握它们是如何和为什么给我们答案的。但是,由于可能没有完美的答案,我们应该对人工智能的解释持谨慎态度,就像人类对彼此的解释一样——无论机器看起来多么聪明。而如果它不能比我们更好地解释它在做什么,那么就不要相信它。”

我的看法是,要想达至人工智能诱人的前景,至少需要完成三件事情:第一,打开黑盒子,让AI能够解释自己所做的事情;第二,发现和减轻训练数据及算法中的偏见;第三,为人工智能系统赋予伦理价值。

机器学习的兴起是人类历史上最重大的变革之一,越来越多的机器学习模型将成为我们的知识库,就像现在的图书馆和人类的头脑一样。

然而,机器学习模型里没有知识,这将意味着我们需要重新思考知识的性质和用途,甚至重新思考作为能够了解自己世界的生物,我们到底是谁。在这些方面,温伯格的思考给我们带来了更多探询的可能性,尽管远不是全部的答案。

(戴维·温伯格:《混沌:技术、复杂性和互联网的未来》,中信出版集团年12月第一版)




转载请注明:http://www.abachildren.com/sstx/2021.html