科技思考:在人工智能的研究中,其研究者应遵循什么原则?——正如拜纳姆等人所说那样:“跟其他高新技术一样,人工智能是非常专门化的科技知识。人工智能科学家与工程师是人工智能技术的研发者,他们是化解安全问题的主体,应该从‘消极责任’和‘积极责任’两个方面强化人工智能专家的专业责任。”
也就是强调人工智能研究者应该主动的,通过技术手段来确保人工智能的安全性;不能够只追求经济利益或将主动权完全让给需求方,应该具备研究人工智能基本的道德素质。
同时在人工智能产品发生问题或者产生负面影响时,不应该推诿过失,将错误完全归结于技术本身的不稳定性和复杂性上,而是应该积极寻找解决办法,尽快解决问题。可以说人工智能的研究中遇到的问题不全是单纯的科学技术问题,也是人的问题,特别考验的是研究人员的责任意识。
另一方面在对人工智能产品设计的时候就应该提前有所准备。在程序上提前进行设定,使人工智能产品具有一定的道德准则,并且有选择的输入预设程序让其按照人类规定的行事准则进行活动。现在较为成熟的例子便是智能机器人索菲亚的诞生。
尽管技术上还有很多不完备的地方,但是这个成功的例子使人们看到,如果一个人工智能产品能够在我们设定好的程序下做出合乎我们要求的道德判断和行为,那么我们就更加容易相信这是一个对我们有利的、安全的人工智能产品。而关于科技伦理的约束作用,在人类过去的科技发展史中就有一个很好的例子,那就是基因技术。
在过去的历史中,从基因技术出现到高速发展,再到克隆技术给社会带来巨大的冲击,几十年中学术界、医疗界都为了解决这个情况付出了非常多的努力。基因技术在科技伦理的约束下现在发展状况可以说是比较平稳的,那么人工智能完全可以对此进行参照。
而且现在关于人工智能的伦理研究也取得了初步进展,这对人工智能系统具备合理的道德判断和行为准则也有着重要帮助。面对人工智能技术带来的各种问题,除了专门从事相关研究的科学家和科学共同体,更多的是普通人。
公众在面对科学技术发展时,对于一个技术的影响是十分重大的。如果公众在面对高科技带来的社会问题时能够保持冷静,理智对待那么对于社会问题的解决就有巨大的帮助,这就在客观上为新技术的发展提供了帮助,如果慌乱应对,甚至造谣生事可能会引发更大的问题从而对新技术的发展产生严重的阻碍作用。
在一定时期对一些发展还不成熟的特定科学技术进行限定发展是符合客观规律的,这是保障人类基本生活和社会稳定所必须的抉择。正如前面提到的关于基因技术中克隆技术的应用方面,在动物和植物方面的克隆技术发展上人们的容忍度还是很高的。
但是克隆人则是底线,是不可超越的,无论克隆技术多么的发达与成熟,在人体克隆方面依然是坚决禁止的,而且很多国家已经出台专门的法律明文规定禁止克隆人。那么对于人工智能研究我想也是一样的。
现阶段人工智能的发展现状可以清晰的令我们看到其具有的巨大潜力。尤其是库兹韦尔的奇点理论向我们证明了,在未来人工智能是有可能超越人类智能的,尽管这个时间未必像他说的那么快到来。但是近几年人工智能的急速发展,尤其是智能程序AlphaGo的诞生和智能机器人索菲亚的出现等,这不得不让人们对人工智能的快速发展产生担忧。
而且从新的科技革命趋向来和全世界对人工智能的重视程度来看,我们又不能去阻止人工智能的发展,那么对人工智能加以限制就成为了必然选择。因此我们可以从应用范围和智能程度两个方面来对人工智能加以限制。
首先,从人工智能的应用范围上,我们可以维持人工智能在其固有的传统范围内的线性发展,例如电子计算、专家系统、自动化生产等领域,同时对于这些领域内的人工智能的自我学习能力进行限制,保证它们无法进行综合度很高的跨领域学习。
同时,对于人工智能在其原来涉及程度不深的领域中的发展,例如智能家庭、军用智能系统等领域发展时要及时设立一些限制条件,再以层层解锁的形式,逐步开放对人工智能的限制。这样我们既保证了人工智能的发展依然能够稳步前进,也在人工智能发展的范围上进行了有效限制。
其次,在人工智能的智能水平和自主程度上进行限制。既然人们始终担心人工智能超越人类智能会带来灾难性后果,那么在对于提升人工智能的智能水平上我们可以进行技术限制。例如现在有一种技术或算法可以大幅度提升人工智能的智能水平,但是如何进行应用则取决与我们。
正如在计算机编程中程序的设计一样,并不是程序的功能越强大就越好,还要考虑维护和调整的问题,只有功能强大而维护困难或者不能调整那么整个程序就等于设计失败了。在当前把人工智能的智能水平压制在人类智能以下是恰当的。而对于人工智能的自主程度上我们要把牢牢握住主从关系,保证是我们控制人工智能而不是相反。
在这一点上阿西莫夫提出机器人学三定律对整个人工智能领域的研究具有重大参考意义,就是无论在什么条件下人的控制权都要高过人工智能,在决策问题上必须以人为主而人工智能只能执行。
人工智能作为现阶段对于我们人类来说是最重要的科学之一,每当我们在人工智能领域取得突破时,我们都需要保持警惕并反省自身,那就是我们是否发明了一种我们人类无法控制的技术。因此,有的时候在科学技术的研究上我们可以牺牲一定的速度从而使社会的总体稳定性得到提高。
毕竟,人类不是机器,对事物的理解和适应是需要一定的时间的,不能够像机器一样输入指令和代码就可以实现。为了在可控条件下寻求人工智能技术的稳定发展,做出种种限制也在情理之中。因此,发展人工智能首先要通过对于我们自身的约束,再推进到对于人工智能的约束上来进行。
国家在人工智能可控发展中占有重要的领导地位,这是由国家的职能决定的,国家具有为实现国家的总任务和总目的指明方向的能力。西方政治学者通常把国家职能叫做国家功能,或把国家每个组成部分的活动、具体任务和国家活动的形式,说成是国家的职能。
因为国家可以从法律的制定,政策的引导等方面宏观的对人工智能的发展进行控制,国家的力量比任何企业和个人都要强大。因此,国家在人工智能研究的发展中是处于领导地位的,无论是从法律的制订还是从政策的引导和激励都需要国家的力量。
现阶段我国还没有正式出台对人工智能技术进行详细的系统性规范的相关法律,但是在个别的领域我国已经开始尝试对人工智能技术进行相关的立法活动,比如围绕自动化驾驶出台的相关法律法规。
只有为人工智能研究的发展提供坚实的法律保障基础,才能确保人工智能沿着正确的轨道进行发展。而且在国际舞台上,国家才是相互交流的主体,为此我国在人工智能全球化、人工智能实际应用与监管等全球热点性问题研究中,必须积极地参与进去,加强国际合作,从而共同应对全球性挑战。
特别是在中国,国家宏观调控体现得尤为明显,在政策引导方面,我国已公布了一批与人工智能相关的发展规划,如《智能制造》、《机器人产业发展规划(—年)》和《“互联网+”人工智能三年行动实施方案》、《新一代人工智能发展规划》等,在宏观上对人工智能的发展进行引导。
但是,只颁布政策是不够的,重要的还是对政策的落实和执行,否则就成了空喊口号。为此,我国采取了很多积极举措,例如成立相应的监管部门,由政府牵头搭建惠及全民的智能化医疗、教育保障体系,提供专项拨款资助一些人工智能研究方面有潜力的中小型企业继续发展等。
只有以国家为领导,才能更加有效地统筹国内外各种优质资源,集中力量办大事,将人工智能的研究水平提高到国际领先的程度。而且协调各地方政府展开通力合作,共同建设智能城市和智能社会也依然离不开国家的居中调度,只有通过国家的宏观调控,才能更有效地利用各种资源,掌控全局。