现在的机器人已经拥有了智能自治系统,因此有时它们自己也会产生特定的“焦虑”和不确定性,即使是每天它们都在完成同一种任务,这样的可能性也是存在的。因此,为了减少机器人出现的“焦虑”,我们应该更加着重研究如何能够让它们真正的在第一时间代替人类做出正确的决定。只有这样,在某种程度上来说,这样的机器人才比人类更加可靠。
不管你是否认同,自治系统已经存在于相当数量的机器人中。这里的“自治系统”通常指的是机器人做出自动判断的能力,在什么情况下应该做什么事情。到目前为止,我们所能够接触到的机器人,比如机器人吸尘器、自动停车系统、飞机驾驶仪等都非常简单,几乎并没有过多的涉及自治系统概念。这些系统虽然能够适应它们所处的环境,并且自动对环境变化进行应对,但是都是实现已经进行了编程录入,通过环境的变化来调取相应的命令。
经常喜欢看科幻故事的朋友都知道,其实机器人还可以更进一步。我们关心的是,但机器人取代了普通的人类飞行员之后,在遇到特殊情况时会自动根据条件变化做出合适的对策。在目前的飞行系统中,自动驾驶系统可以使飞机在固定的航线中飞行,但是依然需要人类飞行员来决定该走哪个方向、什么时候转弯以及如何应对意想不到的意外情况。同样的道理,巡航控制、车道控制等系统虽然可以让汽车根据当前路线自动行驶,但是一切重大决策的制定还是要依靠人类。但是一旦自治系统变得更加先进,软件就会发挥更大的作用。我们将不再需要真正的人类来决定何时改变飞机的飞行路线或当高速公路关闭后选择哪条小路继续行驶。
相信许多人看到这样的想法,一定会有这样的担心。即使是一台机器可以自动做出决定,那么我们怎么保证它的决定是安全的呢?相信看过《终结者》系列电影的朋友都知道,机器人其实也并非完全可靠,而在现实生活中,选择乘坐飞机本身就是具有一定危险概率的时间,更不用说这架飞机还是完全依靠“没血没肉”的机器人来驾驶。
通常情况下我们大致要面临两种选择。完全相信它们或拒绝它们。不过现在已经出现了第三种选项。当我们在与另外一个人相处时,虽然我们无法确定对方做出什么样的决定,但是我们可以基于对对方的了解而做出我们自己的判断。而判断的依据就是对方之前是否欺骗过我们或有过类似的经历。但是我们并不能完全根据这种经验判断来假设对方一定是在欺骗自己。而机器人的自治系统则并不一样。它的本质上是由软件来控制,因此如果我们能够将这些软件变得“完美”,将所有人类的高级思维融入其中,而软件和系统就会可以非常详细的分析行动计划。在这一点上,人类的大脑可并非轻易能够办到。
目前,一种对计算机科学与软件的深入分析研究已经变得越来越流行,特别是如何证明软件的逻辑分析能力如何正确的匹配实际的需求。这种方法被称为形式验证(formal verification),在分析和评估足以影响人类安全的软件中非常有用,比如火车站、生命支持系统或交通系统等。一旦这些软件能够通过自治系统做出更高级的决定,我们就可以对某些项目的详细工作进行更加准确的验证。
而目前科学界的研究最主要的方向就是如何验证这种自治系统所做出的行为判断最为科学,来证明通过软件控制的机器人系统永远不会做出错误或糟糕的决定。
这个决策的过程也是让机器人被绝对信赖的核心之处,如何更舒心、更省力的让机器来做出最佳决定。不过这样的工作系统通常都是非常复杂和充满了不确定性的,所以即使是事故已经发生,我们也要保证软件系统之前已经至少尝试了试图避免事故发生。这似乎是一种不可避免的缺点,但是至少可以让那些担忧科幻小说中出现机器人欺骗人类情况的朋友稍微放心一些。
虽然我们不能肯定的说一个机器人永远都不会意外的对人类造成伤害,但是通过系统和实验证明至少这些伤害都不是机器人故意的行为。通过观察机器人内部的编程代码,我们不仅要评估它们要去做什么,更要评估它们为何要这样做。尽管目前人类对于机器人和自治系统依然无法完全相信,但是如果了解了系统并不会故意对人类造成欺骗,也许就会让这些人对机器人的好感度能够提升一点。
目前最主要的问题就是我们要证明的是什么,而不是如何来证明。我们永远无法试图证明一个机器人会故意选择伤害人类,但是对于诸如医疗机器人或警察机器人这种特殊行业的例子来说,也有可能是它们在试图帮助人类(比如进行胸部施压帮助呼吸)的过程中无意中对人类造成伤害。还有机器人警察在保护普通公民的时候也会对犯罪份子开枪,这虽然伤害了某个人类的个体,但是其实也是为了保护大多数人的安全。
通过上面的阐述,我们已经从技术、哲理和伦理的角度为未来机器人更加普及的应用进行了一些证明。因此如果未来机器人和自治系统真的试图在某些领域完全代替人类,我们也要相信它们本身的决策过程都是以获得最佳结果为依据的。
业务咨询:932174181 媒体合作:2279387437 24小时服务热线:15136468001 盘古机械网 - 全面、科学的机械行业免费发布信息网站 Copyright 2017 PGJXO.COM 豫ICP备12019803号