— 咨询热线 —022-84975726
网站首页 关于我们 新闻资讯 产品中心 工程案例 厂区环境 防腐知识 在线留言 联系我们
咨询热线
022-84975726
地址:天津市东丽区东丽湖建材城
传真:022-84975726

行业资讯

当前位置:主页 > 新闻资讯 > 行业资讯 >

人工智能:伦理之问|人工智能是否会取代人类?西部世界的迷思

发布时间:2020-05-21

人工智能的迅速发展给人类的生活带来了一些困扰与不安,尤其是在奇点理论被提出后,很多人质疑机器的迅速发展会给人类带来极大的危险,随之而来的很多机器事故与机器武器的产生更加印证了人们的这种猜疑。于是,关于机器伦理、机器道德的研究层出不穷。究竟什么是人工智能伦理?人工智能会不会取代人类?谁为人工智能负责?接下来我们就来聊聊人工智能的伦理问题。

“伦理”一词,英文为ethics,源自希腊文的“ethos”,其意义与拉丁文“mores”差不多,表示风俗、习惯的意思。西方的伦理学发展流派纷呈,比较经典的有叔本华的唯意志主义伦理流派、詹姆斯的实用主义伦理学流派、斯宾塞的进化论伦理学流派、海德格尔的存在主义伦理学流派。其中,存在主义是西方影响最广泛的伦理学流派,它始终把自由作为其伦理学的核心,认为“自由是价值的唯一源泉”。

在我国,伦理的概念要追溯到公元前6世纪,《周易》《尚书》中已出现单用的伦、理。“伦”指人们的关系,“三纲五常”“伦理纲常”中的伦即人伦;“理”指条理和道理,指人们应遵循的行为准则。与西方相似,不同学派的伦理观差别很大,儒家强调孝悌忠信与道德修养;墨家信奉“兼相爱,交相利”;而法家则重视法治高于教化,人性本恶,要靠法来相制约。

总的来说,伦理是哲学的分支,是研究社会道德现象及其规律的科学。伦理研究是很必要的,因为伦理不但可以建立起一种人与人之间的关系,而且可以通过一种潜在的价值观对人的行为产生制约与影响。很难想象,没有伦理的概念,我们的社会会有什么人伦与秩序可言。

其实在“人工智能伦理”一词诞生以前,很多学者就对机器与人的关系进行过研究,并发表了自己的意见。早在1950年,维纳在《人有人的用途:控制论与社会》一书中就曾经担心自动化技术将会造成“人脑的贬值”。20世纪70年代,德雷福斯曾经连续发表文章《炼金术与人工智能》《计算机不能做什么:人工智能的极限》,从生物学、心理学的层面得出了人工智能必将失败的结论。而有关机器伦理(与人工智能伦理相似)的概念则源自《走向机器伦理》一文,该文中明确提出:机器伦理关注机器对人类使用者和其他机器带来的行为结果。该文的作者之一安德森表示,随着机器越来越智能化,其也应当承担一些社会责任,并具有伦理观念,这样可以帮助人类以及自身更好地进行智能决策。

无独有偶,2008年英国计算机专家诺埃尔·夏基(Noel Sharkey)教授就曾经呼吁人类应该尽快制定机器(人)相关方面的道德伦理准则。目前,国外对于人工智能伦理的研究相对较多,如2005年欧洲机器人研究网络(EURON)的《机器人伦理学路线图》、韩国工商能源部颁布的《机器人伦理宪章》、美国国家航空航天局对机器人伦理学所进行的资助等。国外相关的文献也相对丰富,主要集中在机器人法律、安全与社会伦理问题方面。

国内方面相关研究因为起步较晚,并不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有:《机器人技术的伦理边界》《人权:机器人能够获得吗?—从《机械公敌》想到的问题》《我们要给机器人以“人权”吗?》《给机器人做规矩了,要赶紧了?》《人工智能与法律问题初探》等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。

不过,遗憾的是,无论是国内还是国外,现在仍然很少有成形的法律法规对人工智能技术与产品进行约束。随着人们将注意力转向这个方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,以为整个行业作出表率。

有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》一书的作者就对机器工作提出了强烈的反对意见,他认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传,使得人们更加担忧机器是否会在未来全面替代人类。奇点理论的核心思想即认为机器的智能很快就将超过人类。

人工智能不断进步,这是个不争的事实。机器的感觉、运动、计算等能力都将会远远超过人类,这是机器的强项,但是它不会从根本上冲击人类的岗位与职业。这源于以下几方面。

首先,机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类拥有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,对机器而言可能就要耗费巨大的资源。

2012年,谷歌训练机器从1000万张图片中自发地识别出猫的图片。2016年,谷歌大脑团队训练机器根据物体的不同材质自动调整抓握的力量。这对于一个小孩子来说是很简单的任务,但在人工智能领域,却正好相反。也许正如莫拉维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。

其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。截至目前,仍然是人类占据主动,而且对于机器有不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质:人工智能与机器人领域的64个大问题》一书中曾经提出,人们在杂乱无章中的大自然中建立规则和秩序,因为人类更容易在这样的环境中生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易;相反,环境的结构化程度越低,被机器取代人类的可能性就越小。

由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯地去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时,也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人 — 机器 — 人 — 机器,依次循环,人类在这段过程中总是处于领先地位。所以,机器只可能取代人类的工作,而不是取代人类。

最后,人工智能高速发展的同时也带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应说的就是这个道理:在高科技领域每增加一份工作,相应地在其他行业至少增加4份工作。

我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。

总之,任何一项技术的发展都不是一蹴而就,而是循序渐进的过程。无论是最早期的类人猿的工具制造,还是后来的电力发展,再到现在的互联网时代,技术的发展与运用都是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则有些“杞人忧天”。历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马,印刷机的诞生取代了传统的抄写员,农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。

新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器会取代人类工作的问题。

2016年7月,特斯拉无人驾驶汽车发生重大事故,造成一名司机当场死亡,很快成为新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体在事故发生后的责任承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之?

如果机器应当受罚,那究竟应该如何处置?是应当像《西部世界》中那样将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。

随着智能产品的逐渐普及,我们对它们的依赖性也越来越强。在人、机、环境交互中,我们对其的容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,而无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。

据相关调查与研究,人们在时间与任务的双重压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,而忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说: 60%~80%的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,往往只是事后诸葛亮。

人工智能存在三种交互模式,即人在环内、人在环外以及以上两者相结合。人在环内即控制,这个时候,人的主动权较大,从而人们对整个系统产生了操纵感;人在环外即自动,这个时候,人的主动权就完全归于机器;第三种交互模式就是人可以主动/ 被动进入系统中。目前大多数所谓的无人产品都会有主动模式/ 自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。

还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的复杂程序加深,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以,人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。

可具有讽刺意义的是,仅在2014年针对巴基斯坦及也门的攻击中,美国的无人机便造成了1147人死亡,这场行动是针对41名与恐怖组织有关的人员,也就是说,这些行动中死亡的大多数人只是平民。2012年,“人权观察”组织在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要付出更多的努力。

综上可以看出,在一些复杂的人—机—环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体产生了不可挽回的错误。

2002-2018 天津旺盛防腐木有限公司 版权所有 ICP备案编号:津ICP备200356484号