Word文档
人工智能研究者会不会遗臭万年
作为一名人工智能讨论员,我经常会想到人类对人工智能的恐惊。然而,目
前我也很难想象我开发出来的计算机怎么样才能成为将来世界的怪物。有时就会
像奥本海默在带头建筑世界上第一颗核弹之后哀叹的那样,我会想我是否也会成
为“世界的毁灭者”?下面就是我给大家带来人工智能讨论者会不会遗臭万年,欢迎
大家阅读!
对未知的恐惊
由科幻小说作家ArthurClarke设想并最终由电影导演StanleyKubrick制成的计
算机HAL9000就是一个很好的例子。在许多简单的系统里,例如泰坦尼克号、
美国航空航天局的航天飞机、切尔诺贝利核电站,工程师们把很多不同的组件放
在一起。设计师们可能特别清晰每个单独的元素是如何工作的,但是当这些元素
连接在一起时,他们就无法知之甚透,就会产生意外的后果。
所以不能完全了解的系统,往往会不受掌握并消失意外的后果。一艘轮船的沉
没,两架航天飞机的爆炸,遍布欧亚大陆的放射性污染,在每一场灾难都是一系
列小差错导致的大灾难。
而在我看来,目前人工智能也落入了同样的境地之中。我们从认知科学中学习
最新的讨论结果,然后将其转化为一种程序算法并添加到现有的系统中。我们在
还不了解智能认知的状况下,便开头对人工智能进行改造。
例如IBM的沃森和谷歌的Alpha系统,我们将强大的计算机力量和人造神经系
统结合在一起,关心他们取得了一系列令人赞叹的成就。假如这些机器出了差错,
可能消失的结果是沃森不会喊“危急”了或者Alpha不能战胜围棋大师了,但是这
些错误都不是致命的。
然而,随着人工智能的设计变得更加简单,电脑处理器变得更快,它们的技能
也会得到提升。消失意外的风险也在增加,我们的责任也更重。我们常常说“人
无完人”,那么我们制造的系统也确定存在缺陷。
对滥用的恐惊
目前我正在应用“神经进化法”来开发人工智能,在可能引发的意外后果这一方
面,我并不非常担忧。我制造虚拟环境,开发数字生物从而使他们的大脑可以解
决日益简单的任务。我们会评估这些智能生物的表现,表现最好的会被选择出来
再次生产并研发下一代。这样,经过几代的进化,这些机器生物已经渐渐演化出
了认知力量。
现在,我们正在给这些机器生物设定一些特别简但的任务,比如他们可以做简
洁的导航任务,做一些简洁的打算等,但很快我们就会设计出能够执行更简单任
务更智能的机器,最终,我们盼望可以达到人类的智力水平。
在这个过程中,我们会发觉问题并解决问题。每一代机器都能更好地处理前几
代机器曾经消失的问题。这关心我们可以削减在将来他们真正进入世界时消失意
外结果的概率。
此外,这种代代相传“的改良方法还可以关心我们进展人工智能的伦理道德。
最终我们想要演化出是有可信任性及利他主义这样人类道德的人工智能。我们可
以设置一个虚拟环境,给那些表现出友善、诚恳和同理心的机器嘉奖。可能这也
是一种确保我们研发的是更听话的仆人或值得信任的伙伴的方法。同时也可以削
减消失冷酷杀手机器人的几率。
虽然这种“神经进化法”可能降低消失不行控结果的可能性,但它并不能防止滥
1
Word文档
用。但这是一个道德问题,而不是科学问题。作为一名科学家,我有说出真相的
义务,我需要报告我在试验中发觉的东西,不管这种结果我想不想说。我的重点
不是打算我想要什么,而是将结果展现出来。
对社会掌权者的恐惊
虽然我是一名科学家,但我仍旧是一个人。在某种程度上,我必需将盼望和恐
惊重新联系到一起。不管从政治上考虑还是道德上,我必需好好思索我的工作可
能对整个社会产生的影响。
整个讨论界或整个社会对于人工智能要做什么或者成为什么都没有一个明确
的定义。当然,这可能是由于我们还不知道它的力量。但我们的的确确需要打算
先进人工智能的预期进展结果。
人们关注的一个重要问题便是就业。机器人目前已经在进行一些诸如焊接汽车
部件的体力劳动。不久的将来,他们可能也会做一些我们曾经认为是只有人类能
够做到的认知工作。自动驾驶汽车的机器人可以取代出租车司机;自动驾驶的飞机
的机器人可以取代飞行员。
在将来,当我们需要看病时,我们不用始终排队,然后等来一个可能已经特别
疲乏的医生来给我们看病。我们可以通过一个已经获得全部医学学问的系统进行
检查和诊断,并马上由一个不知疲乏的机器人来完成手术。法律建议可能来自一
个全知的法律数据库;投资建议可能来自市场猜测系统。
或许有一天,全部的人类工作都将由机器完成。就连我自己的工作也可以做得
更快,由于有大量机器不知疲乏地讨论如何制造更智能的机器。
在我们当前的社会,自动化会使更多的人失去工作,那些拥有机器的人将会越
来越有钱而其他人则会越来越穷。这不是一个科学问题,而是一个亟待解决的政
治和社会经济问题。
对噩梦场景的恐惊
还有最终一种恐惊:假如人工智能持续进展并最终超越人类智能,那么超智能
系统会发觉它不再需要人类了吗?当一个超智能生物可以完成我们永久不能完成
的事情,我们人类将如何定义我们自己的位置?我们可以阻挡被我们自己制造的
机器人从地球抹去?
到那时候一个关键问题是:我们该如何劝说超级智能留我们在它们身边?
我想我会说,我是一个好人,是我制造了你们。我要唤起超智能的怜悯心使它
把我留在身边。而我则一个富有怜悯心的人类生存下去。多样性本身就有其价值,
宇宙如此之大以至于人类在其中的存在可能根本不重要。
但我不能代表全人类,代表全人类提出一个统一的观点太难了。而当我认真端
详我们自己的时候。我们有一个致命的缺陷:我们彼此厌烦。我们相互开战。我
们不公平安排食物、学问和医疗救济。我们污染地球。世上有许多美妙的事情,
但是那些错误的,糟糕的都让人类的存在渐渐变得不那么重要。
幸运的是,我们目前还不需要证明我们存在的理由。我们还有时间,大约在50
到250年之间,这取决于人工智能的进展速度。作为一个物种,我们应当团结在
一起,得出一个很好的答案来解释为什么超级智能不应当把我们毁灭掉。但这很
难做到:我们嘴上说着我们欢迎多样性,但实际上却并非如此,就像我们说我们
想挽救地球生物,但最终并非能地做到。
我们每个人,无论是个人还是社会,都需要为这种噩梦般的场景做好预备,利
用我们剩下的时间来思索如何向我们制造出来的超智能证明我们人类的存在是
有价值的。或者,我们可以认为这种事情肯定不会发生,我们完全无需担忧。但
2
Word文档
是超智能除了可能会带物理威逼外,它们也可能也会带来政治和经济上的危急。
假如我们不到更好的安排财宝的方法,人工智能劳动者就会推动资本主义,由
于它是只有极少数人才能拥有生产资料。
3
本文发布于:2022-08-01 17:10:12,感谢您对本站的认可!
本文链接:http://www.wtabcd.cn/falv/fa/83/50987.html
版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。
留言与评论(共有 0 条评论) |