| 全民阅读 | 推荐影音 | 推荐站点 | 网站导航 | 基金奖项 | 智囊智库 | 赛事集锦 | 为/问什么呢 | 太有才啦 | 献言/呼吁/告诫 |
您当前的位置:首页 > 精彩推荐 > 为/问什么呢

什么是技术奇点?人类的想象是否无限?后人类时代是否会来临?我们的未来会是黑客帝国或未来终结者的时代吗?这一天什么时候到来?

时间:2011-06-22 12:27:33  来源:  作者:

摩尔定律出现已有约46个年头。它是我们所看到的几十年的计算机硬件发展的描述符号,是指集成电路上所能容纳的晶体管的数目每两年翻一番,(至今仍)未有减缓的迹象。

该定律以戈登·摩尔(Gordon Moore)的名字命名,他在1965年描述了这一格局。此人通晓集成电路,于1968年与人共同创建了英特尔公司。

摩尔最近几年曾说过这一趋势还能延续10到20年,因为“我们快接近原子大小的规模了,而这是一个根本性的障碍。”不过,他说,然后我们只需制造更大的芯片即可。

雷·库兹韦尔(Ray Kurzweil),此人我们在上周末的一篇有关超人类的文章中提到过,他以对有关超人类的思考而著称,实际上他有关另一个主题的思考更加出名。这个主题就是技术奇点(technologicalSingularity)。

这个奇点在我们的技术创造物超过了人类大脑的计算能力之后出现,库兹韦尔的预测是,根据摩尔定律及技术指数增长的总体趋势,此时间应该在二十世纪中叶之后(译注:怀疑作者搞错,应该是21世纪中叶才对,因为后文提到2045年这个时间点)。

与此同时,他说,我们将会看到人工智能超越人类智能。但是这不仅仅是创造出更聪明的智能而已。此事还有着更深远的影响,不过我们很快就会接触到那些东西的。

技术奇点是科幻小说家弗诺·文奇(Vernor Vinge)1983年发明的一个术语。“我们不久将会创造出高于自己的智能”,他写道:“一旦此事发生,人类历史将会到达某种奇点,这种智力转变,就跟黑洞中心复杂的时空一样令人费解,而这样的世界远远超出了我们的理解”。

他统一了许多自己的前辈的思想,其中就包括阿兰·图灵(AlanTuring)和I. J.古德(I.J. Good)。

其想法是,要是我们能够创造出智能程度高于自己的东西的话,那么我们的创造物,或者其不远的后代,它们也能够创造出比其智能更高的智能也就变得合情合理。智能的指数增长将很类似于摩尔定律——也许我们可以把它叫做库兹韦尔定律,所不同的是其意义更为深远。一旦出现了能够创造出一连串比自身更智能的智能体,我们就迈入了这样的一个时代,其技术发展之快,甚至是我们现在甚至都无法想象的。

可以这么说:感谢指数增长的自然属性,技术发展已经在以我们从未见过的最快步伐在前进。

奇点跟超人类人工智能的关系不是太大,尽管那是这一概念的基础——因为它的确是到达了这个点上,也即我们对下一次技术发展会发生什么事情的预测失败的时候。

这个奇点将会是怎样的?

那样的未来会是怎样的?奇点学家(Singularitarian)说我们根本无法想象。这一逻辑你很难找到漏洞。在一个人类智能接近阶梯底部的世界里,就算是短短的十年之后世界会变成什么样,想象一下。扼要的回答是:无法想象。其要点是因为更为智能的智能体不仅能够想象,还能够创造出我们想象不到的东西。

我们可以对奇点所带来的变化是否将会使得那样的指数增长得以继续进行质疑。一旦我们建造出处理能力超过人类大脑,且具备自我感知软件的,智能超越人类的计算机,我们就能够看到这些人工智能运行速度的改进。考虑到处理速度越快,这些人工智能就能够以越短的时间来进行人类的思考:人类需要处理一年的将会变成8个月,然后最终缩短到数周、数天、数分钟,并在遥远的将来甚至数以秒计。

有关于智能处理速度是否存在极限有一些争论,尽管科学家一致认为,在到达这一极限之前尚存在一定的改进空间。就推断而言,总的看来,没人能够真正推断出这一极限到底在哪里,但是想象到一个智能体能够用一分钟的时间来完成人类一年的思考,这一点仍然令人意乱神迷。

有了超人类智能和快得难以置信的强大处理能力,软件就能够在形成新结论并试图逐步改进自己的时候去重写自身代码,这样的想象可以说毫不夸张。

后人类时代

有趣的是,此类对机器速度和智能的后奇点改进存在着对人类大脑跨界改进的可能性。未来学家推测,通过改变大脑结构、或者将我们的思维“导出”到那些智能体运行所在的相同硬件上,这种先进技术将会使得我们能够突破自身处理能力、智能以及通达性记忆的限制。

在上周的文章中,我问了这样一个问题,我们是否能够预测超越超人类到达后人类的时间,或者说这个时间点会随着我们找到改善自身的新方法而一直推移。

不过这里还有一个处于对立面的问题:奇点,如果会到来的话,它是否能够带来后人类时代?如果我们能够创造出超人类智能,并随后通过改变自身大脑的基础结构来升级我们自身的智能的话,这样的后人类足够了吗?

增强是一回事,将人类血液升级为机器血液(Vasculoid),并允许我们在需要避免购买冲动时抛却情绪只不过是一种增强。对我来说,提高我们的智能基础和处理速度其意义更为显著:那是一种在增强基础之上的升级。

当然,没理由认为我们的创造物,会对我们或改进我们目前正在运行的硬件产生任何的兴趣。考虑到我们人类的行为并不适合于可持续性,许多科幻小说家都想当然地认定超人类智能实际上会希望我们人类灭绝。

奇点将至?

当然,真正的问题是,那样的技术奇点是否会出现。仅仅因为有人预测过并不能保证它就会发生,正反双方都存在许多的争论。作为曾是技术乐观主义者的我在本篇中打算回避这个问题—尽管这并非说我认为它不重要。你可以看一看大卫·布林(DavidBrin)的奇篇怪论《奇点与噩梦:人类未来的悲喜两重天》,此文进一步讨论了这个问题。我喜欢布林这篇文章的这句话:

“一个早期的、不那么成熟的系统所创造出来的模型又怎能正确地模仿和预测后期的、复杂得多得多的系统呢?”

当然了,如果你把这句话作为任何论证的基础的话,指出奇点或向奇点演进的进程其困难程度就跟否认奇点会发生一样的困难。

按照库兹韦尔的预测,到2020年我们将会看到计算机系统跟人类大脑一样强大。直到2029年之前我们仍无法创造出人工智能,此年库兹韦尔预计我们将能够对人类大脑进行逆向工程。这一突破将会使得我们得以创造出人工智能,并开始探索诸如意识上传这类的想法。

来顶一下
返回首页
返回首页
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表
推荐资讯
相关文章
栏目更新
栏目热门