人工智能是否会占领世界
发布网友
发布时间:2022-05-15 20:33
我来回答
共1个回答
热心网友
时间:2024-02-27 17:44
这两个字; “人造”和“智能”可以让任何人足够聪明地理解其含义。已故的史蒂芬霍金预言AI将取代人性,正如他引述说的那样:
“在发展的全人工智能可能会带来的结束人类”。
那么,这个“魔咒”是一个要认真对待的警告,还是仅仅是一个精心制作的魔术?这一代人中最伟大的人物之一表明,人工智能的卑微的开端,比如亚马逊亚历山大告诉你一个睡前故事,可能会变成对人类生存的威胁。人工智能的真正目的是协助我们的生活,并满足现代人类通过技术走最简单途径的愿望。在这篇文章中,我将讨论我们在哪里了与AI现在怎么可能进步的未来。
人工智能(AI)
人工智能无处不在 ; 事实上,如今,我们不能没有它!人工智能并不一定意味着终结者式机器人的意外生产,其终极目标是消灭人类 - 因此,在这个笔记上,这个AI技术在哪里?要开始回答这个问题,让我们定义 智能。
什么是智力?
字典中的智力定义是吸收和应用知识和技能的能力[1]。为了澄清,所有活着的动物是聪明到一定程度; 他们从周围的外部刺激中学习,并据此做出反应。例如,一只狗在学习时可能会学习坐着。根据定义,这只狗展示着情报。当我们看到人造的,人造的机器; 让他们有能力从周围学习,并应用这些新知识,而不需要有意识的产出人工智能。
3种人工智能(AI)
人工智能可以分为3大类:弱AI,强AI和人工超智能 [2]。今天我们周围有许多AI的例子,他们在哪里,他们在什么类别?
弱AI:人工缩小智能
弱AI是最简单的人工智能形式 ; 为了进一步阐明,展现弱AI的机器是智能的,但只关注狭窄的任务[3]。换句话说,他们的智力被*在他们计划要做的事情上。弱AI的一个很好的例子是苹果的SIRI ; 它有点能够与真人进行交谈,并可以在这里和那里开个玩笑。当你说话的SIRI,它供稿此信息到一个大型数据库,并学习如何从被问类似的问题的经验作出回应。它的局限性可以通过问它是什么来证明没有编程处理,从而产生不准确的结果。另外,SIRI所能做的只是谈话,你不能要求它把你的电视遥控器传给你; 因此为什么它被归类为弱AI。其他例子包括:谷歌地图,亚马逊的Alexa,你在国际象棋和*上玩的CPU对手; 点击此处查看其他示例,更重要的是,它们为什么是示例。
强大的AI:人工智能
下一步是强AI或人工智能。开发一台机器来展示强大的AI,意味着它必须具有与人类相同的智能能力,才能像一个人一样运作 ; 换句话说,强人工智能是当机器能思考 一样好,你和我[4]。实现这一目标还有很长的路要走,事实上,一些科学家怀疑,我们将不断进行编程,并产生这样的技术。出人意料的是,这是一个很多更容易编写,解决了一机先进的微积分比得到它走上楼梯 ; 那么,一旦我们能够创造一种与我们自己竞争的情报,世界会发生什么?
递归自我改进:机器学习
弱AI和强AI之间的主要区别在于强AI具有学习和升级的能力,而不需要人类[5]。就像一个婴儿向*发展一样,具有特定基本代码的机器可以继续发展成为一个复杂的结构; 这种能力被称为递归自我改进或机器学习。在这一点上,这种类似人类的机器没有理由停止工作,并将继续学习和发展。它变得越聪明,自我改善就越好。因此,学习和进一步发展越来越好; 换句话说,他们的智力会成指数增长。强壮的AI变得比创造者更聪明只是时间问题。即将发生的这一点被称为奇点。这是我们到达AI阶梯的第三步也是最后一步的地方; 人工超智能。
人工超智能(AS-I)
一旦人工超智能实现,事情变得有点令人兴奋的和潜在的同样是可怕的。任何通过奇点的机器都被归类为超级智能 [5]。当一台自我完善的机器达到如此高的智能水平时,毫无疑问它会继续变得越来越聪明,速度非常 快。AS-I机器将一心一意地开展自己的目标,他们是否同意我们的,或者不是。这是什么意思呢?
AS-I的悲观视角
虽然这些机器可能不是一定要引起人类灭绝,他们可能会认为,这样做将是受益于他们,所以,作为一个结果,他们会不会毫不犹豫地这样做。你可能会认为,如此高水平的智慧会像人类一样对生活有一定程度的同理心和尊重,但是会出现问题; 伦理性和道德都是人的特征 [6]。我的意思是,即使我们自己也不能 共同决定什么是对的和什么是错的,例如堕胎和安乐死,至少可以这样说; 那么,我们如何才能制造出一种被视为道德和道德的智力机器呢?
AS-I的乐观视角
值得庆幸的是,这种技术有一个更乐观的一面。人们相信,这些机器将有“人的安全” 根深蒂固到他们的基本代码 ; 换句话说,他们将成为我们的仆人。他们的唯一目的不仅仅是为我们服务,而是通过结合所有这些智能来帮助我们解开我们的宇宙越来越多的奥秘。这种高智能的合作可以帮助我们以前所未有的方式解决最棘手的问题!
结论
在我看来,人工智能的原理非常令人兴奋,但我也确实认为,培养如此高水平的智能就像踏上了简单的冰面。如果AS-I机器认为人类灭绝对他们有任何好处,我相信具有如此高性能的机器可能很容易超过任何最初的基本代码 ......由于这种智能。它几乎会像出生于一个人的无神论者背景,超越了以前的信仰和下面的一个特定的宗教。如果一个人能够改变他们的“基本代码”(以机器术语),那么一台机器就更加智能比人类肯定也可以。另一方面,如果AS-I机器相信我们的生存对他们有利,我们可以共同合作,共同解开宇宙的奥秘,并发现我们从未想过的事情!
我会给你留下着名的史蒂芬霍金的另一句话:
“强大的人工智能的兴起将是人类最好的事情,或者是最糟糕的事情。我们还不知道哪个。“
如果您有任何问题,请将它们留在下方,直到下一次,请注意。