发布网友 发布时间:2022-04-22 04:31
共5个回答
热心网友 时间:2023-09-15 17:44
霍金、比尔盖茨等社会科技大佬曾表示,人工智能可能会毁灭人类等话题,那么我们是否应该警惕人工智能,避免出现终结者等科幻电影中,人工智能成为人类生存的最大威胁。
有人提出,在人工智能的发展中会有一个奇点,越过这个奇点就可以通过图灵测试,当人工智能越过这个奇点后,科技会突然爆发,瞬间产生了意识,可以迅速吸收人类文明,并且根据大量数据发展出“他们”的文明,亦或认为人类构成威胁从而选择摧毁。
目前的现状是,行业科研人员对人工智能的担忧主要体现在可控性方面,其次还有人类失业、伦理(我的机器人女友之类题材)等问题。
这不得不提到“强人工智能”和“弱人工智能”这两种观点。
强人工智能观点认为,有可能制造出真正能推理和解决问题的智能机器,要求程序有自己的思维,能够理解外部事物,并做出决策和行动,其必须表现出“人”的行为,甚至可能表现出独特,性格不一的反应。
但是目前人工智能应用其实相当原始,虽然在图形、文字、声音等识别上看上去相当智能,但也只是看上去而已,都是基于算法从数据库里面调取出来,这并不是真正意义上的“智能”。譬如典型的“Siri”应用,对语音进行识别,然后通过算法把声音转化为一系列特征值,然后数据库中找到对应的回答,然后文字或语音的形式呈现出来。基于目前人工智能所作出的回答,其实都是程序员写上去的,而不是机器自发作出的回应,真正听懂的是程序员而不是机器。
人工智能之所以只能做到这个程度,是因为现在的人工智能是对人类“智能”进行模拟的产物,目的是帮助人类完成某些工作,他们只是按设计者所设计好的程序一步一步完成,并不会自己思考的机器,而设计者也没打算让它们思考(实际上也是不知道怎样才能让机器思考),所以目前人工智能只不过是人类生活中的工具而已。
担忧出现人工智能毁灭人类的情况,暂时还离我们很远。目前对人工智能的研究仍然很原始,原始到所有的研究发现都是基于工具使用,而那些行业大佬警惕人工智能的危险,是出于对强人工智能的担忧,但是作为社会科技研发领头羊的他们,也只不过是在搞弱人工智能而已。
真正兴致勃勃搞强人工智能的,是那些科幻小说和科幻电影。
热心网友 时间:2023-09-15 17:44
人工智能越来越多地进入到人们的日常生活中。硅谷的专业人士表示,未来五年内,人们将大大受益于使用人工智能所提升的效率热心网友 时间:2023-09-15 17:45
人工智能的危险就在于它有高的智慧会危害人类。热心网友 时间:2023-09-15 17:45
对人工智能的飞速发展,物理学家霍金、“钢铁侠”马斯克等人忧心忡忡,担心随着AI的崛起,像科幻电影《终结者》里一样,人类必将走向文明的终结。热心网友 时间:2023-09-15 17:46
人工智能的最大危险就在于,如果人类过度依赖人工智能会被他们所控制。