霍金极力反对人类发展人工智能的原因是什么?

如题所述

霍金先生认为,正常情况下,人与机器不会起冲突,这指的是在人类可控范围之内。一旦两者之间发生冲突,人类很大可能性必定是遭殃的那一方。对此,他作了个比喻,好比一堆白蚁聚集成了山,它们本来一直和人类和平共处,然后某天,人们要建造一座绿色能源发电站,而建发电站的地方正好离这蚁山很近,白蚁会对堤坝造成影响。这时候怎么办,人肯定会牺牲白蚁。人与发展到一定程度的AI就类似于这种关系,只不过这种情况下,所处的位置发
生了颠倒,人变成了阻碍AI做事的白蚁。
温馨提示:答案为网友推荐,仅供参考
第1个回答  2018-10-30
霍金并不否认,当代蓬勃发展的人工智能技术已经在许多行业发挥着至关重要的作用,但他所真正忧虑的,是机器与人在进化速度上的不对等性。霍金说:“人工智能可以在自身基础上进化,可以一直保持加速度的趋势,不断重新设计自己。而人类,我们的生物进化速度相当有限,无法与之竞争,终将被淘汰。”
第2个回答  2018-10-30
霍金先生并不是反对人工智能,也就是AI,他只是担忧人工智能会向着不利于人类社会安全的方向发展。霍金先生曾在类似于禁止AI在某些领域的发展的请愿书上签字。
第3个回答  2018-10-31
霍金同时还担心人工智能普及所导致的人类失业问题。霍金说:“工厂自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监督工作。”
第4个回答  2018-10-30
人工智能的发展现在速度越来越快,不光是霍金,很多人都在争论人工智能的发展中是否存在道德的限制。霍金谈到“人工智能的短期的影响在于谁能控制它,而长期影响是它能否被控制。”所以,他担心的是,在未来,我们人类已经不再是地球上最聪明的事物,而这些聪明的人工智能是否会拥有自己的意识?