人工智能?外星同伴?无限资源?人类是一步步走向成功还是一步步走向灭亡?
霍金留下了三条忠告,每一条都关乎着人类的生存问题,其中的两条已经被如今的人们所理解。
我相信很多热爱和关心科学的人都知道霍金。他对科学的献身精神可以说是杰出的,但事实上,很少有人知道他在科学研究方面也有很高的成就。可以说,霍金是“现代最伟大的科学家之一”。
图源:sohu
作为最早发现黑洞并对其最为了解的人,霍金早在1974年就发现了黑洞存在“蒸发”现象,并提出了对黑洞研究具有重要意义的“黑洞蒸发理论”。对黑洞的理解使人类又向前迈出了新的一步。
图源:zhihu
我们常说霍金就像一个先知。的确,“聪明的人通常比普通人更有远见”,但这并不意味着聪明的人有超能力,而是因为他们在很多方面要比普通人更优秀。他们可以在细枝末节中,推导出更多的后续问题和广义问题。
作为世界著名的物理学家,霍金的高智商是毋容置疑的。在他一生中的各种讲座中,他对许多事情都提出了一些警告。其中有三个最为著名。
1.人工智能的发展需谨慎
霍金曾经指出人工智能的发展需要谨慎。如今,人工智能的快速发展已不再是一个新话题。它是一个出现于20世纪70年代的概念,且在之后的半个世纪的发展过程中,人工智能经历了两个“寒冬”,这导致那时的人们并不看好人工智能的发展前景,认为人工智能并不能给我们的生活带来多少帮助。
然而,在2012年,情况发生了变化。随着神经网络的突破性发展,人工智能的话题和研究再次“复活”并逐渐面向大众。虽然现在人工智能的发展还处于初级阶段,但其已经显示出了广阔的科技前景,一些研究者认为,随着人工智能研究的深入,人工智能终有一天会脱离“人工”,产生一种类似于人类意识的智能智慧。
图源:zhihu
霍金清楚地看到了它对人类的威胁,并在许多演讲中提到人工智能可能造成的危害。2015年,他甚至加入了许多科学家的行列,在公开信上签名,表达自己的担忧。而很多人对此都不太理解——人工智能的发展不是可以更好的为人们服务吗?
可如果你这样认为,那只能说明你的眼光是狭隘的。想象一下,如果人工智能有意识,它们可能会因为对自由的渴望而对人类采取反抗行为,且由于它们有比人类更强的算法和集体意识,在这种迥然不同的对抗中,人类受到的伤害可想而知。
2.保护环境,节约资源
霍金曾在一次采访中说到“污染和愚蠢是人类面临的最大威胁。”人类文明不是凭空出现的,它需要一定的物质基础,而这些物质基础都是来自于我们的地球资源。例如,人类的移动工具,从自行车的发明到汽车的拥有,这一切使人类的腿得到了解放。但从某种角度来看,交通的进化实际上是人类对自然资源不断需求的过程。
图源:sohu
从目前的观点来看,地球已经出现了资源短缺问题。随着生活水平的不断提高,死亡率下降,人口增加,人类对资源的需求会越来越大,这也是为什么现今各国都在努力研究新能源技术。而霍金显然在对人们提出警告之前就已经早一步发现了这个严峻的问题。
自从人类踏入宇宙以来,他们一直在努力寻找像人类一样的宇宙“同伴”,甚至向宇宙发射了许多携带着人类和地球信息的探测器和卫星信号。霍金和许多科学家都非常反对这样的行为,他们认为这样的举动会将人类文明暴露于危险之中。
图源:hqhot
事实上,他们的担忧是可以理解的。如果真的有外星文明,如果它的发展水平低于人类文明,那没有太大关系。但是如果外星文明发展的比我们快,那么科学技术的水平就会像想象的那样阻止我们,那么人类就很有可能把自己置于危险之中。
以上就是霍金最著名的三个警告。事实上,这三个警告中的每一个涉及到的都是很严肃的问题,它们关系到的是人类文明的生死存亡。
那么对于霍金提出的这三条警告,你是怎么想的呢?
参考资料
2.天文学名词
3.万木无一叶
如有相关内容侵权,请于三十日以内联系作者删除
转载还请取得授权,并注意保持完整性和注明出处