霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球

2018年3月14日 , 被人誉为‘宇宙之王’、被禁锢在轮椅上长达数十年却身残志坚的英国著名物理学家、宇宙学家斯蒂芬·威廉·霍金与世长辞 , 享年76岁 , 他不仅留下了《时间简史》这样的煌煌巨著 , 也留下了对人类未来的三大预言 。
霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球
文章图片
霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球】他认为地球40几亿年的历史证明除非太阳膨胀 , 吞并地球 , 否则地球本身是不会被彻底毁灭的 , 要毁灭的也只是地球上的生命 , 就像地球发生过的五次生物大灭绝一样 , 生物没了大半 , 地球却长存至今 。 至于人类未来可能面临的灭亡原因 , 他认为有三样是需要警惕的!
阿尔法狗大胜人类 , 全球气温升高 , 霍金:人类应在百年内离开地球
第一:地球本身可能遭遇的毁灭性灾难
众所周知 , 全球气温升高已经是人类所面临的一大问题 , 南极与北极两大地球冰川地在最近几十年已经出现了全面退冰的现象 , 导致了北极熊、南极企鹅等生物栖息地大减 。 如果全球变暖进一步加剧 , 难以预测的气候变化将会威胁生物的生存 , 地球有可能变得不宜居 。
霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球
文章图片
此外 , 陨石撞击、两极磁场转换、超新星伽马射线暴击等事件都曾在地球史上真实发生过 , 并由此引发了多达五次大规模的物种灭绝事件 , 一旦再次“祸从天降” , 人类首当其冲 。
霍金认为虽然太阳系被证明只有地球一个宜居星球 , 但宇宙之浩瀚是人类目前难以想象与测量的 , 比如单单一个银河系就有上亿颗恒星 , 而行星更多 , 像地球这样存在生命体的星球绝对不在少数 。 为了防止人类大灭绝 , 人类应当加快探索外太空 , 并寻找到宜居的星球进行殖民 , 提高人类的繁衍与生存机会 。 一旦人类成为多星球物种 , 哪怕地球人类出了问题 , 其他人类也能在宇宙中继续存在 , 而非全灭 , 为此 , 他考量了种种因素 , 在2017年接受采访时就表示说人类应该在100年后 , 也就是2117年之前做好随时能离开地球的准备 。
霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球
文章图片
第二:来自人工智能的威胁
这些年 , 随着科技的发展 , 从机器人到人工智能 , 不断更新迭代 , 甚至已经在进行纳米级机械智能、细胞体机械人等项目的研究 , 其各方面性能包括可修复性、智慧程度、战斗力、运算速度等等都要远远超越人类 , 比如谷歌研发出的‘阿尔法狗’就成为了人类围棋大师们的噩梦 。
在以前 , 由于围棋变化无穷 , 人类一直相信围棋是人工智能无法登峰造极的 , 然而阿尔法狗仅用几年时间 , 仅用几次版本迭代 , 就接连吊打了全球各路围棋大师 , 弄得不少围棋大师怀疑人生 , 其围棋水准无可争议地跻身世界第一 。
霍金:人工智能最危险,莫跟外星联系,人类100年内离开地球
文章图片
以此类推 , 在机械制造业、金融行业、艺术、音乐、极限探险甚至包括军事战斗等种种领域 , 人工智能全方面超越人类似乎并不遥远了 。 霍金去世前就曾好几次警告人类一定要警惕人类的造物——人工智能的发展 , 尤其是人工智能有可能在未来发生的‘自我进化’与诞生‘自我意志’ , 从而成为一种新的生命形式 。
一旦发生那种情况 , 人工智能们成长的速度与潜力绝对远超人类的想象 , 与人类爆发战争也在意料之中 , 而人类的惨败无可避免 。