霍金预言人类两大末日危机:外星殖民将毁灭人类。著名物理学家史蒂芬·霍金教授此前曾经说过,在未来100年内,人工智能的机器人将反过来控制我们人类。
未来1000年内,地球会因某场大灾难而毁灭
据悉,霍金预言是在他70大寿前,参加广播电视节目时候说出来的,霍金预言:未来1000年内,基本可以确定的是地球会因某场大灾难而毁灭。霍金预言人类两大末日危机:外星殖民将毁灭人类。著名物理学家史蒂芬·霍金教授此前曾经说过,在未来1000年内,人工智能的机器人将反过来控制我们人类。而现在,在最新的一次讲话中,霍金教授表示如果人工智能未有征服人类,那么先进的外星文明将会这样做。基本可以确定的是地球会因某场大灾难而毁灭,如核战争或者温室效应。因此他强调人类必须移居其他星球。
计算机人工智能将逐渐取代人类
假如外星人没有把我们赶尽杀绝,那么最终人工智能或是全球气候变化一样会完成这件事。他说:“我认为人类生存下去的希望在于从宇宙中找到新的家园,因为地球被摧毁的风险正变得越来越高。在未来100年内的某个时间,计算机人工智能将逐渐取代人类。当这样的事真实发生时,我们必须确保计算机和我们人类拥有共同的目标。”
霍金强调人类必须移居其他星球。万一地球毁灭,人类就必须在火星或太阳系中的其它星体生活,但这在最近100年内还不会发生。
人工智能武器系统不符合全人类的利益
在去年7月份,霍金教授和特斯拉汽车公司创始人伊隆·马斯克(Elon Musk)联合1000名机器人专家在一封公开信中警告称“自动化武器系统将成为未来的卡拉什尼科夫”(注:卡拉什尼科夫为苏俄武器设计专家,代表作为AK-47步枪)。这封措辞强硬的公开信呼吁“彻底禁止脱离有效人工控制的进攻性自动化武器系统”,以防止发生全球智能武器方面的军备竞赛。专家们指出,与核武器不同,人工智能武器系统并不需要耗费巨资或者获得难以获得的特殊原材料。
这就意味着它们可以变得非常普遍存在,价格低廉,因而可以被各国军事力量所利用并进行大规模生产。而如果全球有某个军事强国在人工智能武器研制方面出现明显的领先优势,那么一场全球性的只能武器军备竞赛将不可避免。智能型武器如果在黑市上出现或落入恐怖分子,独裁者以及战争贩子的手中都将只会是一个时间问题。专家们警告称,人工智能技术的发展已经到达一个临界点,从而使智能武器的研制在未来几年内,而非几十年内就将成为现实。
霍金预言:“人类灭绝是可能发生的,但却不是不可避免的,我是个乐观主义者,我相信科学技术的发展和进步最终可以带人类冲出太阳系,到达宇宙中更遥远的地方。”一场人工智能领域的军备竞赛不符合全人类的利益。所以,我们能做的是尽可能去保护我们的地球。