霍金忠告称人工智能和外星人都将要挟人类生活

新浪科技讯 北京时光10月11日消息,著名物理学家史蒂芬·霍金教授此前曾经说过,在将来100年内,人工智能的机器人将反过来把持咱们人类。而当初,在最新的一次讲话中,霍金教授表现假如人工智能未有征服人类,那么先进的外星文化将会如许做。在一次采访中,霍金表现:“假如外星人造访地球,那么其后果将十分类似当年哥伦布抵达美洲,那对当时的美洲土著居民而言可并不是什么好事。”他说:“如许的先进外星文化可能会是‘流浪民族’,在到处寻找能够征服和殖民的星球。”
霍金目前正在领导一项宏大的计划,应用全世界两台最强大的望远镜开展对外星性命的搜查。应用这些望远镜,项目将对间隔地球最近的超过100万颗恒星周围停止搜查,寻找任何智慧文化发出信号的迹象。参与这一耗资将达1亿美元项目的科学家们还将对银河系的中心区域,以及间隔银河系间隔最近的100个星系停止低功率无线电信号的搜查。
而随着时光推移,人类针对地外性命的搜查更是迎来新的热潮——美国宇航局宣布在火星上发明了液态水存在的证据,这一发明大大增加了人们认为火星上可能存在性命的预期。霍金表现:“对我的数学头脑而言,纯粹的数学只会让我变得更加理性。当初真正的挑战则是应当弄清楚地外性命究竟可能是什么形式。”

不过,霍金同时也表现,假如外星人没有把咱们赶尽杀绝,那么最终人工智能或是寰球气候变化一样会完成这件事。他说:“我认为人类生存下去的希望在于从宇宙中找到新的家园,因为地球被摧毁的风险正变得越来越高。在将来100年内的某个时光,计算机人工智能将逐渐取代人类。当如许的事真实发生时,咱们必须确保计算机和咱们人类拥有共同的目标。”
在往年7月份,霍金教授和(Elon Musk)结合1000名机器人专家在一封公然信中忠告称“自动化兵器体系将成为将来的卡拉什尼科夫”(注:卡拉什尼科夫为苏俄兵器设计专家,代表作为AK-47步枪)。

这封措辞强硬的公然信呼吁“彻底禁止脱离有效人工把持的进攻性自动化兵器体系”,以防止发生寰球智能兵器方面的武备比赛。专家们指出,与核兵器不同,人工智能兵器体系并不需要耗费巨资或者获得难以获得的特殊原材料。这就意味着它们能够变得十分普遍存在,价格低廉,因而能够被各国军事力量所应用并停止大规模生产。而假如寰球有某个军事强国在人工智能兵器研制方面出现明显的领先优势,那么一场寰球性的只能兵器武备比赛将不可避免。
公然信的作者们预计,智能型兵器在黑市上出现或落入恐怖分子,独裁者以及战争贩子的手中都将只会是一个时光问题。专家们忠告称,人工智能技术的发展曾经到达一个临界点,从而使智能兵器的研制在将来几年内,而非几十年内就将成为现实。公然信中指出:“自动化兵器特别适用于暗杀、扰乱社会秩序、镇压人群或选择性毁灭某一少数民族人群这类任务。因此咱们相信一场人工智能领域的武备比赛不符合全人类的利益。”(晨风)
转载自:https://tech.sina.com.cn/d/i/2015-10-11/doc-ifxirmpz8235876.shtml
声明: 除非转自他站(如有侵权,请联系处理)外,本文采用 BY-NC-SA 协议进行授权 | 嗅谱网
转载请注明:转自《霍金忠告称人工智能和外星人都将要挟人类生活》
本文地址:http://www.xiupu.net/archives-4876.html
关注公众号:
微信赞赏
支付宝赞赏