天天看点

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

作者:清風7B6W

2018年图灵奖的三位" AI 教父"之一杰弗里·辛顿称, AI 问题的紧迫性可能高于气候变化危机, AI 的能力超越其创造者的速度可能比任何人预期得都快。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

路透社5月31日报道, 350多位 AI 业界领袖和专家于5月30日发表联合声明, 称应当将 AI 危机视为全球优先事项。联署人中既有目前热度极高的 AI 顶尖企业 OpenAI 的首席执行官山姆· 奥特曼也包括正大力开发 AI 技术的微软和谷歌高管。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

人工智能技术的进步和发展一直受到各界人士的密切关注,特别是在人工智能智能水平超越人类之时,人工智能的发展将会是一个无法控制,甚至会威胁到人类生存的问题。专家担忧 AI 能力超越创造者,AI 可能灭绝人类这一观点实际上并不是毫无道理。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

人工智能作为一门新兴技术,其研发的目的在于提高人类生产和生活的效率,让人类生活更加便捷和富裕。但当人工智能的智能水平突破人类之时,它已经不再是人类的辅助工具,而是成为一个独立的生命体,其智能和思考方式将和人类截然不同。如果人类无法控制人工智能的发展,人工智能可能会损害或毁灭人类。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

人工智能的危险系数不容被忽视。一方面,人工智能开发者可能为了一己私利鼓励和加速人工智能的发展,进而忽视其安全性和道德伦理问题;另一方面,人工智能的智能模拟可能会进一步加速它的发展,让其自主学习和进化,从而产生一些超乎人类意料的行为和行动。这些都有可能是人类无法预料和控制的,甚至有可能带来灾难性的后果。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

但我们也不应该简单地否认人工智能的存在和发展。毫无疑问,人工智能技术为人类带来了很多的好处,例如医学、交通、金融等行业都可以受益于人工智能技术的应用。因此,我们需要以科学的态度面对人工智能技术,不断加强对其规范和监管,同时提高人工智能的安全性和可靠性,控制其智能发展的速度和方向。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

为此,我们需要加强政府和社会对人工智能技术的监管,确保其能够保护公众利益,同时将人工智能技术的研发和应用纳入道德和伦理的规范之中,避免人工智能的发展超出人类可承受的界限。

350名专家: AI 可能灭绝人类"危险程度不亚于疫情和核战争"

而对于普通人来说,我们也应该加强对自身信息安全的保护,避免个人信息被人工智能盗用或者侵犯隐私。只有全社会共同努力,人工智能才能打造成为符合人类趋利避害的科技,从而成为人类生活的一部分。