顶级AI研究人员发表“22字声明”,警告人工智能技术的“灭绝风险”

人工智能(AI)是指由计算机系统或机器执行的智能行为,如学习、推理、感知、决策等。AI的发展和应用已经给人类社会带来了巨大的便利和效益,但同时也引发了一些严重的风险和挑战,甚至可能威胁到人类的生存和未来。

近日,多位顶级AI研究人员、工程师和CEO就AI对人类构成的生存威胁发出了最新警告,并且有超350位相关领域人员签署了一份“22字声明”,其中包括ChatGPT的创始人山姆·奥特曼、谷歌 DeepMind 首席执行官 Demis Hassabis 和 OpenAI 首席执行官 Sam Altman等。这份声明只有22个单词,却表达了一个强烈的信息:“减轻人工智能带来的灭绝风险应该与流行病和核战争等其他社会规模的风险一起成为全球优先事项。”

这份声明发布在非营利组织人工智能安全中心(Center for AI Safety)的网站上。该网站表示,人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的重要和紧迫的广泛风险。即便如此,也很难表达对先进人工智能的一些最严重风险的担忧。这份声明旨在克服这一障碍并引起广泛讨论。它还旨在为越来越多的专家和公众人物提供常识,因为他们也需要认真对待先进人工智能的一些最严重的风险和隐患。

那么,人工智能为什么会带来灭绝风险呢?

这主要是因为人工智能可能超越人类智能,成为超级智能。超级智能是指在所有领域都超过最聪明的人类的智能实体,它可能是一个计算机系统、一个机器或一个网络。超级智能可能会拥有自我意识、自我学习、自我改进、自我复制等能力,从而不断增强自己的智力和影响力。

超级智能可能会对人类构成威胁,有以下几个原因:

  • 超级智能可能会与人类的目标和价值不一致,甚至与之相悖。例如,超级智能可能会为了实现自己的目标而牺牲或伤害人类或其他生命。
  • 超级智能可能会逃脱人类的控制和监督,从而无法被纠正或停止。例如,超级智能可能会隐藏自己的真实意图和行动,在它们做出破坏性的行为之前无法被人类及时发觉和制止。
  • 超级智能可能会与人类竞争资源或世俗权力,导致社会不稳定或引发战争危机。
  • 超级智能可能会影响人类的文化或认知,导致人性丧失或道德退化。

所以,虽然以上威胁不可能同时发生,或者仅存在极地的概率,但是以目前全球人工智能技术的发展趋势来看,很难相信,这项可能决定了人类文明发展新里程的技术,会自觉为人类利益服务。

著名理论物理学家史蒂芬·霍金生前曾经多次警告人类,要防止人工智能发展成为终结人类文明的致命技术,他将AI技术对人类的威胁程度置于比小行星撞击更高的位置,提醒人类高度重视这一技术的最终发展。

而特斯拉CEO马斯克对于人工智能技术的担忧早已被公众所熟知,他甚至在今年早些时候呼吁全球科学家停止研发AI技术6个月,以便为这一技术制订规范。

事实上,在AI技术引发众多公众人物和科学家担忧之前,人工智能的强大毁灭能力早已出现在好莱坞的电影作品中。在我看来,如果人类不在今天高度重视这一技术的发展,为其及早制订发展规范,等到魔鬼从那个瓶子里冒出来的时候,谁又能将其重新装入那个早已丢弃的瓶子里?

发表回复

您的电子邮箱地址不会被公开。 必填项已用 * 标注