“可能给人类带来灭绝风险!” 超过350位大佬联名呼吁:AI堪比“疫情和核战争”

频道:最新资讯 日期: 浏览:392

自从生成式AI以势如破竹的速度席卷几乎每一个领域,AI挑战人类的担忧也越来越真实。日前,超过350名人工智能(AI)领域的行业高管、专家和教授签署了一封公开信,他们在信中警告称,AI可能给人类带来灭绝风险。

非营利组织人工智能安全中心(Center for AI Safety)本周二发布简短声明:“将减轻人工智能带来的灭绝风险,放在和流行病、核战等社会问题同一高度,作为全球优先事项推进”。签署者包括OpenAI首席执行官山姆·奥特曼等高管。

“AI可能给人类带来灭绝风险”

这封信于周二发表在非营利组织人工智能安全中心(CAIS)的网站上,签署者包括OpenAI首席执行官山姆·奥特曼、DeepMind首席执行官Demis Hassabis、Anthropic首席执行官Dario Amodei以及微软和谷歌的高管等。

这封信只有一段话,整份声明才22个字(英文),全部内容如下:“减轻AI带来的灭绝风险,应该与流行病和核战争等其他社会规模的风险一起,成为全球优先事项。”

上面的倡议已得到了多位AI行业大佬的支持,超过350位AI领域高管和专家签署了这份声明。

其中主要人物有:

Google DeepMind首席执行官戴米斯·哈萨比斯(Demis Hassabis)、OpenAI首席执行官山姆·奥特曼(Sam Altman)、“AI教父”杰弗里·辛顿(Geoffrey Hinton)、2018年图灵奖得主约书亚·本希奥(Youshua Bengio)、Anthropic的首席执行官达里奥·阿莫代(Dario Amodei)。

该网站表示:人工智能专家、记者、政策制定者和公众越来越多地讨论人工智能带来的重要和紧迫的广泛风险。即便如此,也很难表达对先进人工智能的一些最严重风险的担忧。

自聊天机器人ChatGPT掀起AI热潮以来,对这项技术潜在风险的担忧持续增加。

今年3月,包括特斯拉CEO埃隆·马斯克在内的1000多名行业高管和专家签署公开信,呼吁在6个月内暂停高级AI的开发。马斯克等人在信中写道,高级AI可能会对社会和人类构成深远的风险。

G7呼吁出台AI技术标准

据第一财经5月21日报道,21日,七国集团(G7)领导人就制定和建立人工智能(AI)技术标准作出呼吁,敦促行业和监管者确保人工智能“值得信赖”。他们还称,目前的技术治理未能跟上人工智能的发展步伐。

尽管人工智能技术提供了许多好处,但它们的发展速度超过了监管机构能够跟上的速度。

5月20日在日本广岛举行的G7领导人会议上发表的一份声明称,人工智能等数字技术的规则应该“符合人们共同的价值观”。

峰会还达成共识,在今年年底之前创建一个专门讨论人工智能进展的部长级论坛,讨论围绕生成式人工智能的问题,例如版权和打击虚假信息。

欧洲一直走在人工智能监管的前沿。欧盟本月已经接近通过一项人工智能技术监管的立法,这也有望成为全球首部全面的人工智能法案,并可能成为发达经济体的先例。

“我们希望人工智能系统准确、可靠、安全且无歧视,无论其来源如何。”欧盟委员会主席乌尔苏拉·冯德莱恩5月19日表示。

G7领导人还表示,他们需要尽快评估有关生成式人工智能的机遇和挑战,这也是近期ChatGPT引爆的一个技术热点。

尽管各个国家都呼吁加强对人工智能的监管,但各国政府对于人工智能的态度也有差异。

据澎湃新闻5月26日报道,在美国国会听证会上呼吁设立新机构监管AI后,OpenAI首席执行官山姆·奥特曼(Sam Altman)又展开欧洲之旅,面见各国政府首脑,并在高校参加对话活动,重申监管建议。在接受媒体采访时,他警告称,因为欧盟正在制定的AI法规,OpenAI可能会从欧洲市场撤出其服务。

其他科技大企业也不甘示弱。当地时间5月25日,微软总裁布拉德·史密斯(Brad Smith)在华盛顿与美国议员一起主持了一场备受瞩目的活动,推出了微软关于政府应该如何监管AI的建议。

前一天,谷歌首席执行官桑德尔·皮查伊(Sundar Pichai)在布鲁塞尔与欧盟官员会晤讨论AI政策,他强调,需要对技术进行适当监管且不会扼杀创新。

相关文章

关闭广告
关闭广告
×