关闭
用户登录
关闭
新用户注册
*
*
*
*
        当前位置:首页 > 国外智库 >详情
美专家:人工智能研发不是军备竞赛
信息来源:参考消息        发布日期: 2023-06-14    【字体: 放大  缩小 】

  国《时代》周刊网站5月31日刊登题为《人工智能不是军备竞赛》的文章,作者是美国机器智能研究所首席研究员卡特娅·格蕾丝。全文摘编如下:

  人工智能做不到的事情似乎一周周在减少。现在,机器可以写出优雅的散文和有用的代码,顺利通过考试,创造出精美的艺术品,并预测蛋白质将如何折叠。

  专家们都很害怕。去年夏天,我对550多名人工智能研究人员进行了调查,其中近一半的人认为,如果高水平机器智能制造出来,它们带来的影响至少有10%的可能性会“极其糟糕(比如人类灭绝)”。5月30日,数百名人工智能科学家与开放人工智能研究中心、“深层思维”公司和Anthropic公司等顶级人工智能实验室的首席执行官签署了一份声明,敦促在人工智能问题上保持谨慎。声明称:“与大流行病和核战争等社会规模的风险一起,降低人工智能带来的灭绝风险应该成为一个全球优先事项。”

  他们为什么会这样认为?最简单的理由是,人工智能的进步可能创造出拥有超人智能的人造“人”,其目标会与人类的利益发生冲突,并且它能够自主追求这些目标。

  然而,尽管许多人担心人工智能可能意味着人类的终结,但一些人担心,如果“我们”(通常用来指西方研究人员,甚至是某个实验室或公司的研究人员)不向前冲刺,那么不负责任的人会这样做。如果一个更安全的实验室暂停行动,那我们的未来可能掌握在一个更不计后果的实验室手中。

  这一论点把人工智能的形势比作一场典型的军备竞赛。比如说,我想要在战争中打败你。我们都花钱制造更多武器,但没有人获得相对优势。最终,我们花了很多钱却毫无效果。这也许看起来很疯狂,但如果我们中的一个人不参加竞赛,我们就输了。我们陷入了困境。

  但人工智能的情况与此有一些关键的不同。值得注意的是,从理论上讲,在典型的军备竞赛中,一方总能领先并获胜。但在人工智能领域,赢家可能是先进的人工智能本身。这可能意味着仓促行事会导致失败。

  人工智能中其他关系重大的因素包括:放慢速度会带来多大安全性;一方的安全投资能在多大程度上降低每个人的风险;当第二名意味着小规模损失还是重大灾难;如果有更多参与者加快速度,危险会上升多少;以及其他人如何应对。

  真正的博弈比简单的模型所显示的情况更复杂。尤其是,如果个别的、未经协调的激励措施导致“军备竞赛”所描述的那种反常局面,那么获胜的办法就是在可能的时候退出。在现实世界中,我们可以协调我们摆脱这种困境的方式:我们可以对话;我们可以做出承诺并监督承诺遵守情况;我们可以游说政府进行监管并达成协议。

  在人工智能领域,一名特定参与者获得的回报可能不同于整个社会获得的回报。对我们大多数人来说,元宇宙公司是否击败了微软公司,这可能并不重要。但追逐名利的研究人员和投资者可能会远比我们更加在意。把人工智能当作军备竞赛来谈论会强化关于他们需要谋求自身利益的叙事。我们其他人应该对于让他们来做决定保持警惕。

  与军备竞赛相比,关于人工智能的更好类比可能是众人站在薄薄的冰面上,遥远的岸边有大量财富。如果人们小心迈步,他们都可以到达岸边,但有一个人认为:“如果我快跑,冰面可能会裂开,我们都会掉下去,但我敢打赌,我跑起来会比鲍勃更小心,他可能会拼尽全力。”

  在人工智能方面,我们所处的情况可能与竞赛正相反。最好的个人行动可能是缓慢且谨慎地前进。就集体来说,我们不应该让人们在一场反常的毁灭竞赛中把世界丢弃,尤其是协调我们逃亡的路线几乎没有得到探索的情况下。


图片新闻
Copyright©2020 深圳智库联盟版权所有        承办:深圳智库联盟秘书处       备案序号:粤ICP备20058290号-2       网站访问统计:-
--