切换到宽版
  • 697阅读
  • 0回复

[智能应用]FLI创始人马克斯:CEO们对于AI风险很焦虑,只是不敢公开表达 [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106166
金币
2179
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20019(小时)
注册时间: 2007-11-29
最后登录: 2024-11-23
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-10-02
— 本帖被 兵马大元帅 执行加亮操作(2023-10-10) —
六个月前,美国生命未来研究所(FLI, Future of Life Institute )发布了一封由埃隆·马斯克(Elon Musk)、史蒂夫·沃兹尼亚克(Steve Wozniak)和约书亚·本吉奥(Yoshua Bengio)等科技界知名人士署名的公开信。

生命未来研究所是一家关注人工智能“灭绝风险”的非营利组织。这封信呼吁科技公司在六个月内“暂停”开发比 OpenAI 的 GPT-4 更强大的人工智能语言模型。

显然,它的呼吁并没有奏效。


(来源:AI 生成)

我与麻省理工学院(MIT)教授、生命未来研究所的创始人兼总裁马克斯•泰格马克(Max Tegmark)坐下来聊了聊,回顾了自那以来发生的事情。以下是我们谈话的要点。

谈及改变人工智能风险的“奥弗顿窗口”,泰格马克告诉我,在与人工智能研究人员和科技公司 CEO 的交谈中,很明显人们对人工智能带来的(人类)灭绝风险感到非常焦虑,但没有人觉得他们可以公开谈论这个问题。

“因为他们害怕被嘲笑,被打上危言耸听的标签。”他说:“这封信的主要目标是让有关对话成为主流,改变所谓的奥弗顿窗口,让人们可以安全地表达这些担忧。六个月后的今天,我们在这方面的努力显然是成功的。”

但其效果仅此而已。 泰格马克表示,“不太好的是,所有的公司仍在(人工智能模型领域)全速前进,而我们在美国仍然没有有意义的监管。看起来,美国的政策制定者们尽管嘴上谈论着这些东西,但今年不会通过任何有意义的法律来控制最危险的东西。”

那么,他认为政府应该介入的理由是什么?泰格马克正在游说美国政客,希望成立一个类似于美国食品药品监督管理局(FDA,Food and Drug Administration)的机构,以执行有关人工智能的规定,并要求政府迫使科技公司暂停人工智能的开发。

“很明显,像山姆·奥特曼(Sam Altman)、德米斯·哈萨比斯(Demis Hassabis)和达里奥·阿莫代伊(Dario Amodei)这样的人工智能领导者,他们自己也非常担心。但他们都知道他们不能独自停下来,”泰格马克说。只有自己单方面参与的暂停,对他们的公司来说“将是一场灾难”。

他补充道:“否则他们将会在竞争中被淘汰出局,然后无论谁是 CEO,都会被一个不想停下来的人所取代。暂停相关研究的唯一方法是世界各国政府的介入,制定安全标准迫使所有人暂停。”

那么马斯克呢?马斯克在呼吁暂停的公开信上签了名,但紧接着却成立了一家名为 X.AI 的新人工智能公司,开发能够“理解宇宙真实本质”的人工智能系统,而且马斯克还是生命未来研究所的顾问。“显然,他想要暂停,就像许多其他人工智能领导者一样。但只要大规模的暂停没有出现,他就会认为自己也必须行动起来,才能留在这场游戏中。”

为什么泰格马克认为科技公司的 CEO 心存人性的善良?他说“我为什么认为他们真的希望人工智能有一个美好的未来,而不是一个糟糕的未来?我认识他们很多年了。我经常和他们交谈。即使在私人谈话中我也能看出来,我能感觉到这一点。”

一些批评者认为,关注灭绝风险会分散人们对当前危害的注意力,对于这些声音,泰格马克的回应是:“至关重要的是,那些非常关心当前问题的人和那些关心即将到来的危害的人要合作,而不是内斗。我不会批评那些关注当前危害的人。我觉得他们这么做很好,我也非常关心那些风险。如果人们参与这种内斗,只会帮助大型科技公司分裂并打败所有这些努力。”

根据泰格马克的说法,我们现在应该避免三个错误:1.避免让科技公司来主导立法。2. 避免为西方掀起另一场地缘政治竞争。3.避免只关注灭绝威胁或当下的风险,因为我们必须意识到,它们都是人类权力被剥夺的威胁的一部分。我们必须团结起来才能应对这些威胁。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个