切换到宽版
  • 18阅读
  • 2回复

[智能应用]AI进化撞上“数据墙”?三大模型研发遇阻,巨头纷纷转向新赛道[9P] [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106100
金币
1281
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 19990(小时)
注册时间: 2007-11-29
最后登录: 2024-11-17
只看楼主 倒序阅读 使用道具 楼主  发表于: 昨天 19:47

人工智能(AI)的发展一直建立在这样的信念之上:训练数据规模越大,模型就会越来越好。然而,业界近期曝出了大模型进化遭遇“数据墙”的消息。
据外媒报道,OpenAI、谷歌和Anthropic在AI模型开发方面都陷入了瓶颈,他们发现,新模型无法像前面几代产品那样带来巨大的飞跃。这在AI圈瞬时炸开了锅。
图灵奖得主杨立昆(Yann LeCun)和OpenAI前首席科学家伊利亚·苏茨克维(Ilya Sutskever)等科技圈大佬不客气地指出,大模型的规模法则(Scaling Law)已经达到极限,必须转变思维,改变训练模式了。
而OpenAI CEO阿尔特曼(Sam Altman)和Anthropic CEO达里奥·阿莫迪(Dario Amodei)都相继对“瓶颈”说进行反驳。尽管如此,OpenAI和谷歌都在积极转变策略,研究如何解决训练数据匮乏的问题,以及如何调整规模法则的应用,保持模型稳步发展。
在百度CEO李彦宏看来,模型开发放缓也不见得是一件坏事。在最近的一次访谈中,他表示,基础模型早期快速迭代是正常的,但如果两年、三年了还这样,那整个生态其实是会比较乱。Meta CEO扎克伯格也表示,即使在现有技术的基础上,应用层面依然有很大的发展空间。

图片来源:视觉中国-VCG41N1309760279
OpenAI、谷歌和Anthropic遭遇开发瓶颈
据外媒,OpenAI的下一代旗舰模型可能不会像前面几代产品那样带来巨大的飞跃。
测试代号为Orion的新模型的员工发现,尽管新模型性能超过了OpenAI现有的模型,但进步程度并不如从GPT-3到GPT-4的进步那么大。换句话说,OpenAI改进的速度似乎正在放缓。
OpenAI并不是唯一遭遇阻碍的公司,其竞争对手谷歌和Anthropic也传出了先进AI模型开发遇到瓶颈的消息。在以惊人的速度推出日益复杂的AI产品之后,这三家领先的AI公司现在意识到,他们在开发新模型上进行的大量投入所带来的回报正在逐渐减少。
据知情人士透露,谷歌即将推出的新版Gemini未达到内部预期,Anthropic也推迟了Claude 3.5 Opus模型的计划发布时间。
高质量人造训练数据的缺乏是AI模型开发面临挑战的一大原因。外媒援引两位知情人士称,Orion在编程任务上的表现不尽如人意,部分原因是缺乏足够的编程数据进行训练。即使是有一些小幅的改进,也难以证明新模型构建和运营的高昂成本是合理的,这与市场对于重大升级的期待之间存在差距。
科技圈大佬激辩“数据墙”
AI模型开发遇阻的消息公开后,知名AI评论家加里·马库斯(Gary Marcus)甚至直接单方面宣布“胜利”:“游戏结束,我赢了!我早就说过,GPT正在陷入收益递减阶段。”一直以来,马库斯就预测,生成式AI的发展将进入停滞阶段。

图片来源:X平台
AI怀疑论者经常警告,仅仅通过扩大规模来提高大模型的方法是有限的。一年前,比尔·盖茨就表示,有很多理由相信,当前生成式人工智能(AGI)已经达到极限。“GPT-5不会比GPT-4好多少。”
OpenAI前首席科学家、Safe Superintelligence联合创始人苏茨克维近日在接受外媒采访时也表示,扩大预训练的结果已经达到了平台期。所谓预训练,即使用大量未标记数据来训练AI模型以理解语言模式和结构的阶段。
Meta首席科学家、图灵奖得主杨立昆还转发了苏茨克维这条新闻,并评论,“我早就告诉过你们了,Meta早就开始转型了。”

图片来源:Thread
不过,OpenAI CEO阿尔特曼周四在X上发帖称,“没有墙(there is no wall)”,暗示AI发展没有遇到瓶颈。

图片来源:X
Anthropic创始人、规模法则论文的共同作者达里奥·阿莫迪也在近日的播客中表示,规模法则来自经验而非客观规律,他认为这一法则仍然会继续存在。
科技公司转变策略
尽管阿尔特曼驳斥了“瓶颈”一说,但OpenAI也一直在进行第二手准备。
OpenAI成立了一个基础团队,由之前负责预训练的Nick Ryder领导。该团队主要探索如何应对训练数据的匮乏,调整规模法则的应用,保持模型改进的稳定性。
例如,OpenAI的研究人员开始采用AI生成的合成数据来训练模型。他们还采用了强化学习方法,通过让模型从大量有正解的任务中学习(比如数学或编程问题),以此来改进处理特定任务的方式。此外,OpenAI还尝试在预训练后进行推理,即让模型在回答问题时花更多时间“思考”。OpenAI科学家Noam Brown称它是推理计算的Scaling(扩展)。

图片来源:X
谷歌似乎也在效仿OpenAI的做法。最近几周,DeepMind在其Gemini部门组建了一个团队,旨在开发类似OpenAI推理模型的能力。
谷歌的研究人员也在专注于对模型进行手动改进。参与这项工作的人员表示,改进工作包括改变“超参数”,或者是决定模型如何处理信息的变量,例如模型在训练数据中建立不同概念或模式之间联系的速度。
巨头纷纷转向AI应用
在AI进化遇阻的讨论下,AI应用迎来大爆发。
得益于AI广告引擎模型Axon2.0带来的广告匹配效率提升,广告平台公司AppLovin业绩大超预期。年初至今,该股的累计涨幅高达650%,是英伟达同期涨幅的3倍以上,总市值已经接近1000亿美元。

图片来源:谷歌财经
AI平台(AIP)显著推动了Palantir的业务增长。11月15日,这家公司宣布计划将其上市地点从纽约证券交易所转移至纳斯达克交易所。当天,该股涨11.14%,报65.77美元,该股年初至今涨283.05%。
国内AI应用中,字节跳动旗下的豆包年初至今累计下载量已经突破1亿。10月份,Kimi的月活跃用户数突破千万大关。MiniMax海外版应用的10月访问量较上月暴涨2773%。
百度CEO李彦宏认为,AI模型开发放缓也不一定就是个坏事。在最近的一次访谈中,他表示,基础模型早期快速迭代是正常的,但如果两年、三年了还这样,那整个生态其实是会比较乱。
李彦宏解释道:“基础模型不能够特别快地迭代。如果老在变,那做应用的人就无所适从了,该做什么我不知道,我刚做了两个月,你又升级了,把我做的冲掉了,白做了,我又得重新适应一遍新的规则。我觉得可能两年一个大的版本是一个比较合适的节奏。”
扎克伯格也表示,在最坏的情况下,即使技术没有改进,仍然有很大空间在现有技术的基础上打造消费者和企业产品。
作为AI领域的领头羊,OpenAI也在加强对应用层面的探索。据报道,OpenAI将于明年1月推出能够帮助用户整理文件,预订机票的AI智能体(AI Agent)软件。
谷歌正在开发一款代号为贾维斯计划的AI代理软件,“贾维斯”这个名字的灵感来自《钢铁侠》的全能AI管家贾维斯。
黄仁勋也开始对AI应用表达了兴趣。本周,他在日本举行的英伟达AI峰会上和孙正义一起宣布,将联合软银在日本打造AI+5G网络。
同时,他也在会上强调了AI智能体的潜力——即具备理解、推理、规划和执行能力的高级数字智能体,能够改变各个行业的生产力。他指出,这些智能体能够处理复杂的多步骤任务,有望“为人类完成 50% 的工作”,从而大幅提升人类的生产力。通过将数据转化为可操作的见解,代理式 AI 为企业提供了强大的工具,可以在不取代人类角色的情况下提升运营效率。

图片来源:英伟达官网
值得注意的是,英伟达的财报将于北京时间11月21日公布,预计在财报发布后的电话会议上,黄仁勋将宣布更多关于AI应用的消息。
过去一周,英伟达股价的“疯涨”势头暂时有所放缓。

图片来源:谷歌财经
投资公司Roundhill CEO Dave Mazza对《每日经济新闻》记者表示,英伟达需要在AI领域实现新的技术突破以及持续的收入增长,才能保持市值的领先地位。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线jjybzxw

UID: 551814


发帖
101633
金币
1082188
道行
1951
原创
2155
奖券
2124
斑龄
28
道券
567
获奖
0
座驾
设备
摄影级
在线时间: 24188(小时)
注册时间: 2008-10-01
最后登录: 2024-11-18
只看该作者 沙发  发表于: 昨天 19:57
  

  关于AI大模型发展遭遇“数据墙”的问题,以下是一些关键信息的总结:

  1. AI模型发展瓶颈:近期,OpenAI、谷歌和Anthropic等公司在AI模型开发方面遭遇了瓶颈,新模型无法像之前的产品那样带来巨大的性能飞跃。

  2. 高质量训练数据缺乏:业界普遍认为,高质量人造训练数据的缺乏是AI模型开发面临挑战的一大原因。

  3. 转变策略:面对这一挑战,OpenAI和谷歌都在积极转变策略,研究如何解决训练数据匮乏的问题,以及如何调整规模法则的应用,以保持模型的稳步发展。

  4. AI应用的爆发:在AI进化遇阻的讨论下,AI应用迎来了大爆发。例如,AppLovin得益于AI广告引擎模型Axon2.0带来的广告匹配效率提升,业绩大超预期。

  5. AI智能体的潜力:AI智能体(AI Agent)被看作是AI领域的一个重要发展方向。它们可以理解上下文、规划工作流程、连接外部工具和数据,并执行操作以实现特定目标。

  6. 英伟达与软银的“AI+5G”合作:英伟达与软银合作试运行了全球首个AI和5G相结合的电信网络,这被认为是计算领域的突破,为电信运营商带来了潜在价值数十亿美元的AI收入流。

  7. AI怀疑论者的观点:AI怀疑论者经常警告,仅仅通过扩大规模来提高大模型的方法是有限的。比尔·盖茨曾表示,当前生成式人工智能(AGI)已经达到极限。

  8. 科技公司的回应:尽管有科技公司的高管如OpenAI CEO阿尔特曼和Anthropic CEO达里奥·阿莫迪对“瓶颈”说进行反驳,但他们的公司也在探索新的发展方向。

  9. AI模型开发放缓的影响:一些专家如百度CEO李彦宏认为,AI模型开发放缓也不一定是个坏事,有助于整个生态的稳定发展。

  这些信息提供了对当前AI大模型发展瓶颈的多角度理解,包括业界的挑战、科技公司的策略转变以及AI应用的发展潜力。

如何不发帖就快速得到金币道行
 
在线天人地

UID: 1627269

精华: 2
级别: 玉清道君

发帖
280024
金币
42008
道行
36950
原创
103
奖券
39
斑龄
0
道券
0
获奖
0
座驾
设备
摄影级
在线时间: 31754(小时)
注册时间: 2012-09-03
最后登录: 2024-11-18
只看该作者 板凳  发表于: 昨天 19:58
AI进化撞上“数据墙”?
近期,人工智能(AI)领域出现了一些新的动态和发展趋势。据多家媒体报道,包括OpenAI、谷歌和Anthropic在内的科技巨头在开发新一代AI模型时遇到了瓶颈,这一现象被称为“数据墙”。这个瓶颈主要体现在新模型无法像前几代产品那样带来巨大的飞跃,导致AI模型的进化似乎遇到了障碍。

AI模型研发遇阻的原因
训练数据规模的限制
长期以来,AI的发展建立在这样一个信念之上:训练数据规模越大,模型就会越好。然而,随着模型规模的增大,高质量的人造训练数据变得越来越稀缺,这成为了AI模型开发面临的一个重大挑战。

规模法则的局限性
图灵奖得主杨立昆和OpenAI前首席科学家伊利亚·苏茨克维等科技界大佬指出,大模型的规模法则已经达到极限,必须转变思维,改变训练模式。规模法则是指通过扩大模型规模来提高性能的方法,但现在这种方法的效果似乎已经达到了平台期。

巨头们的应对策略
尽管遭遇了瓶颈,OpenAI和谷歌等公司并没有停下前进的脚步。相反,它们已经开始积极调整策略,探索新的发展方向。例如,OpenAI成立了基础团队,由之前负责预训练的Nick Ryder领导,研究如何应对训练数据的匮乏,调整规模法则的应用,保持模型改进的稳定性。此外,OpenAI的研究人员开始采用AI生成的合成数据来训练模型,并尝试在预训练后进行推理,即让模型在回答问题时花更多时间“思考”。

AI发展的未来展望
尽管目前AI模型的研发遇到了瓶颈,但这并不意味着AI的发展已经停滞。许多专家和业内人士认为,即使在现有技术的基础上,应用层面依然有很大的发展空间。例如,得益于AI广告引擎模型Axon2.0带来的广告匹配效率提升,广告平台公司AppLovin业绩大超预期。AI平台(AIP)也显著推动了Palantir的业务增长。

结论
总的来说,虽然AI模型的研发遇到了瓶颈,但这并不意味着AI的发展已经走到尽头。相反,这可能是AI发展过程中的一个转折点,促使行业内的公司和研究人员重新思考和探索新的发展方向。随着技术的不断进步和创新,我们有理由相信AI将继续为我们带来更多的惊喜和变革。
如何不发帖就快速得到金币道行
 
天人地
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个