切换到宽版
  • 672阅读
  • 2回复

[智能应用]深度学习红利将尽,AI 是否又面临「死亡之谷」? [复制链接]

上一主题 下一主题
在线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106191
金币
5409
道行
19523
原创
29307
奖券
17275
斑龄
190
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20036(小时)
注册时间: 2007-11-29
最后登录: 2024-11-25
只看楼主 倒序阅读 使用道具 楼主  发表于: 2021-02-27
— 本帖被 兵马大元帅 执行加亮操作(2021-03-21) —
         人工智能存在于许多我们每天与之交互的技术中,比如最常见的语音助手和个性化推荐,以及不断成熟的自动驾驶。从去年到现在,AI 领域更是好消息不断,OpenAI 的 GPT-3 从自然语言处理衍生出了画画、敲代码等能力,DeepMind 推出「进阶版 AlphaGo」—— MuZero ,它在下棋和游戏前完全不知道游戏规则,完全通过自己摸索赢得棋局。一时间,「AI 将替代人类」的声音不绝于耳。

但另一面,人类丰满的 AI 梦,也正在撞上骨感的现实。近期,IBM 旗下的 Watson Health 被传出将甩手卖掉,这个曾想替人类解决肿瘤治疗的 AI 部门 6 年来从未盈利。更致命的是,Watson Health 的诊断精度和专家结果只有 30% 的重合。

看向国内,「AI 四小龙」中的商汤科技和旷视科技,时不时传出计划上市的消息,但似乎都中了「上市难」的魔咒。旷视科技的创始人印奇在去年 7 月,曾对媒体表示 AI 的快速爆发期发生在五六年前,现在正处于「死亡之谷」的泡沫期。繁荣表象之外的冰冷现实,都能让人想到「人工智能的寒冬」:与 AI 有关的研究或其他项目难以获得资金,人才和公司停滞不前。

「目前基于深度学习的人工智能在技术上已经触及天花板,此前由这一技术路线带来的『奇迹』在 AlphaGo 获胜后未再出现,而且估计未来也很难继续大量出现。」张钹说。

被寄予厚望的深度学习,是否会让人工智能陷入又一轮寒冬?「在每一次人工智能『寒冬』到来之前,科学家都会夸大他们的研究的潜力。仅仅说他们的算法擅长某一项任务还不够,他们恨不得说 AI 能解决所有事。」长期研究数据科学和 AI 的作者 Thomas Nield 说道。但真正的通用人工智能,离我们似乎还很遥远。

深度学习是什么?

就在 AI 慢慢沉寂,变成「隐学」的时候,Geoffrey Hinton、Yoshua Bengio 和 Yann LeCon 三位学者默默开始了 AI 的一个重要分支——神经网络——的研究。



神经网络通常被比喻成一块有很多层的三明治,每层都有人工神经元,这些神经元在兴奋时会把信号传递给相连的另一个神经元

简单来说,神经网络就是一层层的数字,这些数字又被称为「神经元」。 之所以这样命名,是因为科学家认为这些数字相互联系,传递信号,就像大脑里的神经元通过突触来传递神经刺激一样。而神经网络里的每一层数字都通过一些约定的数学规则从上一层的数字计算得到。

而「深度学习」的概念源于神经网络的研究,是研究神经网络的学问。这里的「深度」,指的就是神经网络含有无数隐层,深不可测。

深度学习模型一般由输入层,隐层和输出层构成。基本思想是:上一层的输出作为下一层的输入,来实现对输入信息的分级表达,进而通过组合低层特征形成更加抽象的高层表示属性类别或特征,以发现数据的分布式特征。也就是说,机器学会「抽象思考」了。

数据越多,越智能?

OpenAI 最新的自然语言处理模型 GPT-3,几乎是把整个互联网的浩瀚内容全部读完了。它总共阅读了大约 5000 亿词,模型大概有 1750 亿参数。系统有上万个 CPU/GPU,它们 24 小时不间断地「阅读」任何领域的信息,半个月读完了整个互联网的内容。猛灌数据量,是这个 AI 模型的「暴力」所在。



但 GPT-3 也并不能因此变得完全像人,比如,它对不符合人类常理的「伪问题」也会应答,这恰恰证明它并不理解问题本身。前 Uber 人工智能实验室的负责人 Gary Marcus 就曾对深度学习多次泼冷水:「人类可以根据明确的规律学习,比如学会一元二次方程的三种形式以后就可以用来解各种题目;见过了京巴、柴犬之后,再见到德牧就知道它也是一种狗。然而深度学习不是这样的,「越多的数据 = 越好的模型表现」,就是深度学习的基本规律,它没有能力从字面上给出的规律学习。」

「深度学习是寻找那些重复出现的模式,因此重复多了就被认为是规律(真理),因此谎言重复一千遍就被认为真理,所以为什么大数据有时会做出非常荒唐的结果,因为不管对不对,只要重复多了它就会按照这个规律走,就是谁说多了就是谁。」张钹院士也表示深度学习「没有那么玄」。

由于它不能真正理解知识,「深度学习学到的知识并不深入,而且很难迁移。」Marcus 说道。而 AI 系统动辄拥有千亿参数,俨然就是一个黑匣子一般的谜。深度学习的不透明性将引致 AI 偏见等系列问题。 最主要的是,AI 还是要为人所用,「你要它做决策,你不理解它,飞机就让它开,谁敢坐这架飞机?」张钹强调 AI 必须拥有可解释性。

1、每一网络遍历的计算量,或给定深度学习模型中单次遍历(即权值调整)所需的浮点运算数。

2、训练整个模型的硬件负担,用处理器数量乘以计算速度和时间来估算。

结论显示,训练模型的进步取决于算力的大幅提高,具体来说,计算能力提高 10 倍相当于 3 年的算法改进成果。 换言之,算力提高的背后,其实现目标所隐含的计算需求——硬件、环境和金钱等成本将变得无法承受。

摩尔定律假定计算能力每两年翻一番。OpenAI 一项研究表明,AI 训练中使用的计算能力每三到四个月翻一番。自 2012 年以来,人工智能要求计算能力增加三十万倍,而按照摩尔定律,则只能将 AI 提升 7 倍。人们从来没有想到芯片算力极限会这么快到来。

算力供不起是一回事,但业界甚至认为这种「暴力」模式方向错了。「知识、经验、推理能力,这是人类理性的根本。现在形成的人工智能系统都非常脆弱容易受攻击或者欺骗,需要大量的数据,而且不可解释,存在非常严重的缺陷,这个缺陷是本质的,由其方法本身引起的。」张钹表示, 「深度学习的本质就是利用没有加工处理过的数据用概率学习的『黑箱』处理方法来寻找它的规律,它只能找到重复出现的模式,也就是说,你光靠数据,是无法达到真正的智能。」

深度学习红利将尽,但 AI 还在发展

他表示,「只要选好合适的应用场景,利用成熟的人工智能技术去做应用,还有较大的空间。目前在学术界围绕克服深度学习存在的问题,正展开深入的研究工作,希望企业界,特别是中小企业要密切注视研究工作的进展,及时地将新技术应用到自己的产品中。当然像谷歌、BAT 这样规模的企业,他们都会去从事相关的研究工作,他们会把研究、开发与应用结合起来。」



一直在给深度学习泼冷水的 Gary Marcus, 提出要为深度学习祛魅:「我不认为我们就要放弃深度学习。相反,我们需要将它重新概念化:它不是一种万能药,而仅仅是作为众多工具中的一种,在这个世界上,就像我们还需要锤子、扳手和钳子。」
1条评分金币+10
兵马大元帅 金币 +10 验证通过,感谢支持 2021-03-21
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
在线aaaxxxeee

UID: 14854

发帖
1368
金币
2293
道行
540
原创
12
奖券
42
斑龄
0
道券
26
获奖
0
座驾
朗逸
设备
佳能R7
摄影级
初级认证
在线时间: 2450(小时)
注册时间: 2005-10-02
最后登录: 2024-11-25
只看该作者 沙发  发表于: 2021-02-27
AI确实是噱头。电脑不可能有智能,只能执行程序员写的程序。
1条评分金币+3
兵马大元帅 金币 +3 验证通过,感谢支持 2021-03-21
如何不发帖就快速得到金币道行
 
离线happy2021

UID: 2141287

发帖
702
金币
348
道行
114
原创
23
奖券
39
斑龄
0
道券
4
获奖
0
座驾
奔驰GLE43
设备
佳能1DX2
摄影级
在线时间: 94(小时)
注册时间: 2020-12-16
最后登录: 2021-07-20
只看该作者 板凳  发表于: 2021-02-27
深度学习,就是在数据中找规律,但是生活中,往往无规律可循。比如,你突然打了一个喷嚏,能说明什么??
技术进步是必然的,谈不上死亡之谷,只是会出现另一个新的领域而已。
1条评分金币+10
兵马大元帅 金币 +10 回复认真,加分鼓励 2021-03-21
如何不发帖就快速得到金币道行