切换到宽版
  • 748阅读
  • 0回复

[数码讨论]大模型跑在手机上还有多远? [复制链接]

上一主题 下一主题
离线huozm32831

UID: 329002

精华: 1097
职务: 超级斑竹
级别: 玉清道君
 

发帖
106542
金币
9956
道行
19523
原创
29307
奖券
17354
斑龄
191
道券
10126
获奖
0
座驾
 设备
EOS—7D
 摄影级
专家级认证
在线时间: 20258(小时)
注册时间: 2007-11-29
最后登录: 2024-12-25
只看楼主 倒序阅读 使用道具 楼主  发表于: 2023-09-15
— 本帖被 兵马大元帅 执行加亮操作(2023-09-26) —
AI 的应用一直以来都有两个极端:

一类是在数据中心,用最强的算力跑最复杂的模型;一类是在智能终端,用最小的模型实现最普适的应用。

除了追求大算力带来的智能涌现,如何把 AI 模型压缩,运用到各种智能终端上,也是工业界不断追求的“极限挑战”。

在 AI 的各种世界顶会中,有一类顶会比赛的项目,就是如何将 AI 高性能又高效地使用到终端。

ICCV 2023 是 AI 计算机视觉领域的三大顶会之一,每两年举办一届,代表了人类在计算机视觉领域的最先进技术,堪称“地表最强”。

8月底,走出“技术自嗨”,带着一身“硬本事”,首次参加CV建模推理和训练赛的支付宝xNN团队,分别拿下2项赛事的3个冠亚军。其中“推理挑战赛”上,shanwei_zsw 和 zhaoyu_x 两支小组分别获得冠亚军,比分大幅领先第三名45%以上。在“训练挑战赛”上,shanwei_zsw 则以0.04的些微差值位居亚军。





赛事的难点在于,要在有限的计算资源条件下发挥模型的最大效能。例如在运行时,GPU内存限制在6GB以下,训练成本控制在九个小时以内,在这些条件限制下,图像识别精准度还要达到95%以上,在1分钟之内完成几千张图片推理的效果。

“投入时间比较短,参赛也很从容,比赛的课题就是我们日常的工作”,参加挑战的支付宝xNN引擎工程师王世豪道。

通过 xNN 团队在技术实践上的探索,我们也能够一窥当前 AI 在终端落地方面的最新进展:从 1.0 跨越到 2.0,目前端侧 AI 技术已经攀登到一个“小高峰”,“又好又快”成为技术抵达的主逻辑。

历史的齿轮重新开始转动,随着大模型的降临, AI 在智能终端的落地,又迎来一个全新阶段。

端侧部署难题:有限资源VS大参数AI模型

或许大家并不了解 xNN 团队,但一定用过他们的技术。

扫码付款、春节扫五福、理财推荐、短视频直播……这些再熟悉不过的场景中都有 xNN 团队的影子。

xNN团队负责人周大江告诉光锥智能,他们主要负责蚂蚁集团内的所有端智能的应用,为蚂蚁集团提供端侧技术引擎支持。

2016年深度学习刚刚爆发,2017年基于计算机视觉的“扫五福”就正式应用在支付宝 APP 里上线,这也成为了xNN 技术团队组建的起点。

“扫福活动最早在云端测试,即在服务端上用 AI 能力识别福字,但最终发现成本和效果都差强人意,这才转向了端上去做”,周大江表示。



“扫五福”这个动作,经过了扫描、识别、判断、计算、推理、反馈一系列 AI 步骤。如果通过云的路径实现,摄像头要先扫描,然后传到服务端,云服务端处理完成后再返回结果。这里面包括了网络通信的开销、云计算传输耗费的时间、判断反馈的时间,总体下来,用户等待时间长且体验感较差。

xNN团队经过摸索后发现, 云端根本无法满足用户的实时需求,要想让应用飞入寻常百姓家,还得部署到端侧。

正如王世豪所言,端侧机器学习有很多优势:首先可以降低部署成本,从模型推理到模型决策一切都在端侧搞定,节省云端运维资源;其次,一次加载资源后,不需反复请求服务端传递数据量以及获取 AI 分析结果,非常适合图像识别等高频 AI 分析场景;最后,调用数据无需传输上云,有助于提升用户的隐私性。

技术方向被验证了正确性,但实现过程却充满了复杂。

以扫五福场景为例,汇集了图像识别、语音识别、自然语言处理、传感器数据融合等多种 AI 技术。例如最常涉及的图像识别技术,用于快速、准确地识别用户扫描的福字图像,判断是否正确;传感器融合技术,结合手机运动传感器等辅助无障碍用户进行福字扫描;语音合成、识别技术,支持语音互动的各种创新玩法,如“语音打年兽”等。

端侧部署的难点也十分突出,相比云服务器,端侧设备资源极其有限,无法载入过于复杂的模型。

资源对端侧的限制体现在全过程中,识别靠摄像头,而手机的摄像头质量参差不齐,有的清晰,有的模糊;模型训练、推理所用到的GPU和CPU,决定了数据传输、反馈的处理速度;存储空间有限,决定了模型大小。

但 AI 模型规模又很大,一个简化的模型就好比中学的三元一次联立方程,模型训练推理的过程可以理解为解方程的过程,只不过要解的是几百万元的方程。其中,每个元就是“参数”,联立方程式称之为一层的“神经网络”,一般而言,常用的简单模型可能有3-6层,复杂模型甚至有50+层,这足以证明模型参数有多大。

“于是,有限的资源和大参数的 AI 模型之间形成了鸿沟”,支付宝终端技术部负责人李佳佳进一步明确了xNN团队的方向,把 AI 模型放到端上就是要在“螺蛳壳里做道场”。

可对于一款十亿级用户的国民级APP而言,技术要解决的难题还远不止于此。

支付宝服务对象面向全年龄段的各类人群,10亿用户中,来自三四线城市的比例超过55%。在很长一段时间内,几百元的低端机成为主流,这意味着从技术设计上不能设置过高的门槛,要能适配各种老版的手机硬件和操作系统。

支付宝的应用还经常存在海量并发场景,譬如春节扫福等促销活动,动辄超几亿人参与,据统计,每2-3个中国人里就有一个参与过扫福活动,瞬时涌入的巨大流量也给端侧带来了考验。

基于端侧 AI 技术本身和支付宝国民级应用的属性,两座沉重的大山压在了 xNN 团队肩上。

从 AI 1.0到2.0,找寻端侧模型最优解

进一步拆解任务,xNN 团队决定先解决端侧 AI 技术共性问题,再去解决支付宝自身的个性化问题。基于该逻辑,其技术迭代经历了 AI 1.0 模型轻量化阶段和 AI 2.0 可伸缩建模时期。

模型轻量化,顾名思义,主要任务就是把AI模型优化得尽可能小,为此,xNN 团队研发了“模型压缩技术”。

“模型压缩最核心的就是让模型尽可能得小,只有小了才能装进手机里”,王世豪表示道。

虽然 AI 模型被压缩小了,但并不意味着运行的性能要降低。xNN 团队介绍,能不能让模型在完成同等任务效果的基础上,还能进一步变小,成为了关键。例如,在压缩一个模型后,识别福字的精准度依然很高。

一个问题也随之而来,多小的 AI 模型算小呢?

周大江告诉光锥智能,关于这个问题业界目前还没有形成标准,这意味着每个APP可能都会有自己一个软性的标准。“在实际应用运行中,大一点其实也不是问题,业界一般控制在十兆左右尺寸。 但支付宝更倾向于小数量级的模型规模,大部分应用都控制在一兆以内”,周大江称。

把模型压缩变小,主要在解决“好”的问题,使复杂模型可以在端侧设备上运行。而端侧高性能计算引擎技术则专注于解决“快”的问题,通过各种优化手段使模型可以高效计算。

高性能计算引擎技术目的是让模型能够充分利用端侧设备的算力资源,一个核心指标是算力利用率,即模型计算对硬件资源的利用效率。举例来说,假如手机理论上每秒钟可以执行一万次计算,那引擎性能的高低,决定了能不能充分把这一万次给用起来。

得益于“模型压缩+高性能计算引擎”两把“杀手锏”,让 xNN 团队在1.0阶段“实现了绝大多数场景应用的端上部署”,这也为其从1.0的“变小”走向2.0的“灵活”打下了基础。

“以前是一个模型打遍天下,现在是面向不同设备找到最合适的模型”,王世豪道。

可伸缩建模技术,切中了国民级应用的用户人群广泛与多样化的硬件环境的痛点。

一段时间里,不同手机机型都共用一个 AI 模型,这就会出现无法全面覆盖的情况。要么去适配低端机,导致高端机型资源被浪费,业务效果和用户体验打折扣;要么去迎合高端机型,直接丧失一部分低端机用户。

而现在,不只生产一个模型,而是通过技术的手段一次性的生产很多个模型,每一个模型能够去兼容适配不同用户的手机,去最大化它的算力,然后把模型的效果带给用户。这就好比打游戏时的分辨率,既可以选择超高清分辨率,也可以选择低分辨率,深层次诠释了“可伸缩”性的内涵。

模型“又小又快”的实现条件进一步耦合,通过可伸缩建模技术一步到位,快速找到最优解。但同时,里面涉及的工具、参数调节也愈来愈复杂,走过模型轻量化来到 AI 2.0时期,技术比拼才刚刚开始。

随着大模型来临,AI 在智能终端的落地,又将迎来一个全新的技术阶段。

大模型跑在手机上还有多远?

不断优化,把 AI 模型一步步变小,在手机上跑得又好又快。

回溯 xNN 团队技术迭代的历程,这条贯穿其中的主线,也是整个终端智能化的缩影。

然而,到了“更大参数、更加复杂”的大模型应用落地的新阶段,技术既有变,也有不变。

不变的是,xNN 团队对光锥智能表示,即使在 大模型的阶段,其核心矛盾仍在于如何利用有限资源,达到又好又快的效果,而大模型只不过进一步加深了矛盾。从具体的评判指标来看,和之前没有本质区别,一旦涉及端上部署,始终逃脱不了模型尺寸、性能、速度等。

最大的变量是几十亿、上百亿参数的大模型。如今端侧的现状是,手机算力、存储等资源并没有跨越式提升,而庞大的大模型已经要迫不及待地成为新时代的主角,这也是导致大模型应用难以打通“最后一公里”的难点所在。
山庄提示: 道行不够,道券不够?---☆点此充值☆
 
  




    
快速回复
限120 字节
认真回复加分,灌水扣分~
 
上一个 下一个