当前位置:首页 > 新闻资讯 > IT业界 > 新闻
把AI大模型塞进手机,是质变还是噱头
  • 2023/12/4 10:17:06
  • 类型:原创
  • 来源:电脑报
  • 报纸编辑:吴新
  • 作者:
【电脑报在线】逐渐无聊的手机市场最近又找到了新的“卷”法——探寻智能手机与生成式AI的结合。过去的一个月内,vivo、小米、三星、OPPO、荣耀不约而同地齐聚端侧大模型赛道

01

厂商扎堆,惊喜寥寥

逐渐无聊的手机市场最近又找到了新的“卷”法——探寻智能手机与生成式AI的结合。过去的一个月内,vivo、小米、三星、OPPO、荣耀不约而同地齐聚端侧大模型赛道,vivo近日甚至宣布率先搭载了蓝心大模型的vivo x100系列手机,将会是“全球首个百亿大模型在终端调通的大模型手机”。

再把时间周期拉长,可以发现,从今年8月华为宣布其智慧助手“小艺”接入盘古大模型能力开始,这一轮AI大模型进入手机的基础应用就已经奠定了,那就是可以更自然沟通的“智能助手”。

从各家发布会现场展示来看,手机智能助手最明显的变化是从之前的只能语音交互,扩展到了可以语音、文字、图片、文档等多形式的输入,并且更接近真人对话,不需要像以前一样给出极其准确的指令就能运行;在这一基础上还可以实现部分文档内容的摘要总结、翻译等功能,比如把某篇微信文章总结出思维导图,或者根据模糊的提示在相册中准确找出所描述的照片等。   

虽然比之前的“鸡肋”助手强了点,但需要指出的是,在生态层面,目前手机端大模型的落地场景还是太少,功能仅仅围绕着摘要总结、信息检索、语音识别、文本翻译以及图片和文本内容生成等范畴,尚未具备中台级的上下文理解能力,更别说接近智能涌现。手机距离成为“超级助手”的目标还很遥远,厂商抢跑进场,占位的意义大于实际应用。

02

难以平衡的三角

另一方面,把大模型塞进手机终端恐怕和云端生成式大模型训练一样,都要面临处理器算力,以及其对内存和存储空间的大量占用的问题。此外,降低能耗与保护用户隐私也和算力一道被视为手机端更智能所必须平衡的三角。

高通曾在今年年初的世界移动通信大会上简单介绍了如何把大模型嵌入手机。首先,要保证模型准确率不会随参数减小而同等幅度下降,那就要在模型训练良好的基础上,采用量化技术将模型精简。

可是ChatGPT的诞生证明,尽管各大模型底座在训练上有差异,人工调整的细致度也会影响其表现。但整体而言,参数规模越大,仍意味着模型能力越强。手机终端处理器算力、内存、存储容量以及电池密度等各方面的瓶颈,导致其大模型参数量目前堪堪触及百亿,根本不能和云端上千亿参数的大模型相比。

业界选择的路线大多是混合式路线,即手机端大模型与云端搭配使用。在业内人士的畅想中,未来会有比GPT 4更强悍的大模型充当互联网底座,手机端维持参数百亿的大模型与之相配合即可,就像现在手机里的app。

但是,哪怕只有百亿左右参数规模,对于内存容量的占用都是惊人的。不久前,联发科无线通信事业部AI技术高级经理庄世荣就曾向媒体透露,一款130亿参数的AI大模型,大概需要13GB内存才能运行。而目前高端智能手机的内存容量大多为12GB或16GB,除去大模型占用后,内存性能立刻打折。

内存方面,各家芯片厂商还能一战,继续在有限的集成电路面积中塞入更大的AI专用处理器就行;但是能耗就没那么好突破了。考虑到手机电池密度短期内很难有更大的改变,而复杂的算法模型想要保证性能,能耗是极大的,这在用户端则会表现为手机续航能力差、手机经常发烫。

用户需要担心的不止物理上的问题,还有数据安全。现在将个人数据上传云端保存已经是很平常的行为,但这一行为的前提是我们默认这些个人数据不会被厂商随意调取。大模型不一样,它的运作原理就是要把所有能接触到的信息拿来训练分析,通过“学习”变得更智能。打个比方,想让手机助手代替自己回复微信,那就需要上传所有聊天记录至云端,并且还可能被第三方调用,用户会愿意吗?

消费电子产业如今急于促成终端与生成式AI结合,来进一步拓宽应用场景,主要还是为了带来新的换机需求,但是想让用户感受到AI带来的质变还需要再等等。

编辑|张毅
审核|吴新
本文出自2023-12-04出版的《电脑报》2023年第47期 A.新闻周刊
(网站编辑:ChengJY)