把大模型装进手机有必要吗?

发布时间: 2024年01月18日 文章来源: 人民邮电报

AI大模型热潮已经持续一年多,从ChatGPT的横空出世到如今各种大模型遍地开花,科技厂商、创业者及研发人员已经从热烈讨论如何超越ChatGPT、对标GPT-4入局“百模大战”卷参数卷性能,演变为如今的拼落地、拼应用。但是,对于“局外人”而言,这些名称和概念似乎仍然难以触及,不禁要问:大模型究竟能为我们的日常生活带来哪些实质性的改变呢?

那么,借助大模型把人手一部的智能手机升级为“私人助理”如何?

随着移动通信技术的飞速演进,手机的功能也在不断拓展。从3G时代应用商店的推出,使得手机用户能够轻松下载和安装第三方开发者提供的应用,到4G时代智能手机开始普及,社交媒体和移动支付成为生活中的不可或缺,再到5G时代的高速率、低时延和大容量,解锁增强现实(AR)、虚拟现实(VR)、云游戏和实时高清流媒体等应用。每一次技术跃迁都为手机的发展揭开了崭新的篇章,引领我们迈向智能互联的数智未来。

如今,随着人工智能技术的蓬勃发展,AI大模型正在成为引领手机未来革新的关键力量。北京市社会科学院副研究员王鹏认为,大模型在自然语言处理、图片识别等领域取得了不少成果,消费者对于手机智能化、个性化服务的需求也在不断增长。这促使手机厂商通过在手机中引入大模型来提升用户体验和自身竞争力。

通过将AI大模型集成到手机中,用户可以享受到更加便捷、高效和智能的服务。无论是智能助手、智能翻译,还是智能修图、智能推荐等,大模型都将进一步提升手机的智能化水平,让手机更懂用户需求。市场调研机构Canalys预测,2024年,全球约5%(约6000万部)的手机会具有端侧AI运算能力。据业内人士分析,智能手机用户规模巨大、便携性较强、应用生态完善,有望成为大模型最理想的落地平台。

简单易用的“聊天”式交互界面、更加贴近人类的“思维模式”和回应风格、能写诗会编程的强大综合能力……这些都是ChatGPT能够火爆出圈的关键因素。那么将这些优势对应到手机端时,一键直达的语音助手显然成为大模型落地的天然选择:基于大模型的理解和推理能力,理解用户的指令和需求,并提供相应的服务和信息。

目前,市场上主流的大模型大多是云端大模型,例如,谷歌的BERT、OpenAI的GPT系列以及百度的ERNIE等,这些模型参数量巨大,需要强大的算力来支持其运算过程。因此,它们通常被部署在高性能云端服务器上,通过互联网为用户提供服务。

然而,云端大模型也存在局限性。首先,由于需要通过网络传输数据,云端大模型的响应速度可能受到网络带宽和时延的影响。其次,云端大模型的隐私性和安全性问题也备受关注。用户的个人数据需要上传到云端进行处理,这就涉及数据隐私泄露的风险。

为了克服云端大模型的局限性,国内外主流手机厂商开始探索把大模型能力装进手机。华为、小米、vivo、OPPO、荣耀、三星等企业无一例外。一方面,大模型部署到智能手机等边缘设备上,可以实现更快的响应速度;另一方面,用户的个人数据,尤其是敏感数据可以在本地进行处理,无须上传云端,这使得数据隐私得到了更好的保护。

大模型落地手机端难吗?主要面临哪些挑战?从计算和存储方面来看,手机的性能远不及高性能服务器,如何在有限的手机资源中实现高效的模型推理,是首先要解决的问题。联发科方面就曾透露,130亿参数大模型至少需要13GB内存,再加上6GB APP保活、4GB安卓OS。因此,当前普遍使用的16GB内存的手机是无法运行该参数规模大模型的。

为了适应手机端的运行,大模型必须“瘦身”,即经过一系列的优化和压缩处理,包括参数剪枝、量化、知识蒸馏等,尽可能减小模型的大小和降低计算复杂度。参数剪枝旨在剔除模型中冗余的权重,使模型更为精简而不失其准确性。量化则是通过降低权重的精度来减少存储和计算需求,如将32位浮点数转换为8位整数。知识蒸馏是一种迁移学习策略,通过训练一个小模型来模拟大模型的行为,从而实现在保持性能的同时显著降低模型复杂度。

大模型的出现被认为是人工智能领域的一个里程碑式突破,而“端云协同”则为大模型在手机端的广泛应用提供了通路。荣耀终端有限公司CEO赵明认为,现阶段,手机是端侧大模型的天然载体。端侧大模型更懂用户意图,云侧大模型擅长解答通用知识或者某个专业领域的问题,端侧和云侧能力互补、相互结合,将为用户带来卓越的体验。

OPPO高级副总裁兼首席产品官刘作虎曾说:“未来,AI可能让手机呈现新面貌。”AI大模型或将成为2024年手机行业发展的重要推动力,而打通AI大模型端侧落地的通路,让用户切实感受到大模型带来的智能和便利,也将成为大模型厂商、智慧终端上下游企业等努力的方向。(作者:本报记者 吴双)

(编辑:白玛旦增)