三问AI未来发展

发布时间: 2024年07月22日 文章来源: 中国电子报

美东时间7月10日,专攻语音AI和语言识别的加州公司SoundHound宣布旗下结合了ChatGPT的AI语音助手在11个欧洲市场相关汽车品牌中上线。这一消息为其带来了20%的股价增幅,使其一跃成为投资界宠儿。在刚刚过去的一周,世界人工智能大会召开期间,AI相关概念股再度迎来新一波上涨。可以看到,无论是在科技界还是投资界,AI的风头只增不减,然而围绕AI发展路径的争论也愈演愈烈。

开源是不是“智商税”?

随着AI技术快速从理论走向实践,开源、闭源之争再度升级,引发业内人士激辩。百度创始人、董事长兼首席执行官李彦宏多次在公开场合力挺“闭源”。他认为,开源其实是一种“智商税”。同样参数规模之下,闭源模型的能力比开源模型要更好,而如果开源模型想要追平闭源模型,那么它就需要有更大的参数,这就意味着推理成本会更高,反应速度会更慢。

李彦宏直言:“有些同行混淆了模型开源和代码开源的定义,模型开源与代码开源不同,无法做到众人拾柴火焰高,商业化的闭源模型才是最能‘打’的。”

月之暗面创始人杨植麟同样支持闭源。他认为,像OpenAI一样的闭源是通往超级应用的唯一通路,而开源只是To B的获客手段。“AI和其他领域不同,开源没有算力验证,没有人力和资本聚集,是追不上闭源的。”

魅族前副总裁李楠则发微博“怒怼”李彦宏:“Lama3的性能撑起中国AI项目半边天。随着OpenAI的收紧,开源将是AI发展的一条重要路径。中国IT行业,无论是阿里云还是鸿蒙都有大量的开源项目支持。百度在基础技术层面为本土化发展做了啥?”

猎豹移动董事长兼CEO、猎户星空董事长傅盛也对“开源大模型是智商税”的说法表示不认同。他认为,现在收费很高的模型授权费、API费,才是智商税。“从逻辑上来说,开源大模型是免费的;从事实上来说,开源大模型的各种性能已经够好,很多企业都在用开源大模型,他们也没向谁交钱。”他说道,但是反观闭源大模型,“哪怕对用户,一个月要交几十块钱才能用的那种闭源大模型,也是智商税。”

尽管业内关于开闭源的争论不休,但从目前的市场走向来看,似乎越来越多的公司选择“押注”开源。谷歌推出了开源模型Gemma,从闭源重返开源赛场。明星AI创企xAI的创始人马斯克多次表示对OpenAI不满,认为其背离了非盈利开源公司的初心与使命,并积极开源旗下3140亿参数规模的大模型产品Grok,以示其对开源路线的支持与信心。

国内AI赛道涌现出诸多“开源派”选手。比如,阿里云开源了参数从5亿到千亿的数款模型,最新发布的通义千问2.5版本性能全面赶超GPT-4 Turbo。腾讯也从闭源转为开源,在开源文生图大模型之后,腾讯表示未来还会尝试参数量更大的模型。明星AI创企百川智能同样选择了开源路线,自今年以来估值已超18亿美元。

LLMFarm创始人兼CEO宜博表示,整体来讲,开源社区当前还是落后于闭源社区,如果以GPT为标准,大概是一年时间的差距。开源社区其实一直处在追赶闭源社区的态势,但这种差距正在逐渐缩小。

红帽中国首席架构师张家驹认为,开源的目标不是说一定要超过闭源。“即便之前全球工程师合力做Linux,目标也不是要超过闭源。”开源的价值是更加公开透明,在技术上更加平权,不会让其成为少数人牟利的手段。“更为关键的是,对于AI来说,如果未来走向AGI,开源让AI的发展走向更符合全人类的利益,这一点的价值要远高于在某一方面去超越闭源。”

该不该“卷”应用?

关于下一阶段AI发展怎么走,业界已普遍达成共识,那就是将关注点从模型本身转移到应用上。例如,达摩院最新发布的一站式AI视频创作平台“寻光”对标的就是爆款应用“Sora”,它已经可以让用户实现对视频内容的精准控制,同时可以保持多个视频中角色和场景的一致性。视频中的每一个局部目标,都可以被精准地定义和修改。

依托腾讯混元大模型的C端应用“腾讯元宝”也正式上线,不仅能够提供AI搜索、AI总结和AI写作等核心能力,还能够面向日常生活场景,提供多个特色AI应用,包括百变AI头像、口语陪练和超能翻译官等。

从文生文到文生图,再到文生视频,AI创新应用不断迭代出新。从目前来看,社交工具是厂商重金押注的一个重要赛道。第三方数据平台data.ai发布的《2023年AIGC移动市场洞察》中的数据显示,2023年12月AIGC应用下载量破纪录地达到新高,超过9000万人次。其中,以AI技术为支持的人工智能聊天机器人应用用户增长尤为显著,贡献了2023年总下载量的72%。

“今年,人们已经从关注大模型本身转变为思考和讨论大模型创造价值、赋能产业和落地应用,行业已形成共识,不再去讨论大模型是不是必要的,或者是大模型好还是小模型好,行业已经转变成更务实的状态。”智谱AI CEO张鹏表示。

“模型落地,实用为先。”腾讯云副总裁、腾讯云智能负责人、腾讯优图实验室负责人吴运声表示,“大模型的研发和应用必须关注、解决具体业务场景,必须关注可用性和性价比。”

然而,李彦宏强调,要避免掉入“超级应用陷阱”,一定要出现一个10亿DAU的APP才叫成功,这是移动时代的思维逻辑。在AI时代,规律可能不是这样的,“超级能干”的应用比只看DAU的“超级应用”更重要,只要对产业和应用场景能产生大的增益,整体价值就比移动互联网要大多了。

商汤科技董事长兼CEO徐立也认为,当前AI的影响还没有到一个超级时刻,因为AI暂未真正走进行业垂直应用并引起广泛的变化。在徐立看来,现在的大模型只是个“记忆器”,而想在垂直领域取得突破,需要人类构建更加高阶的思维链。

蚂蚁集团董事长兼首席执行官井贤栋指出,未来智能化无法依赖单一的大模型,而是需要全行业开放合作。在移动互联网时代,APP是最典型的应用,但他相信在AI时代,专业智能体应该是新的应用范式。

李彦宏同样认为智能体是最好的AI应用发展方向。他判断,未来,医疗、金融、教育、制造、交通和农业等领域,都会依据自己的场景,以及自己特有的经验、规则和数据等,做出各种各样的智能体,将来会有数以百万量级的智能体出现,形成庞大的智能体生态。

智能算力够不够?

在庞大的AI浪潮冲击之下,算力究竟够不够用成为业界人士关注的焦点。近日,贵州贵安新区大数据和科技创新局公布的数据显示,截至5月28日,当地已累计部署智算芯片9.58万张,算力规模达到30.7EFlops(每秒10的18次方浮点运算次数),成为全国智算能力最强的地区之一。根据《贵州省建设数字经济发展创新区2024年工作要点》,今年贵州要力争部署智算芯片20万张以上,全省算力规模达到75Eflops以上。

不只是贵州,北京、广东、成都、上海等各地亦争相投入到智算中心建设的热潮中。赛迪顾问研究数据显示,预计到2026年,中国算力规模将超过360EFlops,三年的年复合增长率达到20%,中国智算算力和超算算力占比之和将达到40%。

然而,按照摩尔定律,算力基本每两年就要翻一番。据商汤AI大装置产业赋能中心主任蒋钦介绍,最先进的人工智能模型的计算量每三四个月就翻一番,也就是每年增长近十倍,比摩尔定律两年增长一倍快得多。

近日,AI初创公司Anthropic的首席执行官Dario Amodei表示,若AI模型算力每年增长十倍,那么也可以据此推测训练模型所需的硬件也至少要强大十倍。因此,硬件很可能是训练AI模型中最大的成本驱动因素。未来3年内,AI大模型训练成本将上升至百亿甚至千亿美元。

端侧算力成为一个新热点。移动芯片巨头高通公司中国区董事长孟樸认为,如果将20%的生成式AI转移到终端侧,到2028年将节省160亿美元的算力资源。随着小型生成式AI的进步,能够在终端运行与云端一样好,甚至更好地生成式AI模型。

华为常务董事、华为云CEO张平安则表示,要认清芯片受到限制和制约的现实,不能把AI的算力需求都放在终端来解决。从华为云的角度出发,张平安提倡中国AI要把端侧算力释放到云端。同时他指出,中国在光缆和5G等基建上都有优势,同时也有能源优势,中国AI的发展要充分利用这些优势。

关于AI大模型过于耗电的问题,中国工程院院士、之江实验室主任、阿里云创始人王坚与国外一些主流意见不同,他认为中国一年的发电量超过美国、日本和俄罗斯的总和,因此电力是最不需要担心的问题。

与此同时,王坚也提出了他的“AI不等式”。“跟现有的foundation model(基础模型)相比,我们的应用还不够好;跟现有的算力相比,我们的模型还不够好;跟现有的电力相比,我们的算力还不够好。”王坚表示,“现在AI的问题,十年以后可能都不是问题,我们要动态地看AI面临的问题。”

(编辑:索朗次仁)