首页 > 元宇宙 > 文章正文

为什么在移动芯片上,AI功能如此被看重?

第三财经网 2024-11-18 15:48 1433

近日,骁龙8 Gen3、天玑9300接连发布,最受关注的点,不再是参数的数值,而是标配的AI。

为什么在移动芯片上,AI功能如此被看重?对于用户来说这将带来怎样颠覆性的体验提升?

为什么在移动芯片上,AI功能如此被看重?

先说答案,对于移动芯片来说,未来的竞争核心是AI,AI性能的好坏将成为衡量芯片优劣的核心标准之一。

之所以这么说,当然和人工智能行业的发展密不可分。

从去年11月ChatGPT爆火出圈以来,大模型成为几乎所有企业追逐的业务,而让这些企业疯狂追逐的原因,当然是在可预见的未来,人工智能将席卷各行各业,带来生产力的革命。

这个诱惑是谁也不愿错过的。

对于手机厂商来说,这同样是一个天赐良机!

一方面,手机圈卷的太厉害了,有了突破点就必须要抓住;另一方面,大模型的应用和手机有着天然的契合点,堪称绝配。

因此,骁龙和天玑最新的芯片都强调AI功能的引入。

为什么在移动芯片上,AI功能如此被看重?

10月25日,2023年骁龙峰会上,高通推出的骁龙8 Gen3,把生成式人工智能功能直接引入芯片组。

骁龙8Gen3把Hexagon DSP升级为Hexagon NPU,带来了高达98%的AI算力提升,以及40%的能耗降低,支持终端设备上运行100亿参数的模型。可完成对话,生成图像或文本,不到一秒就能生成一张图。

为什么在移动芯片上,AI功能如此被看重?

11月6日,联发科发布天玑9300旗舰5G生成式AI移动芯片,集成联发科第七代为生成式AI设计的APU 790,整数运算和浮点运算的性能是前一代的2倍,功耗降低了45%,并且内置了硬件级的生成式AI引擎,可实现更加高速且安全的边缘AI计算,处理速度是上一代的8倍,1秒内可生成图片。

另外,联发科结合内存硬件压缩技术等,大幅减少AI大模型对终端内存的占用,支持终端运行最高330亿参数的AI大语言模型。

可以看出,高通和联发科都在最新旗舰芯片的AI性能上下了不少功夫。

而之所以这么做,一方面当然是为了性能的整体提升,另一方面,也给端侧大模型提供了支持。

为什么在移动芯片上,AI功能如此被看重?

关于大模型,最近数月,华米OV荣耀等几乎所有厂商都官宣了自家产品。那么要如何更好的和自己手机等硬件结合呢?部署端侧大模型就是选择之一。

我们知道,云端部署大模型对于个人隐私的保护不利,响应速度和适用场景有局限。

相较于单纯在云端部署,端侧AI大模型可基于用户偏好,对用户意图理解更精准,提供更好的个性化服务,结合多模态自然交互,打造个人化全场景智慧服务。

所以,部署端侧大模型是有必要的,当然,与云端的结合能更好的发挥大模型的价值。

有了大模型,未来我们的手机语音助手将不再是“智障”,而是一个更加人性化的情感陪伴,一个高效的生产力工具。另外,手机的各项功能体验都将带来革新。

这样的一次变革,每一个厂商都会竭力去争取。

搭载骁龙8 Gen3、天玑9300的手机现在已经开始陆续开售,加上在软件上的不断升级,未来用户对各品牌的评价又会多一个评判标准:这个品牌的人工智能体验如何。

华为、小米、OPPO 、vivo、荣耀等都已经在做了,建议用户在手机上探索一下。

可能唯一遗憾的是,苹果的人工智能有些掉队。当然,苹果用户可能并不在意这一点,毕竟iOS很流畅,苹果手机已优秀到不需要人工智能了~