AI门户, 中国人工智能行业资讯平台--AI门户网
来源:AI门户网     时间:2026/3/27 22:25:30     共 3152 浏览

你是不是刚拿到一部搭载天玑9300芯片的新手机,或者在网上总看到“NPU”、“AI大模型”这些词,感觉一头雾水?心里可能在想:这芯片里那个叫NPU的东西,到底是个啥?它说支持各种AI,那具体是哪些AI框架能用呢?就像很多新手想学“新手如何快速涨粉”却找不到门道一样,搞懂这些专业术语,第一步就是拆开来看。

今天,我们就用大白话,掰开揉碎了聊聊联发科天玑9300芯片里的这个NPU,看看它到底能“装”下哪些AI世界的工具。

先得弄明白,NPU到底是个什么“单元”?

简单说,NPU就是芯片里专门处理AI任务的一个“小脑袋”,学名叫做神经网络处理单元。你可以把它想象成你手机里的一个“AI特长生”。CPU是全能班长,什么都管;GPU是画画很好的文艺委员;而NPU,就是那个特别擅长做数学推理和模式识别题的理科天才。

天玑9300里这个“理科天才”型号是APU 790,它是联发科第七代AI处理器。它的厉害之处在于,专门为时下最火的“生成式AI”进行了设计。什么叫生成式AI?就是能自己创造内容(比如聊天、画图、写诗)的AI,不像以前只能识别照片里是猫还是狗。

那么,核心问题来了:它支持哪些AI框架?

这才是大家最关心的。我把它分成两大类来说,一类是“底层工具”,一类是“上层应用”。

首先,是底层开发框架。你可以把这些框架理解成不同的“编程语言”或“工具箱”,开发者用它们来制作AI应用。天玑9300的APU 790重点支持了一个很重要的伙伴:

ExecuTorch

这是一个由Meta(就是做Facebook和Instagram的那家公司)推出的端侧AI推理框架。名字有点绕,但作用很关键——它能让AI模型更高效、更直接地在手机这样的终端设备上运行。支持ExecuTorch,意味着开发者可以更容易地把他们训练好的AI模型,部署到天玑9300的手机上,不用经过特别复杂的转换和优化,相当于打通了一条“高速路”。这对我们用户来说,未来就能在手机上用到更多、更流畅的本地AI功能,不用什么都依赖网络。

聊完工具,再看看更实际的:它能跑哪些现成的AI大模型?这才是NPU能力最直观的体现。天玑9300在这方面可以说是个“社交达人”,朋友很多:

*Llama 2:这是Meta开源的一个非常知名的大语言模型,就像ChatGPT的“兄弟”。天玑9300+(9300的小升级版)甚至被称为业界首款实现更高速Llama 2端侧运行的芯片。它最高能支持到330亿参数的版本,这个数字你可以理解为模型的“知识量”和“复杂程度”,参数越大通常越聪明。

*通义千问:这是阿里巴巴推出的中文大模型。没错,天玑9300平台已经成功完成了它的部署。这意味着你可以在支持的手机上,本地运行一个缩小版的“通义千问”,问答、总结可能更迅速。

*文心一言:百度家的王牌AI产品。同样在支持列表里,体现了其良好的生态兼容性。

*百川大模型零一万物等国内主流模型也在支持范围内。

为了方便对比,我们可以看看它支持不同规模模型的能力:

模型参数规模支持情况说明
:---:---:---
10亿/70亿/130亿参数完全支持适合大多数端侧AI应用,运行效率高
最高330亿参数支持代表其顶尖的端侧AI算力,能运行更复杂的模型

看到这里,你可能又会问:它怎么能支持这么多种不同的模型呢?不会打架吗?

这个问题问得好。这就不得不提天玑9300 NPU里的几项“独门秘籍”了。首先,它有一个混合精度INT4量化技术,配合NeuroPilot Compression内存硬件压缩技术。说人话就是,它有一种方法,能在尽量不影响AI“智商”的前提下,把模型“瘦身”,减少对手机内存的占用,这样跑起来就更顺畅。

其次,它支持天玑AI LoRA Fusion(现在有2.0版本)技术。这个技术允许在基础大模型上,像打补丁一样,动态加载一些小模块,来增加新技能或适应新任务,而不用重新下载一个巨大的完整模型,非常灵活。

对我们小白用户来说,这到底意味着什么?

说了这么多技术名词,可能你还是觉得有点远。那咱们落到实际体验上。正因为NPU支持了这些框架和模型,你的手机才能做到:

1.更快的AI文生图:比如一些手机内置的“AI画笔”功能,你输入“一只戴着帽子的猫”,它能在1秒左右就生成图片,这背后就是NPU在疯狂计算。

2.更智能的拍照和视频:拍照时的场景识别、人像虚化、视频里的实时字幕翻译和摘要,NPU都在默默工作。

3.流畅的端侧AI助手:未来,你手机里的语音助手可能会更聪明,能离线处理很多复杂问题,隐私性也更好。

4.独特的AI应用:比如根据你的描述生成一个专属表情包,或者把一段文字变成一段音乐,这些创新的玩法都有了硬件基础。

所以,你看,选择一颗像天玑9300这样在AI生态上广泛布局的芯片,其实是在为未来一两年内的手机AI体验投票。它不是在堆砌一个用不上的参数,而是真的把路铺好了,等着开发者和应用来跑。

最后,作为小编,我的观点很简单:别再只盯着CPU跑分和GPU帧率了,对于想多用几年的手机,NPU的“朋友圈”(支持的框架和模型)广不广,潜力大不大,已经成了一个隐形但至关重要的考量点。天玑9300在这方面,无疑是把筹码都摆上了台面,它搭建的这个AI舞台,足够大,也足够开放。至于上面能演出多精彩的戏,咱们一起拭目以待。

版权说明:
本网站凡注明“AI门户网 原创”的皆为本站原创文章,如需转载请注明出处!
本网转载皆注明出处,遵循行业规范,如发现作品内容版权或其它问题的,请与我们联系处理!
您可以扫描右侧微信二维码联系我们。
  • 相关主题:
网站首页 关于我们 联系我们 合作联系 会员说明 新闻投稿 隐私协议 网站地图