爱芯元智发布 AI 处理器,推动大模型云-边-端三级紧密结合

图片[1]-爱芯元智发布 AI 处理器,推动大模型云-边-端三级紧密结合-萌番资讯网

爱芯元智创始人、董事长 仇肖莘

7月5日举行的2024世界人工智能大会暨人工智能全球治理高级别会议(WAIC 2024)分论坛上,国内 AI 算力公司爱芯元智创始人、董事长仇肖莘正式发布用于 AI 端侧模型推理的“爱芯通元AI处理器”。

据悉,爱芯通元AI处理器的核心是算子指令集和数据流微架构,底层采用可编程数据流的微架构,有高中低三档算力,支持原生transformer模型,已经在智慧城市和辅助驾驶两个领域实现规模化量产,可应用于以文搜图、通用检测、以图生文、AI Agent等模型场景。

仇肖莘表示,大模型真正大规模落地需要云-边-端三级紧密结合,而边缘侧和端侧结合的关键在于AI计算与感知。爱芯元智基于爱芯智眸AI-ISP和爱芯通元混合精度NPU两大自研核心技术,确立以“AIoT+ADAS”为主的一体两翼战略路线,并向边缘计算、AI推理领域纵深发展,加速推动智慧城市、智能驾驶等应用场景落地。

会后对话中,仇肖莘向钛媒体App等表示,团队正关注行业伙伴在AI 领域的端侧大模型应用布局。她认为,大模型的Scaling Law(规律效应)并非“铁律”,不会以“线性”方式持续增长,一定会出现稳定的平滑优化时期。

“人们都在谈论‘摩尔定律’(Moore’s Law)已经到达极限,但是从单芯片的角度来看,摩尔确实在发展,但同时增速也已经平缓了。事实上,当前的半导体行业,是通过系统解决方案将整体性能再往上提升。所以,今年GTC强调的并不是单芯片,而是系统。整个系统的调度、优化、管理,是核心。至于scaling law的未来走向,会是以某种形式再更进一步优化。任何事物不可能永远linear(线性),它一定会在某个时间点进行非线性的增速。当那个临界点到来的时候,是否仍旧是现在的优化方式,是需要重新评估的。”仇肖莘表示。

据悉,爱芯元智成立于2019年5月,主要为不同行业提供 AI 的基础算力平台。爱芯元智目前已成功研发并量产了高中低端多颗端侧、边缘侧AI芯片,聚焦智慧城市,智能驾驶,机器人及创新业务三大场景。

融资层面,截至目前,爱芯元智已完成B轮融资。投资方包括腾讯、启明创投、美团及美团龙珠资本、韦豪创芯、联想之星、耀途资本等产业和风险投资机构。

此次公布的“爱芯通元AI处理器”,主要定位于AI模型的推理。通过模型算法和芯片设计的协同,以及模型小型化,实现最优算力配置,进一步加快大模型行业落地。

一个多小时的交流中,仇肖莘坦言,其他 AI 芯片企业在做的智算中心,目前不是爱芯的业务重点,现阶段更希望把边缘侧和端侧的海量市场先做好。因为,在她看来,AI大模型落地一定是个云、边、端三位一体的市场。

“这种有生成式 AI 的底座大模型,一定是在云端;但大模型是不是能够通过微调,或者某些优化等方式,形成行业大模型,落到边缘侧,而非这种几万亿的参数量,还是有可能的。”仇肖莘认为,大模型的落地现在还处于非常原始的阶段——broke force(乱局)。

仇肖莘指出,大模型在端侧落地的场景首先可能是车,随后是手机、AI PC等等,因为车是需要有实时响应的一个应用场景,而车的算力,实际上是端侧大模型的一个刚需,比如智能驾驶、智能驾舱、人机交互、AI Agent等。

“应用场景非常多样。一个3.2T的小芯片,如果集成到手机芯片里,手机就可以在本地完成很多应用的运行,而无需上云。”仇肖莘认为,生成式 AI 未来可能的一个应用场景是“智能家居”,通过家用 AI 服务器中枢,形成算力中心,入口将有可能是手机、机器人和“具身智能”、摄像和语音控制设备等极具想象力的方式。

谈到爱芯AI能力落地的商业模式,仇肖莘表示,目前来看行业主要有两种:一是客户SoC自身算力不够或不能原生支持大模型,可以通过爱芯的NPU IP 集成到客户芯片里,给客户带来高效的NPU 能力;二是通过爱芯的芯片和软件栈,实现规模化落地解决方案。

仇肖莘强调,半导体其实是一个长周期的行业,需要与投资人双向选择,那种快进快出的机构不适合半导体行业。

“选择合适的投资人很重要。第一,投资人一定要理解半导体的整个的逻辑和它的周期;第二,作为芯片公司来讲,需要努力做到商业闭环。所以这也是我们为什么要规模化,要发力量产,继而形成生态。一个健康的芯片公司平均在7~10年内可以实现收支平衡和盈利,希望我们能够稳健发展,尽快进入正循环。”仇肖莘表示。

(本文首发于钛媒体App,作者|林志佳,编辑|胡润峰)

© 版权声明
THE END
喜欢就支持一下吧
点赞100 分享