对话Aizip创始人陈羽北:打造全球最小、最高效的AI系统
在当今AI行业,技术的快速迭代与广泛应用正在深刻改变人们的生活。尽管AI潜力巨大,但其能耗高、模型庞大、学习机制复杂等问题仍困扰行业发展。在此背景下,专注于On-Device AI模型的创新企业Aizip正引领变革潮流。
Aizip作为一家聚焦高效紧凑型AI模型的创新公司,凭借其在多模态感知、语言推理及行为控制等领域的技术突破,正推动AI技术在硬件设备上的广泛应用,为智能设备带来更高效的性能表现,并加速AI融入日常生活。

- 系统工程真正的成就感,是你的成果能在现实中发挥作用——这是我长期科研探索的核心动因,将AI从“能用”推进到“高效能用”,缩小人工智能与自然智能之间的鸿沟。
- AI作为新一代通用技术,目前在多个维度上的“效率”都极其低下——能量效率、模型效率和学习效率。
- Scaling确实有效——更多的数据、更大的模型通常能带来性能提升,但并非总是成正比。我认为最终策略应是一种折中:尊重scaling law,但不能迷信它。
- Aizip的思路是反向而行的——不是做更大,而是做“全球最小、最高效”的AI系统。这与主流强调AGI、取代人的方向并不一致。
- 我们有一个共识:不追逐短期名利,更关注长期价值。我们特别注重“高能力、低ego”的人。
- 未来超过50%的推理将会在设备端完成。当用户愿意买、芯片能支持、模型能落地,on-device AI的时代就会到来。我认为这个拐点最晚两三年内就会到达。
- 我们的定位就是做这些客户的后盾。Aizip希望成为那些“有AI需求、但不具备全栈AI能力”的企业的基础支持方。
- 一家公司的发展通常经历三个阶段:技术优势 → 规模优势 → 品牌优势。关键在于把技术优势转化为落地能力,进而转化为规模效应。
01 长期研究AI,期望提升AI能量效率、模型效率及学习效率
ZP:请先向读者们介绍一下自己的背景吧,可以从求学时的经历、成长和映射到现在的价值观开始?
陈羽北:我本科毕业于清华大学电子系,最早对AI产生兴趣是在2008年大一入学时。那时AI远未成为热门方向,我和同学参加了百度杯AI游戏竞赛并获得亚军。
尽管早期接触的主要是搜索和专家系统,那段经历让我意识到计算能力的提升在推动AI发展中扮演着基础性角色。后来,在斯坦福实习期间,我决定正式投身AI研究,并前往伯克利深造。
进入伯克利后,我的研究方向从偏应用的工程开发转向基础性的AI理论探索,加入了计算神经科学家Bruno Olshausen的课题组,聚焦于“白盒模型”研究,结合数学、电子工程、机器学习与计算神经科学。
博士毕业后,我选择加入Yann LeCun的团队,在Facebook AI Research以及纽约大学从事博士后研究,补足了模型工程化与规模化模型训练方面的能力。
ZP:我们内部有个观点,认为一项技术的跨越式发展通常会经历三个阶段:一是基础数据和算法不足,需要大量学术研究;二是进入工程阶段,解决准确性问题;三是进入规模化阶段,优化成本和生成速度。您认同这样的技术路径吗?2020年是否是AI从学术走向工程的关键节点?Aizip在那一年成立,有什么特别的契机?
陈羽北:我非常认同这样的阶段划分,2020年确实是关键节点。那一年突如其来的疫情打乱了原计划。我原本打算博士毕业后去Yann LeCun的实验室做博士后,但因疫情滞留在家,于是开始和团队讨论创业,Aizip最终在2020年8月正式成立。从前期准备算起,应该是在年初就启动了。
从学术研究到创业实践:陈羽北的AI探索与Aizip创立之路
在创业过程中,AI认知与效率革命的深层反思

ZP:创立了Aizip的过程中,您的创业心态、以及对AI的理解有发生变化吗?
陈羽北:是的,变化很大。我的两位联合创始人比我经验丰富,一位来自斯坦福,一位来自CMU,其中一位之前已经创过几家公司。他是我在斯坦福时UGVR fellowship的赞助人,我们最初就是在讨论如何做出真正能在现实世界中运行的AI模型时聊到一起的。
对我来说,这是第一次真正思考“落地”这件事。在学校里大家做的更多是基础研究,实战经验很少。而系统工程真正的成就感,是你的成果能在现实中发挥作用。因此,构建一个真正能规模化使用的AI系统,是我最初的创业动因之一。
第二个动因则来自对“数据入口”演进的观察。从PC到移动互联网,每一次平台的更迭都伴随着交互界面的变革。智能手机的触控界面促成了移动互联网的崛起。现在,如果AI成为下一代计算平台,那么未来的数据入口也许不再是手机,而是摄像头、麦克风、各种传感器。这种入口的迁移可能带来新一轮平台机会。我当时就判断,on-device AI 会是一个巨大的切入点。
第三个动因,是对AI作为“效率革命”本质的深入反思。这个动因在2020年还没有完全成型,直到有一天我在纽约与Yann共进午餐,他问我:“你研究AI基本原理的意义是什么?”这个问题让我彻底想清楚了。
我意识到,AI作为新一代通用技术,目前在多个维度上的“效率”都极其低下——
首先是能量效率。人脑仅消耗约20瓦功率,而运行一个600B参数的大模型至少需要两台服务器,每台八卡,功耗在四五千瓦以上。即使ChatGPT知识量更大,但在人类擅长的泛化和能耗比上,AI仍落后数个数量级。
第二是模型效率。以跳蛛(Jumping Spider)为例,它有八只眼、360度视野和三维感知能力,仅靠几百万神经元就能完成复杂的猎物规划。而今天的自动驾驶系统要完成类似任务却需数十亿参数。自然智能在感知和规划能力上的紧凑性和鲁棒性,远超当前AI系统。
第三是学习效率。大模型依赖巨量数据,例如LLaMA 3训练使用了15T tokens,下一代甚至要训练到100T以上。而人类一生接收的信息可能不超过100亿token(约10万本书)。同样实现泛化,人类的数据使用效率领先AI三到四个数量级。
Yann的问题让我意识到,寻找AI学习的基本规律,就像热力学之于内燃机的效率革命一样,目标不是短期性能优化,而是突破效率瓶颈,实现跨数量级的跃迁。这是我长期科研探索的核心动因——将AI从“能用”推进到“高效能用”,缩小人工智能与自然智能之间的鸿沟。
ZP:在博士后阶段,您是否对早期创业时的一些技术或战略认知有了新的反思或转变?
陈羽北:可以说是加深了理解,也确实有一些观念发生了调整。比如我对“效率”的关注从未改变,甚至更为强化,但我对scaling law的态度发生了变化。在伯克利时期,我们也会做一些偏工程化的研究,发过CVPR等应用类会议,但那时算力资源有限,很难真正理解什么是最前沿的state-of-the-art。
进入Meta(Facebook)后情况完全不同。当时我在Yann LeCun的团队中,能直接使用每次训练配备512张V100显卡的大规模算力。我们写一篇论文消耗的计算资源可能就要花上百万美元。算力的充裕让我们能密集试验各种想法,也真正理解了scaling的边界与价值。
scaling确实有效——更多的数据、更大的模型以及更直接的优化通常能带来性能提升,但并非总是成正比。比如,数据规模扩大300倍,模型性能可能只提升个位数的百分点。这让我开始反思数据质量、模型结构、工程严谨性等因素的实际影响。换句话说,有了充足资源后,你才真正知道哪些研究方向值得投入,哪些在资源有限时可以回避。
ZP:在那段时间,很多AI创业公司盲目推高模型规模,资源其实已经极限了,却很难再从scaling中获得突破,这是不是也是您认知转变的一部分?
陈羽北:是的。我认为最终的策略是一种折中:你要尊重scaling law,但不能迷信它。特别是在我们创立Aizip的时候,我们的思路是反向而行的——不是做更大,而是做“全球最小、最高效”的AI系统。这和主流强调通用人工智能(AGI)、取代人的方向并不一致。
我的研究始终有两个方向,一是基础学习效率的提升,一是构建高度可用的系统工程。
基础研究方面,我长期致力于构建“白盒模型”,探索无监督学习中的数学规律。核心在于理解信号空间的本质结构——图像空间是圆的?方的?如何进行解析?这类问题帮助我们真正掌握模型为何能工作,以及其边界在哪里。
另一方面,我也非常关注“世界模型”的研究,类似构建一台能“做梦”的机器。相比白盒模型关注内部结构,世界模型的目标是模拟整个现实世界,是生成模型的终极形式:不仅可以还原数据,还可以模拟交互、预测行动、决策行为。前者追求解释性与简洁性,后者追求综合建模与真实互动。
这两条路线看似分离,实则互补。提升学习效率和打造小而强的系统,最终都是为了推动AI技术向更高效、可控、可部署的方向演化,而不是单纯追求规模或效果指标上的“数字游戏”。
让AI真正走进现实世界的产品
02 AI在日常生活中触及程度仍旧较低,让AI进入真实产品中
ZP:您刚才提到,2020年是Aizip创立的关键节点,能否更详细聊聊,当时是什么促使您从学术研究转向创业?为什么是这家公司、这几个联合创始人、在那个时间点?
陈羽北:我一直做的是AI基础研究,但作为工程师,我始终有一个愿望——希望AI不仅停留在论文里,而是真正走进现实世界的产品。如果有一天,身边人用的AI系统很多都是你参与构建的,那种成就感是很不一样的。
2020年疫情期间,原本计划去Yann LeCun实验室做博士后的计划被打乱,于是我开始认真思考创业的可能性。刚好身边有两位资深的朋友,一起聊起来非常契合,就迅速启动了公司。他们技术背景深厚,也都经历过完整的创业周期,是非常值得信任的合作伙伴。
他们是我亦师亦友的角色,比我更资深,也都实现了财务自由。我们有一个共识:不追逐短期名利,更关注长期价值。其中一位联创是CMU PhD,曾创立一家EDA公司,服务过英伟达、苹果和Intel,后来被博通收购。他在AI的debug能力极强,能精准定位模型训练到部署性能下降的许多根本原因,在复杂系统调试中极为关键。
另一位是上世纪90年代斯坦福PhD,毕业后加入贝尔实验室,是光通信领域的先驱者,后来连续创业,涉足过移动视频、激光雷达等多个技术周期,是真正经历过高低起伏、依然能够沉住气思考长期问题的技术人。
我们特别注重“高能力、低ego”的人。现在团队已有30多位全职成员,算上兼职和顾问约有50人。每个人至少要在一个方向上是专家,并能带领团队走得更深。例如我们的CTO是斯坦福PhD,师从Phillip Wang,硬软兼备,正在带领我们构建高效的小语言模型系统;还有我伯克利时期的师弟,是物理系博士,模型调优能力可能是我见过最强的之一。我们希望公司像一个协作网络,每个关键点都由真正强者撑起来,而不是层级式运作。
从研究者到创业者:Aizip联合创始人的转型之路
软件、硬件与市场的协同推动on-device AI的崛起
陈羽北表示,在从学术走向创业的过程中确实经历过心理和适应上的挑战。他回忆起早期在高温、高噪音环境中调试设备的艰苦,也曾是主要写码人和运维者。
在博士后阶段,他的角色转向吸引研究员、评估技术趋势和筛选可落地方向。同时强调,团队依靠产品营收而非融资存活,所有模型和代码都必须真实落地,这要求极强执行力和稳定心态。

Aizip的核心定位是一家AI模型研发公司,具备深厚的嵌入式算力领域硬件理解能力,并已进入全球多数头部硬件企业的生态体系。目前专注三类感知模态(声音、视觉、时序)及语言模型的研发:
- 多模态感知模型——覆盖语音唤醒、识别、合成;物体识别、人脸识别、OCR等视觉应用;以及高精度“下一步预测”的时序模态处理。
- 语言模型——用于推理、规划与控制,例如Agent中的Tool Calling能力。
- Voice-AI Agent——融合语音识别、小语言模型与本地RAG,在边缘设备中实现高效、隐私保护、低延迟的智能交互。
这种部署方式使得“隐形嵌入”成为可能,让AI真正融入用户体验,而不是突显存在感。
对于是否会与云端agent公司竞争的问题,陈羽北认为:“不会。” 因为Aizip专注于设备端AI,是一个尚未充分开发的蓝海市场。
他认为未来超过50%的AI推理将在终端完成,原因包括实时性需求(如耳机降噪、电视图像增强)、隐私保护以及成本因素。
随着芯片能力的提升(如苹果A系列芯片的NPU算力跃升),加上小模型训练效率与蒸馏技术的发展,用户对隐私、价格、体验的要求逐步上升,这些构成了推动on-device AI普及的关键力量。
- 市场准备:用户越来越愿意接受本地化、低成本的高质量服务
- 硬件演进:终端设备算力持续突破
- 软件突破:数据质量与训练方式优化加速模型进化
当以上三点形成合力,将标志着真正的on-device AI时代来临,这一拐点预计在两三年内出现。
Aizip的商业定位清晰明确:成为中小型硬件企业背后的后盾支撑,帮助它们快速部署本地AI能力,助力其先聚焦于应用层创新,再视发展情况自建AI团队。
对话Aizip创始人:不做自动驾驶,专注设备端AI生态布局
小模型落地、全栈技术打磨与全球化合作战略
我们不做自动驾驶,因为车企应掌握核心ADAS能力。AI模型不是为了“花哨的演示”,而是解决现实中的广泛需求。更关注模型价值可扩展至多品类、但单品类不足以支撑独立ML团队的场景。
ZP:在商业模式方面,能否介绍一下Aizip是如何构建当前路径的?
陈羽北:公司发展经历三个阶段:技术优势 → 规模优势 → 品牌优势。关键是将技术优势转化为落地能力,进而形成规模效应。
我们的策略是构建兼容主流硬件生态的AI模型体系,客户可一次性集成多个AI能力,而非碎片化采购。这种复杂度和服务深度会逐渐形成网络效应。
不希望产品未成熟前大规模扩张或营销。过去三年专注于技术验证和模型稳定性,而非营收或规模化。一旦提前扩张,容易出现市场未成、资源已耗尽的局面。
融资亦如此,我们不是“先融资后试错等风来”的团队。产品未准备就绪时,宁愿不扩张、不宣传。如今已有明确量产落地经验,才开始适度推进商业化节奏。
ZP:那在客户合作和模型落地方面,目前有哪些比较成熟的进展?
陈羽北:目前我们已与多家全球头部硬件厂商展开合作,包括Renesas, ADI, Softbank, Lattice, Cadence, Qualcomm, Bosch, ARM等。
在语言模型方向,与软银围绕on-device SLM系统深入合作;在声音智能方向,模型已在多个终端品牌中落地。
我们也获得了多项国际奖项:与Bosch合作获得“Best Sensor of the World”奖,与Analog Device荣获“Best AI Product of the Year”,并与软银在CES展出,获“CES Innovation Award”。
明年我们将设立三倍于今年规模的CES展台,在AI与IoT展区展示完整的小模型技术和设备端生态能力。
目前模型年出货量已达数千万级别,虽距离“年出货10亿”的目标还有两个数量级差距,但已提供足够验证样本用于部署优化和产品调优。
ZP:从技术角度看,目前我们在哪些方面取得关键突破?
陈羽北:四年半的时间不止于发表论文或使用开源模型,而是在数据清洗、模型架构、训练策略到量化、芯片适配、部署优化等环节进行全面打磨。
全栈工程能力是必须的。它不是某项“技术秘籍”所能替代,而是系统性、多轮次的工程投入。
例如在Deepseek中,涉及MoE的Load Balance、CUDA优化、search+learning融合等底层技术,均需要有能理解科研趋势与工程瓶颈的Core ML团队。
ZP:您和团队Base在北美,如何看待中国AI发展?有没有看好的初创公司?
我非常欣赏Deepseek团队,他们在百模大战中保持定力,低调实干。此外,OpenAI提出的Operator概念也值得关注。我们正看到learning与search正在融合,这是一条可能带来重大突破的技术路线。
我们也敬重宇树机器人这类有节奏、重视工程价值的队伍,并期待与更多顶尖硬件公司合作,将有价值的AI体验带入人们生活中。