虎嗅 前天 16:09
乔琳:从PyTorch到Fireworks,用技术创新引领AI推理革命
index_new5.html
../../../zaker_core/zaker_tpl_static/wap/tpl_guoji1.html

 

乔琳,一位在AI领域有着深厚技术背景的女性创业者,从复旦大学的计算机科学学习起步,一路深造至加州大学圣巴巴拉分校的博士学位。她曾在Meta主导PyTorch生态建设,成功将这一科研工具转化为支撑全球数百万开发者的行业基础设施。离开Meta后,她创立Fireworks AI,专注于解决大模型推理的效率瓶颈。通过FireAttention推理引擎和推测执行引擎,Fireworks AI大幅提升了模型推理速度并降低了成本,为大模型的普惠化奠定了基础。乔琳以其“把复杂技术做简单”的能力,将Fireworks AI打造成AI推理服务赛道上的重要玩家,并与英伟达等巨头在竞争与合作中共同拓展AI市场。

💡 **扎实的学术与实践背景铸就技术基石**: 乔琳拥有复旦大学计算机科学的本硕背景,并获得加州大学圣巴巴拉分校计算机科学博士学位,奠定了坚实的理论基础。她在Meta主导PyTorch生态建设的经历,成功将一个科研工具发展成为AI模型训练与推理的行业基础设施,展现了其卓越的技术领导力和将科研成果落地的能力。

🚀 **Fireworks AI的创新与突破**: 乔琳创立Fireworks AI,聚焦大模型推理的效率痛点,研发出FireAttention推理引擎和推测执行引擎。FireAttention通过无损量化压缩技术大幅降低资源消耗,推测执行引擎则打破了传统推理模式,实现了推理速度的飞跃。这两项技术叠加,使主流开源模型的推理速度提升12倍,成本降低53%,有力推动了大模型的普惠化进程。

🤝 **差异化竞争与合作共赢**: 面对英伟达等巨头的竞争,乔琳采取差异化策略,将Fireworks AI定位为“懂行业的定制化服务商”,专注于中小企业难以满足的细分需求。通过与英伟达在GPU优化上的合作,她展现了“一起把蛋糕做大”的智慧,在竞争中寻求共赢,逐步构建起公司的核心护城河。

🌱 **“把复杂问题做简单”的创业初心**: 乔琳的创业历程始终围绕着“把复杂技术做简单”的初心。她从IBM、LinkedIn到Meta的经历,以及她随身携带的“问题清单”,都体现了她对技术落地和解决实际问题的执着。Fireworks AI的成功,正是源于她将客户的“用不起”转化为“用得好”,用技术务实精神赢得了市场认可。

乔琳的技术根基,始于复旦大学计算机科学专业的系统培养。本科与硕士阶段的深耕,让她吃透了计算机科学的底层逻辑;随后赴美深造,在加州大学圣巴巴拉分校斩获计算机科学博士学位,更让她站上了全球AI科研的前沿阵地。这段横跨中外的学术经历,不仅赋予她扎实的理论功底,更培养了她“从科研到落地”的全局思维——这也成为她日后打破“技术实验室壁垒”的核心竞争力。

然而真正让乔琳跻身全球AI核心玩家行列的,是她在Meta主导PyTorch生态建设的经历。彼时,PyTorch尚是科研圈的小众工具,而乔琳带领300余人的工程团队,开启了一场“框架革命”:她主导重构PyTorch的底层架构,使其突破“仅能在实验室运行”的局限,成功适配Meta的数据中心、移动端及AR/VR设备,构建起从模型研发到生产部署的全链路平台。

最终,PyTorch从“小众工具”蜕变为支撑全球数百万开发者的行业标杆,成为AI模型训练与推理的“基础设施”,而乔琳也因此成为全球AI框架生态的核心奠基人之一。

离开Meta后,乔琳选择以创业延续技术理想,创立Fireworks AI,将突破点瞄准了大模型推理的“效率痛点”。她带领团队研发的两大核心技术,直接击中行业关键瓶颈:其一,Fire Attention推理引擎通过无损量化压缩技术,在几乎不损失精度的前提下,将模型运行精度从16位降至8位甚至4位,让资源消耗大幅锐减。

其二,推测执行引擎打破“逐字生成”的传统模式,通过一次预测多个词序列再反向验证,彻底突破推理速度瓶颈。这两项技术的叠加,让Llama、DeepSeek等主流开源模型的推理速度较行业标杆vLLM提升12倍,同时成本降低53%,为大模型的“普惠化”扫清了关键障碍。

从Meta带出来的“改代码习惯”,像一把钥匙,打开了Fireworks AI进入行业的大门,让英伟达从最初的A轮投资方,慢慢变成了既要合作又要警惕的竞争对手。而乔琳自己,从复旦大学机房里啃馒头改算法的姑娘,长成了AI推理服务赛道上,最懂“把复杂技术做简单”的华人女性创业者。

一、从PyTorch到Fireworks:24年技术生涯里的“问题清单”

乔琳的办公桌上,始终摆着一个磨破封面的笔记本。翻开第一页,是1995年复旦大学计算机系的课堂笔记,页眉处用红笔写着:“数据库索引能不能更轻?”再往后翻,2001年加州大学圣巴巴拉分校的博士论文草稿里,画着密密麻麻的“拆分箭头”——把大型计算任务拆成小节点分布式处理,导师当年笑称“像把大象拆成积木,却拼得更灵活”。

这本“问题清单”,记了24年。从IBM做研究员时记下“企业级AI服务成本太高”,到LinkedIn标注“用户数据与模型训练的矛盾”,再到Meta主导PyTorch框架开发时,贴满开发者的吐槽便签:“大模型好用但跑一次要花半个月预算”“开源模型便宜却调不通”。

2019年某个深夜,乔琳在Meta的实验室里改代码到凌晨。一位初创公司的开发者抱着电脑找到她,眼圈通红:“我们想用PyTorch做电商推荐模型,可租不起GPU,跑一次数据就要花掉三个月经费。”那天她陪着对方坐了3小时,把原本100亿参数的模型拆成三个小模块,按用户行为分阶段调用算力,最后成本降了60%。开发者走时反复说:“要是能有现成的‘轻量+定制’服务就好了。”

这句话像颗种子,落在了“问题清单”的最后一页。2021年,乔琳翻完17本笔记,突然在白板上画了个交叉图:横轴是“开源/闭源”,纵轴是“轻量/定制”,交点处写着“Fireworks”,这一个个简短的关键词就是乔琳从始至终所追求的企业新定位——Fireworks应该同时具备开源的灵活性与闭源的易用性,并希望在以“轻量”为优势的同时,做到与其他模型相当的定制化。

图片来源:chatgpt 

二、雷德伍德市的创业:不买服务器的“算力调度师”

2022年春天,乔琳带着六位Meta时期的老同事,在雷德伍德市租下一间小办公室。创业第一天,她没讲估值蓝图,而是把大家分成三组,每组认领一个从“问题清单”里抄来的痛点:“怎么整合闲置GPU”“怎么让API像点外卖一样简单”“怎么帮客户调模型不花钱”。

“别盯着参数做模型,要注重开发者的难处。”这是乔琳在公司成立大会上说的第一句话。她太清楚中小企业的困境——想做AI,却买不起英伟达服务器,更养不起顶尖算法团队。所以Fireworks AI从一开始就走了条“反常规”的路:不直接购买硬件,而是做“算力调度师”。

就像拼车软件整合私家车,乔琳团队把全球散落在科技公司、高校实验室的闲置GPU资源“拧成一股绳”。客户不用自己找服务器,只要通过Fireworks的API上传数据,就能直接调用这些整合后的算力。AI编程助手Cursor是最早的客户之一,创始人曾笑着说:“原本要花200万美元买服务器,现在用他们的API,每月只花15万,推理速度还快了3倍。”

但真正让Fireworks AI站稳脚跟的,是乔琳藏在背后的“技术杀器”——FireAttention推理引擎。2023年夏天,一家医疗公司找过来,想把基因测序数据的AI分析成本再降30%。乔琳带着技术总监在办公室睡了两晚,给FireAttention加了个“动态参数开关”:根据基因数据的复杂度自动调整模型参数,不用从头跑130亿参数的大模型,80亿参数加专有数据微调,精度反而提升了2%,成本直接砍了一半。

“这就是我们的护城河。”乔琳指着测试报告说。那时Fireworks的年化营收ARR刚突破1亿美元,但80%的客户都在复购时追加了“微调服务”——比如Perplexity把70%的推理业务迁过来,只因FireAttention能让搜索响应快0.3秒;阿里Qwen团队用它做模型压缩,原本需要两周的调试,现在3天就能完成。

2023年11月14日凌晨两点,Fireworks AI的技术实验室突然爆发出一阵掌声。乔琳盯着监控屏上跳动的数字——自研的FireAttention推理引擎,将GPU算力利用率从行业平均的65%硬生生拽到了92%,这意味着客户的AI模型推理成本能直接砍半。不过在此之后,乔琳将企业的新方向转至——企业模型微调。

就是这个在算力突破当晚拍板的决定,让Fireworks AI在半年后估值冲刺40亿美元,吸引Lightspeed、Index等资本争相入局;也让英伟达从A轮投资方,悄悄将这家初创公司标为“重点关注竞争对手”。而站在白板前的乔琳,指尖还沾着马克笔的墨渍,恍惚间想起20年前在Meta调试PyTorch框架时,也是这样凭着一行代码的突破,推翻过既定的技术路线——这位从复旦机房走出来的华人女性,似乎总能在技术与市场的交叉点上,踩准改变命运的节拍。

三、当英伟达成为竞争对手,乔琳却微笑选择共赢:要一起把“蛋糕”做大

2023年A轮融资时,英伟达的投资经理坐在乔琳对面,抛出一个尖锐的问题:“如果我们自己做推理服务,你们怎么办?”

乔琳没回避,递过去一份客户清单——上面全是医疗、金融行业的“小而精”需求:帮银行调信用评估模型,要符合合规要求;帮药厂做分子模拟,要适配特殊实验数据。“你们做的是算力水电网,我们做的是水电网上的‘定制水龙头’。”她指着清单上的微调需求,“这些活儿,巨头不愿做,小企业做不了,刚好是我们的位置。”

这句话让英伟达投了钱,也让双方的关系变得微妙。2024年3月,英伟达收购推理服务商Lepton,推出自己的GPU云市场,从硬件供应商直接变成了下游服务竞争者。消息传来那天,乔琳反而在团队例会上笑了:“这证明我们选的赛道对了。”

她早有准备。在Fireworks AI的技术路线图上,“反哺硬件优化”成了新方向——通过FireAttention引擎积累的千万次微调数据,反向给英伟达提GPU优化建议。比如针对金融模型的稀疏计算需求,他们和英伟达联合开发了专用算力调度插件,让GPU在处理这类任务时,效率再提高15%。“竞争不是你死我活,是一起把蛋糕做大。”乔琳说。

这种“差异化共存”的智慧,藏在她的“问题清单”里。早在Meta时期,她就记下过:“巨头的优势在规模,我们的机会在细分。”如今Fireworks AI的客户里,有70%是英伟达云服务覆盖不到的中小企业,这些客户需要的不是“通用算力”,而是“懂行业的微调方案”——就像有家做AI教育的初创公司,用Fireworks的服务把题库模型调了12版,最终实现“学生错一道题,模型马上推同类考点”,这种定制化能力,正是英伟达暂时给不了的。

四、AI界的实干派,把“用不起”改成“用得好”

在硅谷的华人AI创业者圈里,乔琳不算最张扬的。当别人忙着在行业论坛上讲“大模型参数竞赛”时,她在跑客户;当资本追着“通用AI”概念跑时,她在改FireAttention的代码。

“华人创业者的优势,从来不是跟风,是把技术‘磨’到落地。”乔琳想起刚到美国时,导师让她做一个分布式计算项目,她花了三个月,把一个复杂算法拆成20个小模块,每个模块的运行时间精确到毫秒。导师说:“你有把‘大象拆成积木’的耐心。”

这种耐心,现在成了Fireworks AI的标签。2024年,当公司估值冲向40亿美元,年化营收逼近3亿美元时,乔琳依旧把大部分时间泡在技术团队。有次为了修复一个API漏洞,她陪着工程师改代码到凌晨,饿了就像在复旦机房时那样,啃两口抽屉里的饼干。

“AI不是地壳式重组吗?重组的不是技术,是每个行业的做事方式。”乔琳在最新的“问题清单”上写下这句话。现在她的办公桌上,摆着两样东西:Meta时期的PyTorch代码本,和Fireworks AI客户的“微调需求清单”。前者记着“怎么把模型做轻”,后者写着“怎么把模型用对”。

当华人创业的AI公司估值总额超过300亿美元,乔琳知道,自己不是孤身一人。从Scale AI的 Alexandr Wang,到Pika的郭文景,华人创业者正在用“技术务实”改写AI行业的规则。而Fireworks AI的故事,更像一个缩影——不是靠概念造势,不是靠参数竞赛,而是把每个客户的“用不起”,改成“用得好”,一锤一锤凿出属于自己的护城河。

2024年深秋,乔琳在公司官网更新了slogan:“让每个企业都能‘用对’AI。”这句话的笔迹,和她1995年在复旦“问题清单”上写的“把每个算法都做轻”几乎一样——工整里带着点“轴”,就像她这个人:从江南小城到硅谷赛场,从改代码的姑娘到40亿独角兽的掌舵者,变的是舞台大小,不变的是那份“把复杂问题做简单”的初心。

在AI创业的热潮里,有人追风口,有人造泡沫,而乔琳用Fireworks AI证明:真正的独角兽,从来不是估值堆出来的,是像打磨FireAttention引擎那样,在技术与市场的缝隙里,把每个“痛点”磨成“亮点”,慢慢长出来的。

Fish AI Reader

Fish AI Reader

AI辅助创作,多种专业模板,深度分析,高质量内容生成。从观点提取到深度思考,FishAI为您提供全方位的创作支持。新版本引入自定义参数,让您的创作更加个性化和精准。

FishAI

FishAI

鱼阅,AI 时代的下一个智能信息助手,助你摆脱信息焦虑

联系邮箱 441953276@qq.com

相关标签

乔琳 Fireworks AI AI推理 大模型 PyTorch 技术创新 创业 Qiao Lin AI Inference Large Models Technological Innovation Entrepreneurship
相关文章