据外媒消息,OpenAI公司担忧人工智能芯片短缺,计划在未来成立一家芯片制造公司,目前,其首席执行官萨姆·奥特曼正在说服潜在投资者加入这一计划。
外媒消息显示,OpenAI首席执行官萨姆·奥特曼正在与全球投资者洽谈,希望能筹集数十亿美元,打造出一个制造半导体的工厂网络。目前谈判仍处于早期阶段,参与该项目的合作伙伴和投资者的完整名单尚未确定。外媒消息称,OpenAI希望摆脱对美国芯片厂商英伟达的依赖,实现供应多元化。
知情人士表示,奥特曼已与总部位于阿布扎比的人工智能公司G42和日本软银集团展开讨论,与中东的一些投资公司也会谈过。韩国《朝鲜日报》21日报道称,韩国半导体公司三星电子是否会参与组建这一半导体制造工厂网络是业界关注的焦点。有消息人士透露称,美国芯片企业英特尔、中国台湾芯片代工企业台积电和韩国芯片制造商三星电子都是OpenAI的潜在合作伙伴。
在去年11月被短暂免去OpenAI首席执行官一职前,奥特曼一直在为这个项目奔走。回归后,他迅速重启了这一项目。两位知情人士称,奥特曼已试探过微软对这个计划的态度,微软对此表示支持。
单单建设一个最先进的半导体制造工厂就可能需要数百亿美元,创建这样规模的制造工厂网络将需要更长的时间和更多的资金。知情人士表示,OpenAI希望能从G42筹集80亿至100亿美元的投资,目前尚不清楚谈判进展。
自OpenAI发布通用AI大模型ChatGPT以来,企业和消费者对人工智能研究和应用的兴趣直线上升,这反过来刺激了对人工智能芯片的需求。外媒消息引用知情人士表述,奥特曼认为这对于人工智能发展而言是不可错过的良机,人工智能行业需要立即采取行动,以确保在本世纪末能有足够的尖端芯片供应。他多次公开表示,目前的芯片不足以满足OpenAI公司的AI研发需求。
目前,AI芯片呈现供不应求局面,供给端看,英伟达、AMD和英特尔是最主要的头部竞争对象。
据TrendForce集邦咨询研究显示,展望2024年,观察目前各AI芯片供应商的项目进度,NVIDIA 2023年的高端AI芯片(采用HBM)的既有产品为A100/A800以及H100/H800;2024年则将把产品组合(Product Portfolio)更细致化的分类。除了原上述型号外,还将再推出使用6颗HBM3e的H200以及8颗HBM3e的B100,并同步整合NVIDIA自家基于Arm架构的 CPU与GPU,推出GH200以及GB200。
相比同时期的AMD与Intel产品规划,AMD 2024年出货主流为MI300系列,采用HBM3,下一代MI350将采用HBM3e,预计2024下半年开始进行HBM验证,实际看到较明显的产品放量(Ramp Up)时间预估应为2025年第一季。
以Intel Habana来看,2022下半年推出的Gaudi 2采用6颗HBM2e,2024年中预期在新型号Gaudi 3持续采取HBM2e,但将用量升级至8颗。因此,TrendForce集邦咨询认为,NVIDIA在HBM规格、产品准备度(Readiness)及时间轴上,可望持续以领先的GPU规格,在AI芯片竞局取得领先。
但即使是他们也无法满足目前业界高涨的AI芯片需求。据美国CNBC网站1月19日称,美国科技公司Meta正斥资数十亿美元购买英伟达的高端芯片H100,这种芯片是AI研发的核心。Meta公司首席执行官马克·扎克伯格表示,该公司的AI未来规划包括构建一个“大规模计算基础设施”,到2024年年底,这个基础设施将包括35万块英伟达的H100芯片。业内人士分析称,英伟达H100芯片售价约2.5万至3万美元,在二手平台上售价可超4万美元,就算Meta以中间价格购入,这笔支出也将接近90亿美元。而且,H100芯片供应有限。
封面图片来源:拍信网