OpenAI 计划自研 AI 芯片,以减少对英伟达的依赖

据路透社报道,OpenAI 正在与博通(broadcom)合作开发其首款定制 AI 推理芯片,旨在处理其大规模的 AI 工作负载,特别是推理任务。为此,OpenAI 已经组建了一支约 20 人的研发团队,包括曾参与谷歌 Tensor 处理器项目的首席工程师在内。消息称博通将会帮助 OpenAI 进行芯片设计,并确保由台积电(TSMC)进行制造,预计 2026 年开始生产。

OpenAI 将自研 AI 芯片(图源:cnBeta) 关注 AI 第一新媒体,率先获取 AI 前沿资讯和洞察

为了实现芯片供应的多元化,OpenAI 此前计划建立芯片制作代工厂。但由于成本高昂,并且构建代工厂网络需要大量时间,OpenAI 已经搁置了这一计划,转而专注于内部芯片设计。OpenAI 这一通过「定制芯片设计来管理成本和访问 AI 服务器硬件」的战略意味着其走上了 Meta 和 Google 等科技公司的老路,而后者作为 OpenAI 的竞争对手,已经经历了几代人的努力。并且,市面上不乏成熟且广泛部署应用的 AI 芯片,如 Google 推出的「TPU」、微软的「Maia 100」等等。也就是说,OpenAI 需要更多的资金才能弥补这些差距,登上牌桌。

微软推出的 AI 芯片「Maia 100」(图源:techmonitor)除了满足不断增长的基础设施需求,减少训练和运行成本以外,「减少对英伟达(NVIDIA)的依赖」也是 OpenAI 的「小算盘」之一。OpenAI 的 CEO 奥特曼(Altman)指出,之所以要「获得更多芯片」,是因为两个问题:为 OpenAI 软件提供动力的先进处理器的短缺,以及为其工作和产品提供动力的硬件运行所需的「令人眼花缭乱」的成本。他还曾公开抱怨市场资源匮乏,而 NVIDIA 主导并控制着最适合运行 AI 应用的芯片全球 80% 以上的市场。作为英伟达图形处理单元(GPU)的最大买家之一,OpenAI 此前几乎完全依赖 NVIDIA GPU 进行训练。2020 年以来,OpenAI 在微软建造的大型超级计算机上开发了其生成式人工智能技术,这台计算机使用了 10000 个 NVIDIA GPU。

NVIDIA H100 GPU(图源:NVIDIA)但由于芯片短缺和供应延迟,以及训练成本高昂的问题,OpenAI 不得不开始探索替代方案。他们计划通过微软的 Azure 云平台使用 AMD 芯片进行模型训练。值得一提的是,AMD 在去年推出了 MI300 AI 芯片,致使其数据中心业务在一年内翻了一番。种种迹象表明,AMD 正在追赶市场领导者 NVIDIA。

AMD MI300 芯片(图源:AMD)此外,消息人士称 OpenAI 仍在决定是否为其芯片设计开发或收购其他元件,并可能会聘请更多合作伙伴。尽管「不惜一切代价构建 AGI(通用人工智能)」的 OpenAI 和号称「一个英伟达」的博通之间和合作很可能引起英伟达的不满,但 OpenAI 表示「希望与仍致力于合作的芯片制造商保持良好的关系,特别是在使用其新一代 Blackwell 芯片方面」。对此,英伟达暂时不予置评。唯一的回应是市场。合作消息一出,博通的股价应声大涨,AMD 也延续了早盘涨幅。文|范津瑞

相关文章

据路透社报道,OpenAI 正在与博通(Broadcom)合作开发其首款...
10 月初,全新的 MacBook Pro 在尚未公开前,直接被几位博主...
IT之家 10 月 30 日消息,据一见 Auto 报道,为扩充中东团队...
IT之家 10 月 30 日消息,CDPR 官方微博宣布《赛博朋克 20...
IT之家 10 月 30 日消息,小米 SU7 Ultra 量产版已于 10 月 ...
2024 年 10 月 30 日,2024 全球移动宽带论坛(Global MBB F...