资讯

马斯克在本周末证实,特斯拉已解散负责 Dojo AI 训练超算的团队,这距离他宣布预计在2026年让第二套 Dojo 集群大规模运行仅过去数周。 马斯克在其社交平台 X 上发文称:“当明确所有技术路线都汇聚到 AI6时,我不得不关闭 ...
近期马斯克在多个场合强调,特斯拉将拓展人工智能战略的「朋友圈」,更多依赖外部合作伙伴,包括NVIDIA、AMD和三星。这意味着特斯拉可能不再坚持「芯片全栈自研」的路线,而是将资源集中在数据与算法层面。
这位毕业于孟买大学电子工程专业、在AMD有近15年CPU部门工作经验的核心成员,因第二代Dojo 2芯片未达预期等原因,于2023年11月离职,随后与特斯拉前员工Bill Chang和Ben Floering共同创立了DensityAI。
据彭博社报道,知情人士表示,特斯拉的超级计算机“Dojo”项目负责人 Ganesh Venkataramanan 已经离职,这给特斯拉的自动驾驶技术带来了不利影响 ...
在2024年的Hot Chips会议上,Tesla展示了其AI超级计算机DOJO的最新进展,尤其是其独特的网络架构——Tesla传输协议以太网(TTPoE)。 特斯拉不仅打造了 ...
6月6日马斯克称,Tesla Dojo AI训练计算机有进展,今年晚些时候上线Dojo2,Dojo3将更出色。 【6月6日马斯克透露Tesla Dojo AI训练计算机进展及Dojo2上线计划 ...
Dojo是一个冒险的赌注,马斯克通过多次表示特斯拉可能不会成功,以此来对冲这一赌注。 从长远来看,特斯拉理论上可以基于其AI部门创建一种新的 ...
由于 Tesla Dojo Training Tile 本质上包含 25 个超高性能处理器,因此它非常耗电,并且需要复杂的冷却系统。为了给晶圆上系统供电,特斯拉使用了高度 ...
一个 DOJO POD 机柜由两层计算托盘和存储系统组成。 每一层托盘都有 6 个 D1 Tile 计算「瓦片」——两层 12 片 组成的一个机柜,就可以提供 108PFLOPS 算 ...
这篇综述深入比较了晶圆级AI加速器(如Cerebras WSE-3和Tesla Dojo)与传统单芯片GPU(如NVIDIA H100)在性能、能效和成本方面的差异。文章重点探讨了两种架构在训练万亿参数级AI模型时的表现,分析了晶圆级计算(wafer-scale computing)通过单片集成技术消除芯片间通信瓶颈的优势,以及GPU在成熟生态系统 ...
Tesla 将 Dojo 芯片的计算平面连接到接口处理器,这些处理器连接到具有 PCIe 4.0 的主机系统。 这些接口处理器还支持更高基数的网络连接,以补充现有的计算平面网格。 25 个 D1 芯片被封装为一个称为训练瓦片的“扇出晶圆工艺”。