News

在当今数字化时代,人工智能技术的飞速发展正在重塑各个领域的基础设施,其中包括支撑AI运行的网络架构。传统的数据中心网络架构以交换机为核心,构建了层级化的数据传输路径。然而,随着AI大模型训练规模的爆炸性增长,这种传统架构正面临前所未有的挑战。 本文引用地址: 大模型训练带来了超密集的GPU/GPU通信需求。以目前主流的大语言模型为例,训练过程中需要在数千甚至上万张GPU之间频繁交换海量数据。这些G ...
故事发生在2016年,那一年,英伟达倾尽心血,斥资数十亿美元,打造出了一款革命性的产品——全球第一台AI超级计算机DGX-1。这台机器集成了八块强大的Volta架构GPU,并通过高速的NVLink技术互联,是英伟达为开启AI时代下的一场豪赌 ...
Deutsche Telekom is now offering NVIDIA H100 Tensor Core processors for rent from the Open Telekom Cloud. The processors ...
当地时间6月10日,国际TOP500组织发布了第65届超级计算机TOP500榜单,基于美国AMD 架构的超算系统在前十榜单中占据主导地位,助力美国加州劳伦斯利弗莫尔国家实验室(LNNL)的超算系统El Capitan以1.742 exaFL ...
最新一期全球超级计算机Top500榜单近日发布,其中排名前两位的超级计算机均由AMD技术驱动。位居第一的是部署在美国加州劳伦斯利弗莫尔国家实验室的ElCapitan系统,它采用了AMDInstinctMI300A加速器与第四代霄龙处理器 ...
突破性技术:太空中的微型超算中心 美国初创企业 Starcloud宣布将于2025年8月发射全球首颗搭载NVIDIA H100芯片的卫星“Cloud-0”。这颗仅冰箱大小的卫星,将在距地3.6万公里的同步轨道上运行,凭借三重技术革新颠覆传统算力模式: ...
当你每次向ChatGPT提问,数秒内得到答案的背后,其实是AI服务器的高速运算,而一台售价高达300万美元的机柜,通常配置多台AI服务器,拆解其主要零部件,包含GPU、CPU、HBM内存、主板、电源、散热、机箱,尽管目前AI服务器仅占整体服务器出货比 ...
NVIDIA 首席科学家 Bill Dally 日前披露,华为正系统性挖角 NVIDIA 在华技术团队,已秘密组建起一支由前 NVIDIA 工程师主导的 AI 研究团队。这一动作被视为中国企业在 AI 芯片领域 "逆向突破" 的关键一步 —— ...
在大型语言模型(LLMs)迅速发展的今天,一项来自EPFL(瑞士联邦理工学院洛桑分校)、东北大学和微软联合研究团队的创新成果正在改变我们对模型效率的认识。这篇名为"zip2zip: 通过令牌压缩实现大语言模型的推理时自适应词汇表"的研究由Saibo Geng、Nathan Ranchin、Yunzhen Yao、Maxime Peyrard、Chris ...
英伟达(NVIDIA)冲击5万亿美元市值的核心逻辑可概括为以下战略闭环: 一、硬件代际碾压:架构革新巩固领导地位 Blackwell架构GPU(GB200/GB300)实现性能与成本的双重突破:推理性能较前代Hopper H100提升25倍,成本降至1/20。2026财年Q1数据中心收入391亿美元(同比+73%),其中Blackwell芯片贡献近70%算力收入,单周部署量达7.2万颗。GB300 ...
Nvidia announced that it took in $44.06 billion as its data center business grew 73% year-over-year when it released its first quarter earnings May 28. The company recorded the revenue increase ...
现在,人类越来越想让“冯·诺依曼架构”退休了。因为存储墙和功耗墙问题,冯·诺依曼架构愈发触碰瓶颈。类脑芯片就是突破“冯·诺依曼架构”的路线之一,它一种高度模拟人脑计算原理的芯片。如果把类脑芯片做得更像人脑,就会被赋予一个新的名字——神经拟态计算/神经形态计算(Neuromorphic ...