加入收藏设为首页联系我们广告服务关于本站
LC的Vlad Kozlov认为,将云晖SR收发器制造添加到Lumentum的100G VCSEL中,对于在向英伟达(NVIDIA)供应800G SR8收发器的竞争中占据领先地位意义重大。英特尔在将收发器制造和客户支持业务剥离给捷普的同时,仍保留硅光芯片设计和芯片制造能力。该公司计划继续开发共封装光学器件,这将最终用于服务器到交换机,甚至芯片到芯片的互连。这是英特尔进军硅光子学的真正长期战略。
AI 智能体利用 LLM 自动生成奖励算法,训练机器人完成复杂任务。
2023年第二季度,加速器(Accelerator)引领服务器半导体和组件市场实现三位数的同比增长。英伟达在服务器组件收入方面领先所有供应商。2023年,在英伟达H100部署的驱动下,GPU出货量预计将增长59%。
英伟达面临的问题是,没有其他公司从生成式人工智能业务中赚大钱。除非出现一个愿意每月花20美元购买人工智能应用的大众市场,否则泡沫可能会迅速破灭,最终也将波及英伟达。
英伟达截至2023年7月30日的2024财年第二季度营收达到创纪录的135.1亿美元,同比增长101%,环比增长88%。其中数据中心产品营收达到103.2亿美元,环比增长141%,同比增长171%。公司预计下个季度营收约为160亿美元,上下浮动2%。
业界首创的 AI 灯塔计划助力合作伙伴与客户合作,共同制定基于生成式 AI 的计划,转变业务运营方式
数据云公司 Snowflake(NYSE: SNOW)和 NVIDIA 今日在 2023 年 Snowflake 峰会上宣布,双方将携手助力各规模企业加速利用自身专有数据创建定制化的生成式 AI 应用,而这一切都可以在 Snowflake 数据云中安全地实现。
英伟达近日宣布,双方正在合作打造一个基于NVIDIA GH200 Grace Hopper 超级芯片、面向生成式AI和5G/6G应用的开创性平台。软银计划在日本各地的全新分布式AI数据中心采用该平台。
搭载 Tensor Core 的 NVIDIA RTX GPU 正在加速生成式 AI 模型的开发与部署;即将推出的 Max-Q 低功耗 AI 推理将提高能效比。
新型AI超级计算机将256个Grace Hopper超级芯片连接为巨大的、1-Exaflop、144TB GPU,用于支持生成式AI、推荐系统和数据处理的巨型模型
基于Arm架构的超级芯片和BlueField-3 DPU带来革命性的架构,以实现生成式AI驱动的无线通信
当前第2页 共6页 共66条  跳转页码: 首页 上一页 下一页 末页