用户名: 密码: 验证码:

Sora添柴加薪 再不AI就晚啦

摘要:自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界。科技的风口谁都想抢占,没有人希望被时代的洪流抛下,此时人们最关心的莫过于,生成式AI究竟与哪些行业相关,又将如何渗透进各产业链,受益哪些终端?

  ICC俗话说得好,爱到不能爱,聚到终须散。都2024年了,再不AI就晚啦。时值中国农历龙年新春,世界的科技大门由 “文生视频”模型 Sora推开,崭新的时代来临,人们对未来充满了无限遐想。

  2024年2月16日凌晨, OpenAI推出了首款文本转视频模型——Sora,立即在全球范围内引发了轩然大波。据OpenAI官方介绍,Sora可以生成长达60秒的视频,而且每一帧都充满了细节,甚至能看清人脸上的法令纹。无论是复杂的摄像机运动,还是多角色的情感表达,Sora都能游刃有余地处理。更难能可贵的是,它还能根据用户提供的简单提示词,生成极具创意和真实感的视频内容。

  自2022年末的ChatGPT掀起AI大模型浪潮,到2024年初的Sora再次引爆科技圈,AI正以前所未有的速度重塑世界。科技的风口谁都想抢占,没有人希望被时代的洪流抛下,此时人们最关心的莫过于,生成式AI究竟与哪些行业相关,又将如何渗透进各产业链,受益哪些终端?

  毫无疑问,光通信产业是受益AI的幸运儿。农历龙年A股开市第一天(2024年2月19日),光通信股受益Sora概念热潮,全线飘红,数只涨停。

  那光通信产业链的各个环节与AI都有哪些深度或间接关联呢?

  光通信——抢占AI供应链高地

  2023年以来,科技圈最热门的话题除了AI大模型以外,还有AI终端设备。大家都关心的一个问题是,AI时代顺利开启后,最适合搭载AI应用的软硬件是什么?

  软件上自然无需光通信出手了,那硬件有光通信可以努力的方向吗?

  答案是肯定的。

  AI通常需要进行大量的计算和数据处理,因此需要使用一些专门针对人工智能应用进行优化的硬件设备,主要包括中央处理器(CPU)、图形处理器(GPU)、专用芯片(ASIC)、神经网络处理器(NPU)、加速卡(TPU)、内存(RAM)、存储设备、网络接口卡(NIC)、机箱、背板、主板、散热系统和电源等,具体配置则可能会根据不同的应用场景和需求有所变化。

  除了以上硬件设备,还有一些专门为AI应用优化的服务器、存储设备和网络设备,如AI芯片服务器和NVMe SSD等。AI芯片服务器是专为AI应用设计的服务器,通常配备多个GPU、TPU或NPU芯片,支持高性能的并行计算和分布式训练。AI芯片服务器还支持各种深度学习框架和算法,并提供友好的开发环境和工具。

  其中,GPU是由大量核心组成的大规模并行计算架构,拥有较多运算单元(ALU)和较少缓存(cache),是一款专为同时处理多重任务而设计的芯片,具备良好的矩阵计算能力和并行计算优势,能满足深度学习等AI算法的处理需求,因此成为主流云端AI芯片。

  不难看出,与光通信强关联的就是GPU(Graphics Processing Unit),一种通用并行处理器,最初用于图形处理,但现在由于其高并行计算能力也被广泛应用于深度学习等人工智能领域。与传统的CPU相比,GPU具有更多的计算核心和高速的内存带宽,可以显著加速矩阵运算等计算密集型任务。在深度学习等大规模数据处理中,GPU能够加速神经网络的训练和推理过程,比CPU更适合处理大规模的矩阵运算。

  具体是如何相关的,不妨先看看GPU的硬件组成及运行原理(懂的跳过)。

  一块GPU对应需要多少光模块?

  光模块在 GPU 中扮演着传输数据的关键角色,它能够实现高速、低延迟的数据传输,从而提高GPU性能。GPU通常需要处理大量的图形或计算任务,这些任务需要快速地从存储器中读取数据,然后将计算结果写回存储器。光模块可以通过高速的光信号传输加快GPU与其他设备之间的数据交换速度,提高数据传输效率。

  而光模块在GPU中的工作则是光发射器负责将电信号转换为光信号,并通过光纤或光导波器将信号传输出去光接收器则接收从其他设备发送过来的光信号,并将其转换为电信号,然后传递给GPU进行处理。

  已知GPU 的硬件组成包括:

  ·处理器单元(Processing Units,PU):又称为流处理器(Stream Processor),是 GPU 的核心计算单元,用于执行计算操作。GPU 可以拥有几十到数千个处理器单元,每个处理器单元都可以同时执行多个线程,从而实现高并发的计算。

  ·显存(Graphics Memory):用于存储图形数据、纹理等图形相关的数据,以及 GPU 计算过程中所需要的中间结果等数据。显存的容量通常比 CPU 的内存小,但它的读写速度更快,可以满足高速的数据交换和计算要求。

  ·内存控制器(Memory Controller):用于控制显存的读写操作,以及与CPU的内存之间的数据交换。

  ·命令/控制器(Command/Control Processor):用于控制GPU内部的处理器单元,协调GPU和CPU之间的数据传输和通信。

  ·图形输出(Display Output):用于将GPU处理后的图像数据输出到显示器上。

  市场上已经有不同版本的光模块与GPU数量比例的测算,因网卡型号、交换机型号和单元(Scalable unit SU)数量的不同,算出来GPU与200G光模块、400G光模块和800G光模块的对应比例就不同,有GPU:200G光模块=1:6,也有GPU:200G光模块=1:1,还有GPU:800G光模块=1:1.5,GPU:400G光模块=1:1

  有业内人士测算结果显示,如果以2024年0.85美元/GB的均价简单计算,AI预计为光模块带来13.8/49.7亿美金的AI增量市场空间。

  需要与哪些GPU厂搞好关系?

  其实只有一家,就是英伟达(NVIDIA)。英伟达被称为AI领域“无可争议的领导者”,人工智能芯片市场份额预计已达到90%,创下新纪录。

  在人工智能加速芯片市场中,英伟达的A100/H100系列AI GPU成为了市场的首选产品。研究机构预测,英伟达计划在2024年销售约150万至200万个AI GPU,这将是其2023年销量的三倍。

  当然,英伟达的领先也并非一朝一夕就能实现的。英伟达大约在15年前就开始与大学合作,寻找除了游戏和可视化市场之外,GPU还可以完成的新奇特事物。

  2023年英伟达高端GPU曾一度供不应求,2023年底时的交期还有8-11个月,2024年初就已经减少到了只有3-4个月。

  目前来看,在大A上市的头部光通信企业,大涨的就包括英伟达供应商和代工厂。可以通俗地讲,但凡打入英伟达供应链的,在过去的2023年都风光无限。

  为了不在这场全球科技竞赛中掉队,除了押注英伟达以外,也可以看看同步抗衡的微软、亚马逊、谷歌和Meta等国际大佬,这些公司也纷纷在自研AI芯片,准备在AI生成视频领域大干一场。

  结语

  尽管AI技术在带来巨大便利和效率提升的同时也引发了一系列讨论和担忧,但可以相信的是,这些担忧会随着技术的发展完善而逐步解决磨合。

  唯一需要关注的是,每一次新的技术革命都会带来新一轮的行业洗牌,我们不得不摩拳擦掌、分秒必争,要在这场竞赛中守住行业地位,或实现逆袭,除了必备的眼光和智慧以外,实力和毅力也不可或缺。

  面向未来AI,我们准备好了吗?

内容来自:讯石光通讯网
本文地址:http://www.iccsz.com//Site/CN/News/2024/02/26/20240226010811862625.htm 转载请保留文章出处
关键字:
文章标题:Sora添柴加薪 再不AI就晚啦
1、凡本网注明“来源:讯石光通讯网”及标有原创的所有作品,版权均属于讯石光通讯网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、免责声明,凡本网注明“来源:XXX(非讯石光通讯网)”的作品,均为转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。因可能存在第三方转载无法确定原网地址,若作品内容、版权争议和其它问题,请联系本网,将第一时间删除。
联系方式:讯石光通讯网新闻中心 电话:0755-82960080-168   Right