AI革命之算力|前瞻行业
发布时间:2023-05-05 13:57:51 所属栏目:外闻 来源:
导读:人工智能要想持续发展,算力必须快速提上去,空间和机会不言而喻。
世界经济论坛发布的最新报告显示,未来五年内,由于人工智能、数字化以及绿色能源转型和供应链回流等其他经济发展,也就是说全球经济近四分之一
世界经济论坛发布的最新报告显示,未来五年内,由于人工智能、数字化以及绿色能源转型和供应链回流等其他经济发展,也就是说全球经济近四分之一
|
人工智能要想持续发展,算力必须快速提上去,空间和机会不言而喻。 世界经济论坛发布的最新报告显示,未来五年内,由于人工智能、数字化以及绿色能源转型和供应链回流等其他经济发展,也就是说全球经济近四分之一的工作岗位将不可避免地发生变化。 ChatGPT的总算力消耗大约为3640PF-days(每秒计算一千万亿次,需要计算3640天),且随着持续进化迭代,GPT所需的算力规模还在呈指数上升。据OpenAI首席执行官Sam Altman透露,GTP-5的参数量将是GTP-3的100倍,需要的计算量则是GTP-3的200-400倍。 TrendForce 预计 ,2023 年全球 AI 服务器(推理)出货大约在 14.4 万台,到 2026 年预计实现出货量 20.0w 台。假设训练 AI 服务器和推理 AI 服务器的比例为 1:4,则可以得到 2023/2026 年训练服务器的数量大约为 3.60/5.00 万台。 以 Nvidia DGX A100 为例,其搭载了 8 张 Nvidia A100 Tensor GPU,根据新浪科技数据,Nvidia DGX A100 售价约为 19.9w 美金;Nvidia A100 Tensor 价格为 1.00~1.20w 美金。按照 1.20w 美金售价计算可 得出 GPU 在 Nvidia DGX A100 价值量占比约为 48.24%。 GPU 是图形处理器的简称,它是一种专门用于处理图形、视频、游戏等高性能计算的硬件设备。GPU 相对于传统的中央处理器(CPU)而言,其拥有更多的计算核心和更快的内存带宽,能够大幅度提高计算效率和图形渲染速度。现阶段,随着例如英伟达 A100、H100等型号产品的发布,GPU在算力方面的优势相较于其他硬件具有较大优势,GPU 的工作也从一开始的图形处理逐步转化为计算。 在集成电路中,Intel 创始人之一戈登摩尔曾今提出:集成电路上的可容纳晶体管数量大约在 24 个月就会增加一倍,后续这个 时间被更新为 18 个月。目前在 GPU 领域,英伟达创始人之一黄仁勋也给出了自己的理 解:GPU 性能提升一倍所需的时间约为 1 年,这相较于摩尔定理在集成电路中的速度提升了 1.5 倍左右。 根据英伟达总裁 Bill Dally 表示,自 2012 年开始直到 2021 年的 A100 产品面世,GPU 单芯片推理性能提升了约 317 倍,而其中工艺制程仅由 28nm 提升至 7nm。 全球范围内,人工智能、云端计算和独立 GPU主要为英伟达主导,旗下深度学习旗 舰 GPU 产品 A100 和 H100 最高浮点算力分别实现 19.5 TFLOPS 和 67 TFLOPS;PC GPU由于涵盖集成 GPU,英特尔由于为全球 CPU 龙头,使其在 PC GPU 中份额最高。根据 Jon Peddie Research 数据,2022 年四季度 PC GPU中,英特尔、英伟达、AMD 份 额分别为 71%、17%、12%;2022Q4 独立 GPU 中,英特尔、英伟达、AMD 份额分别为 6%、85%、9%。 沐曦集成电路于 2020 年 9 月成立,核心成员平均拥有近 20 年高性能 GPU 产品端到端研发经验,其打造全栈 GPU 芯片产品,推出 MXN 系列 GPU(曦思)用于 AI 推理,MXC 系列 GPU(曦云)用于 AI 训练及通用计算,以及 MXG 系列 GPU(曦彩)用 于图形渲染,满足数据中心对“高能效”和“高通用性”的算力需求。沐曦的产品均采用完全自主研发的 GPU IP,拥有完全自主知识产权的指令集和架构,配以兼容主流 GPU 生态的完整软件栈(MXMACA),具备高能效和高通用性的天然优势,能够为客户构建软硬件一体的全面生态解决方案。 壁仞科技推出旗下首款旗舰 GPU 芯片BR100,其采用 7nm 制程,支持 PCIe 5.0 接口,根据壁仞科技发布会,BR100 16 位浮点算力达到 1000T 以上,8 位定点算力达到 2000T 以上,单芯片峰值算力达 PFLOPS 级别。 由于算力紧缺,ChatGPT近期频繁下调提问限制次数,GPT-4的提问上限次数先后从每4小时100次下调到50次。4月5日,OpenAI一度暂停了Plus付费会员的申请。人工智能要想持续发展,算力必须快速提上去,空间和机会不言而喻。但目前,国内人工智能企业还没有形成规模,大部分都是小公司在玩。这也导致了一个问题,那就是“ai不够用”。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐
