AI算力荒已影响到大厂,那么会不会影响大家买显卡?
发布时间:2023-05-12 10:05:49 所属栏目:外闻 来源:
导读:就在不久前,微软方面突然宣布全面开放Bing Chat,因此也意味着已经让所有拥有微软账户的用户都可以享受免费使用这一功能,而不再需要进入waiting list候补名单等待获得测试资格。然而大量涌入的用户却让微软的算力不
|
就在不久前,微软方面突然宣布全面开放Bing Chat,因此也意味着已经让所有拥有微软账户的用户都可以享受免费使用这一功能,而不再需要进入waiting list候补名单等待获得测试资格。然而大量涌入的用户却让微软的算力不堪重负,Bing Chat已经开始出现了响应等待时间过长的问题。 为此,微软广告和网络服务负责人米哈伊尔・帕拉欣在社交平台公开向用户道歉。他表示,“由于使用量不断增长,我们添加GPU的速度还不够快,但会竭尽所能地修复这个问题”。但为了解决Bing Chat由于全面开放导致用户激增,而产生的算力不足问题,微软方面不仅仅是在添加GPU。 近日有消息显示,甲骨文(Oracle)和微软(Microsoft)近期讨论了一项不同寻常的协议,那就是如果任何一家公司为使用大规模AI的客户所提供的计算能力不足,那么双方就将相互租用对方服务器。而这笔交易也被外界认为,将更好地帮助这两家云服务提供商更好地满足移动互联网市场对运行AI人工智能所需的服务器资源以及日益增长的自动驾驶汽车的需求。 没错,即使两者都是全球云计算领域的巨头,并且也是互为竞争对手关系,但是面对生成式AI所需要的海量算力,双方也只能放下敝人。其实从本质上来说,ChatGPT这类大型语言模型就是要“大力出奇迹”,毕竟神经网络的层数多了、参数规模大了、语料丰富了,“智能”也就涌现出来了。 根据市场调查机构TrendForce在今年3月初的推算显示,如果以半精度浮点算力为311.88 TFLOPS的英伟达Ampere A100来计算,运行算力消耗高达3640PF-days(即假如每秒计算一千万亿次,需要计算3640天)的ChatGPT,需要至少3万片A100 GPU才能让这个模型运转起来。而且这还没完,并非将上万片GPU堆叠在一起就能获得算力,还必须要用专用网络把它们聚集在一起。 (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |
推荐文章
站长推荐
