运行ChatGPT需要多少算力 宁畅以定制化迎来算力大挑战
发布时间:2023-02-22 13:24:13 所属栏目:大数据 来源:
导读:最近一个大火的ChatGPT在我们国内可谓是掀起一阵人脸识别等人工智能的旋风。通信世界记者也注册了个账号,开始提问ChatGPT各种小问题。
以数据来看,在ChatGPT智能、顺滑的沟通体验背后,其有着多达1750亿个模型参
以数据来看,在ChatGPT智能、顺滑的沟通体验背后,其有着多达1750亿个模型参
最近一个大火的ChatGPT在我们国内可谓是掀起一阵人脸识别等人工智能的旋风。通信世界记者也注册了个账号,开始提问ChatGPT各种小问题。 以数据来看,在ChatGPT智能、顺滑的沟通体验背后,其有着多达1750亿个模型参数,OpenAI主要使用的公共爬虫数据集有着超过万亿单词的人类语言数据集。在算力方面,GPT-3.5总算力消耗约3640PF-days(即每秒一千万亿次计算,运行3640个整日)。这仅仅指的是ChatGPT在训练阶段消耗的算力。 因此ChatGPT的诞生是全球算力大爆发的产物。人工智能对算力的需求十分巨大,宁畅副总裁兼CTO赵雷在接受通信世界全媒体记者采访时讲道,人工智能的算力大概需要百倍甚至千倍现有算力的支持。就ChatGPT而言,需要TB级的运算训练库,甚至是P-Flops级的算力。就目前的服务器处理能力来看,大概是几十到几百台GPU级别的服务器的体量才能够实现,而且需要几日甚至几十日的训练,它的算力需求是非常惊人的。 不仅是ChatGPT,还有众多人工智能赛道的产品或应用,如自然语言合成、自动驾驶、图形图像类应用,对大模型的训练也越来越依赖。算力是人工智能发展的关键因素之一,因为训练的精度越高、模型越大,人工智能的用户反馈准确性和客户体验就会越好。 人工智能对算力基础设施的带动作用是明显的,无论是ChatGPT的研发(训练)还是基于ChatGPT的应用(推理)都需要大量智能计算资源和数据存储及传输资源,具有海量数据并行计算能力、能加速计算处理的AI芯片与服务器市场迎来大爆发。与此同时,在全球数字化、智能化的浪潮下,智能手机、自动驾驶、数据中心、图像识别等应用推动AI服务器市场迅速成长。根据IDC数据,2021年全球AI服务器市场规模已达到145亿美元,并预计2025年将超过260亿美元。 ChatGPT的持续爆火也为AIGC带来全新增量,行业对AI模型训练所需要的算力支持提出了更高要求,也为宁畅带来更多市场空间和发展机会。“我们在几年前就布局了人工智能服务器赛道,目前看来是找准了时机,未来宁畅将坚定不移地做定制化市场,以用户为核心,持续发力人工智能赛道。”赵雷讲道。宁畅近三年时间相继推出了人工智能服务器系列产品X620 G40、X640 G40、X660 G45,今年推出基于最新平台的X620 G50,具备推理、训练等能力,覆盖机器学习、AI推理、云计算、云存储等多种应用场景。顶级性能加极致节能水准,使其人工智能服务器深受市场认可。应用在互联网、金融、通信、能源、教育等行业。在此前IDC发布的GPU加速服务器市场报告中,宁畅位列中国区前二。 对于中小企业来说,一方面是对于算力的要求提升,另一方面是在当前的经济形势下还有很多的不确定性,需要平衡化的业务创新。单一的产品和创新,越来越难以满足更加复杂的系统和转型的需求。对于未来的算力建设,行业客户也会面临两个方面的挑战。既要考虑算力的足量,还要兼顾绿色节能和可持续性发展,既要考虑当前业务的导向、政策的导向,同时需要不断把创新优化的业务场景导入进来,实现增量市场的可持续性。因此市场对于未来的服务器的产品的需求将更加理性,对于产品方案要求也更加务实,对IT基础设施的生态要求更加包容。 算力的增长也带来了高能耗的问题,二者如何平衡也是当下企业在发展过程中面临的难题。宁畅给出的答案是定制化的算力解决方案和液冷。定制化的算力解决可量身定制用户需求,实现从需求梳理、机房部署到智能运维的全面定制化,避免不必要的浪费,此外,使用冷板式液冷方案,可在不改变传统风冷机房部署的情况,实现向液冷过度。该方案能使能效提升40%。而宁畅近期推出的浸没式液冷服务器,更能将PUE降低至1.05及以下。让算力更绿色。“我们希望通过这样的技术创新,为客户带来更好的体验,同时也能够帮助行业降低成本,提升效率。” (编辑:汽车网) 【声明】本站内容均来自网络,其相关言论仅代表作者个人观点,不代表本站立场。若无意侵犯到您的权利,请及时与联系站长删除相关内容! |