2023年伊始,资本市场的关注点明显变了,AIGC逐步成为这一轮大行情的全新焦点。今年以来,从海外的AUTOGPT到国内的文心一言,再到华为的盘古大模型、讯飞星火大模型等纷纭推出,显现出一派你方唱罢我方休的姿态。虽然参与者甚众,但目前为止这些利用,离真实的落地还相距甚远。实际上,不论是哪家公司训练大模型,都离不开天文数字的海量算力支持,因此当前能够真正从AI大模型中获益的,更多是为大模型训练提供算力支持的高性能算力厂商和服务器厂商。在AI大模型飞速发展之下,单个大语言训练驱动AI训练服务器需求约2亿美元,AI推理服务器方面,如ChatGPT在早期即可带动推理服务器需求约45亿美元。而各种ChatGPT的爆发,更让它背后的AI服务器随之水长船高。具体而言,算力作为大模型的核心引擎,它的计算方式既简单又粗鲁,即实际具有多少的GPU芯片,将直接决定其算力的大小。并且ChatGPT所需要的算力不是固定的,反而是逐次递增的,这就意味着ChatGPT越聪明,其背后所需要的算力就越多,而供需双方存在的现实差距,则让算力资源的“紧张问题”变得越发严重起来。从需求侧来看,大模型参数量的延续增大,需要更多算力资源予以支持。从大模型本身的发展状态来看,参数量的变化是一个非常值得关注的指标。从最早的ResNet、inception等模型,到如今的GPT模型,大模型的参数量不断壮大。数据显示,2018年前后OpenAI前后推出Transformer和GPT⑴模型,参数量在1亿级别;随后谷歌提出3亿参数的BERT模型,参数量再次增长。2019、2020年OpenAI加速追逐,陆续迭代出GPT⑵、GPT⑶模型,参数量分别为15亿、1750亿,实现模型体量质的奔腾,而阿里达摩院旗下的多模态大模型M6的参数量,更是到达了万亿乃至10万亿的量级,数据量加速指数级爬升之下,其所需算力自然也需要指数级提升。从供给侧来看,大模型参数量不断增大之下,参数运算需要大范围并行计算的支持,而它取决于底层GPU内存容量。OpenAI预计人工智能科学研究要想获得突破,所需要消耗的计算资源每3—4个月就要翻一倍,资金也需要通过指数级增长取得匹配。在算力方面,GPT⑶.5在微软Azure AI超算基础设施(由GPU组成的高带宽集群)上进行训练,总算力消耗约3640PF-days。在大数据方面,GPT⑵用于训练的数据取自于Reddit上高赞的文章,数据集共有约800万篇文章,累计体积约40G;GPT⑶模型的神经网络是在超过45TB的文本上进行训练的,数据相当于全部维基百科英文版的160倍。就ChatGPT而言,需要TB级的运算训练库,乃至是P-Flops级的算力,需要7⑻个投资范围30亿、算力500P的数据中心才能支持运行。总之,在大模型延续发展之下,ChatGPT的竞争焦点逐步转到了AI超级算力上,或是包括GPU在内的算力资源支持上。在行业算力需求延续飙升之下,以英伟达等为主的核心高性能芯片厂商,已享遭到了作为ChatGPT“卖铲人”的收益,再次迎来了曾互联网大爆发时期的那种矿卡风口。以英伟达的旗舰芯片H100为例,其在短短一周以内,涨价近7万元人民币,售价普遍高达30万左右,次旗舰A100芯片在短短三个月多时间里,从6万元一路涨至9万元,涨幅超过50%。虽然其产品不断涨价,但定单仍然是供不应求。一方面,是英伟达作为硬件霸主,不但在消费级市场占据大部份市场,或者AI服务器芯片领域的头号选择,因此其成为很多“渴望”大算力企业的优先选择。据此前公然的数据显示,截至2022年第三季度,英伟达在独立显卡市场的份额或已到达了88%,显卡部份带来的营收占到了其总营收的60%以上,这表明其仍然是消费级显卡市场无可辩论的领导者。基于其在图象处理器领域的强势地位和核心技术,其AI大算力芯片在大模型爆发以后,始终处于“供不应求”的状态,特别是ChatGPT从海外蔓延到国内的进程中,愈来愈多的国内互联网企业选择跟随,其中以BAT为首出现了超过10家企业宣布推出大模型的计划。依照ChatGPT的水准,最少需要3000枚A100芯片,以9万/枚的价格来算就是2.7亿人民币才能完成一个大模型部署;10个大模型就需要3万枚A100芯片,27亿人民币,加上后续训练本钱,这将会是一个天文数字。另外一方面,由于遭到政策层面的影响,高端AI芯片“断供”的风险剧增,也可能会致使一部份大模型企业提早囤积芯片,致使相关的芯片用量激增。其实,早在去年8月,美国政府就发布出口管制政策,制止英伟达将A100、H100两款芯片售往中国。为了应对制裁并且不丢掉市场份额,英伟达前后推出了“阉割版”的A800、H800两款芯片。但这两款芯片照旧被暴增的市场需求一抢而空,市场价格随之水长船高。在科技制裁之下,预计国内相关的想要布局AI大模型训练的公司,也许会加速囤积相关的芯片,从而带来新一轮的AI算力芯片争取战。从目前来看,虽然国内使用英伟达GPU服务器的占比较高,且在当前AI大模型发展势头之下,英伟达具有压倒性优势。但国产企业顶着压力,仍然跑出了几匹黑马。根据IDC最新发布的《中国加速计算市场(2021年下半年)跟踪报告》,2021年全年中国AI服务器市场范围达350.3亿元,同比增长68.6%。在企业级GPU芯片领域,中国厂商壁仞科技在2022年推出“BR100”芯片、天数智芯推出了“智铠100”芯片、寒武纪推出了“思元270”芯片。其中壁仞科技称,BR100具有全球最高算力,峰值算力到达了市场在售旗舰产品的三倍以上,16位浮点算力到达1000T以上、8位定点算力到达2000T以上,单芯片峰值算力到达PFLOPS级别。这些消息,对身处美国从装备、材料到技术全面封闭当中的中国企业而言,应当算是一个可喜的消息,但想要翻越英伟达这座高山明显也其实不容易。首先,在AI芯片设计上,国产厂商与国外巨头的差距虽然缩小了,但在AI大生态上的差距却仍然存在。比如,壁仞科技的芯片算力数据虽好,但缺少相当重要的处理FP64的能力,仍然没法完全取代英伟达的H100、A100。并且,英伟达使用的CUDA平台早已成为利用最为广泛的AI开产生态系统,只支持英伟达的Tesla架构GPU,在现阶段根本没法用国产芯片取代,由于它触及到AI芯片的软件生态建设、基础架构等,都还掌握在巨头手中,目前我们还没办法在硬件编程模型上找到替换方案。其次,在地缘政策背景下,国内目前还没法在AI芯片的全产业链实现独立自主,卡脖子领域依然很多。过去几年,美国围绕中国芯片产业的“科技围堵”有增无减,从开始的限制材料、装备,到后来的全产业链动员封杀,《芯片法案》的颁布正是其科技打压的集中显现。而在此背景下,国内芯片产业替换所需要的EDA工具、代工制造和先进封装等方面的问题,将面临更加严峻的现实考验,想要在短时间以内进行全产业链替换其实不容易。目前来看,不管是解决生态问题,或者解决产业链自主问题都需要时间,后者的实现特别需要一番工夫。不过从解决问题的角度来讲,国产替换也绝非没有机会,最少从国内当前的信创产业基础和数据利用来看,国内市场更有可能利用前端市场的创新来逆向底层定制,从而走出一条自己的路。即使是在当下,也有一些暂时性的替换方案和思路。一是定向的国产扶持路径。对国产厂商来讲,如果它不通过定向合作的方式,很难通过“单打独斗”来做事情,由于外国企业都会有自己的软件架构,然后全部产业都适配这个架构,从而构成一个完全的生态,这类情况下“从零做起”完全是“费力不讨好”的事情。因此,要想推动国产厂商的突起,就需要先通过与头部国产AI芯片制造商长时间绑定合作,推动自主企业软件架构的构成,然后以该架构为主线,逐步建立起覆盖上下游的利用生态。固然,这类路径也有时间周期。据中信证券研报显示,GPU IP自研需要36⑷8个月和200个工程师,而采取外购IP的方式,则需要12⑴8个月开发周期,整体上时间都不算短。二是通过兼容CUDA生态做延伸。相比自研系统,兼容CUDA系统则可以迅速切入国际主流的商业计算软件和人工智能软件,通过接入丰富的软硬件生态,可广泛利用于大数据,人工智能、商业计算等利用领域。对照两种方法来看,目前较为可行的方案或者第二种,但从长远来看或者做两手准备。这样才能够有备无患,为将来的全面替换做铺垫。
chatgpt中文版 http://chatgpt.guige.xyz

桂.哥.网.络www.guIgege.cn
本文来源于chatgptplus账号购买平台,转载请注明出处:https://chatgpt.guigege.cn/jiaocheng/29639.html 咨询请加VX:muhuanidc