大模型催生算力供给“新模式”

类别:业界动态  出处:中国电子报  发布于:2023-08-22 10:21:45 | 406 次阅读

    数据显示,2023年上半年,与大模型直接相关的融资事件超20起,国内已发布的各类大模型数量超过100个。记者从大会上获悉,截至今年6月底,我国算力规模达到197EFLOPS,其中通用算力规模占比达74%,智能算力规模占比达25%,智能算力规模同比增加60%。
    与会共识认为,大模型的发展正在驱动我国算力结构发生根本性变化。“近几年,自动驾驶、生命医学、智能制造等行业发展迅速,随之而来的超大规模人工智能模型和海量数据对算力的要求不断提高,适合大模型训练的智能算力成为算力增长的主要动力。”华为公司董事长梁华表示。
    产业链多方正进一步加大高性能智算供给,激发AI算力赋能效应。
    中国商飞基于华为昇腾AI底座,面向大型科技设计打造了东方御风大模型,对飞机机翼流场进行模拟仿真,满足工业级精度要求,仿真耗时仅为传统软件的1/24,助力于在7种领域加速飞机制造的创新。“华为构建了对开发者友好的AI软件开发平台和生态,让各种各样的大模型在昇腾的算力底座上加速创新,加速释放高性能算力。”梁华说道。
    与此同时,新的智能算力供给模式也在悉数涌现。
    在大会期间,中国移动携手多个智算中心、超算中心及云服务商,共同打造算力类型全、规模、覆盖广的“百川”算力并网平台。“通过算力并网,能够形成一种新的算力供给模式,吸纳包括大型算力中心、智算、超算的算力,甚至社会上一些闲散算力都能够并入移动算力网,像电力网一样,风电、水电都并到网里,让用户即取即得。”中国移动通信集团科学家、副总工程师王晓云对《中国电子报》记者表示。
    “假如有一个渲染公司,拥有自己的智算,白天很忙,到晚上算力闲下来了,这个时候把算力并到移动的算力网上去,给该公司提供链接到用户的服务,使它的算力能让全国任何一个地方的用户都触手可得。”王晓云举例说。
    为帮助企业在初期投入的情况下,满足自己大模型的使用,中国电信提供了“移动算力服务”。据中国电信大模型刘敬谦介绍,如果客户想做微调,想做二次训练,自己建立一个智算中心是非常不合算的,大模型训练有波动的特点,运营商买那么多卡天天闲置也是极大的资源浪费。而“移动算力车”能够把算力、算法、电源都绑定在一起,把车开到数据中心里面,帮助企业做微调服务。
    “算、存、运”需高效协同
    数据显示,算力、存力、运力如果做好高效协同,一个AI算力中心的效率可能会提升50%。目前,许多发达国家已经把算、存、运三者涉及的科学技术作为创新前沿,并投入重金发展。
    “中国算力总规模全球第二,但存在利用率不高等问题,甚至通用算力利用率只有百分之十几。”大会期间,中国工程院院士、紫金山实验室主任刘韵洁在接受《中国电子报》记者采访时表示,“而像智算算力这样的算力资源,又是稀缺的。”
    为什么会出现这样的矛盾?在刘韵洁看来,是运力不足。以超算为例,目前运输存储超算数据的硬盘还是通过卡车、火车、飞机,算完了再把结果取回来,这些算力还都是孤岛。”刘韵洁说,对于超算来说,如果通过现在的互联网来运输数据,虽然成本低,但是效率也很低,还不安全;如果通过专线,价格很贵,成本很高。这就需要有一个新的技术解决方案——公用专网的技术,它不同于公网和专网,而是一种类似于能提供专网的公网,像专网一样安全、保证质量,又像公网一样经济、方便灵活。
    有数据显示,从存力和算力的比重来看,美国是1.1,我国是0.4。“与美国相比,我国更注重算力,而存力不够将影响计算中心的效率。”中国工程院院士倪光南说。
    全球已逐渐从以“机械技术”为主升级到以“半导体技术”为主。倪光南表示,当前中国仍在大量使用机械存储,落后于国际先进水平。目前,全球3家主流机械硬盘企业都来自国外,未来用先进存储替代机械存储,中国必须加快步伐。从性价比来讲,已经到了转折点,我们能够大规模实现存储技术变革。
    面对层出不穷的应用场景,产业界也推出了多种多样的算力基础设施,有传统通用处理器,也有专用处理器、专用加速器等。而多种芯片和不同算力会形成很多延存,算力基础设施也出现了“有的地方热、有的地方冷”的情况。异构算力、不同芯片间如何协同,进而实现算力的高效供给?
    在浪潮信息副总裁张东看来,应该面向各种应用,以系统为中心,设计适合各种应用、软硬件一体化的系统,即用一套系统、一朵云去管理这些芯片。但核心就在于一定要实现分层解耦,即每一层只负责这一层的工作,层和层之间还要开放标准。
    寻求算力和能效的“有效平衡”
    走进2023中国算力大会的展厅,中科曙光一项“黑科技”吸引了不少人驻足。只见一块块服务器主板浸泡在横向透明的液体箱子里,随着服务器开启工作,周围的液体不断地“咕嘟”冒泡,颇有“水煮主板”的感觉。
    在算力规模快速增长的趋势下,算力能耗总量也在急剧攀升。在降低数据中心PUE方面,液冷是成为目前业界公认的路径,中科曙光展台的工作人员告诉记者,相比传统风冷散热,该款浸没式液冷解决方案可使数据中心能耗降低30%,让算力更加绿色化。
    大会期间,记者在中兴通讯展台看到了液冷技术的另一种技术路线——冷板式液冷。酷似传统风冷机柜的背后,其实暗藏玄机:依靠流经冷板的液体,将固定在冷板上的元器件热量带走。据展台工作人员介绍,冷板式液冷对数据中心服务器的改造成本较低,可以在成本和效能之间找到一个比较好的平衡点.
    解决能效问题,软件也是关键环节。
    “目前,数据中心电能仅有6%~12%真正用于计算本身。”蚂蚁集团副总裁、平台技术事业群总裁何征宇指出,这些算力供给出来本质上都是要被软件所消费的,没有人可以直接用算力,它一定是通过软件变成一个服务。那这个服务背后消耗的算力,就要看软件的质量如何,或者是软件与硬件的协同程度怎么样。
    在软硬件协同方面,已有不少企业展开探索,并从中获益。超聚变数字技术有限公司从服务器部件能效动态寻优、整机级能效动态寻优以及数据中心能效动态寻优技术三个维度,可以实现部件根据负载状态动态调整自身参数,达到自身能效;整机级无须重启即可实现能效管理参数动态调整并生效;服务器系统网管,实现数据中心制冷与业务联动,达到数据中心能效。
    据何征宇介绍,得益于软件侧和硬件侧共同发力,去年蚂蚁集团的资源效率已经提升至33%,而这一数据在三四年前还不足10%。随着智能算力的高效供给,蚂蚁集团智能算力的利用效率已经从17%提升到22%。
关键词:算力

全年征稿 / 资讯合作

稿件以电子文档的形式交稿,欢迎大家砸稿过来哦!

联系邮箱:3342987809@qq.com

版权与免责声明

凡本网注明“出处:维库电子市场网”的所有作品,版权均属于维库电子市场网,转载请必须注明维库电子市场网,https://www.dzsc.com,违反者本网将追究相关法律责任。

本网转载并注明自其它出处的作品,目的在于传递更多信息,并不代表本网赞同其观点或证实其内容的真实性,不承担此类作品侵权行为的直接责任及连带责任。其他媒体、网站或个人从本网转载时,必须保留本网注明的作品出处,并自负版权等法律责任。

如涉及作品内容、版权等问题,请在作品发表之日起一周内与本网联系,否则视为放弃相关权利。

热点排行

广告