在大模型走向落地的过程中,边缘计算凭借靠近数据源的优势,成为大模型向智能终端、智能网关拓展从而触达更广大用户的重要载体。与此同时,大模型与边缘设备的融合,为边缘侧带来了更高的工作负载,这对本就在功耗和封装尺寸存在诸多限制的边缘计算芯片带来了更多挑战。近日,AMD推出了第二代Versal自适应SoC,包括面向AI驱动型嵌入式系统的Versal AI Edge系列,以应对边缘计算场景繁多以及嵌入式系统开销受限的痛点。AMD自适应与嵌入式计算事业部Versal产品营销总监Manuel Uhm向记者表示,要适应快速变化的AI行业,需要提升边缘计算芯片的灵活性和适应性,并使芯片架构和封装形式适应嵌入式系统的需求。
大模型部署考验边缘计算灵活性 AI是一项处于持续变化的技术,不仅新的算法、模型层出不穷,参数规模也在快速增长。在这种趋势下,计算平台的灵活性成为芯片厂商的竞争方向。
“AI处于快速变化中。比如Transformer模型,5年前几乎没有人谈论,现在无论ChatGPT还是生成式人工智能都绕不开它。未来的(主流)模型很有可能是刚刚发端的甚至是全新的,要在这样快速变化的行业生存下来,就需要适应性、灵活性更强的计算平台。”Manuel向记者表示。
在智能物联网时代,FPGA厂商赛灵思(2022年被AMD收购)曾基于FPGA的硬件可编程能力,引入AI引擎,推出了Versal自适应计算加速平台。面向AI时代的边缘计算需求,AMD沿袭了子公司赛灵思“自适应”计算加速平台的理念,并进一步提升了AI计算性能和支持的数据类型。据悉,相较AMD第一代Versal AI Edge芯片,第二代Versal自适应SoC每瓦TOPS多提升3倍,标量算力多提升10倍。
“自适应”的核心在于灵活性。Manuel表示,自适应意味着这款SoC能够和多种传感器连接、多种接口连接。基于“可编程逻辑”的特性,自适应SoC能够对硬件进行实时编程。“处理器受限于指令集,只能处理指令集有的内容。而自适应SoC可以对硬件实现定制,适配不同的传感器、不同的性能,通过可编程实现真正的灵活性。”他说。
AI嵌入式系统的三种计算加速路径 嵌入式系统与边缘计算,向来相辅相成,同为实现智能物联网的关键技术。AMD认为,AI驱动的嵌入式系统,其计算加速可分为预处理、AI推理和后处理三个阶段。
其中,预处理是边缘计算的主要环节,对于嵌入式系统尤为关键。嵌入式系统往往搭载了雷达、激光雷达、摄像头等多种传感器,其采集的信息需要经过预处理阶段的传感器处理、传感器融合、数据调节,才能转化为能够被人工智能系统使用的数据。
AI推理使嵌入式系统能够处理更加复杂的工作负载。该阶段面临的挑战是庞大的数据吞吐量,需要在提升数据吞度能力的同时保障推理精准度,并支持更多的数据类型。
而后处理是对AI推理得出的结果进行决策,需要高性能的嵌入式CPU来执行。
面向不同加速阶段的需求,AMD配置了三种处理器,用FPGA进行预处理,用AI引擎进行推理,再用CPU内核进行后处理。
但如果将三种芯片直接部署在边缘侧,会使本就在尺寸和功耗受到限制的边缘芯片产生庞大的系统开销,包括更高的功率需求和供电复杂性,更高的占板面积和终端系统尺寸,更高的内存需求等。因此,AMD第二代Versal自适应SoC采用了单芯片的封装形式,将预处理、AI推理与后处理集成于单器件中,以实现更小、更高效的AI嵌入式系统。
“(如果采用多芯片系统)需要在不同的芯片当中传输数据,(通信)时延就会延长,而且需要在不同的器件分享数据,需要使用外置的内存,也需要更多的占板面积和功耗。如果将多个芯片集成到一个紧凑的可编程逻辑(单芯片),就能够克服上面的挑战。”Manuel告诉记者。据悉,斯巴鲁公司已选择AMD第二代 Versal AI Edge 系列用于公司的下一代ADAS视觉系统开发,包括自适应巡航控制、车道保持辅助以及预碰撞制动等功能。AMD 预计于2025年上半年提供第二代Versal系列芯片样片,并预计于 2025年末提供量产芯片。