人工智能AI智能加速卡技术
一. 可编程AI加速卡
1. 概述:
这款可编程AI加速器卡具备 FPGA 加速的强大性能和多功能性,可部署AI加速器IP(WNN/GNN,直接加速卷积神经网络,直接运行常见的网络框架),为应用和加速器函数开发人员提供了完整的开发工具SDK,节省开发时间,支持在多个平台上重复使用代码。凭借PCIe插槽外形、低功耗和被动式散热器,可以部署在各种服务器上。采用Xilinx® Ultrascale® VU7P /VU9P FPGA 的多功能可编程加速卡,适用于许多细分领域,如大数据分析、人工智能、基因组学、视频转码、网络安全和金融交易等。
2. 应用场景
二. 编解码加速卡
1. 概述
对于H.265/HEVC/VP9编解码处理,FPGA编解码加速卡方案有着最完善的功能和preset配置,支持最多的有利于提高画质和降低bitrate的功能,适合各个场景下编解码配置。同时具有灵活部署,易于升级的特点,可根据需求,随时更换成其他协议的编解码功能。非常容易的在同一块FPGA上pipeline部署编解码相关的上下游应用。成本方面,可以显著降低带宽成本、存储成本。
2. 应用场景
三. 智能网卡
1. 概述:
智能网卡提供网络、存储、安全等方面的加速,这些功能从服务器CPU卸载到智能网卡上,能够提升应用程序和虚拟化性能,确保为应用提供最大的处理能力。与此同时,网卡提供异构互联支持,支持不同类型的服务器,也支持不同的运行模式,包括VM、Container或者Bare Metal等,使得服务器部署更灵活,使用更方便。
2. 目的
卸载计算/存储外的功能到网卡上,使得服务器更加专注于计算,更加高效。
● 算法:提供智能分析,智能识别等功能;
● 网络:提供网络转发功能加速,例如QoS,NAT,OVS等;
● 存储:提供存储管理功能加速,例如Dedupe,NVMe等;
● 安全:提供安全辅助功能,包括加解密、深度报文检测等。
3. 好处
● 低成本:节省服务器CPU资源用于计算,降低TCO;
● 低时延:FPGA网卡处理报文转发,高并发,低时延;
● 易扩展:基于网卡的支持,服务器规模可扩展性更好;
● 异构支持:智能网卡兼容支持不同类型的服务器,不同运行模式;
● 缩短TTM:利用现成的智能网卡,缩短业务TTM时间。
4. 使用场景
● 云计算:卸载网络及存储管理功能,提高服务器计算速度。
● CDN:卸载网络,数据智能化分析处理。
● 数据检索:提高数据检索性能,包括特征提取、算法匹配、结果分析等;
● 数据挖掘:提高数据深度学习能力,尤其在边缘侧完成算法分析,可以有效缩短时延,减少交互带宽。
● 安防:提供安全辅助功能,包括加解密、深度报文检测等。
● 图像视频分析:基于FPGA实现AI算法,提高处理速度。包括图像视频编解码、人脸识别等。
● 存储管理:分布式存储管理,以及协议转换,支持RoCE、iWARP、NVMe over Fabric, etc.