浪潮信息刘军:AI新时代,智算力就是创新力

浪潮信息执行副总裁、浪潮AI&HPC产品线总经理刘军在最近举办的量子位“MEET2023智能未来大会”上发表了题为《AI新时代,智算力就是创新力》的主题演讲。

在该大会公布的“2022人工智能年度评选”榜单上,浪潮信息被评为“2022年度人工智能领航企业”,而刘军则被评为“2022年度人工智能领军人物”。

以下是刘军在MEET2023智能未来大会上的演讲实录:

为何智算力即为创新力?在当今人工智能前沿领域中,大型模型便是借助智算力驱动实现重大创新的典型。例如GPT-3和浪潮“源1.0”等。这些大型模型的发展离不开智算力的极大支持。

我们提出了“算力当量”这个概念,以度量AI任务所需算力的总量,单位为PetaFlops/s-day或PD。它表示每秒进行千万亿次计算机完整运行一整天所需消耗的算力量。一个任务所需算力的总量,就被视为这个任务的“算力当量”。GPT-3的算力当量为3640个PD,而源1.0是一个拥有2457亿参数的大型模型,其算力当量为4095个PD。

目前,数字人的建模和渲染是元宇宙非常关注的领域之一。如果想要创建一个逼真的人物形象,就像电影《阿丽塔:战斗天使》里那样,其平均每一帧渲染需要耗费100小时,而整部影片渲染计算使用了4.32亿小时的算力。

在自动驾驶领域,特斯拉使用DOJO的智算系统,用于感知模型的训练和仿真。其FSD全自动驾驶系统的融合感知模型,需要消耗500个PD的算力。

在获得广泛关注的AI+Science领域,比如对蛋白质结构的预测、分子动力学模拟和流体力学仿真,不仅融合了传统的HPC计算,还融合了现今的AI计算。其中,AlphaFold2经常被提及,其训练消耗的算力当量为300个PD。同时,为AlphaFold2训练所需的数据准备,需要使用200MCPU-hoursHPC算力。

可以明确地认识到,当今AI领域中的许多创新都离不开智算力的支持,这便说明了智算力就是创新力。

接下来,我将向大家介绍当前智算发展的三个重要趋势:算力多元化、模型巨量化和元宇宙。

首先是算力多元化。数年前,Henessy和Patterson在《计算机架构的新黄金时代》一书中提出了特定领域体系结构Domain Specific Architectures(DSAs)的概念,这一概念同样可以解释为什么当今有如此多的多元算力芯片。目前,中国市场上拥有十几种CPU芯片和将近百种AI算力芯片。这种需求产生的原因在于,今天算力的应用场景十分多样化,不同的场景需要不同类型的计算精度和计算特征。例如,高性能计算中可能需要FP64双精度计算,而AI训练需要使用数字范围更广泛但精度更低的16位浮点计算,而AI推断则可以使用INT8或者INT4格式。为了适应这些计算特点,我们需要引入各种多元化的芯片来进行支持。从软件和硬件的角度应对这些挑战是至关重要的。浪潮信息认为,我们需要从系统的硬件平台和软件方面进行相应的创新支持。

首先是硬件方面的系统支持。目前,在今天的AI计算中,许多还是采用英伟达GPU的AI服务器。但是对于其他品牌的AIPU来说,我们需要考虑采用何种类型的AI服务器系统来支持。浪潮信息研发了全球首款开放加速的AI服务器,它可以在一个系统中支持8颗国内最高性能的AI芯片进行高速互联,从而能够完成大规模模型训练所需的算力。

芯片之间采用了开放加速的接口标准,从而实现高速通信。现在,这个系统已经可以兼容国内最高端的GPU和AIPU多个品牌,并已在多个客户场景中落地实施。此外,该系统还支持先进的液冷技术,以确保构建的AI算力集群的PUE低于1.1。

作为智算中心的核心,如何调度多元算力是一个基于平台软件的挑战。因此,浪潮推出了行业首款智算中心算力调度软件AIStation,该软件实现了对异构AI芯片的标准化和流程化管理,可充分发挥多元异构芯片的性能潜力,并提高智算中心的整体效率。AIStation提供了全面的工具和解决方案,从基本接入适配到业务应用在异构算力的使用优化,与传统开源方案相比,芯片接入稳定性提高了30%,接入工作量减少了90%以上。通过标准化和流程化,AIStation已经成为业界领先的芯片管理软件,支持了30多款国内外最顶尖的AI芯片,包括X86和ARM等CPU芯片、FPGA芯片,以及包括像英伟达的GPU系列和国产AIPU在内的各种类型。

我们已经进行了大量实践和实地运用,“E级AI元脑”智算架构位于宿州的淮海智算中心在全球处于领先地位。该中心通过开放多元的系统架构,在底层基础设施层支持通用处理器、通用加速处理器、专用芯片、可编程芯片等,并通过AIStation实现了异构算力的调度,提供FP64、FP32、FP16、INT8等多种精度的计算类型支持,同时支持国内外主流的深度学习框架、数据库、数据集,以降低用户的学习成本。

第二种是大模型。大模型正在成为AIGC的算法引擎,例如DALL・E和StableDiffusion都在使用大模型推进。大模型使得AI从五年前的“能听会看”到今天的“能思考、会创作”,甚至可以展望未来“会推理、能决策”。然而,我们也知道大模型带来的挑战是算力。如何将大模型的能力交付给众多的中小企业,帮助他们实现智能化转型,是我们今天要解决的重大问题。因此,我们相信ModelasaService(MaaS)是一种相对理想的方式。

在大模型的能力下,AIGC(包括文本生成、文生图以及虚拟数字人等应用)将快速进入商业化阶段。“源1.0”是去年浪潮推出的中文语言巨量模型,具有2457亿参数,表现极佳。团队通过深入优化深度学习框架、训练集群IO、通信等方面,构建了面向大模型的软硬件协同体系结构,训练平台的算力效率达到了45%,远超过大模型GPT-3和MT-NLG。同时,通过对AI编译器和深度学习推理框架的优化,“源”现在已支持多个AI芯片。

以下是基于“源1.0”构建的实际应用案例之一:AI剧本杀。一个开发者基于该模型构建了一个AI角色,该角色可以与人类一起玩剧本杀游戏,其他人类玩家很难察觉到自己是在与AI一起玩。该案例证明了AI在场景理解和目的性对话方面的表现优异,让我们对AI的未来发展更加期待。另一个案例是上海一个开发者群体基于“源1.0”构建的数字社区助理,类似于一个社区教练员。通过AI模拟社区咨询居民的方式,帮助社区工作者提高服务能力。这种将大模型应用于教学领域的案例,已经为AI发展带来了更多的想象空间。

最近,大家都在谈论ChatGPT,简单来说它是基于大型模型的面向长文本、多轮对话的AIGC应用。实际上,我们也基于“源1.0”研发了公文写作助手。目前,人们希望有一个助手来协助写总结报告、学习体会,因此我们希望打造一个写作助手来帮助人们进行长篇本文的创作。我们突破了可控文本内容生成技术,解决了长篇本文内容偏移问题,生成文本的语义一致性高达96%。这样的优化使得我们的中文写作助手能够提供非常惊人的效果。我们的产品目前处于内部测试阶段,欢迎大家来申请使用。

我们将“源”大型模型应用于浪潮自己的业务,为自身业务智能化转型提供支持。浪潮信息是中国最大、全球第二的服务器制造商,拥有一个覆盖非常广泛的客户服务系统。传统的智能客服往往是基于规则和知识提炼来构建问答系统,这样的问答系统大多数情况下不能帮助客户满意地解决问题。基于“源1.0”构建的浪潮信息智能客服可以进行长文本内容生成,能够进行持续的多轮对话。同时,它不仅仅是基于知识和规则构建的问答系统,它可以自己阅读和服务器相关的产品技术文档。因此,我们称其为服务器的“服务大脑”。在其支持下,浪潮信息的客户服务效率得到了大幅提升。该项目荣获了《哈佛商业评论》颁发的鼎革奖,即年度新技术突破奖。

元宇宙需要强大的算力基础设施。元宇宙的构建涉及四个主要作业环节,即协同创建、高精仿真、实时渲染和智能交互。每个环节都需要大量的算力支持。例如,在高精仿真阶段,要实现元宇宙场景中逼真的、符合物理定律的仿真,不仅需要AI计算,还需要HPC算力。在图形渲染环节,除了传统的光线追踪、路径追踪等图像渲染算法需要大量算力外,还需要基于AI的DLSS等算法支持。在最后的智能交互环节中,数字人、多轮语言交互等都需要算力支持。这说明元宇宙需要强大的算力支持。

今年,浪潮信息推出了MetaEngine元宇宙服务器,以应对这种计算能力的挑战。有兴趣的人可以看看如何根据MetaEngine创建虚拟数字人和数字孪生的整个过程。

为了推动元宇宙的快速落地,上个月,青田人民政府、浪潮信息和我们的合作伙伴谷梵科技签署了建设国内首个元宇宙算力中心的协议。该中心用于支持在青田、浙江乃至长三角的元宇宙数字空间创建和数字产业发展,以及数字经济和实体融合的发展。

我的演讲到此结束。感谢大家!