👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何为高性能计算GPU实例手动配置NCCL,从而避免RDMA网络断链,影响业务正常运行。NCCL简介NCCL(Nvidia Collective Communication Library)是NVIDIA的集合通信库,可以在实例内或实例间实现多个GPU的快速通信。操作步骤C...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何部署Stable Diffusion WebUI工具前端和Stable Diffusion训练模型,实现高质量AI图片生成,掌握整个AI作画推理流程及关键参数对图片输出的影响。AIGC简介AIGC(AI generated content)是一种利用AI技术自动生成内容...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何部署Stable Diffusion WebUI工具前端和Stable Diffusion训练模型,实现高质量AI图片生成,掌握整个AI作画推理流程及关键参数对图片输出的影响。AIGC简介AIGC(AI generated content)是一种利用AI技术自动生成内容...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何在Linux实例上部署Pytorch应用。Pytorch简介PyTorch是一个开源的Python机器学习库,用于自然语言处理等应用程序,不仅能够实现强大的GPU加速,同时还支持动态神经网络。软件版本操作系统:本文以Ubuntu 18.04为例。NVIDIA驱动:GPU...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何在Linux实例上基于NGC部署TensorFlow。NGC介绍NGC(NVIDIA GPU CLOUD)是NVIDIA开发的一套深度学习容器库,具有强大的性能和良好的灵活性,可以帮助科学家和研究人员快速构建、训练和部署神经网络模型。NGC官网提供了当前主流深度学习框架...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何通过困惑度PPL和准确度ACC这两个指标来量化Lambada数据集对模型的评估效能,从而对模型的理解能力进行量化打分。背景信息目前的模型在回答一些简单、通用的问题时表现尚佳,但是一旦涉及到需要依托上下文进行深入理解的问题时,就会表现得颇为逊色。例如,有些模型只能处理短文...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以Ubuntu 20.04的hpcpni2实例为例,介绍在LLaMA多机训练时如何配置RDMA网络,充分发挥GPU算力和RDMA高速网络性能。背景信息LLaMA(Large Language Model Meta AI )是Meta于2023年2月推出的大型语言模型系统(Lar...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张V100显卡的ecs.g1ve.2xlarge实例,介绍如何在云服务器上利用Llama.cpp执行Llama2-7B模型的量化,并对比基于CPU的推理和基于GPU的推理速度。背景信息Llama.cpp简介Llama.cpp是使用C++语言编写的大模型量化工具,同时也...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张V100显卡的ecs.g1ve.2xlarge实例,介绍如何在GPU云服务器上基于Diffusers搭建SDXL 1.0的base + refiner组合模型。背景信息SDXLStable Diffusion XL(简称SDXL)是最新的图像生成模型,与之前的SD模...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张A100显卡的ecs.pni2.3xlarge为例,介绍如何在GPU云服务器上进行DeepSpeed-Chat模型的微调训练。背景信息DeepSpeed-Chat简介DeepSpeed-Chat是微软新公布的用来训练类ChatGPT模型的一套代码,该套代码基于微软的...