👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何在Linux实例上基于NGC部署TensorFlow。NGC介绍NGC(NVIDIA GPU CLOUD)是NVIDIA开发的一套深度学习容器库,具有强大的性能和良好的灵活性,可以帮助科学家和研究人员快速构建、训练和部署神经网络模型。NGC官网提供了当前主流深度学习框架...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文介绍如何通过困惑度PPL和准确度ACC这两个指标来量化Lambada数据集对模型的评估效能,从而对模型的理解能力进行量化打分。背景信息目前的模型在回答一些简单、通用的问题时表现尚佳,但是一旦涉及到需要依托上下文进行深入理解的问题时,就会表现得颇为逊色。例如,有些模型只能处理短文...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以Ubuntu 20.04的hpcpni2实例为例,介绍在LLaMA多机训练时如何配置RDMA网络,充分发挥GPU算力和RDMA高速网络性能。背景信息LLaMA(Large Language Model Meta AI )是Meta于2023年2月推出的大型语言模型系统(Lar...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张V100显卡的ecs.g1ve.2xlarge实例,介绍如何在云服务器上利用Llama.cpp执行Llama2-7B模型的量化,并对比基于CPU的推理和基于GPU的推理速度。背景信息Llama.cpp简介Llama.cpp是使用C++语言编写的大模型量化工具,同时也...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张V100显卡的ecs.g1ve.2xlarge实例,介绍如何在GPU云服务器上基于Diffusers搭建SDXL 1.0的base + refiner组合模型。背景信息SDXLStable Diffusion XL(简称SDXL)是最新的图像生成模型,与之前的SD模...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张A100显卡的ecs.pni2.3xlarge为例,介绍如何在GPU云服务器上进行DeepSpeed-Chat模型的微调训练。背景信息DeepSpeed-Chat简介DeepSpeed-Chat是微软新公布的用来训练类ChatGPT模型的一套代码,该套代码基于微软的...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张A10显卡的ecs.gni2.3xlarge实例为例,介绍如何在GPU云服务器上部署ChatGLM-6B大语言模型。背景信息ChatGLM-6B是一个具有62亿参数的、支持中英双语问答的对话语言模型,基于General Language Model(GLM)架构,结...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张A10显卡的ecs.gni2.3xlarge实例为例,介绍如何在GPU云服务器上部署Baichuan大语言模型。背景信息Baichuan-13B是包含130亿参数的开源可商用的大语言模型,在知识问答、聊天、逻辑推理、总结摘要等场景具有良好的表现,在权威的中文和英文...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以搭载了一张A10显卡的ecs.gni2.7xlarge实例为例,介绍如何在GPU云服务器上部署、运行不同参数量级的DeepSeek-R1-Distill模型。背景信息DeepSeek-R1-DistillDeepSeek-R1-Distill是一个基于DeepSeek-R1生...
👉点击这里申请火山引擎VIP帐号,立即体验火山引擎产品>>>本文以2台ecs.hpcpni3ln.45xlarge实例为例,介绍如何在GPU云服务器上部署、运行DeepSeek-R1或DeepSeek-V3模型。背景信息DeepSeek-V3DeepSeek-V3是一款强大的混合专家(MoE)语言模型,其总参数量达到了671 B,每个Tok...