远程服务器AutoDL登录/配环境/部署运行大模型方法 | 您所在的位置:网站首页 › 怎么访问远程服务器 › 远程服务器AutoDL登录/配环境/部署运行大模型方法 |
1. AutoDL
autodl平台,是一个功能强大的本地大语言模型LLM运行专家,为用户提供了简单高效的方式来运行大型语言模型.通过优化设置和配置细节。 地址:AutoDL官方地址 AutoDL快速了解及上手教程:AutoDL使用教程 2. 登录远程服务器方式登录远程服务器上传数据的方式的方式和工具有很多种, 详情参考AutoDL官网上传数据 2.1 方法一用AutoDL自带的工具,如下图,进入JupyterLab,里面有终端工具,可以连接AuDL上的远程服务器。 2.2.1 复制SSH指令和密码 进入autoDL的控制台,进入自己租用的实例后,将SSH登录的登录指令和密码复制下来备用,SSH指令形如ssh -p 19267 [email protected] ,其中: root : 用户名connect.bjb1.seetacloud.com : 主机名19267 : 端口号![]() ![]() ![]() ![]() ![]() ![]() 参考之前的博客windows/linux系统下Anaconda3安装配置/创建删除虚拟环境/在特定虚拟环境下安装库 以及这篇AutoDL从0到1搭建stable-diffusion-webui 几个地址需要注意: (1). 环境地址 先在默认路径下创建一个纯净的python环境,这个里面只有一些基础包,不含任何框架,在AutoDL远程服务器上,该环境的挂载目录为/root/miniconda3/envs conda create -n llmft python=3.10(3). 训练脚本地址 将自己在本地电脑上写的训练脚本,通过Xftp传输到远程服务器上,路径对应关系为,即挂载目录为/root/LLMFuntuning 这里将模型(本身较大,20G)挂载到了以下目录/root/autodl-tmp,这里解释一下autoDL提供的几个目录,autodl-tmp是数据盘,大小为100G,用于存在用户的个人数据,/root根目录下的文件,为系统盘,在系统盘存放训练文件xx并且在数据盘下存在模型xx后,存储空间占用情况如下。 在运行中遇到的问题 报错:ValueError: FP16 Mixed precision training with AMP or APEX (--fp16) and FP16 half precision evaluation (--fp16_full_eval) can only be used on CUDA or MLU devices or NPU devices or certain XPU devices (with IPEX). 原因及解决方案:使用AutoDL过程中,由于只是传输数据,并不进行训练,因此选择了无卡开机模式,导致没有GPU可用,重新关机在开机即可。 如果遇到关机再开发后GPU资源不足,则选择克隆镜像,然后再在可用的区域重新选择实例即可,大约需要5分钟,就会将所配置的环境、模型等完全克隆到新的实例上,还是比较方便的。![]() 微调训练结束后,会出现一个lora微调的参数文件,需要将新的参数与原始模型合并,合并完成后,能够在预先指定的路径中看到一系列模型文件 5. 运行微调后的模型step1: 直接在gihub上clone chatglm3的仓库 cd 到autodl-tmp目录下,运行以下git命名 git clone https://github.com/THUDM/ChatGLM3.git在autodl-tmp下创建项目ChatGLM3 为ChatGLM3这个项目创建一个单独的叫做envChatGLM3的环境,环境的位置为默认即可 conda create -n envChatGLM3 python=3.10cd到ChatGLM3项目路径下,安装requirements.txt pip install -r requirements.txt环境创建完毕! ChatGLM3这个项目文件目录主要关注以下两个文件夹 ![]() 运行效果如下: 用户: 向上3厘米 ChatGLM: tcp_move_up(3) 输出正确!! |
CopyRight 2018-2019 实验室设备网 版权所有 |