ubuntu设置国内源 设置环境变量 跨系统复制

文章详细介绍了如何在Ubuntu系统中更换阿里云源,包括备份源列表、添加阿里云镜像源并刷新。接着,讲述了安装VMwareTools、Node.js以及添加环境变量的过程。此外,还涵盖了使用SCP和SFTP进行文件传输,以及配置Python软连接、安装make、g++和GCC等开发工具的方法。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

设置源

第一种方法不推荐

  • 首先备份源列表

sudo cp /etc/apt/sources.list /etc/apt/sources.list_backup

  • 打开sources.list文件
    sudo gedit /etc/apt/sources.list
  • 阿里源 要根据自己的版本去选择镜像

deb http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
deb http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-security main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-updates main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-proposed main restricted universe multiverse
deb-src http://mirrors.aliyun.com/ubuntu/ bionic-backports main restricted universe multiverse

  • 刷新
sudo apt-get update
sudo apt-get upgrade
sudo apt-get install build-essential

第二种方法
在这里插入图片描述
中的软件更新
在这里插入图片描述
在其中更换源,点击关闭
在这里插入图片描述
最后也需要sudo apt-get upgrade

给ubuntu安装vmware tools

//运行一下三行代码即可
//第一条为卸载open-vm-tools   后两条为安装open-vm-tools
sudo apt-get autoremove open-vm-tools   
sudo apt-get install open-vm-tools
sudo apt-get install open-vm-tools-desktop

命令安装node.js

//先安装需要的git 和curl包
sudo apt install git curl
//安装执行下两行代码
curl -fsSL https://deb.nodesource.com/setup_18.x | sudo -E bash -
sudo apt-get install -y nodejs
//就能安装最新的node.js,使用node -v , npm -v , npx -v 检查版本

环境变量添加

  • 查看当前环境变量echo $PATH
  • 添加临时环境变量export PATH=/usr/local/bin:$PATH // PATH是变量名,这里是指添加到PATH这个环境变量中
    ( 这种方法添加的环境变量会立即生效,但是在窗口关闭后便会失效)
  • .添加全局环境变量
先安装vim命令
sudo apt install vim 
vim /etc/profile
文件中添加
export NODE=/home/wzh/meeting/nodejs/node-v18.16.0-linux-x64
export PATH=$NODE/bin:$PATH
修改后执行生效
source /etc/profile
// 如果只修改当前用户的环境变量,则是`vim ~/.bashrc`
// 在文件的最后一行添加以下代码:
export PATH=$PATH:/usr/local/php/bin
// 规则和用法如第二条所说

每次关闭shell窗口后都需要再执行一次source /etc/profile才能生效,这个问题需要在~/.bashrc文件最后添加source /etc/profile,这样问题便得到解决。

node.js压缩包安装
到官网下载对应版本
先安装ssh协议通过连接工具从外面传输文件
scp遇到文件带空格的需要整个路径加""
scp -r “F:\work\XYD\feiqiu\feiq\Recv Files\media_server” root@xxxxxxxxxxx:/opt/media_server

sudo apt-get install openssh-server
//使用scp命令传输
//如果失败大概率是电脑有之前的缓存清空下就ok了
ssh-keygen -R "你的远程服务器ip地址"
scp C:\*****\*****\Downloads\node-v18.16.0-linux-x64.tar.xz 
用户名@*********IP:/home/*****/meeting/nodejs
scp -r  ***** 是传输整个文件夹
//或使用sftp传输
//建立连接
sftp username@remote_ip
//传输文件
sftp> lcd /www/wwwroot   
sftp> put study.log /www/server
//解压 
tar -zvxf 文件路径
-z : 使用 gzip 来压缩和解压文件
-v : --verbose 详细的列出处理的文件
-f : --file=ARCHIVE 使用档案文件或设备,这个选项通常是必选的
-c : --create 创建一个新的归档(压缩包)
-x : 从压缩包中解出文件
配置环境变量

sftp操作

上传文件夹:把本地服务器的/www/wwwroot目录下面的test文件夹上传到远程服务器的/www/server目录下。
sftp> put -r test /www/server
3.sftp - 下载文件
复制代码
下载文件:  把远程服务器的/www/server目录下面的study.log文件下载到本地服务器的/www目录下。
sftp> get /www/server/study.log /www

下载文件夹:把远程服务器的/www/server目录下面的test文件夹下载到本地服务器的/www目录下。
sftp> get -r /www/server/test /www

查看本地服务器/www目录下面的文件和文件夹
sftp> lls /www
复制代码
4.sftp与ftp有着几乎相同的语法和功能
① ls, rm, cd, mkdir, pwd     等指令是对当前连接的远程端服务器的操作。
② lls, lrm, lcd, lmkdir, lpwd 等指令是对本地端服务器的操作 —— 在上述指令前加l(local)即可

创建python软连接

//查看python位置
whereis python
//删除旧的软连接
sudo rm -rf /usr/bin/python
建立新的软连接
ln -s 源文件 目标文件
sudo ln -s /usr/bin/python3.6 /usr/bin/python
查看软连接是否生效
python --version
查看现有python的软连接指向的版本
ls -al *python*
# 或者用
ls -l /usr/bin | grep python

配置root用户

sudo passwd root

安装make

apt-get install make

安装g++

apt-get install g++

安装GCC

如下操作

sudo apt-get update
sudo apt-get install gcc
出现锁的问题重启ubuntu或
再试一次以上操作,如果还是出现锁问题。那就删除 lock 。
sudo rm /var/lib/dpkg/lock
然后再 update 一下。
sudo apt-get update
重新配置。
sudo dpkg --configure -a
此时,再安装 gcc 应该就成功了。
sudo apt-get install gcc

<think>好的,用户的问题是关于如何在本地使用Docker Desktop进行vLLM和Dify的私有化部署。首先,我需要回忆一下Docker的基本操作以及Dify和vLLM的相关知识。 根据用户提供的引用内容,特别是引用[2]和[3],Dify的部署涉及Docker环境的配置,包括下载码、运行Docker容器以及设置管理员账号。同时,用户还想整合vLLM,这可能涉及到模型服务的配置。 首先,我需要确认Dify的部署步骤。引用[3]提到需要克隆仓库、复制.env文件并运行docker compose。这可能包括配置环境变量,比如模型供应商的设置。接下来,vLLM的部署通常也需要Docker,可能需要单独拉取镜像并运行容器,暴露API端口供Dify调用。 用户的环境配置需要安装Docker Desktop,确保系统满足要求,尤其是WSL在Windows下的正确配置。然后,部署Dify时要注意.env文件的配置,可能需要调整模型供应商的端点指向本地的vLLM服务。 另外,引用[2]中提到了ollama的安装和模型下载,但用户的问题是关于vLLM的,所以可能需要替换这部分内容。vLLM的Docker镜像可能需要从特定仓库拉取,并配置模型路径或参数。 在整合Dify和vLLM时,需要在Dify的管理界面中添加自定义模型供应商,输入vLLM的API地址。可能还需要处理CORS或网络问题,确保两个容器能够通信。 用户可能遇到的问题包括Docker compose的版本兼容性、端口冲突、环境变量配置错误,以及模型加载失败等。需要指导用户如何检查日志,调试问题。 最后,生成相关问题时要覆盖常见问题,如性能优化、配置模型路径、日志调试和网络设置等。</think>### Docker Desktop与vLLM及Dify本地私有化部署教程 --- #### **一、本地环境准备** 1. **安装Docker Desktop** - 访问[Docker官网](https://www.docker.com/products/docker-desktop/)下载并安装最新版本 - Windows系统需启用WSL2支持(若安装时提示*WSL update failed*,需手动更新WSL内核)[^2] - 配置国内镜像加速(如阿里云镜像)以提升拉取速度: ```bash { "registry-mirrors": ["https://<your-id>.mirror.aliyuncs.com"] } ``` 2. **验证Docker环境** 命令行执行: ```bash docker run hello-world ``` 若输出`Hello from Docker!`表示安装成功。 --- #### **二、部署vLLM推理服务** 1. **拉取vLLM镜像** ```bash docker pull nvidia/cuda:12.1.0-base-ubuntu22.04 # 基础镜像 docker pull vllm/vllm:latest # 或指定版本 ``` 2. **启动vLLM容器** ```bash docker run -d --gpus all \ -p 8000:8000 \ -v /path/to/models:/models \ vllm/vllm:latest \ --model /models/llama-2-7b \ --tensor-parallel-size 1 ``` - `--gpus all`:启用GPU加速(需NVIDIA驱动) - `-v`:挂载本地模型目录(如Llama-2需提前下载) - 验证服务:访问`http://localhost:8000/docs`查看API文档 --- #### **三、部署Dify应用** 1. **获取Dify码** ```bash git clone https://github.com/langgenius/dify.git cd dify/docker ``` 2. **配置环境变量** ```bash cp .env.example .env # 修改.env中以下参数: MODEL_PROVIDER=custom CUSTOM_API_HOST=http://host.docker.internal:8000 # 指向vLLM服务[^3] ``` 3. **启动Dify服务** ```bash docker compose up -d ``` - 等待容器初始化后访问`http://localhost:8080` - 首次登录需设置管理员账号 --- #### **四、整合vLLM与Dify** 1. **在Dify中添加模型** - 进入**模型供应商** → **自定义模型** - 输入vLLM的API端点(如`http://host.docker.internal:8000/v1`) - 测试连接并保存配置 2. **创建知识库与应用** - 上传文档至知识库,选择vLLM支持的模型(如Llama-2) - 在应用编排中绑定模型和知识库 --- #### **常见问题排查** 1. **GPU无法识别** - 执行`nvidia-smi`验证驱动状态 - 添加`--runtime=nvidia`到docker run命令[^1] 2. **跨容器通信失败** - 使用`host.docker.internal`替代`localhost` - 检查防火墙是否开放8000/8080端口 ---
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值