标签
HAProxy [1]
负载均衡 [1]
ssh [10]
- 远程执行Shell命令
- AI 模型打包发布
- SSH X11 Forwarding
- SSH 登录欢迎信息
- SFTP 客户端
- VS Code远程开发 - SSH
- 命令ssh
- SSH允许使用密码进行root登录
- SSH使用密匙登录
- 开启SSH服务
service [2]
Ubuntu [21]
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 加速 Docker 构建镜像
- Ubuntu 上将 NVIDIA GPU 切换为 Intel 集成显卡 IGD
- Install Python3.9 in Ubuntu20.04
- Install NVIDIA device plugin for Kubernetes
- Dockerfile OpenCV4 Ubuntu20.04
- Building ONNX Runtime
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 配置Kubernetes镜像源
- Kubernetes集群搭建Master节点
- Kubernetes集群加入Worker节点
- 在Ubuntu上安装NVIDIA GPU驱动
- 在Ubuntu上配置apt镜像源
- Linux系统禁用交换分区
- Linux系统DNS设置
- Linux系统上修改用户名
- 基于Apt-Cacher NG创建本地Ubuntu存储库
- 安装Harbor
- NFS配置
- Linux系统网络配置
- MAC 远程连接 Ubuntu 桌面
Linux [54]
- GPU 服务器不能访问
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- Linux 性能优化
- FastAPI 上传和下载文件的基准测试
- Install Python3.9 in Ubuntu20.04
- 命令 nc
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
- 阿里云 yum 安装应用报 404 错误
- 我删库了, rm -rf *
- Json Formatter
- 命令tr
- 在Linux上安装CUDA Toolkit
- 命令lftp
- 命令man help info
- 命令base64
- SSH 登录欢迎信息
- 命令yum
- 将所有的图片文件复制到一个目录
- Linux Shell 实践
- Linux Shell 执行方式
- 抽取视频关键帧保存zip文件
- 基于vsftpd安装FTP服务器
- 命令ssh
- 命令tar
- 命令zip
- 命令cp
- 命令du
- 命令top
- vim实践
- 命令ln
- 命令chown
- 基于Apt-Mirror创建私有Ubuntu存储库
- Apache HTTP Server实践
- Building ONNX Runtime
- 命令ffmpeg
- 命令history
- 命令find
- 命令grep
- 图像格式转换、尺寸调整
- 命令sed
- 命令wget
- 命令ls
- SSH允许使用密码进行root登录
- Linux上查找系统信息
- 配置Kubernetes镜像源
- 在Ubuntu上安装NVIDIA GPU驱动
- 配置Docker镜像源
- 在Ubuntu上安装nvidia-docker2
- 在Ubuntu上安装Docker
- NFS配置
- 磁盘:分区-格式化-挂载
- Linux设置时区
- SSH使用密匙登录
- MAC 远程连接 Ubuntu 桌面
docker-registry [2]
docker-registry-frontend [1]
docker-registry-web [1]
Docker [29]
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- Docker 构建多平台镜像
- 构建容器化 Python 应用程序
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
- 命令 alias
- 基于 FastAPI 开发 Ultralytics Serving
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
- MinIO Quickstart
- OpenResty 内执行 Lua 脚本
- 构建基于 ONNXRuntime 的推理服务
- 安装Kubernetes 1.21.5
- minikube
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
- 基于PyPIServer创建私有Python软件包存储库
- Docker实践
- Dockerfile OpenCV4 Ubuntu20.04
- Dockerfile ONNXRuntime GPU
- Building ONNX Runtime
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 使用YOLOv5训练自定义数据集
- 在Ubuntu上安装Docker
- 安装Harbor
- 使用RetinaNet算法训练自定义数据集
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- Dockerfile JDK-MCR(MATLAB Compiler Runtime)
Dockerfile [14]
- Dockerfile 中 ARG 指令的作用范围
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- 构建基于 ONNXRuntime 的推理服务
- GaiaGPU: 在容器云中共享GPU
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- AI 模型打包发布
- Dockerfile OpenCV4 Ubuntu20.04
- Dockerfile ONNXRuntime GPU
- 使用RetinaNet算法训练自定义数据集
- Dockerfile JDK-MCR(MATLAB Compiler Runtime)
JDK [1]
MCR [1]
Network [1]
输入法 [1]
目标检测 [8]
- OpenVINO 神经网络性能分析
- OpenVINO 目标检测
- 使用YOLOv5训练自定义数据集
- 使用RetinaNet算法训练自定义数据集
- 构建YOLOv4容器应用在自定义数据集上
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
Darknet [3]
YOLO [10]
- Ultralytics YOLOv8 推理速度对比
- 基于 FastAPI 开发 Ultralytics Serving
- Ultralytics Hub 快速入门
- Ultralytics YOLOv8
- Get Started YOLOv5
- 使用YOLOv5训练自定义数据集
- 将注释从PASCAL VOC转换为YOLO Darknet
- 构建YOLOv4容器应用在自定义数据集上
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
Jupyter [3]
JupyterHub [1]
Detectron [1]
MaskRCNN [1]
ssh-keygen [1]
timezone [2]
VOC [1]
Format [1]
XML [2]
TensorFlow [1]
RetinaNet [1]
Keras [1]
TensorBoard [3]
Disk [1]
lsblk [2]
fdisk [2]
mkfs [2]
mount [3]
fstab [2]
NFS [2]
Harbor [1]
Registry [1]
wget [2]
cat [3]
openssl [3]
Cache [3]
apt [8]
- NVIDIA Driver 安装
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- 使用终端浏览Markdown和HTML
- 安装Kubernetes 1.21.5
- 基于Apt-Mirror创建私有Ubuntu存储库
- 在Ubuntu上配置apt镜像源
- 基于Apt-Cacher NG创建本地Ubuntu存储库
apt-cacher-ng [1]
Install [14]
- 在 CentOS 上安装 EPEL 软件仓库
- 在 MacBook Pro M2 Max 上安装软件
- 安装Kubernetes 1.26.0
- Install TVM from Source
- NVIDIA 软件栈搭建
- Get Started OpenVINO
- Install Python3.9 in Ubuntu20.04
- 在Linux上安装CUDA Toolkit
- 安装Go
- 命令brew
- Kubernetes集群搭建Master节点
- Kubernetes集群加入Worker节点
- 在Ubuntu上安装nvidia-docker2
- 在Ubuntu上安装Docker
nvidia-docker2 [3]
- Install NVIDIA device plugin for Kubernetes
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 在Ubuntu上安装nvidia-docker2
用户 [1]
DNS [1]
swap [1]
Mirror [5]
GPU [14]
- 大模型推理需要多少显存?
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- NVIDIA Driver 安装
- 面向边缘场景的 AI 芯片
- Ubuntu 上将 NVIDIA GPU 切换为 Intel 集成显卡 IGD
- 构建基于 ONNXRuntime 的推理服务
- GaiaGPU: 在容器云中共享GPU
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
- Docker实践
- Building ONNX Runtime
- 命令ffmpeg
- Linux上查找系统信息
- 在Ubuntu上安装NVIDIA GPU驱动
NVIDIA [4]
YOLOv5 [2]
PyTorch [4]
Shell [9]
- Private GPT
- 命令 alias
- 命令man help info
- AI 模型打包发布
- AI 数据集打包发布
- 将所有的图片文件复制到一个目录
- Linux Shell 执行方式
- 抽取视频关键帧保存zip文件
- 使用YOLOv5训练自定义数据集
for [7]
- 在Kubernetes上运行第一个应用
- 将所有的图片文件复制到一个目录
- Linux Shell 实践
- 抽取视频关键帧保存zip文件
- 命令ffmpeg
- 图像格式转换、尺寸调整
- 使用YOLOv5训练自定义数据集
sed [7]
head [1]
Cluster [2]
journalctl [2]
EOF [1]
Python [14]
- 打包 Python 工程到 PyPI
- 加速 Docker 构建镜像
- 基于 FastAPI 开发 Ultralytics Serving
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- Json Formatter
- 使用PaddleOCR进行文字识别
- 在 Python 中解析和修改 XML
- OpenCV Python实践
- Docker SDK for Python Examples
- 基于模板创建Job
- 基于PyPIServer创建私有Python软件包存储库
- 配置pip镜像源
- Python文件、目录、路径操作
File [4]
- FastAPI : Request File and Form(BaseModel)
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- FastAPI 上传和下载文件的基准测试
- Python文件、目录、路径操作
Directory [1]
Path [2]
pip [10]
- 构建容器化 Python 应用程序
- 加速 Docker 构建镜像
- Python 配置共享软件包缓存
- Install Python3.9 in Ubuntu20.04
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- 构建基于 ONNXRuntime 的推理服务
- OpenCV Python实践
- 基于PyPIServer创建私有Python软件包存储库
- 配置pip镜像源
GitHub [4]
curl [12]
- OpenAI API Compatibility
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- Tabby - GitHub Copilot 的开源替代解决方案
- OpenResty 内执行 Lua 脚本
- 安装Kubernetes 1.21.5
- minikube
- ConfigMap和Secret:配置应用程序
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的Service
- 命令helm
- 基于Apt-Mirror创建私有Ubuntu存储库
- GitHub加速
hosts [1]
系统信息 [1]
CUDA [12]
- SGLang 大模型服务框架
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 使用 FastChat 在 CUDA 上部署 LLM
- NVIDIA Driver 安装
- Tabby - GitHub Copilot 的开源替代解决方案
- NVIDIA 软件栈搭建
- 构建基于 ONNXRuntime 的推理服务
- 在Linux上安装CUDA Toolkit
- GaiaGPU: 在容器云中共享GPU
- Dockerfile ONNXRuntime GPU
- Building ONNX Runtime
- Linux上查找系统信息
Memory [1]
硬盘 [1]
lsb_release [1]
grep [3]
cut [1]
uniq [2]
root [1]
systemctl [2]
init.d [1]
offline [1]
ls [2]
Download [2]
exec [4]
Command [8]
- 命令 alias
- 通过命令使用 ChatGPT
- 在 MacBook Pro M2 Max 上使用 FFmpeg
- 命令open
- 命令curl
- Apache HTTP Server实践
- 命令history
- 图像格式转换、尺寸调整
Image [1]
file [1]
find [6]
convert [1]
ShellScript [1]
ll [1]
delete [5]
DS_Store [1]
JupyterLab [1]
source [3]
.bashrc [1]
.bash_profile [1]
ffmpeg [3]
basename [2]
VLC [1]
Lua [2]
ONNX [4]
ONNXRuntime [3]
OpenCV [5]
- 基于 FastAPI 开发 Ultralytics Serving
- Dockerfile 实践
- 构建基于PaddlePaddle开发服务镜像
- OpenCV Python实践
- Dockerfile OpenCV4 Ubuntu20.04
Apache [1]
none [1]
xargs [1]
awk [1]
inspect [2]
PyPI [2]
PyPIServer [1]
htpasswd [1]
apt-mirror [1]
apache2 [1]
ln [2]
chown [2]
vim [3]
top [1]
du [2]
cp [3]
zip [2]
unzip [1]
less [1]
zipdetails [1]
tar [3]
FTP [1]
vsftpd [2]
man [2]
dirname [1]
mkdir [3]
if [4]
chmod [1]
实践 [1]
快捷键 [1]
function [1]
MicroPython [6]
- Thonny Python IDE
- IoT 硬件:NeoPixel
- 基于腾讯云物联网开发平台的光照传感器
- 基于腾讯云物联网开发平台的智能电灯
- 基于NodeMCU(ESP32)搭建Python开发环境
- 基于NodeMCU(ESP8266)搭建Python开发环境
NodeMCU [6]
- IoT 硬件:NeoPixel
- 基于腾讯云物联网开发平台的场景联动(智能电灯和光照传感器)
- 基于腾讯云物联网开发平台的光照传感器
- 基于腾讯云物联网开发平台的智能电灯
- 基于NodeMCU(ESP32)搭建Python开发环境
- 基于NodeMCU(ESP8266)搭建Python开发环境
ESP8266 [4]
esptool [2]
SecureCRT [2]
WebREPL [1]
upip [1]
ESP32 [2]
MQTT [2]
Helm [3]
Nvidia [2]
kubectl [23]
- Kubernetes中配置调度器
- 安装Kubernetes Dashboard
- 安装Kubernetes 1.21.5
- Kubernetes中的计算资源管理
- Kubernetes JSONPath实践
- Kubernetes中如何恢复误删的节点
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的污点和容忍度
- Kubernetes中的Service
- 基于模板创建Job
- Kubernetes中的Job和CronJob
- Kubernetes中的DaemonSet
- Kubernetes中的ReplicationController和ReplicaSet
- Kubernetes中的名字空间
- Kubernetes中的注解
- Kubernetes中的标签和标签选择器
- 通过端口转发连接Pod
- Kubernetes API
- Kubernetes中删除节点
- Kubernetes中的GPU共享
- Install NVIDIA device plugin for Kubernetes
crawler [1]
PYTHONPATH [2]
uuid [1]
vscode [4]
macOS [6]
- 在 macOS 上安装 PostgreSQL
- macOS Docker
- macOS 下的 __MACOSX 目录和 .DS_Store 文件
- 安装Kubernetes Dashboard
- 命令brew
- SFTP 客户端
SFTP [1]
brew [1]
NeoPixel [1]
树莓派 [2]
ReSpeaker [1]
麦克风 [1]
Camera [1]
Container [1]
namespace [2]
cgroup [1]
echo [2]
rmdir [1]
ldd [1]
egrep [1]
sort [1]
chroot [1]
while [1]
CentOS [3]
yum [3]
motd [1]
Login [1]
X11 [2]
xquartz [1]
base64 [1]
printf [1]
Fritzing [1]
thonny [1]
date [2]
scp [1]
docker-compose [2]
help [1]
info [1]
certificate [1]
kubeadm [4]
drain [1]
Service [2]
Deployment [1]
Node.js [1]
docker [1]
api-resources [1]
explain [1]
apply [3]
logs [2]
port-forward [3]
label [2]
annotate [1]
config [2]
context [1]
alias [2]
bashrc [2]
ReplicationController [1]
ReplicaSet [1]
scale [1]
DaemonSet [1]
taint [2]
toleration [2]
Job [2]
CronJob [1]
Cron [1]
command [5]
- Open Model Zoo
- 如何使用 Docker 打包已注册的模型
- ConfigMap和Secret:配置应用程序
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的Job和CronJob
args [2]
Jinja2 [1]
Jekyll [1]
Liquid [1]
expose [1]
run [1]
bash [1]
env [2]
JSONPath [4]
affinity [1]
nodeAffinity [1]
podAffinity [1]
volume [1]
nfs [1]
ConfigMap [1]
Secret [1]
ENTRYPOINT [1]
CMD [1]
nginx [1]
HTTPS [1]
DockerHub [1]
token [1]
reset [1]
join [1]
ServiceAccount [1]
RBAC [1]
minikube [1]
rpm [1]
iptables [1]
ifconfig [1]
route [1]
LimitRange [1]
ResourceQuota [2]
multi-tenancy [1]
KubeSphere [1]
Kubernetes [7]
- MinIO for Kubernetes
- Velero: 备份和迁移 Kubernetes 资源和持久卷
- 在 Kubernetes 上部署 MySQL
- 使用 Prometheus Operator 在 Kubernetes 上部署 Prometheus 和 Grafana
- Elastic Cloud on Kubernetes 快速入门
- 使用 StorageClass 动态创建 NFS 持久卷
- Kubernetes的多租户
tempfile [2]
f-strings [2]
Tkinter [1]
Chinese [2]
PaddleOCR [2]
timedatectl [1]
hostnamectl [1]
export [1]
fabric [1]
ftp [1]
lftp [1]
events [1]
Priority [1]
Scheduler [1]
img [1]
Cambricon [1]
git [5]
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- git 配置代理
- Copilot for CLI
- GaiaGPU: 在容器云中共享GPU
- 编译寒武纪MLU220的嵌入式操作系统
lynx [1]
pandoc [1]
grip [1]
Markdown [2]
Proxy [1]
kube-scheduler [1]
Uninstall [2]
Driver [1]
lvm [1]
OpenResty [1]
Nginx [1]
jq [2]
tr [1]
JSON [2]
MinIO [1]
rm [1]
inode [1]
PaddlePaddle [1]
localtime [1]
word [1]
python-docx [1]
excel [3]
openpyxl [3]
DIY [2]
typer [2]
wrk [5]
ab [2]
make [1]
nproc [1]
FastAPI [8]
- 将 API 密钥身份验证添加到 FastAPI 应用程序
- FastAPI 开发 RESTAPI 实践
- FastAPI : Request File and Form(BaseModel)
- 基于 FastAPI 开发 Ultralytics Serving
- 使用 FastAPI 开发 RESTAPI 服务
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- FastAPI 上传和下载文件的基准测试
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
async [3]
gunicorn [3]
uvicorn [4]
nc [1]
netcat [1]
Python3.9 [1]
RESTAPI [2]
venv [2]
Workflow [1]
人脸检测 [1]
mtcnn [1]
图像分类 [1]
googlenet [1]
ssd [1]
性能分析 [1]
wandb [1]
cuDNN [1]
TensorRT [1]
NCCL [1]
HPC [1]
Intel [1]
lspci [1]
lshw [1]
accuracy_check [1]
cross_check_tool [1]
OpenVINO [2]
benchmark_app [1]
Fusion [1]
Convolution [1]
BatchNorm [1]
timeit [1]
onnxsim [1]
VPU [1]
NPU [5]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
- 面向边缘场景的 AI 芯片
Jetson [1]
Movidius [1]
昇腾 [1]
TVM [2]
EdgeAI [1]
百度 [1]
Myriad [2]
NVMe [1]
DDR [1]
LPDDR [1]
apt-cache [1]
containerd [1]
HomeBrew [1]
Conda [2]
Miniconda [1]
MacBookProM2Max [33]
- Mac 外接显示器 DELL U2723QE
- Mac 外接显示器选购
- Xorbits Inference: 模型服务变得更容易
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 在 MacBook Pro M2 Max 上安装 FastChat
- whisper.cpp
- Qwen (通义千问)
- MLX LLMS Examples
- MLX: An array framework for Apple silicon
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
- 在 Mac 上安装 NGINX
- macOS 能连上 WiFi 但无法上网
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- 加速 Docker 构建镜像
- Python 配置共享软件包缓存
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
- 在 MacBook Pro M2 Max 上测试 LLaMA
- 在 MacBook Pro M2 Max 上测试 Whisper
- 在 MacBook Pro M2 Max 上使用 FFmpeg
- macOS 上删除登录项中允许在后台的项目
- 在 MacBook Pro M2 Max 上安装 OpenVINO
- 在 MacBook Pro M2 Max 上安装 PyTorch
- 在 MacBook Pro M2 Max 上安装 TensorFlow
- 在 MacBook Pro M2 Max 上安装软件
- 在 MacBook Pro M2 Max 上构建开发环境
路由器 [1]
FileZilla [1]
ShadowSocksR [1]
OpenAI [14]
- SiliconFlow AI Infra
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- 在 MacBook Pro M2 Max 上安装 FastChat
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- CodeGPT: 智能辅助编程
- Langchain‐Chatchat 和 FastChat 结合
- 使用 llama.cpp 构建本地聊天服务
- GPT4All
- OpenAI Fine Tuning
- Whisper 语音识别
- AutoGPT
- ChatGPT 快速入门
LLM [56]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- LangChain Blog: In the Loop
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务
- OpenAI API Compatibility
- 部署 LLM 多 LoRA 适配器的推理服务
- AutoTrain
- 推测解码 (Speculative Decoding)
- Reader-LM: 用于清理和转换 HTML 到 Markdown 的小型语言模型
- LLM 的合成数据
- Letta (fka MemGPT) 是用于创建有状态 LLM 服务的框架
- Qwen2 Technical Report
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Langfuse: Open Source LLM Engineering Platform
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
- Kong AI Gateway
- Higress AI Gateway
- 大模型推理需要多少显存?
- RAG 复杂场景下的工作流程和构建知识库的解析方法
- GLM-4V-9B
- Ollama
- LLM 技术栈
- SiliconFlow AI Infra
- CrewAI 快速入门
- 大型语言模型驱动的自主代理
- Phi-3-vision-128k-instruct 微软开源多模态大模型
- MiniCPM-Llama3-V 2.5 端侧可用的 GPT-4V 级多模态大模型
- CogVLM2 智谱开源多模态大模型
- SWIFT: Scalable lightWeight Infrastructure for Fine-Tuning
- 使用大型语言模型进行命名实体识别
- Xorbits Inference: 模型服务变得更容易
- Meta Llama 3
- Anthropic Claude
- DashScope 模型服务灵积
- Together AI - The fastest cloud platform for building and running generative AI
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- vLLM 部署 Qwen1.5 LLM
- MLX: An array framework for Apple silicon
- Candle
- OLMo - Open Language Model
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- LLM 的基准测试
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- AI 大模型基础服务架构图
- AI 大模型
- Langchain‐Chatchat 和 FastChat 结合
- Microsoft Phi-2
- LLM Leaderboard
- AI 大模型
- State of GPT - Andrej Karpathy
- LangChain - Chain
- LangChain 快速入门
- 在 MacBook Pro M2 Max 上测试 LLaMA
GPT [7]
- CodeGPT: 智能辅助编程
- 使用 Ollama 构建本地聊天服务
- 基于 ChatGLM3 8k 和 32k 的文档问答对比
- Private GPT
- AI 大模型
- AutoGPT
- 在 MacBook Pro M2 Max 上测试 LLaMA
Comet [1]
ClearML [1]
Quickstart [8]
- CrewAI 快速入门
- Elastic Cloud on Kubernetes 快速入门
- PaddleSpeech 快速入门
- LangChain 快速入门
- Hugging Face 快速入门
- OpenAI API Documentation 快速入门
- Ultralytics Hub 快速入门
- Roboflow 快速入门
Label [1]
Train [2]
Deploy [2]
Dataset [1]
GitHubCopilot [23]
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Bloop 使用指南
- Cursor 使用指南
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Continue
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
- UnitMesh: AI 赋能软件研发全流程
- Sourcegraph Cody
- 人工智能编码助手(AI Coding Assistant)功能
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- CodeFuse
- Copilot for CLI
- GitHub Copilot - Your AI pair programmer
Neovim [1]
AI [1]
SwaggerUI [1]
Ultralytics [2]
zsh [1]
ChatGLM [7]
- 在 MacBook Pro M2 Max 上安装 FastChat
- CodeGPT: 智能辅助编程
- TensorRT-LLM 大模型推理
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- ChatGLM-6B 模型基于 P-Tuning v2 微调的自定义数据集
- Large Language Models(大语言模型)
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
GLM [3]
ChatGPT [11]
- Kimi(月之暗面)简历的探索
- GPT4All
- 在 MacBook Pro M2 Max 上测试 ChatGLM2-6B
- Building Systems with the ChatGPT API
- LangChain for LLM Application Development
- ChatGPT Prompt Engineering for Developers
- 讯飞星火测试
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
- Large Language Models(大语言模型)
- 文心一言测试
- 在 MacBook Pro M2 Max 上测试 ChatGLM-6B
Google [1]
Pinecone [1]
ElevenLabs [1]
ERNIEBot [1]
LLaMA [2]
Alpaca [1]
Vicuna [2]
fine-tuning [1]
P-Tuning [1]
安规 [1]
OpenAI API [5]
- OpenAI API Compatibility
- OpenAI API Documentation Speech to Text
- OpenAI API Documentation Chat Completion
- OpenAI API Documentation Embeddings
- OpenAI API Documentation 快速入门
pandas [1]
Embedding [2]
Faiss [2]
Chat Completion [1]
Token [1]
HuggingFace [8]
- 部署 LLM 多 LoRA 适配器的推理服务
- AutoTrain
- Open Source Models with Hugging Face
- Hugging Face NLP Course
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- Microsoft Phi-2
- LangChain HuggingFaceEmbeddings + FAISS
- 在 Hugging Face 上搭建 ChatGPT 聊天机器人
SerpApi [1]
LangChain [13]
- LangChain Blog: In the Loop
- 使用大型语言模型进行命名实体识别
- ChatTongyi
- Gradio Chatbot
- Anthropic Claude
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
- LangChain Chat Models Function & Tool Calling
- DashScope 模型服务灵积
- LangChain Text2SQL Agent
- LangChain
- FastChat 部署多模型
- LangChain - Chain
Whisper [3]
Debian [1]
arm64 [1]
Go [1]
知识扩展 [4]
wheel [1]
__MACOSX [1]
.DS_Store [1]
pt [1]
buildx [1]
CLIP [1]
Pydub [1]
DeepLearning.AI [4]
- How Diffusion Models Work
- Building Systems with the ChatGPT API
- LangChain for LLM Application Development
- ChatGPT Prompt Engineering for Developers
Fine-Tuning [8]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- SWIFT: Scalable lightWeight Infrastructure for Fine-Tuning
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- State of GPT - Andrej Karpathy
- OpenAI Fine Tuning
SFT [1]
RM [1]
RLHF [1]
DDPM [1]
DDIM [1]
PersistentVolumeClaim [1]
PersistentVolume [1]
Provisioner [1]
mongo [1]
Elasticsearch [1]
Kibana [1]
Filebeat [1]
NTP [1]
Prometheus [1]
Grafana [1]
patch [1]
StatefulSet [1]
Backup [1]
Data [1]
SAM [1]
Chroma [1]
Gunicorn [1]
Uvicorn [1]
SQLite3 [1]
Qwen-7B [1]
ChatGLM2-6B [2]
Baichuan2 [1]
POST [1]
Form [1]
markdown [1]
CSS [1]
requirements.txt [1]
EasyOCR [1]
OCR [5]
- GLM-4V-9B
- Phi-3-vision-128k-instruct 微软开源多模态大模型
- MiniCPM-Llama3-V 2.5 端侧可用的 GPT-4V 级多模态大模型
- CogVLM2 智谱开源多模态大模型
- 开源 OCR 引擎基准测试
Benchmark [4]
faulthandler [1]
WALL-E-AI [1]
ARG [1]
API_KEY [1]
Authentication [1]
Embeddings [2]
RAG [2]
PrivateGPT [2]
FAISS [1]
FastChat [7]
- LLM 的基准测试
- 使用 FastChat 在 CUDA 上部署 LLM
- 在 MacBook Pro M2 Max 上安装 FastChat
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Langchain‐Chatchat 和 FastChat 结合
- Qwen (通义千问)
- FastChat 部署多模型
分布式 [1]
Inference [3]
Transformers [2]
Pipeline [1]
LLM.int8 [1]
traceroute [1]
tcpdump [2]
netstat [1]
lsof [2]
dmesg [1]
日志 [1]
NGINX [2]
WebSocket [1]
反向代理 [1]
语音识别 [1]
语音合成 [1]
StanfordCoreNLP [1]
Similarword [1]
PlaintextCorpusReader [1]
re [1]
BeautifulSoup [1]
etree [1]
requests [1]
GPT4All [1]
ChatGLM3 [1]
ChatGLM3-6B-32K [1]
bge-base-zh [1]
SeamlessM4T [1]
ASR [2]
- Open Source Models with Hugging Face
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
TTS [2]
- Open Source Models with Hugging Face
- SeamlessM4T — Massively Multilingual & Multimodal Machine Translation(大规模多语言和多模式机器翻译)
conda [1]
TensorRT-LLM [1]
TritonInferenceServer [1]
llama.cpp [2]
llama-cpp-python [2]
MacbookProM2MAX [2]
CLI [1]
Ollama [7]
OllamaHub [1]
OllamaWebUI [1]
TGI [2]
SDXL-Turbo [1]
Diffusion [1]
Phi-2 [3]
MLX [11]
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
- MLX LLMS Examples
- MLX: An array framework for Apple silicon
QWen [3]
StableDiffusion [1]
T5 [1]
NEON [1]
MPS [4]
CoreML [1]
Langchain‐Chatchat [1]
CodeLLM [15]
- Qwen2.5-Coder Technical Report
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
- DeepSeek-Coder 论文解读
- Tabby 的基准测试
- 人工智能编码助手(AI Coding Assistant)功能
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- DeepSeek Coder: Let the Code Write Itself
- CodeFuse
- AI 大模型基础服务架构图
- AI 大模型
EmbeddingLLM [1]
Leaderboard [3]
CodeFuse [1]
AICodingAssistant [7]
- LLM 技术栈
- UnitMesh: AI 赋能软件研发全流程
- Tabby 的基准测试
- 人工智能编码助手(AI Coding Assistant)
- Sourcegraph Cody
- 人工智能编码助手(AI Coding Assistant)功能
- CodeFuse
CodeGPT [3]
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- CodeGPT: 智能辅助编程
IntelliJIDEA [3]
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
- CodeGPT: 智能辅助编程
GGUF [2]
DeepSeek-LLM [1]
Llama [1]
DeepSeek-Coder [3]
python [1]
Tabby [7]
- Tabby 使用指南
- Tabby 的基准测试
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
Tabnine [1]
IDE [1]
VSCode [4]
- Tabby 使用指南
- Visual Studio Code 快捷键
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
NVIDIA-Driver [3]
dpkg [1]
libc6-dev [1]
build-essential [1]
PyCharm [1]
GeForce [1]
GTX1060 [1]
NVIDIAContainerToolkit [1]
Qwen [10]
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- 使用大型语言模型进行命名实体识别
- LLaMA-Factory 微调 Text2SQL
- DashScope 模型服务灵积
- vLLM 部署 Qwen1.5 LLM
- MLX: An array framework for Apple silicon
- 使用 llama.cpp 构建兼容 OpenAI API 服务
- LLM 的基准测试
- 在 MacBook Pro M2 Max 上安装 FastChat
DeepSeek [2]
Sourcegraph [1]
Cody [1]
vLLM [6]
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 部署 LLM 多 LoRA 适配器的推理服务
- SGLang 大模型服务框架
- vLLM 部署 Qwen1.5 LLM
- LLM 的基准测试
- 使用 FastChat 在 CUDA 上部署 LLM
TeslaT4 [3]
proxy [1]
v2ray [1]
Quantization [1]
困惑度 [1]
PPL [1]
Perplexity [1]
Metal [1]
cuBLAS [1]
UnitMesh [1]
AutoDev [1]
ChocolateFactory [1]
StudioB3 [1]
UnitGen [1]
ArchGuard [1]
LoRA [12]
- 部署 LLM 多 LoRA 适配器的推理服务
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
Mistral-7B [6]
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
Text2SQL [19]
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- 使用大型语言模型进行命名实体识别
- LLaMA-Factory 微调 Text2SQL
- ChatTongyi
- Gradio DataFrame
- Gradio Chatbot
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
- LangChain Chat Models Function & Tool Calling
- LangChain Text2SQL Agent
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
WikiSQL [8]
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
push [1]
HuggingFaceHub [1]
MLXCommunity [1]
QLoRA [3]
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
Deepseek-Coder-7B [1]
TinyLlama [1]
OLMo [1]
AI2 [1]
NLP [2]
Microsoft [1]
Copilot [1]
Kimi [1]
Moonshot [1]
Rust [2]
GettingStarted [3]
DeepLearningAI [3]
GenerativeAI [1]
Candle [1]
Phi2 [1]
Mistral [1]
Gradio [3]
Llama2 [1]
CodeLlama [1]
LlamaGuard [2]
LLaMA-Factory [5]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
TogetherAI [1]
Continue [10]
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Continue
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
Agent [5]
DashScope [3]
ToolCalling [1]
Pydantic [1]
Extraction [1]
ChatTongyi [5]
- 使用大型语言模型进行命名实体识别
- ChatTongyi
- Gradio Chatbot
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
Claude3 [1]
Anthropic [1]
Llama3 [3]
RUG [1]
Chatbot [1]
DataFrame [1]
Stream [1]
Xinference [1]
qwen-turbo [1]
NER [3]
Next.js [1]
React [1]
SWIFT [1]
CogVLM2 [1]
MiniCPM-V [1]
Phi3 [1]
CrewAI [1]
SiliconCloud [1]
OllamaServer [1]
Dify [1]
LLMOps [1]
MultiAgent [1]
AutoGen [1]
GLM4 [1]
DB [1]
PostgreSQL [1]
pgAdmin [1]
ElmoChat [1]
LeptonAI [1]
RAGFlow [1]
VannaAI [1]
TextToSQL [1]
SQLite [3]
Qdrant [3]
ChromaDB [1]
FastEmbed [2]
Text2Image [1]
Kolors [1]
Shortcut [2]
TypeScript [1]
GraphRAG [1]
XInference [1]
transformers.js [1]
FTS [2]
BM25 [2]
LanceDB [2]
ContextProvider [1]
CodeSearch [1]
CodeChat [1]
Cursor [1]
Bloop [1]
VRAM [1]
Calculator [1]
SGlang [1]
FlashInfer [1]
Higress [1]
AIGateway [3]
Envoy [1]
Istio [1]
Kong [1]
LiteLLM [2]
Langfuse [3]
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Langfuse: Open Source LLM Engineering Platform
- LiteLLM: [Python SDK] [Proxy Server (LLM Gateway)]
Qwen2.5-Coder [1]
Qwen2 [1]
Letta [1]
MemGPT [1]
Synthetic [1]
Cosmopedia [1]
Phi [1]
distilabel [1]
argilla [1]
datatrove [1]
nanotron [1]
lighteval [1]
Reader-LM [1]
jina-embeddings-v3 [1]
JinaAI [1]
HTML [1]
SpeculativeDecoding [1]
AutoTrain [1]
Atlas800 [4]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务