类别
macOS [2]
实践 [13]
- Dockerfile 实践
- OpenCV Python实践
- Kubernetes JSONPath实践
- VS Code远程开发 - SSH
- VS Code实践
- Python实践
- Python爬虫实践
- vim实践
- Docker实践
- Apache HTTP Server实践
- Python文件、目录、路径操作
- Jupyter Notebook实践
- macOS实践
快捷键 [5]
Docker [18]
- macOS Docker
- 加速 Docker 构建镜像
- Docker 网络
- Docker SDK for Python Examples
- 如何使用 Docker 打包已注册的模型
- AI 模型打包发布
- 容器内幕
- Docker实践
- Dockerfile OpenCV4 Ubuntu20.04
- Dockerfile ONNXRuntime GPU
- 在Ubuntu上下载docker和nvidia-docker2离线安装包
- 配置Docker镜像源
- 在Ubuntu上安装nvidia-docker2
- 在Ubuntu上安装Docker
- 安装Harbor
- Dockerfile JDK-MCR(MATLAB Compiler Runtime)
- 搭建 Private Docker Registry
- 基于容器的负载均衡
Linux [26]
- 逻辑卷管理(Logical Volume Management)
- 使用终端浏览Markdown和HTML
- Linux下查看img文件内容
- iptables
- SSH X11 Forwarding
- 将所有的图片文件复制到一个目录
- Linux Shell 执行方式
- 抽取视频关键帧保存zip文件
- 基于vsftpd安装FTP服务器
- vim实践
- 基于Apt-Mirror创建私有Ubuntu存储库
- Apache HTTP Server实践
- Building ONNX Runtime
- SSH允许使用密码进行root登录
- Linux上查找系统信息
- 在Ubuntu上配置apt镜像源
- Linux系统禁用交换分区
- Linux系统DNS设置
- Linux系统上修改用户名
- 基于Apt-Cacher NG创建本地Ubuntu存储库
- NFS配置
- 磁盘:分区-格式化-挂载
- Linux设置时区
- 在 Linux 上安装输入法
- Linux系统网络配置
- 开启SSH服务
AI [21]
- TVM
- Install TVM from Source
- ONNX Simplifier
- 在 PyTorch 中融合卷积和批量标准化
- OpenVINO 神经网络性能分析
- OpenVINO 目标检测
- OpenVINO 图像分类
- Open Model Zoo
- OpenVINO 的工作原理
- Get Started OpenVINO
- 构建基于 ONNXRuntime 的推理服务
- 使用PaddleOCR进行文字识别
- 如何使用 Docker 打包已注册的模型
- AI 模型打包发布
- AI 数据集打包发布
- 使用YOLOv5训练自定义数据集
- 使用RetinaNet算法训练自定义数据集
- 构建YOLOv4容器应用在自定义数据集上
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
图像识别 [6]
- 使用YOLOv5训练自定义数据集
- 使用RetinaNet算法训练自定义数据集
- 构建YOLOv4容器应用在自定义数据集上
- 使用Detectron在自定义数据集上训练MaskRCNN
- 基于Darknet框架的YOLOv3算法开发的模型训练和部署的容器化产品
- 使用Darknet在自定义数据集上训练YOLOv3
IDE [5]
SSH [1]
Dataset [1]
jekyll [1]
GPU [3]
Kubernetes [35]
- 安装Kubernetes 1.26.0
- GaiaGPU: 在容器云中共享GPU
- Kubernetes中配置调度器
- 安装Kubernetes Dashboard
- 安装Kubernetes 1.21.5
- Kubernetes中的计算资源管理
- 如何使用 Docker 打包已注册的模型
- Kubernetes JSONPath实践
- minikube
- 在Kubernetes上安装Ingress
- Kubernetes API 服务器的安全防护
- Kubernetes中如何恢复误删的节点
- ConfigMap和Secret:配置应用程序
- Kubernetes中的卷:将磁盘挂载到容器
- Kubernetes中的节点亲和性和Pod亲和性
- Kubernetes中的污点和容忍度
- Kubernetes中的Service
- 基于模板创建Job
- Kubernetes中的Job和CronJob
- Kubernetes中的DaemonSet
- Kubernetes中的ReplicationController和ReplicaSet
- Kubernetes中的名字空间
- Kubernetes中的注解
- Kubernetes中的标签和标签选择器
- 通过端口转发连接Pod
- Kubernetes API
- 在Kubernetes上运行第一个应用
- Kubernetes中删除节点
- Kubernetes集群证书过期
- Kubernetes中的GPU共享
- 命令helm
- Install NVIDIA device plugin for Kubernetes
- 配置Kubernetes镜像源
- Kubernetes集群搭建Master节点
- Kubernetes集群加入Worker节点
Python [16]
- 打包 Python 工程到 PyPI
- 构建容器化 Python 应用程序
- Python in Visual Studio Code
- 使用 FastAPI 开发 RESTAPI 服务
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- Install Python3.9 in Ubuntu20.04
- Python办公自动化套件
- 远程执行Shell命令
- 在 Python 中解析和修改 XML
- OpenCV Python实践
- 使用 Python 临时文件模块
- Python实践
- Python爬虫实践
- 基于PyPIServer创建私有Python软件包存储库
- 配置pip镜像源
- Python文件、目录、路径操作
GitHub [1]
Command [23]
- 命令 nc
- Json Formatter
- 命令tr
- 命令lftp
- 命令man help info
- 命令base64
- 命令helm
- 命令yum
- 命令brew
- 命令ssh
- 命令tar
- 命令zip
- 命令cp
- 命令du
- 命令top
- 命令ln
- 命令chown
- 命令ffmpeg
- 命令find
- 命令grep
- 命令sed
- 命令wget
- 命令ls
ImageMagick [1]
Jupyter [1]
history [1]
Player [1]
Shell [3]
IoT [9]
- Thonny Python IDE
- IoT 硬件:Raspberry Pi Camera
- IoT 硬件:Raspberry Pi ReSpeaker 智能语音识别双麦克风阵列
- IoT 硬件:NeoPixel
- 基于腾讯云物联网开发平台的场景联动(智能电灯和光照传感器)
- 基于腾讯云物联网开发平台的光照传感器
- 基于腾讯云物联网开发平台的智能电灯
- 基于NodeMCU(ESP32)搭建Python开发环境
- 基于NodeMCU(ESP8266)搭建Python开发环境
SmartHome [3]
客户端 [1]
Hardware [3]
Welcome [1]
Software [3]
multi-tenancy [1]
文字识别 [1]
EdgeAI [3]
Go [1]
Nginx [1]
Storage [1]
工作日志 [7]
- 使用 wrk 对 FastAPI 上传和下载文件的基准测试
- FastAPI 上传和下载文件的基准测试
- Install Python3.9 in Ubuntu20.04
- 阿里云服务器 ECS 开放端口
- 基于健康码识别的 FastAPI 同步和异步函数的基准测试
- 阿里云 yum 安装应用报 404 错误
- 我删库了, rm -rf *
Dockerfile [3]
周报 [1]
阿里云 [2]
测试 [4]
性能优化 [1]
OpenVINO [9]
- 在 MacBook Pro M2 Max 上安装 OpenVINO
- OpenVINO Cross Check Tool
- Deep Learning Accuracy Validation Framework
- OpenVINO 神经网络性能分析
- OpenVINO 目标检测
- OpenVINO 图像分类
- Open Model Zoo
- OpenVINO 的工作原理
- Get Started OpenVINO
YOLOv5 [1]
IGD [1]
Benchmark [5]
curl [1]
open [1]
Optimization [2]
Compiler [2]
工作量估算 [1]
EasyEdge [1]
DLWorkbench [1]
机器学习平台 [1]
Environment [1]
TensorFlow [1]
PyTorch [1]
OpenWrt [1]
ChatGPT [4]
launchd [1]
FFmpeg [1]
EPEL [1]
Whisper [3]
LLaMA [1]
Ultralytics [1]
Roboflow [1]
UltralyticsHub [1]
GitHubCopilot [6]
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
- 人工智能编码助手(AI Coding Assistant)功能
- Tabby - GitHub Copilot 的开源替代解决方案
- Copilot for CLI
- GitHub Copilot - Your AI pair programmer
RESTAPI [4]
- FastAPI 开发 RESTAPI 实践
- FastAPI : Request File and Form(BaseModel)
- 基于 FastAPI 开发 Ultralytics Serving
- 人工智能服务 REST API 响应的 JSON 格式
alias [1]
ChatGLM-6B [2]
AutoGPT [1]
文心一言 [1]
LLM [28]
- OpenAI API Compatibility
- AutoTrain
- 推测解码 (Speculative Decoding)
- LLM 的合成数据
- Langfuse: Open Source LLM Engineering Platform
- SGLang 大模型服务框架
- 大模型推理需要多少显存?
- GraphRAG
- RAG 复杂场景下的工作流程和构建知识库的解析方法
- LLM 技术栈
- 大型语言模型驱动的自主代理
- 基于 LLM 的源代码安全缺陷分析
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- Xorbits Inference: 模型服务变得更容易
- ChatTongyi
- Meta Llama 3
- Anthropic Claude
- Together AI - The fastest cloud platform for building and running generative AI
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- vLLM 部署 Qwen1.5 LLM
- Candle
- OLMo - Open Language Model
- LLM 的基准测试
- AI 大模型基础服务架构图
- AI 大模型
- 部署 LLM
- Large Language Models(大语言模型)
OpenAI-API [3]
OpenAI-API-Embedding [1]
OpenAI-API-Chat-Completion [1]
Chatbot [2]
HuggingFace [2]
LangChain [9]
- LangChain Blog: In the Loop
- LangChain : SQL Chain & SQL Agent
- LangChain : Tagging and Extraction Using OpenAI functions
- LangChain Chat Models Function & Tool Calling
- DashScope 模型服务灵积
- LangChain Text2SQL Agent
- LangChain
- LangChain for LLM Application Development
- LangChain 快速入门
Chain [1]
PaddleSpeech [1]
讯飞星火 [1]
Cache [1]
.DS_Store [1]
Inference [2]
multi-platform [1]
Stable-Diffusion [1]
Prompt [1]
Fine-Tuning [6]
- SWIFT: Scalable lightWeight Infrastructure for Fine-Tuning
- 使用大型语言模型微调命名实体识别
- 使用大型语言模型微调命名实体识别生成
- LLaMA-Factory 微调 Text2SQL
- LLaMA Factory: Easy and Efficient LLM Fine-Tuning
- OpenAI Fine Tuning
GPT [1]
ChatGPT-API [1]
Diffusion [1]
StorageClass [1]
ECK [1]
Prometheus-Operator [1]
MySQL [1]
ChatGLM2-6B [1]
Velero [1]
MinIO [1]
PrivateGPT [2]
WiFi [1]
OCR [1]
API_KEY [1]
Embeddings [1]
HuggingFaceEmbeddings [1]
FastChat [3]
网络 [1]
NGINX [2]
Race [1]
GPT4All [1]
ChatGLM3 [1]
SeamlessM4T [1]
TensorRT-LLM [1]
llama.cpp [2]
git [2]
Ollama [2]
TGI [2]
SDXL-Turbo [1]
Phi-2 [1]
MLX [11]
- MLX: An array framework for Apple silicon
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
- MLX LLMS Examples
- MLX: An array framework for Apple silicon
QWen [1]
Langchain‐Chatchat [1]
Leaderboard [1]
CodeFuse, [1]
CodeLLM [1]
CodeGPT [3]
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- CodeGPT: 智能辅助编程
IntelliJIDEA [2]
DeepSeek-Coder [2]
Tabby [7]
- Tabby 使用指南
- Tabby 的基准测试
- 在 GeForce GTX 1060 上部署 Tabby - AI编码助手
- 基于 VSCode 使用 Tabby 插件搭建免费的 GitHub Copilot
- 基于 IntelliJ IDEA 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- 基于 PyCharm 使用 Tabby 和 CodeGPT 插件搭建免费的 GitHub Copilot
- Tabby - GitHub Copilot 的开源替代解决方案
NVIDIA-Driver [1]
PyCharm [1]
VSCode [2]
NVIDIAContainerToolkit [1]
AICodingAssistant [17]
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Bloop 使用指南
- Cursor 使用指南
- Tabby 使用指南
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Dify
- Continue
- Ollama
- LLM 技术栈
- UnitMesh: AI 赋能软件研发全流程
- 人工智能编码助手(AI Coding Assistant)
- 人工智能编码助手(AI Coding Assistant)功能
Sourcegraph [1]
Cody [1]
vLLM [3]
proxy [1]
UnitMesh [1]
Text2SQL [10]
- LangChain : SQL Chain & SQL Agent
- LangChain Text2SQL Agent
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(八):使用 LoRA 基于 TinyLlama 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(七):MLX 微调的模型转换为 GGUF 模型
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(六):使用 LoRA 基于 Deepseek-Coder-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(五):对比使用 LoRA 和 QLoRA 基于 Mistral-7B 微调的效果
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(四):使用 QLoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(三):分享微调后的模型到 HuggingFace Hub
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(二):使用 LoRA 基于 Mistral-7B 微调
- 在 MLX 上使用 LoRA / QLoRA 微调 Text2SQL(一):使用 LoRA 基于 Mistral-7B 微调
OLMo [1]
NLP [1]
Transformers [1]
Copilot [1]
Kimi [1]
Rust [1]
GettingStarted [2]
DeepLearningAI [2]
GenerativeAI [1]
Candle [1]
PromptEngineering [1]
Llama [2]
TogetherAI [1]
Continue [10]
- Continue 源码分析 - 各种命令调用大模型的输入和输出
- Continue 源码分析 - 向量数据库存储位置
- Continue 源码分析 - 键盘快捷键
- Continue 源码分析 - RerankerRetrievalPipeline
- Continue 源码分析 - SQLite 数据库设计
- Continue 源码分析 - transformers.js 大模型提供者
- Continue 源码分析
- Continue
- Continue - It’s time to collect data on how you build software
- Continue Code LLM Autopilot
Agent [5]
DashScope, [1]
ToolCalling [1]
Claude [1]
Gradio [2]
DataFrame [1]
ChatTongyi [1]
LLaMA-Factory [2]
Xinference [1]
Qwen [1]
NER [3]
Next.js [1]
SWIFT [1]
视觉问答 [4]
- GLM-4V-9B
- Phi-3-vision-128k-instruct 微软开源多模态大模型
- MiniCPM-Llama3-V 2.5 端侧可用的 GPT-4V 级多模态大模型
- CogVLM2 智谱开源多模态大模型
CogVLM [1]
MiniCPM-V [1]
Phi [1]
安全缺陷分析 [1]
CrewAI [1]
AIInfra [1]
SiliconFlow [1]
Dify [1]
AutoGen [1]
GLM4 [1]
PostgreSQL [1]
ElmoChat [1]
AICopilot [1]
RAG [1]
VannaAI [1]
TextToSQL [1]
FastEmbed [1]
Qdrant [1]
Text2Image [1]
Kolors [1]
TypeScript [1]
GraphRAG [1]
Cursor [1]
Bloop [1]
VRAM [1]
SGlang [1]
Higress [1]
AIGateway [3]
Kong [1]
LiteLLM [1]
Langfuse [1]
Qwen-Coder [1]
arXiv [2]
Qwen2 [1]
Letta [1]
MemGPT [1]
Synthetic [1]
Reader-LM [1]
jina-embeddings-v3 [1]
SpeculativeDecoding [1]
AutoTrain [1]
Atlas800 [4]
- 华为 Atlas A2 上使用 LLaMA-Factory 模型微调
- 华为 Atlas A2 算力切分
- 华为 Atlas 800I A2 服务器的大模型推理性能压测
- 在华为 Atlas 800I A2 服务器上搭建大模型推理服务