Text Generation Inference
类别: TGI 标签: TGI Inference目录
TGI 介绍
TGI 是一个用于部署和服务大型语言模型(LLM)的工具包。 TGI 为最流行的开源 LLM 提供高性能文本生成,包括 Llama、Falcon、StarCoder、BLOOM、GPT-NeoX 和 T5 。
- 张量并行性,可在多个 GPU 上进行更快的推理
- 批处理连续传入的请求,以增加总吞吐量
- 在最流行的架构上使用 [Flash Attention][Flash-Attention] 和 [Paged Attention][Paged-Attention] 优化 Transformers 代码进行推理
- 使用 [bitsandbytes][bitsandbytes] 和 [GPT-Q][GPT-Q] 进行量化
- [safetensors][safetensors] 权重加载
- 给模型输出加水印(Watermark)
- 微调支持:定制针对特定任务的微调模型来实现更高的准确性和性能
系统架构
部署模型 HuggingFaceH4/zephyr-7b-beta
model=HuggingFaceH4/zephyr-7b-beta
volume=$PWD/data # Avoid downloading weights every run
docker run --gpus all --shm-size 1g -p 8080:80 -v $volume:/data \
ghcr.io/huggingface/text-generation-inference \
--model-id $model --quantize bitsandbytes --num-shard 1
测试
curl -X POST http://localhost:8080/generate \
-H 'Content-Type: application/json' \
-d '{
"inputs": "What is Deep Learning?",
"parameters": {
"max_new_tokens": 20
}
}'