程序员一二事
首页
博客
运维
Shell
Docker
K8S
CI/CD
devops
AI
OCR 文字识别
大模型部署
使用手册
程序员工具
资源
大模型部署
资源
下载模型
DeepSeek
vllm
docker 部署
k8s 部署
DeepSeek 部署
2台H800
4台H800
4090 部署
常见问题
Input prompt (8725 tokens) is too long and exceeds limit of 2048
deepseek 模型 思维链未正确输出 think 标签
sglang
DeepSeek 部署
多节点分布式部署
模型转换为 BF16
gpustack
H800 部署
deepseek-ai/DeepSeek-R1-Distill-Qwen-32B 压测 数据
deepseek-ai/DeepSeek-R1-Distill-Llama-70B 压测
分布式推理(deepseek-ai/DeepSeek-R1/V3)
xinference
infinity
docker 部署
lmdeploy
官方介绍
docker 部署
llama.cpp
docker 部署
windows 下部署
GGUF
ollama
docker 部署
模型管理
定制模型
LLaMA/llama.cpp/ollama 关系
模型应用
dify
并发性能性化
curl 测试
通用
嵌入
重排序
k6压测
大模型部署
更新时间:2025年2月9日 21:35
浏览:809
导航
首页
博客
运维
运维
Shell
Docker
K8S
CI/CD
devops
AI
AI
OCR 文字识别
大模型部署
使用手册
程序员工具
资源