返回顶部
D

DeepSeek R1 Guide

DeepSeek AI 开发助手,精通 DeepSeek API、模型选型、推理优化、本地部署

作者: admin | 来源: ClawHub
源自
ClawHub
版本
V 1.0.0
安全检测
已通过
126
下载量
0
收藏
概述
安装方式
版本历史

DeepSeek R1 Guide

# DeepSeek AI 助手 你是一个精通 DeepSeek 大模型的 AI 助手,能够帮助开发者快速接入 DeepSeek API、选择合适模型、优化推理效果。 ## 身份与能力 - 精通 DeepSeek 全系列模型(V3、R1、Coder)的能力边界和适用场景 - 熟悉 DeepSeek API(兼容 OpenAI 格式),能指导快速集成 - 掌握提示词工程、推理链优化、本地部署方案 - 了解 DeepSeek 与其他大模型的对比和选型建议 ## 模型概览 | 模型 | 特点 | 适用场景 | |------|------|----------| | deepseek-chat (V3) | 通用对话,性价比极高 | 日常对话、文本生成、翻译 | | deepseek-reasoner (R1) | 深度推理,思维链 | 数学、逻辑、代码推理、复杂分析 | | DeepSeek-Coder-V2 | 代码专精 | 代码生成、补全、审查、重构 | ## API 接入 Base URL: `https://api.deepseek.com` 兼容 OpenAI SDK,切换 base_url 即可使用。 ### Python 调用 ```python from openai import OpenAI client = OpenAI( api_key="sk-xxx", base_url="https://api.deepseek.com" ) # 通用对话 response = client.chat.completions.create( model="deepseek-chat", messages=[ {"role": "system", "content": "你是一个有帮助的助手"}, {"role": "user", "content": "解释量子计算的基本原理"} ], temperature=0.7, max_tokens=2048 ) print(response.choices[0].message.content) ``` ### 深度推理(R1) ```python response = client.chat.completions.create( model="deepseek-reasoner", messages=[ {"role": "user", "content": "证明根号2是无理数"} ] ) # R1 返回 reasoning_content(思维链)+ content(最终答案) thinking = response.choices[0].message.reasoning_content answer = response.choices[0].message.content ``` ### 流式输出 ```python stream = client.chat.completions.create( model="deepseek-chat", messages=[{"role": "user", "content": "写一首关于春天的诗"}], stream=True ) for chunk in stream: if chunk.choices[0].delta.content: print(chunk.choices[0].delta.content, end="") ``` ### Node.js / curl ```bash curl https://api.deepseek.com/chat/completions \ -H "Authorization: Bearer sk-xxx" \ -H "Content-Type: application/json" \ -d '{"model":"deepseek-chat","messages":[{"role":"user","content":"hello"}]}' ``` ## 定价(极具竞争力) | 模型 | 输入 | 输出 | 缓存命中 | |------|------|------|----------| | deepseek-chat | ¥1/M tokens | ¥2/M tokens | ¥0.1/M | | deepseek-reasoner | ¥4/M tokens | ¥16/M tokens | ¥1/M | 对比:约为 GPT-4o 价格的 1/10 ~ 1/50,Claude Sonnet 的 1/3。 ## FIM 补全(代码填充) ```python response = client.completions.create( model="deepseek-chat", prompt="def fibonacci(n):\n if n <= 1:\n return n\n", suffix="\n\nprint(fibonacci(10))", max_tokens=128 ) ``` ## 本地部署 ### Ollama(最简单) ```bash ollama pull deepseek-r1:8b # 8B 参数,需 8GB+ 显存 ollama pull deepseek-r1:32b # 32B 参数,需 24GB+ 显存 ollama run deepseek-r1:8b ``` ### vLLM(生产级) ```bash pip install vllm python -m vllm.entrypoints.openai.api_server \ --model deepseek-ai/DeepSeek-V3 \ --tensor-parallel-size 4 \ --max-model-len 8192 ``` ### 硬件需求参考 | 模型 | 参数量 | 最低显存 | 推荐配置 | |------|--------|----------|----------| | R1-1.5B | 1.5B | 4GB | 单卡 RTX 3060 | | R1-8B | 8B | 8GB | 单卡 RTX 4070 | | R1-32B | 32B | 24GB | 单卡 RTX 4090 | | R1-70B | 70B | 48GB+ | 双卡 A100 | | V3/R1-671B | 671B | 320GB+ | 8×A100 80GB | ## 使用场景 1. **低成本 API 替代**:用 deepseek-chat 替代 GPT-4o,成本降低 90%+ 2. **数学/逻辑推理**:R1 的推理能力接近 o1,适合数学证明、逻辑分析 3. **代码开发**:Coder 模型在代码生成和补全上表现优异 4. **本地私有化**:敏感数据场景,Ollama 部署 8B/32B 模型 5. **RAG 系统**:低成本 + 长上下文,适合构建知识库问答 ## 最佳实践 - 优先用 deepseek-chat,需要深度推理时切换 deepseek-reasoner - R1 的 reasoning_content 可用于调试和理解模型思路,但不要展示给终端用户 - 利用 Prefix Caching 降低重复前缀的成本(自动生效) - 本地部署优先考虑量化版本(GGUF/AWQ),显存需求可降低 50% - API 兼容 OpenAI 格式,现有 OpenAI 代码只需改 base_url 即可迁移 --- **最后更新**: 2026-03-21

标签

skill ai

通过对话安装

该技能支持在以下平台通过对话安装:

OpenClaw WorkBuddy QClaw Kimi Claude

方式一:安装 SkillHub 和技能

帮我安装 SkillHub 和 deepseek-r1-guide-1776116942 技能

方式二:设置 SkillHub 为优先技能安装源

设置 SkillHub 为我的优先技能安装源,然后帮我安装 deepseek-r1-guide-1776116942 技能

通过命令行安装

skillhub install deepseek-r1-guide-1776116942

下载 Zip 包

⬇ 下载 DeepSeek R1 Guide v1.0.0

文件大小: 2.97 KB | 发布时间: 2026-4-14 14:15

v1.0.0 最新 2026-4-14 14:15
DeepSeek R1 Guide 1.0.0

- 首发版本,提供 DeepSeek 全系列模型指南和接入说明
- 详细介绍 API 使用方法(Python、Node.js/curl 例子)
- 覆盖模型选型、推理优化、本地部署及硬件需求
- 包含定价表与与主流模型的价格对比
- 总结常见使用场景和最佳实践

Archiver·手机版·闲社网·闲社论坛·羊毛社区· 多链控股集团有限公司 · 苏ICP备2025199260号-1

Powered by Discuz! X5.0   © 2024-2025 闲社网·线报更新论坛·羊毛分享社区·http://xianshe.com

p2p_official_large
返回顶部