这段时间‌‌DeepSeek是非常火,APP也免费提供使用了,‌DeepSeek和ChatGPT各有自己的优势,具体表现取决于使用场景。‌全面测试对DeepSeek与ChatGPT比较。deepseek对接API接口时继承了OpenAI兼容的格式,最新发布的deepseek-R1模型也属于推理高级模型也能接入API使用了,DeepSeek数学与编程能力在文字总结方面表现出色,响应速度两者差不多,上下文理解能力ChatGPT长时间对话中表现更佳,成本与开放性方便DeepSeek以低成本高效能著称,并且是开源模型,ChatGPT非开源,成本使用相对较高。文章写作时DeepSeek提供了更多实质性的论据和数据支持(只有推理模型支持),而ChatGPT的文笔简洁,结构清晰然而在图形处理、翻译等其他领域,DeepSeek的表现不如ChatGPT。ChatGPT则以其强大的对话生成能力和多样的翻译能力脱颖而出,无论是在日常交流、写代码、改代码、学术翻译还是创意写作中,都展现了强大的潜力。

大家最关心的是如何修改自己的ChatGPT创作付费系统接口,DeepSeek API 使用与 OpenAI 兼容的 API 格式,通过修改配置,您可以使用 OpenAI SDK 来访问 DeepSeek API,或使用与 OpenAI API 兼容的软件。

PARAM VALUE
base_url *
1
https://api.deepseek.com
api_key apply for an API key

如果只是使用deepseek-chat模型可以默认不用修改,现成就能使用,默认是调用DeepSeek-V3模型

20250207200112485

20250207200306416

 

如果是需要接入推理模型 (deepseek-reasoner)就没戏了,原来想改下数据库模型名称,再改加下代码就可以用看来实现不了,不过费事了这么多还是把修改后的代码附上

还有个选择用使用百度千帆的DeepSeek接口实现deepseek-r1接口,具体自行研究看

/extend/ChatGPT/deepseek.php 51行加上供参考

1
2
3
4
5
// 如果是 deepseek-reasoner 模型,调整请求参数
if (self::$model === 'deepseek-reasoner') {
$post['model'] = 'deepseek-reasoner';
// 可以根据需要调整其他参数
}

20250207200431342

看看要求要玩推理模型只能部署本地玩了,以下是将 DeepSeek-R1 大语言模型部署到服务器所需的 完整环境配置,涵盖硬件、软件、依赖库及网络要求:

一、硬件环境要求

1. GPU 配置(核心)

  • 显存要求
    • 单卡场景:至少 NVIDIA A100 80GB(千亿参数模型需显存 ≥80GB)。
    • 多卡场景:支持 NVIDIA A100/H100 多卡并行(需显存总量 ≥80GB,推荐 2×A100 80GB)。
  • 计算能力:GPU 架构需为 Ampere 或更新(如 A100、H100、RTX 4090 等),CUDA Compute Capability ≥8.0。

2. CPU 与内存

  • CPU
    • 推荐 Intel Xeon 或 AMD EPYC 系列,16 核以上(需支持 AVX-512 指令集)。
  • 内存
    • 最低 128GB DDR4,推荐 256GB+(用于处理长上下文和中间计算缓存)。

3. 存储

  • 硬盘空间
    • 模型文件:约 200–300GB(FP16 精度,含分词器和配置文件)。
    • 系统与缓存:额外预留 100GB+ SSD/NVMe 空间。
  • IO 速度:推荐 NVMe SSD,读写速度 ≥3GB/s。

 

环境也要安装ollama才支持,折腾了2天放弃,由于DeepSeek官方API经常遭受攻击或者繁忙不可用,所以建议使用第三方部署的deepseek-r1接口,有硬件资源的也可以自己本地部署。

还有种访求使用百度千帆的DeepSeek接口调用。

-----------------------------------------------------------------

方式一:百度千帆的DeepSeek接口调用

进入千帆控制台->应用管理,创建一个应用,复制 应用ID 到后台,进入API Key管理页,创建一个key,复制到后台

20250208095115588

-------------------------------------------------------------------

方式二:本地部署deepseek-r1文档

第1步:安装ollama

官方下载地址:https://ollama.com,下载安装。

安装完在cmd里运行 ollama -v ,能正确显示版本号就表示安装成功了

20250208100700802

第2步:运行模型(仅需1条命令)

进入 ollama 的 deepseek-r1 介绍页面,根据自己的硬件情况,选择一个合适的版本,复制命令到cmd运行即可(建议32b及以上)

https://ollama.com/library/deepseek-r1:32b

DeepSeek接入ChatGPT创作系统API DeepSeek-V3模型部署+本地部署deepseek-r1文档插图520250208100713552

例如7b模型: ollama run deepseek-r1:7b

首次运行会自动下载模型(最后1%下载很慢,可 ctrl+c 中断后重新运行命令,续传就快了)

运行完命令可在控制台直接对话,如下图(Windows),linux同样的命令:

20250208100735763

第3步:将API地址配置到后台

Ollama默认服务端口是11434,其提供的OpenAI格式的API地址为:

http://[ip地址]:11434/v1/chat/completions

将此地址填到后台就可以在线调用了(只适用最新版,老版改下代码)

20250208100843791

最后,附几个ollama常用命令:

ollama -v :查看ollama版本号

ollama run [模型名称] :运行一个模型

ollama serve :启动ollama服务

ollama list :列出本地所有可用的模型

ollama rm [模型名称] :删除一个已安装的模型

服务声明: 本网站除正版商用版块可商用外,其他所有发布的源码、软件和资料均为作者提供或网友推荐收集各大资源网站整理而来,仅供功能验证和学习研究使用,您必须在下载后24小时内删除。不得使用于非法商业用途,不得违反国家法律,否则后果自负!一切关于该资源商业行为与本站无关。如果您喜欢该程序,请支持购买正版源码,得到更好的正版服务。如有侵犯你的版权合法权益,请邮件或QQ:3089659733与我们联系处理删除(邮箱:ynzsy@qq.com),本站将立即更正。