dify+新版DeepSeek V3

1.上下文长度更长:支持的上下文长度由64k->128k,上下文理解能力增强,并支持更长的上下文长度;

2.参数量更大:参数量由原来的671b,增加到685b;

3.编程、数学能力显著提升;

4.生成速度更快:从20 TPS提升至60 TPS(不过这个肯定还是吃算力,以及服务器压力过大的话也会变慢);

5.多位博主实测,其生成网页,svg等页面的审美大幅提升,直逼Claude3.7。

下面是dify接入新版deepseek v3,并看下实测效果。

获取新版DeepSeek V3 API

要想接入大模型就要获取老三样:

模型名称、API地址、apikey

deepseek昨天才开源的新版deepseek v3,openrouter立马就上线了(关键api还是免费使用)。

openrouter地址:https://openrouter.ai/

访问openrouter,首页就能看到新版V3,点击进入

dify+新版DeepSeek V3

模型名称:deepseek/deepseek-chat-v3-0324:free

如果没有apikey可以先创建

顺便说一下API地址是:https://openrouter.ai/api/v1

dify+新版DeepSeek V3

接入dify并测试知识库效果

进入 dify->右上角头像->设置->模型供应商

找到openrouter,点击安装

dify+新版DeepSeek V3

在安装好的供应商列表找到openrouter,点击设置

把openrouter的apikey粘贴到下图位置,保存

dify+新版DeepSeek V3

这里会自动读取相关模型,但是自动读取到的模型里面并没有新版deepseek v3,所以我们需要额外添加

点击添加模型,填写模型名称和apikey,保存

dify+新版DeepSeek V3

接下来,我直接用上次测试minimax-01的知识库来对新版deepseek v3进行测试。

感兴趣的朋友可以看下之前这篇:使用了不同的方式构建知识库,并且当你的知识库内容非常庞大的时候,更适合用minimax-01

在bot的编辑页面,点击 模型参数配置->多个模型进行调试

dify+新版DeepSeek V3

这里我开了两个模型,一个是刚刚配置的openrouter的新版v3,一个是硅基流动的旧版v3

这时,我在输入框发送一个问题,两边就会同时执行,用来测试不同模型的效果非常方便、直观。

dify+新版DeepSeek V3

从上面第一个问题可以看出,虽然两边都回答正确,但是新版v3更详细

我们在看看第二个问题(下图)

回答的内容都正确,但还是新版V3更详细(上边新版V3,下边旧版V3)

dify+新版DeepSeek V3
新版V3
dify+新版DeepSeek V3
旧版V3

第四个问题:如何降低论文AI率?

知识库中提到了两种,一种是海外Humanizer Pro,一种是智谱的Humanizer Pro,新版V3两种都提到了,而旧版V3缺少了智谱的Humanizer Pro。

dify+新版DeepSeek V3
dify+新版DeepSeek V3

当然,测试不止上面给出的4个,我进行了很多轮测试

实测下来,真的新版DeepSeek V3,提升不止一点点。

上下文理解能力显著增强,回复更加详细不容易出现幻觉prompt理解能力增强,更加遵守prompt。经过多次测试,发现回复的内容,习惯性的会增加表格,进行对比(这点太贴心了)
所以,现在新版DeepSeek V3应该是目前最具性价比的大模型了。

所以,现在新版DeepSeek V3应该是目前最具性价比的大模型了。

各方面能力都直逼Claude3.7,但API甚至还能免费用。

阅读剩余 91%

转载作品,原作者:袋鼠帝AI客栈,文章来源:https://mp.weixin.qq.com/s/mtqjI5BxXHeu9jZ8Fl7P4A

(0)
打赏 微信赞赏 微信赞赏 支付宝赞赏 支付宝赞赏
上一篇 2025-03-25 15:41
下一篇 2025-03-28 13:31

相关推荐

发表回复

登录后才能评论
扫码了解
扫码了解
反馈建议
分享本页
返回顶部