1.上下文长度更长:支持的上下文长度由64k->128k,上下文理解能力增强,并支持更长的上下文长度;
2.参数量更大:参数量由原来的671b,增加到685b;
3.编程、数学能力显著提升;
4.生成速度更快:从20 TPS提升至60 TPS(不过这个肯定还是吃算力,以及服务器压力过大的话也会变慢);
5.多位博主实测,其生成网页,svg等页面的审美大幅提升,直逼Claude3.7。
下面是dify接入新版deepseek v3,并看下实测效果。
获取新版DeepSeek V3 API
要想接入大模型就要获取老三样:
模型名称、API地址、apikey
deepseek昨天才开源的新版deepseek v3,openrouter立马就上线了(关键api还是免费使用)。
openrouter地址:https://openrouter.ai/
访问openrouter,首页就能看到新版V3,点击进入

模型名称:deepseek/deepseek-chat-v3-0324:free
如果没有apikey可以先创建
顺便说一下API地址是:https://openrouter.ai/api/v1

接入dify并测试知识库效果
进入 dify->右上角头像->设置->模型供应商
找到openrouter,点击安装
因为是调用github,可能会有点慢,或者失败,多试几次即可

在安装好的供应商列表找到openrouter,点击设置
把openrouter的apikey粘贴到下图位置,保存

这里会自动读取相关模型,但是自动读取到的模型里面并没有新版deepseek v3,所以我们需要额外添加
点击添加模型,填写模型名称和apikey,保存

接下来,我直接用上次测试minimax-01的知识库来对新版deepseek v3进行测试。
感兴趣的朋友可以看下之前这篇:使用了不同的方式构建知识库,并且当你的知识库内容非常庞大的时候,更适合用minimax-01
在bot的编辑页面,点击 模型参数配置->多个模型进行调试

这里我开了两个模型,一个是刚刚配置的openrouter的新版v3,一个是硅基流动的旧版v3
这时,我在输入框发送一个问题,两边就会同时执行,用来测试不同模型的效果非常方便、直观。

从上面第一个问题可以看出,虽然两边都回答正确,但是新版v3更详细。
我们在看看第二个问题(下图)
回答的内容都正确,但还是新版V3更详细(上边新版V3,下边旧版V3)


第四个问题:如何降低论文AI率?
知识库中提到了两种,一种是海外Humanizer Pro,一种是智谱的Humanizer Pro,新版V3两种都提到了,而旧版V3缺少了智谱的Humanizer Pro。


当然,测试不止上面给出的4个,我进行了很多轮测试
实测下来,真的新版DeepSeek V3,提升不止一点点。
上下文理解能力显著增强,回复更加详细,不容易出现幻觉,prompt理解能力增强,更加遵守prompt。经过多次测试,发现回复的内容,习惯性的会增加表格,进行对比(这点太贴心了)
所以,现在新版DeepSeek V3应该是目前最具性价比的大模型了。
所以,现在新版DeepSeek V3应该是目前最具性价比的大模型了。
各方面能力都直逼Claude3.7,但API甚至还能免费用。
不过openrouter的新版deepseek v3接口有点不太稳,偶尔会卡住几秒到几十秒才继续回复,生产环境建议等火山、硅基流动等接入之后在切换
转载作品,原作者:袋鼠帝AI客栈,文章来源:https://mp.weixin.qq.com/s/mtqjI5BxXHeu9jZ8Fl7P4A