前言

DeepSeek服务器繁忙这几天已经见怪不怪了,但是第三方的SiliconFlow也卡的不成样,于是在网上找了找,又发现了一家可以白嫖的第三方部署——火山引擎

虽然我不怎么喜欢它旗下的豆包,但是不得不说,它部署的DeepSeek模型响应速度以及TPM限制可以说是很用户友好的了

正文

每个模型默认有30000 RPM的5000000的TPM,这下只要钱包不瘪,想怎么请求就怎么请求

目前每个模型赠送有50万的Token,每千tokens的价格和官方一致,通过邀请码注册并完成实名认证还可以获得15元的代金券,同样可以用来白嫖

我的邀请码是:GXJYPZL7 (图穷匕见doge)

邀请链接如下:https://www.volcengine.com/experience/ark?ac=DSASUQY5&rc=GXJYPZL7

而且就我近日的使用体验来看,出token的速度很快,比阿里云都快一些,吊打SiliconFlow

使用教程

进入火山方舟

控制台

在左边菜单栏找到“开通管理”并点击,

然后找到DeepSeek-R1和V3,点击最右边的“开通服务”(这里我已经开通了所以显示的是关闭服务),

开通完成后在左边菜单栏找到“在线推理”,这里有预制推理接入点和自定义推理接入点,

在线推理

我一开始用的是自定义,但是现在貌似预置的简单些,这里就用预置做演示:

点击创建API Key,然后我们可以看到完整的API请求地址为:https://ark.cn-beijing.volces.com/api/v3/chat/completions

选择对应的模型,我们可以看到curl请求命令里model对应的值,就是我们请求时需要填写的模型名称

注:完成一次请求后这个页面会变,想要再次看到这个页面可以点击“查看 API Key”旁边的“快速入门”,然后选择我们的R1模型,得到R1模型对应的模型名称,或者在请求前都记住也可以。

最后来到我们喜闻乐见的Cherry Studio(chatbox同理)

Cherry Studio

在模型服务里找到火山引擎,因为Cherry Studio已经内置的火山引擎服务商,所以这里上文的API请求地址用不着,

填写之前创建的API Key,然后点击“添加”按钮添加模型,模型ID就为之前看到的curl请求命令里model对应的值,

添加完模型就可以愉快的玩耍了

chatbox貌似没有内置火山引擎,因此需要自己创建自定义提供方,将API请求地址拆分为“API域名”和“API路径”,

API域名填写 https://ark.cn-beijing.volces.com/api/v3

API路径则不用变

最后就可以愉快的玩耍啦~