主机论坛

 找回密码
 立即注册
搜索
热搜: 活动 交友 discuz
查看: 221|回复: 9

deepseek模型能在vps上跑吗

[复制链接]

57

主题

425

回帖

1681

积分

金牌会员

Rank: 6Rank: 6

积分
1681
发表于 2025-2-2 05:44:44 | 显示全部楼层 |阅读模式
就是deepseekchat模型能用cpu跑吗如果vps不行 杜甫需要至少什么配置才行?有没有试过的大佬
回复

使用道具 举报

2

主题

174

回帖

600

积分

高级会员

Rank: 4

积分
600
发表于 2025-2-2 08:43:30 | 显示全部楼层
看配置,可以试试1.5B的,我的普通笔记本配置问了ChatGPT说最多能跑7B的,我试了试,勉强能跑14B的呢
回复

使用道具 举报

57

主题

425

回帖

1681

积分

金牌会员

Rank: 6Rank: 6

积分
1681
 楼主| 发表于 2025-2-2 07:15:17 | 显示全部楼层
ding
回复

使用道具 举报

6

主题

183

回帖

612

积分

高级会员

Rank: 4

积分
612
发表于 2025-2-2 07:20:04 | 显示全部楼层
有4090 gpu的vps勉强一试

回复

使用道具 举报

145

主题

2536

回帖

6299

积分

论坛元老

Rank: 8Rank: 8

积分
6299
发表于 2025-2-2 07:56:38 | 显示全部楼层
蒸馏过的
原版671b
你4090最多就32b
回复

使用道具 举报

82

主题

325

回帖

1180

积分

金牌会员

Rank: 6Rank: 6

积分
1180
发表于 2025-2-2 08:47:33 | 显示全部楼层
云服务器差不多吧.谷歌 甲骨文 亚马逊的. GPU估计价格贵死.
自己部署没任何意义. 部署完的跟他们官网的问答结果也不一样. 自己部署的一般都比较笨.
回复

使用道具 举报

7

主题

343

回帖

1123

积分

金牌会员

Rank: 6Rank: 6

积分
1123
发表于 2025-2-2 09:48:35 | 显示全部楼层
普通的肯定不行
回复

使用道具 举报

8

主题

152

回帖

546

积分

高级会员

Rank: 4

积分
546
发表于 2025-2-2 10:21:32 | 显示全部楼层
LLM很久以前就能跑在树莓派上了,但是都是很小的模型或者经过量化的模型,跟L没什么关系了
回复

使用道具 举报

634

主题

2万

回帖

5万

积分

论坛元老

Rank: 8Rank: 8

积分
50426
发表于 2025-2-2 10:25:22 | 显示全部楼层
能,但是没有必要
回复

使用道具 举报

82

主题

325

回帖

1180

积分

金牌会员

Rank: 6Rank: 6

积分
1180
发表于 2025-2-2 11:54:52 | 显示全部楼层
家里电脑配置还过得去的,可以跑个14B-32B,然后提供接口,通过FRP映射到VPS上,这样就可以在外面用了,不过没什么必要,完整版的API以后就是白菜价,正常人又不会高频使用的,自建意义不大不太清楚, 但就算能跑的话, 也没必要啊. VPS 那点算力, 对于跑大模型来说, 聊胜于无? 你倒是可以充点钱在 Colab 里先在 Colab 里试试, Colab 里的机器是带 GPU 的, 而且型号不错.

----------------------------------------------------------------

小尾巴~~~~~
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

QQ|Archiver|手机版|小黑屋|主机论坛

GMT+8, 2025-5-18 16:15 , Processed in 0.072994 second(s), 19 queries .

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表