Linux.do 热门话题 – Telegram
Linux.do 热门话题
2.91K subscribers
25.6K photos
35 videos
13 files
41.7K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
DeepSeek 本地部署配置清单

1. 小型模型

DeepSeek-R1-1.5B
CPU:最低 4 核
内存:8GB+
硬盘:256GB+(模型文件约 1.5-2GB)
显卡:非必需(纯 CPU 推理)。
适用场景:本地测试,自己电脑上可以配合 Ollama 轻松跑起来。
预计费用:2000~5000。

1. 中型模型

DeepSeek-R1-7B
CPU:8 核+
内存:16GB+
硬盘:256GB+(模型文件约 4-5GB)
显卡:推荐 8GB+ 显存(如 RTX 3070/4060)。
适用场景:本地开发和测试,可以处理一些中等复杂度的自然语言处理任务,比如文本摘要、翻译、轻量级多轮对话系统等。
预计费用:5000~10000。
DeepSeek-R1-8B
CPU:8 核+
内存:16GB+
硬盘:256GB+(模型文件约 4-5GB)
显卡:推荐 8GB+ 显存(如 RTX 3070/4060)。
适用场景:适合需要更高精度的轻量级任务,比如代码生成、逻辑推理等。
预计费用:5000~10000。

1. 大型模型

DeepSeek-R1-14B
CPU:12 核+
内存:32GB+
硬盘:256GB+
显卡:16GB+ 显存(如 RTX 4090 或 A5000)。
适用场景:适合企业级复杂任务,比如长文本理解与生成。
预计费用:20000~30000。
DeepSeek-R1-32B
CPU:16 核+
内存:64GB+
硬盘:256GB+
显卡:24GB+ 显存(如 A100 40GB 或双卡 RTX 3090)。
适用场景:适合高精度专业领域任务,比如多模态任务预处理。这些任务对硬件要求非常高,需要高端的 CPU 和显卡,适合预算充足的企业或研究机构使用。
预计费用:40000~100000。

1. 超大型模型

DeepSeek-R1-70B
CPU:32 核+
内存:128GB+
硬盘:256GB+
显卡:多卡并行(如 2x A100 80GB 或 4x RTX 4090)。
适用场景:适合科研机构或大型企业进行高复杂度生成任务。
预计费用:400000+。
DeepSeek-R1-671B
CPU:64 核+
内存:512GB+
硬盘:512GB+
显卡:多节点分布式训练(如 8x A100/H100)。
适用场景:适合超大规模 AI 研究或通用人工智能(AGI)探索。

Source: https://mp.weixin.qq.com/s/dkMg_OHgma1HcPhIwhErmA

20 个帖子 - 20 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 汉祖大帝)
我用夸克网盘分享了「掘金小册(前端小册+后端小册)」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
pan.quark.cn

夸克网盘分享

夸克网盘是夸克推出的一款云服务产品,功能包括云存储、高清看剧、文件在线解压、PDF一键转换等。通过夸克网盘可随时随地管理和使用照片、文档、手机资料,目前支持Android、iOS、PC、iPad。

11 个帖子 - 11 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: tomm)
移动云盘上线了满血版DeepSeek R1

白嫖的云盘会员总算能发挥一点作用了

83 个帖子 - 22 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: F-Droid)
民政部:2024年结婚登记人数610.6万对,较2023年768万对同比下降20.5%。创45年新低。

2024年4季度民政统计数据

33 个帖子 - 28 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: youtiaozhuazhua)
一不小心手滑输错了linux.do的网址,结局万万没想到…

如题,手滑把 linux.do 的网址不小心输成了 linuc.do 🤣

结果居然被跳转回 linux.do😂

咱们L站佬友这么有实力嘛 每年50刀呢 😁

31 个帖子 - 21 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: shc)
要掉三级了!!!

大佬们 点个赞救救孩子吧

28 个帖子 - 27 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: OnTheRoad)
够了够了!感谢各位老铁!见个世面马上回来!

够了够了 感谢各位老铁 俺就去见见世面 过两天就回来了

31 个帖子 - 25 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 二月半)
即将进入 Lv 3 级结丹期,感谢诸位道友助力

在通过 LV 1 练气期考核之后,成功加入了 L 站宗门。

在 L 站里通过与诸位道友交流学习以及自身的努力,成功进入 LV2 筑基期,稳定根基。

现又通过几十日的磨砺,即将进入 LV3 结丹期不才在此感谢诸位道友的助力,以及这一段时间的帮助!

47 个帖子 - 31 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 桑榆)
佬友们有推荐的小平板吗

最近想买个小尺寸的平板。用途主要是打打游戏,玩模拟器(yuzu,vita3k),用终端模拟器(termux),看漫画,还有用winlator。目前比较看好联想的y700三代(pdd价格2650,16+512),佬友们有什么推荐吗。或者等小米的小平板,据说是8.8寸,处理器是天玑9400,但第三季度上。

23 个帖子 - 14 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Quill)
LobeChat 新年第二弹:秒开优化!

承蒙各位佬友厚爱,开工第一件事就是把节内做的性能优化方案搞完上线了~ 🥳 这也是 来征集一波大家 2025 年对 LobeChat 的期待 这里提到的第一个关键迭代!

也超级感谢1.51.4 ~1.52.x 版本不稳定期间大家的诸多反馈 🙏 经过三四天的疯狂修 bug ,目前最新版应该基本稳定下来了!欢迎大家来测试体验新版本~ 😋

目前我自己拿 /chat 页面为例评估的首屏加载性能,汇总表格如下:

详细数据:

Vercel 部署模式

v1.51.3: 平均 2.3s

v1.52.11: 平均 160ms

Zeabur 部署模式

v1.51.3:平均 2.1s

v.1.52.9: 平均 215ms

自部署服务器

一台 2C8G ,在 HK 的服务器:

纯 IP + 端口模式访问:

v1.51.3: 平均 3.7s

v1.52.9
禁用浏览器缓存: 平均 1.9s

不禁用浏览器缓存(这是大家浏览器默认的配置): 平均 73 ms

HTTPS 域名 + Cloudflare 小黄云代理访问:

v1.51.3:平均 3.3s

v1.52.9

禁用浏览器缓存:首次 5.2s ,后续平均 279ms ,全部平均 1.26s

不禁用浏览器缓存: 平均 289 ms

如何优化的

感兴趣我们的整个优化实现的小伙伴,可以移步:[RFC] 082 - 应用页面打开速度优化 · lobehub/lobe-chat · Discussion #5461 · GitHub 这里来围观下我们的整个优化方案的迭代思路,包括这些天社区小伙伴们一起捉的 bug和一些有深度探讨~

也欢迎大家给一些自己实际部署的一手体验反馈,帮助我们更进一步了解本次性能优化的实际效果!

65 个帖子 - 38 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Arvin Xu)