Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.09K subscribers
25.9K photos
35 videos
13 files
42.1K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
抽个plus

开工大吉,抽了吧 :tieba_002:,gpt plus:

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:Thu, Feb 26, 2026 9:00 PM CST

📝 参与方式:

在本帖下回复任意内容即可,点点赞更好 🤩

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。

118 个帖子 - 117 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 长长同学)
佬友公益站,上线模型可用状态监控

👇️
status.freestyle.cc.cd

API 服务状态

运行状态监控页面

25 个帖子 - 23 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: leon)

Invalid media: image
【星野 公益站】发放200张100$兑换码

星野 公益站

----------------------

服务信息

----------------------

历史变更

地址变更:api.feisakura.funapi.hoshino.edu.rs

----------------------

最近活动

兑换码发放 — 2025-02-25 12:00 (CST)

发放 200 张 100$ 兑换码

👉️ 领取地址

----------------------

可用模型

claude-opus-4-6
claude-sonnet-4-6
claude-haiku-4-5
claude-opus-4-5
claude-sonnet-4-5

目前仅提供 Claude 系列模型
147 个帖子 - 131 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: hoshino)
鄙视老油条,理解老油条,成为老油条

鄙视:
毕业刚工作那会儿,心气儿很足,觉得只要认真工作就能升值加薪,很不理解身边的老油条的做事风格。
所以我做事都比较认真负责,就怕没做好给公司带来损失。
曾经当过小组的组长,那时有组员代码写的不靠谱,我担心影响产品质量,也不想后续一直擦屁股,
所有会刻意不怎么给他分活,因此更多的活都落在了我自己和其他靠谱的人员身上。

理解:
负责的产品开发的差不多了,组员都被分配干其他活,剩我自己维护了,同时我也要参与其他产品的开发。
干了几年工资也没见涨,年终奖也不发了,制度也越来越恶心人了。
我也觉得没啥意思了,这时已经能理解老油条。

成为:
后来换了个公司,入职后发现公司需求开发流程很混乱,老板是个懂点技术的半调子,瞎指挥,需求都是口头说。
做的产品质量更是个垃圾,从我入职后也走了好几个组长了,最后轮到我成了名义上的组长负责人,其实就是给项目擦屁股。
目前我也已经看透摆烂成为老油条了。老板问我进度,我就说历史遗留问题太多了正在看,实则每天高强度在L站发帖冲浪。
可预见的在现在这公司干不了多久了,哪天离职了再发一贴。

感悟:
果然人都是善变的,从职场小白到老油条。
以前觉得工作写代码很爽,喜欢编程,现在已经不想干程序了。
以前觉得努力工作是对的,现在觉得混一天是一天才是。
以前有处女情节觉得找女朋友必须要找个处,现在觉得无所谓(也很难),甚至已经不想结婚。
少年心气已不在。

60 个帖子 - 46 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: svenn)
这种情况是不是只有分手了

先说一下我前因后果,我跟我女朋友是高中的时候就谈对象了,中间也发生过好多次冷战和矛盾,最后也都挺过来了,现在在一起八年了。
25年的时候我这里有一个学校的工作零时工,我就让她来了我这边,她来之后我家里对他也是蛮不错的,来了给他红包,带她出去吃饭,只要家里做什么好吃的都会想着我两个叫我们一起去,有什么出去玩的时候也会叫着我们一起去玩。自我感觉家里对他比我这个儿子好。
过年的时候回家,本来想着28号见一面,中间出了一点事情我意外见到了她妈,她妈见我的第一眼就说不行怎么的。
然后出了事情之后我就跟着救护车和她一起去医院处理病情了,因为是碰到头了想着赶紧去看病,我在我们县城医院跑了一天,然后看完之后没有事情就放心了。中间她妈给她打了几次电话,我没有给他妈通电话。然后电动车被拉到了我们县的事故处理中心,没带电动车钥匙,我推着电动车给她推了两公里多推到了提前亲戚家。然后他亲戚送我们回家,哪个时候我家里说买点东西去他家坐坐什么的,女朋友说别去了(我哪个时候也是想着这也不算真正的正式见面就没有去),然后回家他问他妈觉得怎么样,他妈说不行看着我比她大四五岁了,说我黑了,说我家里父母年龄大帮衬不住了,说我家里条件不好了,我上了两年本科都花了家里快十万了。跟着我吃苦了怎么,说我面相不好存不住钱。
然后又约的是初六他妈和她姨一起见见我,等我定好包间和点好菜之后,只有她姨和她自己来了然后问我工作,实话实说咱也不是很会说话,她姨问我我回答什么,问我在哪工作是做什么的我都如是回答,她姨是我以前的老师,然后又聊了一会别的,然后她姨就走了。回家之后不知道怎么给他妈说的,然后他妈就给她说我工作不稳定工资低,然后前几天他妈就给她说把来这边租房子的钱还给我,我想着在争取一下就给让他给他妈好好谈谈。刚才她说了之后他妈瞬间就炸了。然后他妈说反正就是她爱咋咋,过去就是吃苦,自己拎不清门都没有。
他家就她自己,他也说不过他妈
这种情况还要争取吗?(我女朋友因为家庭的因素有点抑郁症,跟我在一起之后我就没有再她身上看到过伤口了,刚开始谈的时候倒是她让我看到过)

146 个帖子 - 91 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 顾迪)
【抽奖】开工大吉🎉,抽 4 个GPT Team车位

抽奖主题: 开工大吉佬友们,抽 4 个GPT Team车位

🏆️ 奖品详情:

奖品:自用卡刚开的 GPT Team*4[稳]

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:2026年2月27日10:00

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

228 个帖子 - 223 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Eric)
当看到此用户已不再活跃,吓得心脏骤停

事情是这样的
今天我打开L站浏览帖子,发现不是登录状态
本以为只是登录过期,便尝试登录账号
结果显示邮箱不存在,登录不上去
看了下帖子,点击头像,居然显示此用户已不再活跃
当时吓得心脏骤停,我还以为账号被清理了
反复尝试未果,本想注册个新账号,发现注册渠道已关闭
注册新账号需要L站3级用户的邀请链接,3级用户每天只能生成1个邀请链接
我突然意识到,短时间找不到3级用户帮忙生成邀请链接重新注册
只能回到登录页面尝试重置密码
我惊喜地发现,注册邮箱居然还能正常接收重置密码的链接
变更密码之后,出乎意料地登录上了
原来是虚惊一场!

事后复盘

1.尽量每天访问L站,浏览帖子,点赞评论,内容不要太水
2.访问L站时,不要开启广告过滤器,因为容易触发风控,要将L站加入白名单
3.发布高质量的主题,友善互动,积极讨论
4.少参与一些公益站,抽奖之类的薅羊毛,不要把这些当作重点
5.平时多看社区Q&A,不要违反社区规范
6.保持活跃,将账号提升到2级,3级

欢迎大家留言讨论,补充说明!

73 个帖子 - 43 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 深度索饮)
笑死,到底是谁蒸馏谁

38 个帖子 - 31 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: scooorpion)
【抽奖】抽Gemini Pro3个月订阅 * 2送给佬友们

奖品:Gemini Pro 3个月订阅链接 * 2 个

** 📢活动时间:**

截止时间:2026 年 2 月 25 日 22:00

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用[官方抽奖工具]( LINUX DO 抽奖程序)随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

178 个帖子 - 177 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Miku_01)
[改过自新] 看完nsfw内容后,下了一个重大的决定

我决定以后再也不好奇打开nsfw内容了,因为我觉得看这种内容,会让我变成多巴胺的奴隶。想发个贴,表达一下自己的决心。准备以后都不看了,目标找个对象

82 个帖子 - 69 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Passion2)
记一次对 Qwen3.5 系列 / Gemini 3.1 Pro / Sonnet 4.6 / GPT-5.3-Codex-Spark 的真实项目需求的横向评测

项目

这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。

本轮与上两轮评测的项目和环境都完全一致:

第一轮
第二轮
第三轮
第四轮
第五轮

模型来源

Qwen3.5-Plus: 官方 API
Qwen3.5-Flash: 官方 API
Claude Sonnet 4.6(high): 宣称官方 Claude Code 中转商
Gemini-3.1-Pro(high): Gemini CLI 逆向 API
GPT-5.3-Codex-Spark(xhigh): 宣称官方 GPT-Pro 中转商

速度

令牌数

Qwen3.5-Plus: 0.82M
Qwen3.5-Flash: 1.49M
Claude Sonnet 4.6(high): 未知
Gemini-3.1-Pro(high): 未知
GPT-5.3-Codex-Spark(xhigh): 无法完成。

代码行数

Qwen3.5-Plus: +1921, -23
Qwen3.5-Flash: +2255, -175
Claude Sonnet 4.6(high): +1064, -5
Gemini-3.1-Pro(high): +659, -14
GPT-5.3-Codex-Spark(xhigh): 无法完成。

完成度

Qwen3.5-Plus

审查结论: 存在部分功能实现遗漏。
详细 (点击了解更多详细信息)

Qwen3.5-Flash

审查结论: 存在无法编译的问题,多处未实现,多处幻觉。
详细 (点击了解更多详细信息)

Claude Sonnet 4.6(high)

审查结论: 存在部分功能实现遗漏。
详细 (点击了解更多详细信息)

Gemini-3.1-Pro(high)

审查结论: 存在编译问题,功能缺失。
详细 (点击了解更多详细信息)

GPT-5.3-Codex-Spark(xhigh)

无法完成该需求。

代码质量

Qwen3.5-Plus/Qwen3.5-Flash

代码架构与美观:正常。
注释程度:行间注释多,文档级注释适中,仅有对符号的描述。
防御性编程:正常。

Claude Sonnet 4.6(high)

代码架构与美观:正常。
注释程度:行间注释多,文档级注释适中,部分有详细参数注释。
防御性编程:正常。

Gemini 3.1 Pro(high)

代码架构与美观:正常。
注释程度:几乎无注释,仅有少量行间注释。
防御性编程:正常。

最终总结

Qwen3.5-Plus 即 Qwen3.5-397B-A17B,Qwen3.5-Flash 即 Qwen3.5-35B-A3B。

Qwen3.5-Plus 遗漏了大部分模型都遗漏的系统注册和入口注册实现,但是整体未出现幻觉,代码质量良好,可能由于代码阅读不够深入导致某些功能留下了 TODO,但都在结尾总结中说明了未完成的内容。

总体而言,我认为 Qwen3.5-Plus 的表现还算不错,与 GLM 5、Kimi K2.5 处于同一等级,但略逊于其它两个模型。

Qwen3.5-Flash 的表现就较差了,模型速度挺快的,但是写了最多的代码,而且编写了对需求没有什么用的交付清单和使用说明的 Markdown 文件,用了最多的 Token 数,导致最终耗时高于 Plus。

Sonnet 4.6 令人失望,我使用该模型在两个中转站尝试了四次,三次都在中途失败了。

Sonnet 4.6 会在一开始读阅读代码库,然后在尝试创建代码文件时有概率不返回流消息,多次尝试都会在创建含有大量代码的文件时会倾向于先创建一个备份文件(SkinUI.cs.bak)。

最后一次尝试时,Sonnet 4.6 使用了一个单独的子代理创建该文件,最终完成了整个需求的实现。

但是相对 Sonnet 4.5 来说,4.6 的完成度没有提升,甚至有点退步,与 Qwen3.5-Plus 甚至相当(?!),唯一的改进是枚举类型正确转换了。

Gemini 3.1 Pro 的表现与 3.0 Pro 相当,受到了 429 请求频率限制的影响,导致耗时较高。

GPT-5.3-Codex-Spark 由于上下文仅有 128K,对于这种复杂程度的需求来说非常不够用,所以进行了多次上下文压缩,在上下文压缩过后,模型会重复读取上一轮读过的代码文件,导致无限重复直到耗尽了所有的限额,最终无法完成需求。

21 个帖子 - 18 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: SmallMain)
Qwen发布Qwen3.5-35B-A3B, Reddit上都炸了

现可以在Qwen chat上可体验。
https://www.reddit.com/r/LocalLLaMA/comments/1rdlbvc/qwenqwen3535ba3b_hugging_face/

https://www.reddit.com/r/LocalLLaMA/comments/1rdxfdu/qwen3535ba3b_is_a_gamechanger_for_agentic_coding/

reddit上都炸了,都在惊艳Qwen3.5-35B-A3B的表现。

注:说的是本地部署。该模型是小模型,和其他超大参数的旗舰模型比不了。

有8G以上显存,32G以上内存的佬友可以自己部署Q4量化的玩玩。

97 个帖子 - 68 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 无恙)
终于,我知道怎么让codex好用了

从很多角度来说,codex的体验都不如Claude code,一个是codex cli确实没有cc这么完善,另一个原因我想很大程度也是gpt系列模型的原因,gpt和Claude喜欢大量输出不同,gpt总是倾向于分点和精炼,这点同样延续到了gpt的代码特化模型上,最大的表现就是gpt-codex写代码非常偷懒。这同样有两面性,在有些场景里,这会体现为精准,它不会像Claude一样乱加功能,但另一方面,这会导致代码的可拓展性很差,很多都是一次性代码,导致维护和修改特别困难。

由于codex的价格和量实在比cc舒服,所以我也一直在想尝试让codex的体验接近cc。我试了很多的方法,包括提前写好文档、使用skills等等,但效果依旧不如人意,直到今天,我终于发现了一个神奇的方法

简单来说就是,
先写好doc,再用/plan,最后再build,每一次run都如此

这里面最重要的是前两步,先说doc的问题,这其实也是我之前就发现的,相较于直接给codex一个简短的命令,codex在有详细文档的情况下会表现的更加出色,在有足够多的信息,让codex能够有一个清晰的目标,接下来就是更重要的,/plan,这个在cc都算过时的东西在codex又展现出了新的实力,我认为这很大程度上得益于gpt模型本身的智力强悍,在配合文档的情况下,codex中的plan会不停的问你问题,而且很多问题是非常核心的,我一开始都没有想到的问题,二者结合,你会得到一个非常完整的plan,也很多程度上防止了codex偷懒。

但这个工作流并非没有弊端,如果你只想要的是存粹的vibe coding,这个工作流其实并不那么合适,因为很大程度上这个工作流需要你理解其中的技术,你需要提前预判codex会怎么做,你需要做出选择,而且不断的进行调研和文档的撰写修改会导致速度慢很多,相比之下,cc会省力很多。但如果你即想要codex的精准,又想要系统性的可拓展的高质量代码,你可以试试这个工作流。

一点点思考和实践,抛砖引玉,看看各位佬有没有更好的方法 🫰

37 个帖子 - 24 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 直到太阳升起)
【WONG公益站】再次重申,禁止沉浸式翻译

又发现一个用户使用沉浸式翻译,直接导致nvdia渠道的key被刷完,刷了100多页的请求,503了还在请求,永封,后续也不用来找我解封。

还有一个不知道在干嘛的佬友,3秒一个请求,比沉浸式还离谱,也是永封。

我说一下,如果你有特殊需求,可以提前和站长打声招呼,允许后再进行,否则站长看见一定认为是搞事来的,站里有许多支持沉浸式翻译的公益,可以去找找,我不允许这么操作肯定是有原因的。

64 个帖子 - 59 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Wong)