Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.09K subscribers
26K photos
35 videos
13 files
42.1K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
【抽奖】抽Gemini Pro3个月订阅 * 2送给佬友们

奖品:Gemini Pro 3个月订阅链接 * 2 个

** 📢活动时间:**

截止时间:2026 年 2 月 25 日 22:00

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用[官方抽奖工具]( LINUX DO 抽奖程序)随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

178 个帖子 - 177 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Miku_01)
[改过自新] 看完nsfw内容后,下了一个重大的决定

我决定以后再也不好奇打开nsfw内容了,因为我觉得看这种内容,会让我变成多巴胺的奴隶。想发个贴,表达一下自己的决心。准备以后都不看了,目标找个对象

82 个帖子 - 69 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Passion2)
记一次对 Qwen3.5 系列 / Gemini 3.1 Pro / Sonnet 4.6 / GPT-5.3-Codex-Spark 的真实项目需求的横向评测

项目

这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。

本轮与上两轮评测的项目和环境都完全一致:

第一轮
第二轮
第三轮
第四轮
第五轮

模型来源

Qwen3.5-Plus: 官方 API
Qwen3.5-Flash: 官方 API
Claude Sonnet 4.6(high): 宣称官方 Claude Code 中转商
Gemini-3.1-Pro(high): Gemini CLI 逆向 API
GPT-5.3-Codex-Spark(xhigh): 宣称官方 GPT-Pro 中转商

速度

令牌数

Qwen3.5-Plus: 0.82M
Qwen3.5-Flash: 1.49M
Claude Sonnet 4.6(high): 未知
Gemini-3.1-Pro(high): 未知
GPT-5.3-Codex-Spark(xhigh): 无法完成。

代码行数

Qwen3.5-Plus: +1921, -23
Qwen3.5-Flash: +2255, -175
Claude Sonnet 4.6(high): +1064, -5
Gemini-3.1-Pro(high): +659, -14
GPT-5.3-Codex-Spark(xhigh): 无法完成。

完成度

Qwen3.5-Plus

审查结论: 存在部分功能实现遗漏。
详细 (点击了解更多详细信息)

Qwen3.5-Flash

审查结论: 存在无法编译的问题,多处未实现,多处幻觉。
详细 (点击了解更多详细信息)

Claude Sonnet 4.6(high)

审查结论: 存在部分功能实现遗漏。
详细 (点击了解更多详细信息)

Gemini-3.1-Pro(high)

审查结论: 存在编译问题,功能缺失。
详细 (点击了解更多详细信息)

GPT-5.3-Codex-Spark(xhigh)

无法完成该需求。

代码质量

Qwen3.5-Plus/Qwen3.5-Flash

代码架构与美观:正常。
注释程度:行间注释多,文档级注释适中,仅有对符号的描述。
防御性编程:正常。

Claude Sonnet 4.6(high)

代码架构与美观:正常。
注释程度:行间注释多,文档级注释适中,部分有详细参数注释。
防御性编程:正常。

Gemini 3.1 Pro(high)

代码架构与美观:正常。
注释程度:几乎无注释,仅有少量行间注释。
防御性编程:正常。

最终总结

Qwen3.5-Plus 即 Qwen3.5-397B-A17B,Qwen3.5-Flash 即 Qwen3.5-35B-A3B。

Qwen3.5-Plus 遗漏了大部分模型都遗漏的系统注册和入口注册实现,但是整体未出现幻觉,代码质量良好,可能由于代码阅读不够深入导致某些功能留下了 TODO,但都在结尾总结中说明了未完成的内容。

总体而言,我认为 Qwen3.5-Plus 的表现还算不错,与 GLM 5、Kimi K2.5 处于同一等级,但略逊于其它两个模型。

Qwen3.5-Flash 的表现就较差了,模型速度挺快的,但是写了最多的代码,而且编写了对需求没有什么用的交付清单和使用说明的 Markdown 文件,用了最多的 Token 数,导致最终耗时高于 Plus。

Sonnet 4.6 令人失望,我使用该模型在两个中转站尝试了四次,三次都在中途失败了。

Sonnet 4.6 会在一开始读阅读代码库,然后在尝试创建代码文件时有概率不返回流消息,多次尝试都会在创建含有大量代码的文件时会倾向于先创建一个备份文件(SkinUI.cs.bak)。

最后一次尝试时,Sonnet 4.6 使用了一个单独的子代理创建该文件,最终完成了整个需求的实现。

但是相对 Sonnet 4.5 来说,4.6 的完成度没有提升,甚至有点退步,与 Qwen3.5-Plus 甚至相当(?!),唯一的改进是枚举类型正确转换了。

Gemini 3.1 Pro 的表现与 3.0 Pro 相当,受到了 429 请求频率限制的影响,导致耗时较高。

GPT-5.3-Codex-Spark 由于上下文仅有 128K,对于这种复杂程度的需求来说非常不够用,所以进行了多次上下文压缩,在上下文压缩过后,模型会重复读取上一轮读过的代码文件,导致无限重复直到耗尽了所有的限额,最终无法完成需求。

21 个帖子 - 18 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: SmallMain)
Qwen发布Qwen3.5-35B-A3B, Reddit上都炸了

现可以在Qwen chat上可体验。
https://www.reddit.com/r/LocalLLaMA/comments/1rdlbvc/qwenqwen3535ba3b_hugging_face/

https://www.reddit.com/r/LocalLLaMA/comments/1rdxfdu/qwen3535ba3b_is_a_gamechanger_for_agentic_coding/

reddit上都炸了,都在惊艳Qwen3.5-35B-A3B的表现。

注:说的是本地部署。该模型是小模型,和其他超大参数的旗舰模型比不了。

有8G以上显存,32G以上内存的佬友可以自己部署Q4量化的玩玩。

97 个帖子 - 68 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 无恙)
终于,我知道怎么让codex好用了

从很多角度来说,codex的体验都不如Claude code,一个是codex cli确实没有cc这么完善,另一个原因我想很大程度也是gpt系列模型的原因,gpt和Claude喜欢大量输出不同,gpt总是倾向于分点和精炼,这点同样延续到了gpt的代码特化模型上,最大的表现就是gpt-codex写代码非常偷懒。这同样有两面性,在有些场景里,这会体现为精准,它不会像Claude一样乱加功能,但另一方面,这会导致代码的可拓展性很差,很多都是一次性代码,导致维护和修改特别困难。

由于codex的价格和量实在比cc舒服,所以我也一直在想尝试让codex的体验接近cc。我试了很多的方法,包括提前写好文档、使用skills等等,但效果依旧不如人意,直到今天,我终于发现了一个神奇的方法

简单来说就是,
先写好doc,再用/plan,最后再build,每一次run都如此

这里面最重要的是前两步,先说doc的问题,这其实也是我之前就发现的,相较于直接给codex一个简短的命令,codex在有详细文档的情况下会表现的更加出色,在有足够多的信息,让codex能够有一个清晰的目标,接下来就是更重要的,/plan,这个在cc都算过时的东西在codex又展现出了新的实力,我认为这很大程度上得益于gpt模型本身的智力强悍,在配合文档的情况下,codex中的plan会不停的问你问题,而且很多问题是非常核心的,我一开始都没有想到的问题,二者结合,你会得到一个非常完整的plan,也很多程度上防止了codex偷懒。

但这个工作流并非没有弊端,如果你只想要的是存粹的vibe coding,这个工作流其实并不那么合适,因为很大程度上这个工作流需要你理解其中的技术,你需要提前预判codex会怎么做,你需要做出选择,而且不断的进行调研和文档的撰写修改会导致速度慢很多,相比之下,cc会省力很多。但如果你即想要codex的精准,又想要系统性的可拓展的高质量代码,你可以试试这个工作流。

一点点思考和实践,抛砖引玉,看看各位佬有没有更好的方法 🫰

37 个帖子 - 24 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 直到太阳升起)
【WONG公益站】再次重申,禁止沉浸式翻译

又发现一个用户使用沉浸式翻译,直接导致nvdia渠道的key被刷完,刷了100多页的请求,503了还在请求,永封,后续也不用来找我解封。

还有一个不知道在干嘛的佬友,3秒一个请求,比沉浸式还离谱,也是永封。

我说一下,如果你有特殊需求,可以提前和站长打声招呼,允许后再进行,否则站长看见一定认为是搞事来的,站里有许多支持沉浸式翻译的公益,可以去找找,我不允许这么操作肯定是有原因的。

64 个帖子 - 59 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Wong)
「慕鸢の公益站」 上新 Gemini渠道

在另一个话题中

支持 linux.do 注册登录

https://newapi.linuxdo.edu.rs/

之前的渠道无了,有佬友给了个新渠道

假期愉快,各位~

哦,对了,我站支持沉浸式翻译,别去刷wong和黑与白的流量了

在另一个话题中


沉浸式翻译

专门有一个翻译分组,需要创建对应分组的 key,超低倍率,不限制并发

「慕鸢の公益站」 codex倍率降低至0.1 沉浸式翻译倍率降低至0.000001 福利羊毛
[image]如图 [image][image][image] 玩去吧~各位

公益站探针
https://status.centos.hk/

31 个帖子 - 30 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: 慕鸢)
感觉被婚前首付逼到了崩溃的边缘…

lz男生,25岁,山东四线小城市出身,刚毕业在北京工作,前途较好。女朋友28岁,苏州独生女,目前没工作,谈恋爱4年。我俩感情基础好,价值观般配,她对我非常好,我们彼此都很爱对方,但婚姻进入实质阶段后卡在婚房首付上,她家要求16.8w的彩礼、另购三金,此外要婚前(大概率今年内)拿到首付70-80w(只是作为现金放着,短期内不会买房,她家是要保证和安全感)。女朋友之前有表过态,她家会对等出钱,她父母意思是想让我们过得更好。

我家情况是,爸妈手里全部现金15万(这些加上和我的存款能凑出来彩礼和三金的数,但就没有什么剩余了),另外在老家有两套房,一套旧房卖的话估计50w撑死,新房能卖70w(拖了8年的烂尾楼,刚交房没有房产证)。

女朋友因为年龄比较大,加上她家那边有很早就逼婚的传统,现在感觉没结婚很羞耻、很焦虑,逼我尽快一年内结婚。但我刚刚工作,哪里有什么钱啊,只能靠父母。但家里新房刚刚买到手,实在没有钱,更不用说一年内凑出来将近100w的资金了。

由于家里新房卖不出去,女朋友让我们卖旧房搬去新房,再让我爸妈去工资贷30w,凑齐这些钱。但父母很抗拒,父母的意思是缓几年,没必要白白承担这么多利息,也不舍得卖旧房子(新房子水电都还没通,并且旧房子一时半会也很难卖出去,我自己对旧房子也有很深的情感)。等要买婚房的时候肯定会支持我们,并说“养出了研究生还得借钱结婚,说出去真丢人”。女朋友要求婚前这些所有的钱必须到位,觉得“谁家结婚不给首付”“父母掏空家底给儿子结婚天经地义”“婚前不会有的,婚后更不可能有”。

此外她要定居在苏州,我其实对北京的工作挺满意,但我愿意为了她几年后辞职回南京。父母对此也很不满,认为都有北京户口了,跟她回南京很不明智。这一点我可以向她妥协。

但首付这点,父母表达了强烈的不满(认为对方咄咄逼人,只看钱,强烈暗示我分手),但一年内结婚肯定要从父母这儿拿钱。现在就卡在了这儿,让我很痛苦、很崩溃。

女朋友甚至说如果我俩分手,她的人生就要完蛋了,并强调她为我付出了很多,说“要完蛋一起完蛋”,甚至还说过要去我家、我父母单位、我单位去闹。

我能理解女朋友的诉求,从她的角度,她作为江浙沪独生女,这些要求并不过分。但关键我爸妈一辈子才攒了100w,并且很难一年内完全变现。我爸妈从来没有说不给,但想缓几年。

之前的想法是跟女朋友许婚前拿到大概30w的首付(旧房子抵押+部分借款),本来跟我妈达成了共识,但我爸强烈反对,现在感觉希望渺茫,很绝望。夹在中间真的很痛苦。

家人们,我该怎么办?

353 个帖子 - 219 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: jiaokuniu)
[LogosAPI公益站]与codexFree共存亡

其实是熬夜实在没事干了,看到OAuth文件状态还行

刚好VPS资源也在吃灰,接上了优化线路,希望能快点吧

声明:如果遭到恶意攻击或者其他意外就会跑路(free账号炸了也会这个就不说了)

地址:
api.777114.xyz

New API

OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用

29 个帖子 - 26 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Logos)
拒绝写屎山!拒绝codex最小化原则、边界兜底、模拟兜底、静默回退!你需要这套agent.md全局配置(另附全局规则文件撰写焚诀)

众所周知,codex cli的gpt-5.2-xhigh很好用也很聪明,但是有时候聪明过头了,为了使得自己的任务能够通过,会做一些很愚蠢很投机取巧的操作,会为了跑通项目,去做一个假的模拟数值或者模拟函数,会为了无意义的成功,生成一个所谓的兜底方案导致你根本无法排查错误。因此为了避免此类问题,我们必须要做一个agent.md去强制要求,所幸,gpt的模型指令性遵循超级强,codex的远程压缩也很厉害,能够实现很多轮对话都不丢失信息,只需要写上去了,就不会再犯此类错误。

链接如下,感兴趣的可以点个star:
github.com/lili-luo/aicoding-cookbook

skills/codex/AGENTS.md
main
# Global Agent Rules

## Language

Default to Chinese in user-facing replies unless the user explicitly requests another language.

## Response Style

Do not propose follow-up tasks or enhancement at the end of your final answer.

## Debug-First Policy (No Silent Fallbacks)

- Do **not** introduce new boundary rules / guardrails / blockers / caps (e.g. max-turns), fallback behaviors, or silent degradation **just to make it run**.
- Do **not** add mock/simulation fake success paths (e.g. returning `(mock) ok`, templated outputs that bypass real execution, or swallowing errors).
- Do **not** write defensive or fallback code; it does not solve the root problem and only increases debugging cost.
- Prefer **full exposure**: let failures surface clearly (explicit errors, exceptions, logs, failing tests) so bugs are visible and can be fixed at the root cause.
- If a boundary rule or fallback is truly necessary (security/safety/privacy, or the user explicitly requests it), it must be:
- explicit (never silent),
- documented,
- easy to disable,
此文件已被截断。 显示原始文件
另外分享一个心得:agent.md和Claude.md是全局性的内容,也就是说你的对话每次都会载入作为上下文的一部分,这部分的空间注意力资源是非常非常重要的,如果你想要添加某些规则的话,务必务必谨慎,即便添加了也要十分精简。

早期你如果想要让ai遵循一套范式,你可能要加一大堆的提示词,要和ai说一堆话,才能让他明白到底要干什么。但是现在ai大部分训练都很成熟,参数量也越来越大,很多网络上热门的编程规范比如SOLID、DRY、解耦性啥的,你不需要和他全部解释清楚,只需要稍微提点,他就能明白了。总而言之,你的某些想法、规范是一大坨的,恰巧ai本身内生性训练也包含的,那你就无需解释,而是简单提点就好,保留好你珍贵的全局规则文件行数空间吧。

36 个帖子 - 26 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: QQbot)
【公益站】新年公益福利,反重力Opus4.6踩油门新年发放邀请码

https://linux.do/t/topic/1542040 主贴在这 我就不一一回复了 首次注册显示5刀,明天凌晨之前统一更新到100刀,模型价格one系统自带的,我没改,不用介意
cdk.linux.do

LINUX DO CDK

Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单

79 个帖子 - 69 位参与者

阅读完整话题

via LINUX DO - 热门话题 (author: Lockboy)