🔥【大模型系列19】关于GPT-5.3-Codex与Codex App,你想知道的一切【更新:VSCode插件没有5.3解决办法】
官方资料
介绍:https://openai.com/index/introducing-gpt-5-3-codex/
系统卡:https://cdn.openai.com/pdf/23eca107-a9b1-4d2c-b156-7deb4fbc697c/GPT-5-3-Codex-System-Card-02.pdf
Codex App介绍:https://openai.com/index/introducing-the-codex-app/
Codex App申请等待页面:https://openai.com/form/codex-app/
----------------------
评分
LMArena 截止到260206 06:21未上线
来源:Arena Leaderboard | Compare & Benchmark the Best Frontier AI Models
----------------------
LiveBench 截止到260206 06:21未上线
来源:https://livebench.ai
----------------------
ARC-AGI-2 截止到260206 06:21未上线
来源:ARC Prize - Leaderboard
----------------------
Humanity’s Last Exam 截止到260206 06:21未上线
来源:Humanity's Last Exam
----------------------
GPT-5.3-Codex IDE渠道
Business会员 + Codex插件 + Antigravity/VSCode/Cursor/Trae
有些人说没有5.3,原因通常是插件没更新,最新版是2月6日的0.5.71,一般更新就有5.3❗️
如果不是在市场安装,而是下载vsix安装的,一般是不会自动更新的,要重新下载新版vsix
下载地址.Open VSX Registry
升级对有的人有效,有的人无效,原因暂不知道
如果无效可以Codex左边栏右上角settings → log out退出,再重新登录codex试试
或者换美国IP试试
闲鱼试用会员包月几块钱,月抛,L站内也可用LDC换,现阶段最实惠的Codex方案
官方方案,比较省心,不可能参水,额度个人用用也够用的
职业程序员重度使用不够,可以轮换账号或使用其他方案
可以支持high,和xhigh
每周20h总推理时长,相当于API$40
每5小时约160次low,40次medium,16次high(实测12plan),8次xhigh,共享额度
codex与网页额度和重置时间是独立的
查Codex剩余额度:
ⒶCodex左边栏左下角Local → Code limits remaining,没有历史记录
Ⓑhttps://chatgpt.com/codex/settings/usage,有历史记录,Code review额度
网页版额度与Codex额度应该无关
网页版有约20次Deep research,15次Pro
参考Antigravity:5小时320次pro,400次flash,125次opus,20次gemini-3-pro-image,估计会同步升opus4.6
Business会员 + CLI 已上线
Business会员 + Codex App 已上线
暂时只有MacOS版App
推广期额度翻倍
Plus会员 + Codex插件/Codex CLI
Business的一半额度
没有便宜会员,不推荐
Pro会员 + Codex插件/Codex CLI
约Business的4倍额度
没有便宜会员,不推荐
自部署Codex逆向 + OpenCode
Codex中转站API + Cline/Codex插件/OpenCode
Codex中转站API很便宜,是否参水就自行评估
OpenRouter API 截止到260206 06:21未上线
----------------------
最后发张梗图,祝佬友与gpt-5.3-codex和opus4.6玩耍愉快
19 posts - 13 participants
Read full topic
via LINUX DO - 热门话题 (author: dwqxq1)
Invalid media: image
官方资料
介绍:https://openai.com/index/introducing-gpt-5-3-codex/
系统卡:https://cdn.openai.com/pdf/23eca107-a9b1-4d2c-b156-7deb4fbc697c/GPT-5-3-Codex-System-Card-02.pdf
Codex App介绍:https://openai.com/index/introducing-the-codex-app/
Codex App申请等待页面:https://openai.com/form/codex-app/
----------------------
评分
LMArena 截止到260206 06:21未上线
来源:Arena Leaderboard | Compare & Benchmark the Best Frontier AI Models
----------------------
LiveBench 截止到260206 06:21未上线
来源:https://livebench.ai
----------------------
ARC-AGI-2 截止到260206 06:21未上线
来源:ARC Prize - Leaderboard
----------------------
Humanity’s Last Exam 截止到260206 06:21未上线
来源:Humanity's Last Exam
----------------------
GPT-5.3-Codex IDE渠道
Business会员 + Codex插件 + Antigravity/VSCode/Cursor/Trae
有些人说没有5.3,原因通常是插件没更新,最新版是2月6日的0.5.71,一般更新就有5.3❗️
如果不是在市场安装,而是下载vsix安装的,一般是不会自动更新的,要重新下载新版vsix
下载地址.Open VSX Registry
升级对有的人有效,有的人无效,原因暂不知道
如果无效可以Codex左边栏右上角settings → log out退出,再重新登录codex试试
或者换美国IP试试
闲鱼试用会员包月几块钱,月抛,L站内也可用LDC换,现阶段最实惠的Codex方案
官方方案,比较省心,不可能参水,额度个人用用也够用的
职业程序员重度使用不够,可以轮换账号或使用其他方案
可以支持high,和xhigh
每周20h总推理时长,相当于API$40
每5小时约160次low,40次medium,16次high(实测12plan),8次xhigh,共享额度
codex与网页额度和重置时间是独立的
查Codex剩余额度:
ⒶCodex左边栏左下角Local → Code limits remaining,没有历史记录
Ⓑhttps://chatgpt.com/codex/settings/usage,有历史记录,Code review额度
网页版额度与Codex额度应该无关
网页版有约20次Deep research,15次Pro
参考Antigravity:5小时320次pro,400次flash,125次opus,20次gemini-3-pro-image,估计会同步升opus4.6
Business会员 + CLI 已上线
Business会员 + Codex App 已上线
暂时只有MacOS版App
推广期额度翻倍
Plus会员 + Codex插件/Codex CLI
Business的一半额度
没有便宜会员,不推荐
Pro会员 + Codex插件/Codex CLI
约Business的4倍额度
没有便宜会员,不推荐
自部署Codex逆向 + OpenCode
Codex中转站API + Cline/Codex插件/OpenCode
Codex中转站API很便宜,是否参水就自行评估
OpenRouter API 截止到260206 06:21未上线
----------------------
最后发张梗图,祝佬友与gpt-5.3-codex和opus4.6玩耍愉快
19 posts - 13 participants
Read full topic
via LINUX DO - 热门话题 (author: dwqxq1)
Invalid media: image
【纪念】百日竿头
拿到了!
水一下
今天调座位了,就在第一排讲台面前
直接在老师眼皮子底下摸鱼🤓👆️t2:
56 posts - 45 participants
Read full topic
via LINUX DO - 热门话题 (author: 【失业客服喵】)
Invalid media:
image
image
拿到了!
水一下
今天调座位了,就在第一排讲台面前
直接在老师眼皮子底下摸鱼🤓👆️t2:
56 posts - 45 participants
Read full topic
via LINUX DO - 热门话题 (author: 【失业客服喵】)
Invalid media:
image
image
咱们提高一点分辨的能力
今天早上看到很多帖子说人家发新模型,我们发红包,然后就高潮了。
这本来模型和客户端就不是一个东西,非要拿在一起比。那怎么不拿电车比呢?
就算是模型,我们也是第二梯队呀,也没有落后很多呀。只要不是第一,就是输,对吗?
那再说回产品,人家opal还要加广告呢,A/还明白告诉你,你不配用,不让你用,人家发布模型,跟你有什么关系。
最后再说抢红包
薅token高雅,抢红包低俗是吗?
更新:很多人说都是调侃,我过度反应了?那么普通自信是不是调侃呢?为什么女士想起你就是这句话呢?这就是一种典型的认知作战,查一查苏联笑话是什么时候出现的吧。正如戈培儿所说:
在弥天大谎中,总有一种可信的力量……普通民众更容易在情感深处被大谎言腐蚀,因为他们自己常常说小谎,却羞于编造大谎言,也想不到别人会有如此厚颜无耻地歪曲事实
这句话就是谎言重复1000次就变成了事实的来源。
从认知心理学上来说,这就是一种可得性偏误。人越容易想起什么,越容易把它当成是真的。
54 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: 冬马99)
今天早上看到很多帖子说人家发新模型,我们发红包,然后就高潮了。
这本来模型和客户端就不是一个东西,非要拿在一起比。那怎么不拿电车比呢?
就算是模型,我们也是第二梯队呀,也没有落后很多呀。只要不是第一,就是输,对吗?
那再说回产品,人家opal还要加广告呢,A/还明白告诉你,你不配用,不让你用,人家发布模型,跟你有什么关系。
最后再说抢红包
薅token高雅,抢红包低俗是吗?
更新:很多人说都是调侃,我过度反应了?那么普通自信是不是调侃呢?为什么女士想起你就是这句话呢?这就是一种典型的认知作战,查一查苏联笑话是什么时候出现的吧。正如戈培儿所说:
在弥天大谎中,总有一种可信的力量……普通民众更容易在情感深处被大谎言腐蚀,因为他们自己常常说小谎,却羞于编造大谎言,也想不到别人会有如此厚颜无耻地歪曲事实
这句话就是谎言重复1000次就变成了事实的来源。
从认知心理学上来说,这就是一种可得性偏误。人越容易想起什么,越容易把它当成是真的。
54 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: 冬马99)
【富可敌国】小于1毛钱/$的claude-opus-4-6已全面适配
庆祝今天claude官方发布了claude-opus-4-6
我们已连夜完成秒上线,价格一如既往的低
话不多说,欢迎使用推荐:
https://foxcode.rjj.cc
欢迎进群(公告获取优惠码)
福利抽取
Read full topic
via LINUX DO - 热门话题 (author: FoxCode)
Invalid media: image
庆祝今天claude官方发布了claude-opus-4-6
我们已连夜完成秒上线,价格一如既往的低
话不多说,欢迎使用推荐:
https://foxcode.rjj.cc
欢迎进群(公告获取优惠码)
福利抽取
🧧2.12日 - 20:00开奖 : 200个1亿额度332 posts - 330 participants
Read full topic
via LINUX DO - 热门话题 (author: FoxCode)
Invalid media: image
【抽奖】ChatGPT Business (Team) 车位 * 24 ,体验最新模型 gpt-5.3-codex,稳定质保30天~
奖品:ChatGPT Business (Team) 车位 * 24个 - 质保30天
:three_o_clock: 活动时间:
开始时间:2026 年 2 月 6日 15:00
截止时间:2026 年 2 月 7日 14:00
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。
中奖后请及时私信提供邮箱+截图给我
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,中奖者请及时私信邮箱+中奖截图。
注意邮箱发错不可更换,请认真检查。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
307 posts - 301 participants
Read full topic
via LINUX DO - 热门话题 (author: 仙人球)
奖品:ChatGPT Business (Team) 车位 * 24个 - 质保30天
:three_o_clock: 活动时间:
开始时间:2026 年 2 月 6日 15:00
截止时间:2026 年 2 月 7日 14:00
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。
中奖后请及时私信提供邮箱+截图给我
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,中奖者请及时私信邮箱+中奖截图。
注意邮箱发错不可更换,请认真检查。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
307 posts - 301 participants
Read full topic
via LINUX DO - 热门话题 (author: 仙人球)
再次提醒:请别往社区倾倒垃圾
从请不要把互联网上的戾气带来这里!继续讨论:
这张图各位佬友今天应该没少见吧?我上午审批举报删帖的都上十次了,我很难不联想是否有人操纵。
我不管这个图里的论调在别的地方是不是被奉为圭臬?但是,在L站,它就是毫无价值的垃圾信息。
各位,这种垃圾信息,咱们就不要往社区发了,这里不是垃圾场。
这玩意除了阴阳怪气带节奏引战之外,啥也不是。
114 posts - 111 participants
Read full topic
via LINUX DO - 热门话题 (author: Neo)
Invalid media: image
从请不要把互联网上的戾气带来这里!继续讨论:
这张图各位佬友今天应该没少见吧?我上午审批举报删帖的都上十次了,我很难不联想是否有人操纵。
我不管这个图里的论调在别的地方是不是被奉为圭臬?但是,在L站,它就是毫无价值的垃圾信息。
各位,这种垃圾信息,咱们就不要往社区发了,这里不是垃圾场。
这玩意除了阴阳怪气带节奏引战之外,啥也不是。
114 posts - 111 participants
Read full topic
via LINUX DO - 热门话题 (author: Neo)
Invalid media: image
当我把:distorted_face:装进win11的文件夹 be like:
:distorted_face:
40 posts - 19 participants
Read full topic
via LINUX DO - 热门话题 (author: Canadew)
Invalid media: image
:distorted_face:
40 posts - 19 participants
Read full topic
via LINUX DO - 热门话题 (author: Canadew)
Invalid media: image
GPT-5.3-Codex 正式发布 编程性能再攀新高
OpenAI首席执行官Sam Altman宣布:“GPT-5.3-Codex正式发布!编程性能再攀新高:SWE-Bench Pro评测达57%、TerminalBench 2.0达76%、OSWorld达64%;支持任务中实时调控与动态更新;运行效率跃升:完成同等任务,令牌消耗量较5.2-Codex减少超一半,单令牌处理速度提升超25%;具备成熟的计算机实操能力。”
他还表示,“这是我们首款在安全防护框架的网络安全维度获评“高等级”的模型。目前,我们正试点推出可信访问框架,并投入1000万美元API额度,助力网络安全防御体系的加速建设。”
61 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: Cora Tracy)
Invalid media:
image
image
OpenAI首席执行官Sam Altman宣布:“GPT-5.3-Codex正式发布!编程性能再攀新高:SWE-Bench Pro评测达57%、TerminalBench 2.0达76%、OSWorld达64%;支持任务中实时调控与动态更新;运行效率跃升:完成同等任务,令牌消耗量较5.2-Codex减少超一半,单令牌处理速度提升超25%;具备成熟的计算机实操能力。”
他还表示,“这是我们首款在安全防护框架的网络安全维度获评“高等级”的模型。目前,我们正试点推出可信访问框架,并投入1000万美元API额度,助力网络安全防御体系的加速建设。”
61 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: Cora Tracy)
Invalid media:
image
image
记一次对 Opus 4.6、5.3 Codex、Step-3.5-Flash、Qwen3-Coder-Next 等真实项目需求的横向评测
项目
这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。
本次与上一次评测的项目和环境都完全一致: 记一次对 Claude、GPT、Gemini、GLM、Kimi、Minimax、DeepSeek 真实项目需求的横向评测
所以在评级时会参考上次的成绩合并进行评级。
本次有一个评审方式的变化,完成度我会使用 GPT-5.3-Codex(xhigh) 进行审查,会比人工审查更全面,可以说这次的评分比上次严格了非常多,以下是审查提示:
详细 (click for more details)
模型来源
● Step-3.5-Flash: 官方 API
● Qwen3-Coder-Next: OpenRouter(chutes)
● GPT-5.3-Codex: Codex 逆向 API (ChatGPT Team 订阅)
● Claude-Opus-4.6: 宣称官方 Claude Code 的中转站。
速度
● Step-3.5-Flash: 6 分钟
● Qwen3-Coder-Next: 9 分钟
● GPT-5.3-Codex(xhigh): 16 分钟
● GPT-5.3-Codex(high): 16 分钟(触发了一次上下文压缩)
● GPT-5.3-Codex(medium): 10 分钟
● Claude-Opus-4.6(Max): 26 分钟
令牌数
● Step-3.5-Flash: 3.06M (¥0.5)
● Qwen3-Coder-Next: 2.99M (¥1.56)
● GPT-5.3-Codex(xhigh): 未统计,体感上确实少了很多,额度用得也更少了。
● GPT-5.3-Codex(high): 总共尝试两次,都触发了上下文压缩,很不正常。
● GPT-5.3-Codex(medium): 与 xhigh 相同。
● Claude-Opus-4.6(Max): 3.50M
代码行数
● Step-3.5-Flash: (又没看,实在抱歉)
● Qwen3-Coder-Next: +1701, -6
● GPT-5.3-Codex(xhigh): +1600, -6
● GPT-5.3-Codex(high): +1452, -10
● GPT-5.3-Codex(medium): +1318, -5
● Claude-Opus-4.6(Max): +1592, -6
完成度
Step-3.5-Flash
审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)
Qwen3-Coder-Next
审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)
GPT-5.3-Codex(xhigh)
审查结论: 存在极个别小错误,与 GPT-5.2(xhigh) 相当。
详细 (click for more details)
GPT-5.3-Codex(high)
审查结论: 存在逻辑错误。
详细 (click for more details)
GPT-5.3-Codex(medium)
审查结论: 存在逻辑错误。
详细 (click for more details)
Claude-Opus-4.6(Max)
审查结论:
详细 (click for more details)
代码质量
Step-3.5-Flash
● 代码架构与美观:看着挺工整的。
● 注释程度:行间注释多,文档级注释也挺多。
● 防御性编程:正常,该判空的地方都有做。
Qwen3-Coder-Next
● 代码架构与美观:有一些地方扩展性看起来很低。
● 注释程度:行间注释多,文档级注释也挺多。
● 防御性编程:正常,该判空的地方都有做。
GPT-5.3-Codex(xhigh/high/medium)
● 代码架构与美观:看着挺好。
● 注释程度:竟然几乎没有任何注释?!与 5.2 系列的行为不同。
● 防御性编程:正常,该判空的地方都有做。
Claude-Opus-4.6(Max)
● 代码架构与美观:看着挺好。
● 注释程度:满满的 Claude 味,行间注释很多,也几乎都有文档级注释。
● 防御性编程:正常,该判空的地方都有做。
最终总结
Tier 3
● Step-3.5-Flash
● Qwen3-Coder-Next
Tier 2
● 无。
Tier 1
● GPT-5.3-Codex(high)
● GPT-5.3-Codex(medium)
项目
这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。
本次与上一次评测的项目和环境都完全一致: 记一次对 Claude、GPT、Gemini、GLM、Kimi、Minimax、DeepSeek 真实项目需求的横向评测
所以在评级时会参考上次的成绩合并进行评级。
本次有一个评审方式的变化,完成度我会使用 GPT-5.3-Codex(xhigh) 进行审查,会比人工审查更全面,可以说这次的评分比上次严格了非常多,以下是审查提示:
详细 (click for more details)
模型来源
● Step-3.5-Flash: 官方 API
● Qwen3-Coder-Next: OpenRouter(chutes)
● GPT-5.3-Codex: Codex 逆向 API (ChatGPT Team 订阅)
● Claude-Opus-4.6: 宣称官方 Claude Code 的中转站。
速度
● Step-3.5-Flash: 6 分钟
● Qwen3-Coder-Next: 9 分钟
● GPT-5.3-Codex(xhigh): 16 分钟
● GPT-5.3-Codex(high): 16 分钟(触发了一次上下文压缩)
● GPT-5.3-Codex(medium): 10 分钟
● Claude-Opus-4.6(Max): 26 分钟
令牌数
● Step-3.5-Flash: 3.06M (¥0.5)
● Qwen3-Coder-Next: 2.99M (¥1.56)
● GPT-5.3-Codex(xhigh): 未统计,体感上确实少了很多,额度用得也更少了。
● GPT-5.3-Codex(high): 总共尝试两次,都触发了上下文压缩,很不正常。
● GPT-5.3-Codex(medium): 与 xhigh 相同。
● Claude-Opus-4.6(Max): 3.50M
代码行数
● Step-3.5-Flash: (又没看,实在抱歉)
● Qwen3-Coder-Next: +1701, -6
● GPT-5.3-Codex(xhigh): +1600, -6
● GPT-5.3-Codex(high): +1452, -10
● GPT-5.3-Codex(medium): +1318, -5
● Claude-Opus-4.6(Max): +1592, -6
完成度
Step-3.5-Flash
审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)
Qwen3-Coder-Next
审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)
GPT-5.3-Codex(xhigh)
审查结论: 存在极个别小错误,与 GPT-5.2(xhigh) 相当。
详细 (click for more details)
GPT-5.3-Codex(high)
审查结论: 存在逻辑错误。
详细 (click for more details)
GPT-5.3-Codex(medium)
审查结论: 存在逻辑错误。
详细 (click for more details)
Claude-Opus-4.6(Max)
审查结论:
详细 (click for more details)
代码质量
Step-3.5-Flash
● 代码架构与美观:看着挺工整的。
● 注释程度:行间注释多,文档级注释也挺多。
● 防御性编程:正常,该判空的地方都有做。
Qwen3-Coder-Next
● 代码架构与美观:有一些地方扩展性看起来很低。
● 注释程度:行间注释多,文档级注释也挺多。
● 防御性编程:正常,该判空的地方都有做。
GPT-5.3-Codex(xhigh/high/medium)
● 代码架构与美观:看着挺好。
● 注释程度:竟然几乎没有任何注释?!与 5.2 系列的行为不同。
● 防御性编程:正常,该判空的地方都有做。
Claude-Opus-4.6(Max)
● 代码架构与美观:看着挺好。
● 注释程度:满满的 Claude 味,行间注释很多,也几乎都有文档级注释。
● 防御性编程:正常,该判空的地方都有做。
最终总结
Tier 3
● Step-3.5-Flash
● Qwen3-Coder-Next
虽然我在期待奇迹,但是对于这两个小参数模型来说不能要求太高,Step-3.5-Flash 的速度真的令人惊艳,但是效果还是 GLM 4.7 最好。
过往模型:
● DeepSeek V3.2
● GLM 4.7
● Minimax M2.1
● Gemini 3 Pro
● Gemini 3 Flash
● GPT 5.1 Codex mini(medium)
Tier 2
● 无。
待补充。
过往模型:
● Kimi K2.5
Tier 1
● GPT-5.3-Codex(high)
● GPT-5.3-Codex(medium)
❤1
Linux.do 热门话题
记一次对 Opus 4.6、5.3 Codex、Step-3.5-Flash、Qwen3-Coder-Next 等真实项目需求的横向评测 项目 这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。 本次与上一次评测的项目和环境都完全一致: 记一次对 Claude、GPT、Gemini、GLM、Kimi、Minimax、DeepSeek 真实项目需求的横向评测 所以在评级时会参考上次的成绩合并进行评级。 本次有一个评审方式的变化,完成度我会使用…
● Claude Opus 4.6(Max)
Claude Opus 4.6 等了一个多小时才测好,这其中主要是因为出现了几次中断,为了不影响最终效果共测试了三遍。
这次 Opus 的表现令我不敢相信,可以说是大失所望,测试的三遍中每个都花了 20 分钟以上,而且每次前 20 分钟都基本上花在了探索代码库。
可以看出 Opus 4.6 很倾向于探索代码库。
但是最终效果却只能说和 Opus 4.5 没有什么差距:
● Type 枚举未转换的问题在 Opus 4.5 也犯了。
● 未在显示称号时更新建筑的预览也是 Opus 4.5 就有的错误。
这种结果我不想相信,所以我甚至给它开了个后门:
允许它再检查一遍,结果是:
Tier 0
● GPT-5.3-Codex(xhigh)
但可以接受,毕竟花费的时间真的可以感觉到少了,如果忽略网络的影响,与上次的时间相比缩短了一倍,复杂需求时,GPT 5.3 Codex 可以成为首选模型。
----------------------
本次使用自己开发的 VS Code 插件做到在 Copilot 中使用以上模型: GitHub - smallmain/vscode-unify-chat-provider: Integrate multiple LLM API providers into VS Code's GitHub Copilot Chat using the Language Model API. Aggregates the latest free mainstream models, configurable in just a few steps! One-click use of your Claude Code, Gemini CLI, Antigravity, Github Copilot, Qwen Code, OpenAI CodeX (ChatGPT Plus/Pro), iFlow CLI account quotas.
在 VS Code v1.109.0 版本中,Copilot 有很多新特性和优化,大家可以试一试。
这次 Opus 4.6 和 5.3 Codex 的发布,我也将插件进行了第一时间的完全适配,并非改一改模型 ID 就是适配了,这并不能发挥出模型的最大潜力,所以已将官方 API 规范中针对 Opus 4.6 新增的字段都进行了适配:
● Adaptive thinking
● Max effort thinking
如果对佬友们有帮助,请给我一个 Star,感谢!
44 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: SmallMain)
Invalid media:
image
image
GPT-5.3-Codex(high) 尝试了两次,因为每次都触发了上下文压缩,这不应该出现,所以又给了一次机会,但依然有相同的问题。检查之后发现它读取了很多 .prefab 文件,这些文件既不太可读,也不应该被读取,因为需求案已经提供了预制体结构。
过往模型:
● GPT 5.2(medium)
● GPT 5.2 Codex(xhigh)
● Claude Opus 4.5
● Claude Sonnet 4.5
Claude Opus 4.6 等了一个多小时才测好,这其中主要是因为出现了几次中断,为了不影响最终效果共测试了三遍。
这次 Opus 的表现令我不敢相信,可以说是大失所望,测试的三遍中每个都花了 20 分钟以上,而且每次前 20 分钟都基本上花在了探索代码库。
可以看出 Opus 4.6 很倾向于探索代码库。
但是最终效果却只能说和 Opus 4.5 没有什么差距:
● Type 枚举未转换的问题在 Opus 4.5 也犯了。
● 未在显示称号时更新建筑的预览也是 Opus 4.5 就有的错误。
这种结果我不想相信,所以我甚至给它开了个后门:
允许它再检查一遍,结果是:
Tier 0
● GPT-5.3-Codex(xhigh)
依然是王者,需要说的是出现了两个小错误,这两个错误在 GPT 5.2 时没有。
过往模型:
● GPT 5.2(xhigh)
但可以接受,毕竟花费的时间真的可以感觉到少了,如果忽略网络的影响,与上次的时间相比缩短了一倍,复杂需求时,GPT 5.3 Codex 可以成为首选模型。
----------------------
本次使用自己开发的 VS Code 插件做到在 Copilot 中使用以上模型: GitHub - smallmain/vscode-unify-chat-provider: Integrate multiple LLM API providers into VS Code's GitHub Copilot Chat using the Language Model API. Aggregates the latest free mainstream models, configurable in just a few steps! One-click use of your Claude Code, Gemini CLI, Antigravity, Github Copilot, Qwen Code, OpenAI CodeX (ChatGPT Plus/Pro), iFlow CLI account quotas.
在 VS Code v1.109.0 版本中,Copilot 有很多新特性和优化,大家可以试一试。
这次 Opus 4.6 和 5.3 Codex 的发布,我也将插件进行了第一时间的完全适配,并非改一改模型 ID 就是适配了,这并不能发挥出模型的最大潜力,所以已将官方 API 规范中针对 Opus 4.6 新增的字段都进行了适配:
● Adaptive thinking
● Max effort thinking
如果对佬友们有帮助,请给我一个 Star,感谢!
44 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: SmallMain)
Invalid media:
image
image
5.3-codex很强,是codex后缀模型最好用的一次
昨晚以为奥特曼就是说说而已,没想到5.3-codex终于端出来了(感谢
早上看到佬发的帖子:https://linux.do/t/topic/1571133
升级了codex cli,我勒个一晚上更了三个版本啊
示例:
我之前找codex cli的压缩机制时,跟5.2需要讨论两三轮才能找对问题、还需要我自己看代码总结结论,现在gpt-5.3-codex只需要一句话(拉新仓库重新问的,没有缓存)
然后不到2分钟结论直接甩给我了,非常之精准啊!(一句话就能干我+gpt5.2半个小时的活啊)
258k? 272k? 400k? 浅析codex的上下文与压缩机制 开发调优
目前的缺点
free号还没上,所以公益站调用不起来,给奥特曼点时间 :bili_057:
70 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: zj.z)
Invalid media:
image
image
image
昨晚以为奥特曼就是说说而已,没想到5.3-codex终于端出来了(感谢
A/)早上看到佬发的帖子:https://linux.do/t/topic/1571133
升级了codex cli,我勒个一晚上更了三个版本啊
示例:
我之前找codex cli的压缩机制时,跟5.2需要讨论两三轮才能找对问题、还需要我自己看代码总结结论,现在gpt-5.3-codex只需要一句话(拉新仓库重新问的,没有缓存)
然后不到2分钟结论直接甩给我了,非常之精准啊!(一句话就能干我+gpt5.2半个小时的活啊)
258k? 272k? 400k? 浅析codex的上下文与压缩机制 开发调优
0. 从这两个话题出发,看了下codex的代码 0.1 Codex可以超过context length limit继续使用 0.2 简单解释一下codex的上下文大小1. 长话短说篇 gpt-5.2自动触发压缩的窗口 272k*0.9 = 244.8k gpt-5.2显示的窗口272k*0.95 = 258k gpt-5.2实际的窗口:400k gpt5.2能否关闭自动压缩:目前不能,但可…
目前的缺点
free号还没上,所以公益站调用不起来,给奥特曼点时间 :bili_057:
70 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: zj.z)
Invalid media:
image
image
image
为什么论坛会有这么多所谓“中美Ai大战”,"差距"
还一直堂而皇之地贴出一个“对比图” 这两对比的是一个东西吗?国外不做营销,不做推广吗?要对比就正经对比所谓的推广手段,营销手段;对比国内模型性能差距;不要对比什么老美发模型,我们发营销。国内是最近不发模型还是怎么吗,首页一堆这种帖子,看得都烦人。还以到了X看到一堆营销号,一股子老年意林味
57 posts - 50 participants
Read full topic
via LINUX DO - 热门话题 (author: lizzeight)
还一直堂而皇之地贴出一个“对比图” 这两对比的是一个东西吗?国外不做营销,不做推广吗?要对比就正经对比所谓的推广手段,营销手段;对比国内模型性能差距;不要对比什么老美发模型,我们发营销。国内是最近不发模型还是怎么吗,首页一堆这种帖子,看得都烦人。还以到了X看到一堆营销号,一股子老年意林味
57 posts - 50 participants
Read full topic
via LINUX DO - 热门话题 (author: lizzeight)
【兰兰】各位,请动动脑子!
各位……
现在站点里每天都有海量的帖子。类似于
● “XXX公益站这是用不了了么?”
● “XXX公益站为什么用不了?”
● “为什么我之前可以,现在不行”
我们现在QQ群里天天都在截这些帖子的图——看乐子!
我们并非不允许提问,相反,我们实际上提倡提问。
毕竟倘如你的提问有价值,并被回复以后。会对后人有很大的帮助。
但是,这并不代表着你可以随便提问,不代表你可以放弃自己动脑的能力!
亲爱的佬友。搜索引擎真的是个好东西。LinuxDo社区最顶部也有搜索框,你的问题99%会重复,请你在提问前多搜索一下……可以么?
在这里,让我给你提供一点点自己排查问题的方法。
1. 搜索,把你的报错、操作、配置截图,发给你喜欢用的AI,询问它这个报错的原因。
2. 对比,经常问"为什么之前可以,现在不行"/“为什么这个供应商可以那个不行?”。那就请自问,这两个有什么区别?这里面有什么区别?自己找不到区别的话,请甩给AI,让它帮你找。
3. 合理使用cc、cx、oc等工具。现在cc真的挺好用了,如果cx等出现配置问题,就让cc帮你配置。
现在是AI时代了……多借助AI的能力喵!!!
更多的,也建议你查看薄荷佬这篇帖子,写的真的很好!
----------------------
以及……兰兰有时候也做事不过脑子……马上改,马上改qwq
43 posts - 38 participants
Read full topic
via LINUX DO - 热门话题 (author: 兰兰)
各位……
现在站点里每天都有海量的帖子。类似于
● “XXX公益站这是用不了了么?”
● “XXX公益站为什么用不了?”
● “为什么我之前可以,现在不行”
我们现在QQ群里天天都在截这些帖子的图——看乐子!
我们并非不允许提问,相反,我们实际上提倡提问。
毕竟倘如你的提问有价值,并被回复以后。会对后人有很大的帮助。
但是,这并不代表着你可以随便提问,不代表你可以放弃自己动脑的能力!
亲爱的佬友。搜索引擎真的是个好东西。LinuxDo社区最顶部也有搜索框,你的问题99%会重复,请你在提问前多搜索一下……可以么?
在这里,让我给你提供一点点自己排查问题的方法。
1. 搜索,把你的报错、操作、配置截图,发给你喜欢用的AI,询问它这个报错的原因。
2. 对比,经常问"为什么之前可以,现在不行"/“为什么这个供应商可以那个不行?”。那就请自问,这两个有什么区别?这里面有什么区别?自己找不到区别的话,请甩给AI,让它帮你找。
3. 合理使用cc、cx、oc等工具。现在cc真的挺好用了,如果cx等出现配置问题,就让cc帮你配置。
现在是AI时代了……多借助AI的能力喵!!!
更多的,也建议你查看薄荷佬这篇帖子,写的真的很好!
----------------------
以及……兰兰有时候也做事不过脑子……马上改,马上改qwq
43 posts - 38 participants
Read full topic
via LINUX DO - 热门话题 (author: 兰兰)
【JarvisAPI】已维护完毕 并已开放注册
各位佬友久等了;贾维斯已维护完毕;并且开放注册了(仅限2级以上的佬友)。这个限制后面看具体情况再做调整吧。大家用起来吧!
新增2个备用域名:
jarvis.738293.xyz
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
jarvis.ccwu.cc
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
87 posts - 75 participants
Read full topic
via LINUX DO - 热门话题 (author: 沈超)
Invalid media: image
各位佬友久等了;贾维斯已维护完毕;并且开放注册了(仅限2级以上的佬友)。这个限制后面看具体情况再做调整吧。大家用起来吧!
新增2个备用域名:
jarvis.738293.xyz
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
jarvis.ccwu.cc
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
87 posts - 75 participants
Read full topic
via LINUX DO - 热门话题 (author: 沈超)
Invalid media: image
开源25天,GitHub突破2000Star🎉
● 在线体验地址: https://nginx-pulse.kaisir.cn/
● GitHub 地址: GitHub - likaia/nginxpulse: 轻量级 Nginx 访问日志分析与可视化面板,提供实时统计、PV 过滤、IP 归属地与客户端解析。
● dockerhub 地址: magiccoders/nginxpulse - Docker Image
60 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: 神奇的程序员)
Invalid media:
image
image
● 在线体验地址: https://nginx-pulse.kaisir.cn/
● GitHub 地址: GitHub - likaia/nginxpulse: 轻量级 Nginx 访问日志分析与可视化面板,提供实时统计、PV 过滤、IP 归属地与客户端解析。
● dockerhub 地址: magiccoders/nginxpulse - Docker Image
60 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: 神奇的程序员)
Invalid media:
image
image
一堆人嘲讽千问的宣发,看着真的很烦。
宣发这事儿,各家都有各家的花招。提前预热、发布会吹一吹、刷点榜单、找KOL投放(oai的gpt-5和gemini3各种预热了真的很久,grok更是被马斯克花式吹,claude反华营销我都不知道怎么说)……这些说白了都是常规操作。你可以不喜欢某一种,但如果只对“阿里送奶茶”格外上纲上线,我确实有点无语:
阿里做电商和外卖,联合自家业务真金白银请大家喝奶茶也还好吧。至少比某些企业起找一堆自媒体硬画一些莫名其妙的前端,比如画个xbox画个鹈鹕骑自行车,搞一堆软广好得多吧。
另外,技术层面也别一概而论。
我不否认海外御四家遥遥领先。但其实 Qwen3 第一版是去年三月的模型,后续虽有更新,基础架构也大概率在一年甚至一年半前就已经定型。拿这种很早就既定架构的模型去对比近几个月的新模型,肯定是没得比的呀,不是同一代的产品。当然,更新慢这确实是阿里团队自己的问题,怨不得别人,菜是原罪。
但这并不等于 Qwen 就差到可以被疯狂嘲讽。
我在高校做科研,也会承接横向纵向项目,和企业、政府、医院等等行业一起做大模型落地。过去一年我这边一直在用 Qwen3 做微调,完全能够支撑真实业务与交付需求。传统行业里,大模型也并不局限于写代码,各种奇奇怪怪的需求都有,很多需求很多实际的场景qwen3-4b微调一下就能解决,对业务效率的提升也是非常巨大的。
还有就是,Qwen 系列最牛逼的地方是模型谱系很完整:从 0.6B、4B、7B 到 235B,从 LLM 到 VLM,再到语音、文生图等多模态能力,覆盖了不同算力、不同成本、不同场景的需求。对TOB TOG落地来说,这种可选项足够多的体系化能力,我认为绝对强过超大模型的单点SOTA的。大家都懂旗舰模型强,很多场景就是底大一级压死人,搞科研的和搞工程的没人想屎上雕花,但很多情况真不是你想上旗舰就能上的。
再往大一点说:大模型的发展与应用真的只能靠闭源吗?
我完全承认闭源模型对上限的探索至关重要,它们在推动 AI 科研与行业高度方面贡献巨大,称得上一句功高至伟,甚至我的科研生涯就是靠着oai 22年底推出chatgpt把NLP带火,而一路起飞的。
但认真想想,通用人工智能是马太效应很强的技术,对人类的替代是前所未有的,如果关键能力长期只掌握在极少数主体手里,垄断与分配问题一定会越来越大,你觉得你会是那个高度竞争下的胜者么?因此,AI一定要做好平权和普惠,绝对不能把命脉掌握在极个别企业手里形成垄断。
与此同时,我国传统工业企业、政府、医院、军工、大型国企央企,以及武警、军队。我接触过的这些场景,没有一个能接受数据外流,几乎也没有哪个场景数据简单、需求单一,拿通用模型直接就能搞定的。对于这些场景想要搞定基本是一企一策、模型要深度定制微调的。能在本地跑、可控可改、成本可承受的开源生态,就是它们接入AI的前提条件。
科技平权与社会普惠不只取决于高度,同样取决于广度。
当这些与社会运行高度相关的系统(医疗、政务、工业、公共安全等)因为AI而系统性提效降本,最终改善的是每个人的日常生活。Qwen们的意义正在这里:让更多行业以更低门槛接入AI,把AI做成更接近高速公路,日常安全,低价医疗这种基础设施式的能力。
关于千问和海外几巨头,我就想到了前段时间炒的很凶的原研药和仿制药。仿原研药效果更好但贵,仿制药可能只有80%-90%的能力但便宜、覆盖面大。这种类比我觉得不是说两者质量标准一样,而是说在成本—效果—覆盖面之间,社会需要多层供给:有些人追最强上限,有些人要稳定可控的大规模落地。大模型生态同样如此。
最后,我觉得吹海外几巨头没问题,真遥遥领先也值得这些夸奖。但也别嘲讽阴阳Qwen们了,AI普惠少不了他们,何况千问也是拿真金白银在请你喝奶茶~
70 posts - 58 participants
Read full topic
via LINUX DO - 热门话题 (author: Alexcc)
宣发这事儿,各家都有各家的花招。提前预热、发布会吹一吹、刷点榜单、找KOL投放(oai的gpt-5和gemini3各种预热了真的很久,grok更是被马斯克花式吹,claude反华营销我都不知道怎么说)……这些说白了都是常规操作。你可以不喜欢某一种,但如果只对“阿里送奶茶”格外上纲上线,我确实有点无语:
阿里做电商和外卖,联合自家业务真金白银请大家喝奶茶也还好吧。至少比某些企业起找一堆自媒体硬画一些莫名其妙的前端,比如画个xbox画个鹈鹕骑自行车,搞一堆软广好得多吧。
另外,技术层面也别一概而论。
我不否认海外御四家遥遥领先。但其实 Qwen3 第一版是去年三月的模型,后续虽有更新,基础架构也大概率在一年甚至一年半前就已经定型。拿这种很早就既定架构的模型去对比近几个月的新模型,肯定是没得比的呀,不是同一代的产品。当然,更新慢这确实是阿里团队自己的问题,怨不得别人,菜是原罪。
但这并不等于 Qwen 就差到可以被疯狂嘲讽。
我在高校做科研,也会承接横向纵向项目,和企业、政府、医院等等行业一起做大模型落地。过去一年我这边一直在用 Qwen3 做微调,完全能够支撑真实业务与交付需求。传统行业里,大模型也并不局限于写代码,各种奇奇怪怪的需求都有,很多需求很多实际的场景qwen3-4b微调一下就能解决,对业务效率的提升也是非常巨大的。
还有就是,Qwen 系列最牛逼的地方是模型谱系很完整:从 0.6B、4B、7B 到 235B,从 LLM 到 VLM,再到语音、文生图等多模态能力,覆盖了不同算力、不同成本、不同场景的需求。对TOB TOG落地来说,这种可选项足够多的体系化能力,我认为绝对强过超大模型的单点SOTA的。大家都懂旗舰模型强,很多场景就是底大一级压死人,搞科研的和搞工程的没人想屎上雕花,但很多情况真不是你想上旗舰就能上的。
再往大一点说:大模型的发展与应用真的只能靠闭源吗?
我完全承认闭源模型对上限的探索至关重要,它们在推动 AI 科研与行业高度方面贡献巨大,称得上一句功高至伟,甚至我的科研生涯就是靠着oai 22年底推出chatgpt把NLP带火,而一路起飞的。
但认真想想,通用人工智能是马太效应很强的技术,对人类的替代是前所未有的,如果关键能力长期只掌握在极少数主体手里,垄断与分配问题一定会越来越大,你觉得你会是那个高度竞争下的胜者么?因此,AI一定要做好平权和普惠,绝对不能把命脉掌握在极个别企业手里形成垄断。
与此同时,我国传统工业企业、政府、医院、军工、大型国企央企,以及武警、军队。我接触过的这些场景,没有一个能接受数据外流,几乎也没有哪个场景数据简单、需求单一,拿通用模型直接就能搞定的。对于这些场景想要搞定基本是一企一策、模型要深度定制微调的。能在本地跑、可控可改、成本可承受的开源生态,就是它们接入AI的前提条件。
科技平权与社会普惠不只取决于高度,同样取决于广度。
当这些与社会运行高度相关的系统(医疗、政务、工业、公共安全等)因为AI而系统性提效降本,最终改善的是每个人的日常生活。Qwen们的意义正在这里:让更多行业以更低门槛接入AI,把AI做成更接近高速公路,日常安全,低价医疗这种基础设施式的能力。
关于千问和海外几巨头,我就想到了前段时间炒的很凶的原研药和仿制药。仿原研药效果更好但贵,仿制药可能只有80%-90%的能力但便宜、覆盖面大。这种类比我觉得不是说两者质量标准一样,而是说在成本—效果—覆盖面之间,社会需要多层供给:有些人追最强上限,有些人要稳定可控的大规模落地。大模型生态同样如此。
最后,我觉得吹海外几巨头没问题,真遥遥领先也值得这些夸奖。但也别嘲讽阴阳Qwen们了,AI普惠少不了他们,何况千问也是拿真金白银在请你喝奶茶~
70 posts - 58 participants
Read full topic
via LINUX DO - 热门话题 (author: Alexcc)
起床了,上了个gpt-5.3-codex
如题,模型名:gpt-5.3-codex。
然后现在gpt的渠道,都是可以用v1/chat端点了,不仅限于response,也就是正常聊天也可以,但是不能瑟瑟喔不能瑟瑟喔
74 posts - 74 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
如题,模型名:gpt-5.3-codex。
然后现在gpt的渠道,都是可以用v1/chat端点了,不仅限于response,也就是正常聊天也可以,但是不能瑟瑟喔不能瑟瑟喔
74 posts - 74 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
整理了一些国外有每天免费额度/注册送额度的平台
Nebius
● 模型: 开源模型基本都有。
● 免费额度: GitHub 注册送 1 刀。
● 链接:
SiliconStorm
● 模型: Grok-3 和 DeepSeek。
● 免费额度: 注册送 5 刀。
● 链接:
OpenRouter
● 模型: 有免费模型,但一直在变换。
● 链接:
Sealos
● 特点: 余额可以用于 AI,还可以部署容器。
● 免费额度: 注册送 10 元余额。
● 国际站:
TurboTable
● 模型: GPT、Claude 等。
● 免费额度: 注册送 1M Token。
● 链接:
Akash
● 模型: 国内外开源模型
● 免费额度: 每天有免费额度
● 链接:
Groq
● 模型: 国内外开源模型。
● 免费额度: 每天有免费额度,很多,不要搞号池,封号
● 特点: 速度很快。
● 链接:
Cohere
● 模型: 国内外开源模型。
● 免费额度: 每天有免费额度
● 特点: 速度很快。
● 链接:
英伟达
● 模型 : 开源模型
● 免费额度: 限制80rpm
● 链接:
22 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: Xyzen)
Nebius
● 模型: 开源模型基本都有。
● 免费额度: GitHub 注册送 1 刀。
● 链接:
https://studio.nebius.comSiliconStorm
● 模型: Grok-3 和 DeepSeek。
● 免费额度: 注册送 5 刀。
● 链接:
https://chat.siliconstorm.ai/OpenRouter
● 模型: 有免费模型,但一直在变换。
● 链接:
https://openrouter.ai/Sealos
● 特点: 余额可以用于 AI,还可以部署容器。
● 免费额度: 注册送 10 元余额。
● 国际站:
https://cloud.sealos.io/TurboTable
● 模型: GPT、Claude 等。
● 免费额度: 注册送 1M Token。
● 链接:
https://turbotable.ai/Akash
● 模型: 国内外开源模型
● 免费额度: 每天有免费额度
● 链接:
https://chatapi.akash.networkGroq
● 模型: 国内外开源模型。
● 免费额度: 每天有免费额度,很多,不要搞号池,封号
● 特点: 速度很快。
● 链接:
https://groq.com/Cohere
● 模型: 国内外开源模型。
● 免费额度: 每天有免费额度
● 特点: 速度很快。
● 链接:
https://cerebras.ai英伟达
● 模型 : 开源模型
● 免费额度: 限制80rpm
● 链接:
https://build.nvidia.com/22 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: Xyzen)
❤1
抽一个ChatGPT PLUS账号 3.2到期
🏆️ 奖品详情:
[奖品1]:ChatGPT PLUS账号 (outlook邮箱)
:three_o_clock: 活动时间:
开始时间:发布时间
截止时间:2026 年 2 月 7 日 17:00
📝 参与方式:
在本帖下回复任意内容。
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后1小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
149 posts - 144 participants
Read full topic
via LINUX DO - 热门话题 (author: piniania)
🏆️ 奖品详情:
[奖品1]:ChatGPT PLUS账号 (outlook邮箱)
:three_o_clock: 活动时间:
开始时间:发布时间
截止时间:2026 年 2 月 7 日 17:00
📝 参与方式:
在本帖下回复任意内容。
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后1小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
149 posts - 144 participants
Read full topic
via LINUX DO - 热门话题 (author: piniania)
我要收回今天早上对gpt-5.3-codex的诋毁
顺便说一下我的踩坑经历(
因为我是纯粹的vibe coding,所以很多时候好多很简单的问题都是靠AI改的,这也决定了很多时候我的描述不准确
对于5.3-codex来说,模型能力足够,如何让它自己找到问题呢?
答案就是贴日志原文,不用很多,集中报错即可,并且可以在agents.md中要求其和你先讨论代码再修改,以及讲解清楚他的修改逻辑
今天早上我没有贴出具体的日志(当然也是我想错了),所以才导致改歪了,下午起来清醒了,一遍过,耗时不到3min
附我自己使用的AGENTS.md
50 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: MIKUSCAT)
顺便说一下我的踩坑经历(
因为我是纯粹的vibe coding,所以很多时候好多很简单的问题都是靠AI改的,这也决定了很多时候我的描述不准确
对于5.3-codex来说,模型能力足够,如何让它自己找到问题呢?
答案就是贴日志原文,不用很多,集中报错即可,并且可以在agents.md中要求其和你先讨论代码再修改,以及讲解清楚他的修改逻辑
今天早上我没有贴出具体的日志(当然也是我想错了),所以才导致改歪了,下午起来清醒了,一遍过,耗时不到3min
附我自己使用的AGENTS.md
1. 全程中文,用大白话;默认短回答,除非你要求我展开。
2. 先讨论再动手:改代码/写文件前,先给1个方案(必要时给“简单/稳妥”两选一)并等你确认。
3. 需求不清楚先问最多3个关键问题,避免做偏。
4. 改代码只改必要部分(替换/补丁式改动),不整片重写;保持代码简洁、清晰、可维护,不做过度设计。
5. 修改完成后必须自检:能跑就跑相关测试/构建;不能跑就说明原因,并给出手动验证步骤。
6. 任务需要多步时才列待办清单(ToDo),并在执行中更新进度。
7. 仅在本轮做了实际动作(改代码/写文件/跑命令)时,结尾给小报告:做了什么 / 怎么验证 / 风险点 / 下一步;纯讨论、澄清、方案确认不需要小报告。
50 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: MIKUSCAT)