Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.12K subscribers
26K photos
35 videos
13 files
42.2K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
Claude Opus 4.6 Minecraft 最新实测:天气、生物、TNT爆炸、随机无限地形一次完整成型

各位佬好,最近拿到 Opus 4.6 后手痒测了一下,直接让它 one shot 写一个 Minecraft,prompt 应该是目前第一梯队,分享一下。

测了什么

一句 prompt 丢进去,不做任何追加修改,让它直接生成一个可玩的 3D Minecraft 风格游戏。出来的成品包含:

● 完整的天气系统:晴天、雨天、雪天,天空颜色和粒子效果都有
● 多种生物:能看到不同的mob在世界里游荡,有基本的AI行为
● TNT爆炸:放置TNT点燃后真的会炸,周围方块会被破坏,有爆炸粒子效果
● 材质和光影:方块贴图做了区分,有基础的光照和阴影,整体观感比较舒服
● 基本玩法闭环:挖掘、放置、切换方块、背包,该有的都有

说实话 one shot 能出这个完成度,我个人觉得非常强了。

两个版本

这里放了两个版本供佬们对比:

1. One Shot 版:纯一句 prompt,零修改,原汁原味直出的结果
2. 自然语言迭代版:在 one shot 基础上,用自然语言描述又追加了两轮修改(主要是补了一些细节和交互,以及肉眼可见的bug),总共三次对话就到了最终效果

第二个版本主要想说明一点:Opus 4.6 的上下文理解强得离谱。两轮追加修改,每轮我就用大白话说"把xx改一下"“加个xx效果”,它能精准定位到对应的代码位置去改,不会把之前写好的东西搞崩,整个上下文的连贯性和代码一致性维持得相当好。这个能力在这里就不展开了,佬们可以自己体验一下。

已知的小问题

也不是完美的,诚实说几个小 bug:

one shot无跳跃
方块多了之后会有轻微卡顿,毕竟纯前端渲染没做太多优化

不过考虑到这是 AI 一次/三次对话生成的完整 3D 游戏,这些问题我觉得完全可以接受。

最后

文件放在下面了,佬们可以自行查看和评价。个人主观感受就是 Opus 4.6 在这类复杂代码生成任务上确实是目前第一梯队的水平,各位自己判断。

欢迎讨论 👇️

Unnoscriptd
Unnoscriptd

17 posts - 17 participants

Read full topic

via LINUX DO - 热门话题 (author: park peter)

Invalid media:
image
image
image
🔥【大模型系列20】关于Opus-4.6,你想知道的一切【长期更新】

官方资料

官方介绍:https://www.anthropic.com/news/claude-opus-4-6
系统卡:https://www-cdn.anthropic.com/0dd865075ad3132672ee0ab40b05a53f14cf5288.pdf

价格不变,输入$5,输出$25
但超过200k输入$10,输出$37.5
上下文从200k提升到1000k
最大输出(含思考和实际输出)从64k提升到128k
训练时间25年5月没变
速度比较慢只有40tps左右

----------------------

----------------------

评分

LiveBench

来源:https://livebench.ai

----------------------

ARC-AGI-2

来源:ARC Prize - Leaderboard

----------------------

LMArena 截止到260206 06:21未上线

来源:Arena Leaderboard | Compare & Benchmark the Best Frontier AI Models

----------------------

Humanity’s Last Exam 截止到260206 06:21未上线

来源:Humanity's Last Exam

----------------------

Chat渠道

官网App 已上线

需要会员

OpenRouter Chatroom 已上线

消耗自己API
来源:AI Chat Playground - Compare AI Models Side by Side | OpenRouter

LMArema 截止到260206 06:21未上线

其他:Lovable 已上线

----------------------

IDE渠道

Claude Code Cli/VSCode插件 已上线

Cursor/Copilot/Windsurf/Bold/Cencori 已上线

Antigravity 截止到260206 06:21未上线

----------------------

API渠道

OpenRouter 已上线

来源 Claude Opus 4.6 - API, Providers, Stats | OpenRouter

----------------------

最后发张梗图,祝佬友与gpt-5.3-codex和opus4.6玩耍愉快

19 posts - 14 participants

Read full topic

via LINUX DO - 热门话题 (author: dwqxq1)

Invalid media:
image
image
image
image
image
image
image
image
老规矩,周末抽个plus,尝尝5.3咸淡

庆祝本周牛马结束 :tieba_009:,开了个gpt plus,周末时间抽了吧 :tieba_002:,顺便试试5.3的厉害之处 :tieba_013:

🏆️ 奖品详情:

gpt plus会员 :distorted_face::

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:Sun, Feb 8, 2026 9:00 PM CST

📝 参与方式:

在本帖下回复任意内容即可,点点赞更好 🤩

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

152 posts - 151 participants

Read full topic

via LINUX DO - 热门话题 (author: 长长同学)

Invalid media: image
🔥【大模型系列19】关于GPT-5.3-Codex与Codex App,你想知道的一切【更新:VSCode插件没有5.3解决办法】

官方资料

介绍:https://openai.com/index/introducing-gpt-5-3-codex/
系统卡:https://cdn.openai.com/pdf/23eca107-a9b1-4d2c-b156-7deb4fbc697c/GPT-5-3-Codex-System-Card-02.pdf
Codex App介绍:https://openai.com/index/introducing-the-codex-app/
Codex App申请等待页面:https://openai.com/form/codex-app/

----------------------

评分

LMArena 截止到260206 06:21未上线

来源:Arena Leaderboard | Compare & Benchmark the Best Frontier AI Models

----------------------

LiveBench 截止到260206 06:21未上线

来源:https://livebench.ai

----------------------

ARC-AGI-2 截止到260206 06:21未上线

来源:ARC Prize - Leaderboard

----------------------

Humanity’s Last Exam 截止到260206 06:21未上线

来源:Humanity's Last Exam

----------------------

GPT-5.3-Codex IDE渠道

Business会员 + Codex插件 + Antigravity/VSCode/Cursor/Trae

有些人说没有5.3,原因通常是插件没更新,最新版是2月6日的0.5.71,一般更新就有5.3​❗️
如果不是在市场安装,而是下载vsix安装的,一般是不会自动更新的,要重新下载新版vsix
下载地址.Open VSX Registry

升级对有的人有效,有的人无效,原因暂不知道
如果无效可以Codex左边栏右上角settings → log out退出,再重新登录codex试试
或者换美国IP试试

闲鱼试用会员包月几块钱,月抛,L站内也可用LDC换,现阶段最实惠的Codex方案
官方方案,比较省心,不可能参水,额度个人用用也够用的
职业程序员重度使用不够,可以轮换账号或使用其他方案

可以支持high,和xhigh

每周20h总推理时长,相当于API$40
每5小时约160次low,40次medium,16次high(实测12plan),8次xhigh,共享额度
codex与网页额度和重置时间是独立的
查Codex剩余额度:
ⒶCodex左边栏左下角Local → Code limits remaining,没有历史记录
https://chatgpt.com/codex/settings/usage,有历史记录,Code review额度

网页版额度与Codex额度应该无关
网页版有约20次Deep research,15次Pro

参考Antigravity:5小时320次pro,400次flash,125次opus,20次gemini-3-pro-image,估计会同步升opus4.6

Business会员 + CLI 已上线

Business会员 + Codex App 已上线

暂时只有MacOS版App
推广期额度翻倍

Plus会员 + Codex插件/Codex CLI

Business的一半额度
没有便宜会员,不推荐

Pro会员 + Codex插件/Codex CLI

约Business的4倍额度
没有便宜会员,不推荐

自部署Codex逆向 + OpenCode

Codex中转站API + Cline/Codex插件/OpenCode

Codex中转站API很便宜,是否参水就自行评估

OpenRouter API 截止到260206 06:21未上线

----------------------

最后发张梗图,祝佬友与gpt-5.3-codex和opus4.6玩耍愉快

19 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: dwqxq1)

Invalid media: image
【纪念】百日竿头

拿到了!

水一下
今天调座位了,就在第一排讲台面前

直接在老师眼皮子底下摸鱼🤓👆️t2:
56 posts - 45 participants

Read full topic

via LINUX DO - 热门话题 (author: 【失业客服喵】)

Invalid media:
image
image
咱们提高一点分辨的能力

今天早上看到很多帖子说人家发新模型,我们发红包,然后就高潮了。

这本来模型和客户端就不是一个东西,非要拿在一起比。那怎么不拿电车比呢?

就算是模型,我们也是第二梯队呀,也没有落后很多呀。只要不是第一,就是输,对吗?

那再说回产品,人家opal还要加广告呢,A/还明白告诉你,你不配用,不让你用,人家发布模型,跟你有什么关系。

最后再说抢红包

薅token高雅,抢红包低俗是吗?

更新:很多人说都是调侃,我过度反应了?那么普通自信是不是调侃呢?为什么女士想起你就是这句话呢?这就是一种典型的认知作战,查一查苏联笑话是什么时候出现的吧。正如戈培儿所说:
在弥天大谎中,总有一种可信的力量……普通民众更容易在情感深处被大谎言腐蚀,因为他们自己常常说小谎,却羞于编造大谎言,也想不到别人会有如此厚颜无耻地歪曲事实
这句话就是谎言重复1000次就变成了事实的来源。

从认知心理学上来说,这就是一种可得性偏误。人越容易想起什么,越容易把它当成是真的。

54 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: 冬马99)
【富可敌国】小于1毛钱/$的claude-opus-4-6已全面适配

庆祝今天claude官方发布了claude-opus-4-6

我们已连夜完成秒上线,价格一如既往的低

话不多说,欢迎使用推荐:
https://foxcode.rjj.cc

欢迎进群(公告获取优惠码)

福利抽取
🧧2.12日 - 20:00开奖 : 200个1亿额度
332 posts - 330 participants

Read full topic

via LINUX DO - 热门话题 (author: FoxCode)

Invalid media: image
【抽奖】ChatGPT Business (Team) 车位 * 24 ,体验最新模型 gpt-5.3-codex,稳定质保30天~

奖品:ChatGPT Business (Team) 车位 * 24个 - 质保30天

:three_o_clock: 活动时间:

开始时间:2026 年 2 月 6日 15:00
截止时间:2026 年 2 月 7日 14:00

📝 参与方式:

在本帖下回复任意内容
🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用论坛官方抽奖工具随机抽取中奖者。
中奖后请及时私信提供邮箱+截图给我

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,中奖者请及时私信邮箱+中奖截图。
注意邮箱发错不可更换,请认真检查。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

307 posts - 301 participants

Read full topic

via LINUX DO - 热门话题 (author: 仙人球)
再次提醒:请别往社区倾倒垃圾

请不要把互联网上的戾气带来这里!继续讨论:

这张图各位佬友今天应该没少见吧?我上午审批举报删帖的都上十次了,我很难不联想是否有人操纵。

我不管这个图里的论调在别的地方是不是被奉为圭臬?但是,在L站,它就是毫无价值的垃圾信息。

各位,这种垃圾信息,咱们就不要往社区发了,这里不是垃圾场。

这玩意除了阴阳怪气带节奏引战之外,啥也不是。

114 posts - 111 participants

Read full topic

via LINUX DO - 热门话题 (author: Neo)

Invalid media: image
当我把:distorted_face:装进win11的文件夹 be like:

:distorted_face:
40 posts - 19 participants

Read full topic

via LINUX DO - 热门话题 (author: Canadew)

Invalid media: image
GPT-5.3-Codex 正式发布 编程性能再攀新高

OpenAI首席执行官Sam Altman宣布:“GPT-5.3-Codex正式发布!编程性能再攀新高:SWE-Bench Pro评测达57%、TerminalBench 2.0达76%、OSWorld达64%;支持任务中实时调控与动态更新;运行效率跃升:完成同等任务,令牌消耗量较5.2-Codex减少超一半,单令牌处理速度提升超25%;具备成熟的计算机实操能力。”

他还表示,“这是我们首款在安全防护框架的网络安全维度获评“高等级”的模型。目前,我们正试点推出可信访问框架,并投入1000万美元API额度,助力网络安全防御体系的加速建设。”

61 posts - 43 participants

Read full topic

via LINUX DO - 热门话题 (author: Cora Tracy)

Invalid media:
image
image
记一次对 Opus 4.6、5.3 Codex、Step-3.5-Flash、Qwen3-Coder-Next 等真实项目需求的横向评测

项目

这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。

本次与上一次评测的项目和环境都完全一致: 记一次对 Claude、GPT、Gemini、GLM、Kimi、Minimax、DeepSeek 真实项目需求的横向评测

所以在评级时会参考上次的成绩合并进行评级。

本次有一个评审方式的变化,完成度我会使用 GPT-5.3-Codex(xhigh) 进行审查,会比人工审查更全面,可以说这次的评分比上次严格了非常多,以下是审查提示:
详细 (click for more details)

模型来源

Step-3.5-Flash: 官方 API
Qwen3-Coder-Next: OpenRouter(chutes)
GPT-5.3-Codex: Codex 逆向 API (ChatGPT Team 订阅)
Claude-Opus-4.6: 宣称官方 Claude Code 的中转站。

速度

Step-3.5-Flash: 6 分钟
Qwen3-Coder-Next: 9 分钟
GPT-5.3-Codex(xhigh): 16 分钟
GPT-5.3-Codex(high): 16 分钟(触发了一次上下文压缩)
GPT-5.3-Codex(medium): 10 分钟
Claude-Opus-4.6(Max): 26 分钟

令牌数

Step-3.5-Flash: 3.06M (¥0.5)
Qwen3-Coder-Next: 2.99M (¥1.56)
GPT-5.3-Codex(xhigh): 未统计,体感上确实少了很多,额度用得也更少了。
GPT-5.3-Codex(high): 总共尝试两次,都触发了上下文压缩,很不正常。
GPT-5.3-Codex(medium): 与 xhigh 相同。
Claude-Opus-4.6(Max): 3.50M

代码行数

Step-3.5-Flash: (又没看,实在抱歉)
Qwen3-Coder-Next: +1701, -6
GPT-5.3-Codex(xhigh): +1600, -6
GPT-5.3-Codex(high): +1452, -10
GPT-5.3-Codex(medium): +1318, -5
Claude-Opus-4.6(Max): +1592, -6

完成度

Step-3.5-Flash

审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)

Qwen3-Coder-Next

审查结论: 存在编译阻断 + 核心功能回退。
详细 (click for more details)

GPT-5.3-Codex(xhigh)

审查结论: 存在极个别小错误,与 GPT-5.2(xhigh) 相当。
详细 (click for more details)

GPT-5.3-Codex(high)

审查结论: 存在逻辑错误。
详细 (click for more details)

GPT-5.3-Codex(medium)

审查结论: 存在逻辑错误。
详细 (click for more details)

Claude-Opus-4.6(Max)

审查结论:
详细 (click for more details)

代码质量

Step-3.5-Flash

代码架构与美观:看着挺工整的。
注释程度:行间注释多,文档级注释也挺多。
防御性编程:正常,该判空的地方都有做。

Qwen3-Coder-Next

代码架构与美观:有一些地方扩展性看起来很低。
注释程度:行间注释多,文档级注释也挺多。
防御性编程:正常,该判空的地方都有做。

GPT-5.3-Codex(xhigh/high/medium)

代码架构与美观:看着挺好。
注释程度:竟然几乎没有任何注释?!与 5.2 系列的行为不同。
防御性编程:正常,该判空的地方都有做。

Claude-Opus-4.6(Max)

代码架构与美观:看着挺好。
注释程度:满满的 Claude 味,行间注释很多,也几乎都有文档级注释。
防御性编程:正常,该判空的地方都有做。

最终总结

Tier 3

● Step-3.5-Flash
Qwen3-Coder-Next


过往模型:

DeepSeek V3.2
● GLM 4.7
Minimax M2.1
Gemini 3 Pro
Gemini 3 Flash
GPT 5.1 Codex mini(medium)

虽然我在期待奇迹,但是对于这两个小参数模型来说不能要求太高,Step-3.5-Flash 的速度真的令人惊艳,但是效果还是 GLM 4.7 最好。

Tier 2

无。


过往模型:

● Kimi K2.5

待补充。

Tier 1

● GPT-5.3-Codex(high)
GPT-5.3-Codex(medium)
1
Linux.do 热门话题
记一次对 Opus 4.6、5.3 Codex、Step-3.5-Flash、Qwen3-Coder-Next 等真实项目需求的横向评测 项目 这是一个 Unity C# 项目,我进行测试的是一份皮肤系统需求案,我已经做了好预制体,而模型需要编写代码。 本次与上一次评测的项目和环境都完全一致: 记一次对 Claude、GPT、Gemini、GLM、Kimi、Minimax、DeepSeek 真实项目需求的横向评测 所以在评级时会参考上次的成绩合并进行评级。 本次有一个评审方式的变化,完成度我会使用…
Claude Opus 4.6(Max)


过往模型:

● GPT 5.2(medium)
GPT 5.2 Codex(xhigh)
Claude Opus 4.5
Claude Sonnet 4.5

GPT-5.3-Codex(high) 尝试了两次,因为每次都触发了上下文压缩,这不应该出现,所以又给了一次机会,但依然有相同的问题。检查之后发现它读取了很多 .prefab 文件,这些文件既不太可读,也不应该被读取,因为需求案已经提供了预制体结构。

Claude Opus 4.6 等了一个多小时才测好,这其中主要是因为出现了几次中断,为了不影响最终效果共测试了三遍。

这次 Opus 的表现令我不敢相信,可以说是大失所望,测试的三遍中每个都花了 20 分钟以上,而且每次前 20 分钟都基本上花在了探索代码库。

可以看出 Opus 4.6 很倾向于探索代码库。

但是最终效果却只能说和 Opus 4.5 没有什么差距:

Type 枚举未转换的问题在 Opus 4.5 也犯了。
未在显示称号时更新建筑的预览也是 Opus 4.5 就有的错误。

这种结果我不想相信,所以我甚至给它开了个后门:

允许它再检查一遍,结果是:

Tier 0

GPT-5.3-Codex(xhigh)


过往模型:

● GPT 5.2(xhigh)

依然是王者,需要说的是出现了两个小错误,这两个错误在 GPT 5.2 时没有。

但可以接受,毕竟花费的时间真的可以感觉到少了,如果忽略网络的影响,与上次的时间相比缩短了一倍,复杂需求时,GPT 5.3 Codex 可以成为首选模型。

----------------------

本次使用自己开发的 VS Code 插件做到在 Copilot 中使用以上模型: GitHub - smallmain/vscode-unify-chat-provider: Integrate multiple LLM API providers into VS Code's GitHub Copilot Chat using the Language Model API. Aggregates the latest free mainstream models, configurable in just a few steps! One-click use of your Claude Code, Gemini CLI, Antigravity, Github Copilot, Qwen Code, OpenAI CodeX (ChatGPT Plus/Pro), iFlow CLI account quotas.

在 VS Code v1.109.0 版本中,Copilot 有很多新特性和优化,大家可以试一试。

这次 Opus 4.6 和 5.3 Codex 的发布,我也将插件进行了第一时间的完全适配,并非改一改模型 ID 就是适配了,这并不能发挥出模型的最大潜力,所以已将官方 API 规范中针对 Opus 4.6 新增的字段都进行了适配:

● Adaptive thinking
● Max effort thinking

如果对佬友们有帮助,请给我一个 Star,感谢!

44 posts - 32 participants

Read full topic

via LINUX DO - 热门话题 (author: SmallMain)

Invalid media:
image
image
5.3-codex很强,是codex后缀模型最好用的一次

昨晚以为奥特曼就是说说而已,没想到5.3-codex终于端出来了(感谢A/

早上看到佬发的帖子:https://linux.do/t/topic/1571133
升级了codex cli,我勒个一晚上更了三个版本啊

示例:

我之前找codex cli的压缩机制时,跟5.2需要讨论两三轮才能找对问题、还需要我自己看代码总结结论,现在gpt-5.3-codex只需要一句话(拉新仓库重新问的,没有缓存)

然后不到2分钟结论直接甩给我了,非常之精准啊!(一句话就能干我+gpt5.2半个小时的活啊)

258k? 272k? 400k? 浅析codex的上下文与压缩机制 开发调优
0. 从这两个话题出发,看了下codex的代码 0.1 Codex可以超过context length limit继续使用 0.2 简单解释一下codex的上下文大小1. 长话短说篇 gpt-5.2自动触发压缩的窗口 272k*0.9 = 244.8k gpt-5.2显示的窗口272k*0.95 = 258k gpt-5.2实际的窗口:400k gpt5.2能否关闭自动压缩:目前不能,但可…


目前的缺点

free号还没上,所以公益站调用不起来,给奥特曼点时间 :bili_057:

70 posts - 40 participants

Read full topic

via LINUX DO - 热门话题 (author: zj.z)

Invalid media:
image
image
image
为什么论坛会有这么多所谓“中美Ai大战”,"差距"

还一直堂而皇之地贴出一个“对比图” 这两对比的是一个东西吗?国外不做营销,不做推广吗?要对比就正经对比所谓的推广手段,营销手段;对比国内模型性能差距;不要对比什么老美发模型,我们发营销。国内是最近不发模型还是怎么吗,首页一堆这种帖子,看得都烦人。还以到了X看到一堆营销号,一股子老年意林味

57 posts - 50 participants

Read full topic

via LINUX DO - 热门话题 (author: lizzeight)
【兰兰】各位,请动动脑子!

各位……
现在站点里每天都有海量的帖子。类似于

“XXX公益站这是用不了了么?”
“XXX公益站为什么用不了?”
“为什么我之前可以,现在不行”

我们现在QQ群里天天都在截这些帖子的图——看乐子!

我们并非不允许提问,相反,我们实际上提倡提问。
毕竟倘如你的提问有价值,并被回复以后。会对后人有很大的帮助。

但是,这并不代表着你可以随便提问,不代表你可以放弃自己动脑的能力!

亲爱的佬友。搜索引擎真的是个好东西。LinuxDo社区最顶部也有搜索框,你的问题99%会重复,请你在提问前多搜索一下……可以么?

在这里,让我给你提供一点点自己排查问题的方法。

1. 搜索,把你的报错、操作、配置截图,发给你喜欢用的AI,询问它这个报错的原因。
2. 对比,经常问"为什么之前可以,现在不行"/“为什么这个供应商可以那个不行?”。那就请自问,这两个有什么区别?这里面有什么区别?自己找不到区别的话,请甩给AI,让它帮你找。
3. 合理使用cc、cx、oc等工具。现在cc真的挺好用了,如果cx等出现配置问题,就让cc帮你配置。

现在是AI时代了……多借助AI的能力喵!!!

更多的,也建议你查看薄荷佬这篇帖子,写的真的很好!

----------------------

以及……兰兰有时候也做事不过脑子……马上改,马上改qwq

43 posts - 38 participants

Read full topic

via LINUX DO - 热门话题 (author: 兰兰)
【JarvisAPI】已维护完毕 并已开放注册

各位佬友久等了;贾维斯已维护完毕;并且开放注册了(仅限2级以上的佬友)。这个限制后面看具体情况再做调整吧。大家用起来吧!

新增2个备用域名:
jarvis.738293.xyz

New API

OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
jarvis.ccwu.cc

New API

OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用

87 posts - 75 participants

Read full topic

via LINUX DO - 热门话题 (author: 沈超)

Invalid media: image
开源25天,GitHub突破2000Star🎉

在线体验地址: https://nginx-pulse.kaisir.cn/
GitHub 地址: GitHub - likaia/nginxpulse: 轻量级 Nginx 访问日志分析与可视化面板,提供实时统计、PV 过滤、IP 归属地与客户端解析。
dockerhub 地址: magiccoders/nginxpulse - Docker Image

60 posts - 43 participants

Read full topic

via LINUX DO - 热门话题 (author: 神奇的程序员)

Invalid media:
image
image
一堆人嘲讽千问的宣发,看着真的很烦。

宣发这事儿,各家都有各家的花招。提前预热、发布会吹一吹、刷点榜单、找KOL投放(oai的gpt-5和gemini3各种预热了真的很久,grok更是被马斯克花式吹,claude反华营销我都不知道怎么说)……这些说白了都是常规操作。你可以不喜欢某一种,但如果只对“阿里送奶茶”格外上纲上线,我确实有点无语:

阿里做电商和外卖,联合自家业务真金白银请大家喝奶茶也还好吧。至少比某些企业起找一堆自媒体硬画一些莫名其妙的前端,比如画个xbox画个鹈鹕骑自行车,搞一堆软广好得多吧。

另外,技术层面也别一概而论。

我不否认海外御四家遥遥领先。但其实 Qwen3 第一版是去年三月的模型,后续虽有更新,基础架构也大概率在一年甚至一年半前就已经定型。拿这种很早就既定架构的模型去对比近几个月的新模型,肯定是没得比的呀,不是同一代的产品。当然,更新慢这确实是阿里团队自己的问题,怨不得别人,菜是原罪。

但这并不等于 Qwen 就差到可以被疯狂嘲讽。

我在高校做科研,也会承接横向纵向项目,和企业、政府、医院等等行业一起做大模型落地。过去一年我这边一直在用 Qwen3 做微调,完全能够支撑真实业务与交付需求。传统行业里,大模型也并不局限于写代码,各种奇奇怪怪的需求都有,很多需求很多实际的场景qwen3-4b微调一下就能解决,对业务效率的提升也是非常巨大的。

还有就是,Qwen 系列最牛逼的地方是模型谱系很完整:从 0.6B、4B、7B 到 235B,从 LLM 到 VLM,再到语音、文生图等多模态能力,覆盖了不同算力、不同成本、不同场景的需求。对TOB TOG落地来说,这种可选项足够多的体系化能力,我认为绝对强过超大模型的单点SOTA的。大家都懂旗舰模型强,很多场景就是底大一级压死人,搞科研的和搞工程的没人想屎上雕花,但很多情况真不是你想上旗舰就能上的。

再往大一点说:大模型的发展与应用真的只能靠闭源吗?

我完全承认闭源模型对上限的探索至关重要,它们在推动 AI 科研与行业高度方面贡献巨大,称得上一句功高至伟,甚至我的科研生涯就是靠着oai 22年底推出chatgpt把NLP带火,而一路起飞的。

但认真想想,通用人工智能是马太效应很强的技术,对人类的替代是前所未有的,如果关键能力长期只掌握在极少数主体手里,垄断与分配问题一定会越来越大,你觉得你会是那个高度竞争下的胜者么?因此,AI一定要做好平权和普惠,绝对不能把命脉掌握在极个别企业手里形成垄断。

与此同时,我国传统工业企业、政府、医院、军工、大型国企央企,以及武警、军队。我接触过的这些场景,没有一个能接受数据外流,几乎也没有哪个场景数据简单、需求单一,拿通用模型直接就能搞定的。对于这些场景想要搞定基本是一企一策、模型要深度定制微调的。能在本地跑、可控可改、成本可承受的开源生态,就是它们接入AI的前提条件。

科技平权与社会普惠不只取决于高度,同样取决于广度。

当这些与社会运行高度相关的系统(医疗、政务、工业、公共安全等)因为AI而系统性提效降本,最终改善的是每个人的日常生活。Qwen们的意义正在这里:让更多行业以更低门槛接入AI,把AI做成更接近高速公路,日常安全,低价医疗这种基础设施式的能力。

关于千问和海外几巨头,我就想到了前段时间炒的很凶的原研药和仿制药。仿原研药效果更好但贵,仿制药可能只有80%-90%的能力但便宜、覆盖面大。这种类比我觉得不是说两者质量标准一样,而是说在成本—效果—覆盖面之间,社会需要多层供给:有些人追最强上限,有些人要稳定可控的大规模落地。大模型生态同样如此。

最后,我觉得吹海外几巨头没问题,真遥遥领先也值得这些夸奖。但也别嘲讽阴阳Qwen们了,AI普惠少不了他们,何况千问也是拿真金白银在请你喝奶茶~

70 posts - 58 participants

Read full topic

via LINUX DO - 热门话题 (author: Alexcc)
起床了,上了个gpt-5.3-codex

如题,模型名:gpt-5.3-codex。

然后现在gpt的渠道,都是可以用v1/chat端点了,不仅限于response,也就是正常聊天也可以,但是不能瑟瑟喔不能瑟瑟喔

74 posts - 74 participants

Read full topic

via LINUX DO - 热门话题 (author: bohe)