【野史】【匿名来源】或许A÷的一切问题都有了答案
如图所示
24 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: 摸鱼大师desu)
如图所示
24 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: 摸鱼大师desu)
慢讯:免费20GB对象存储服务,不限流量、不限读写次数
中科院免费提供的20GB对象存储服务,不限流量、不限读写次数,支持多协议接入,含金量直接拉满!注册赠送1G存储。需要20G和S3、WebDAV、MCP需要使用 【国家网络身份认证】app 进行认证
注册地址:科技云
登录地址:https://data.cstcloud.cn
但必须下载APP认证,我没有进行认证,嫌麻烦
24 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ckcode)
中科院免费提供的20GB对象存储服务,不限流量、不限读写次数,支持多协议接入,含金量直接拉满!注册赠送1G存储。需要20G和S3、WebDAV、MCP需要使用 【国家网络身份认证】app 进行认证
注册地址:科技云
登录地址:https://data.cstcloud.cn
但必须下载APP认证,我没有进行认证,嫌麻烦
24 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ckcode)
速来:英伟达上了免费的glm-5
现在英伟达网站提供免费 glm-5,大家可以体验:
1. 注册并申请key:Try NVIDIA NIM APIs
2. 用OpenAI的兼容模式接入
base-url选:https://integrate.api.nvidia.com/v1
model:z-ai/glm5
遨游吧。
25 posts - 20 participants
Read full topic
via LINUX DO - 热门话题 (author: haosohu)
现在英伟达网站提供免费 glm-5,大家可以体验:
1. 注册并申请key:Try NVIDIA NIM APIs
2. 用OpenAI的兼容模式接入
base-url选:https://integrate.api.nvidia.com/v1
model:z-ai/glm5
遨游吧。
25 posts - 20 participants
Read full topic
via LINUX DO - 热门话题 (author: haosohu)
今天情人节,女朋友好像没给我准备礼物
在一起五年的女朋友,今年情人节我买了花和蛋糕,前两天还带她去买了一个金镯子,但是女朋友好像没给我准备礼物。
58 posts - 53 participants
Read full topic
via LINUX DO - 热门话题 (author: 搬砖选手)
在一起五年的女朋友,今年情人节我买了花和蛋糕,前两天还带她去买了一个金镯子,但是女朋友好像没给我准备礼物。
58 posts - 53 participants
Read full topic
via LINUX DO - 热门话题 (author: 搬砖选手)
是时候放下对ai生产内容的偏见了
引言
2025年可以说是vibe coding的元年,真正意义上的0门槛编程基本上已经到来
但是在去年年底,在MC圈子里有一个模组————阡陌交通————遭到了一堆人的围攻。这个模组里许可有问题是一回事
但是被带的节奏里有一个让L站的人听到了会很想笑的,这还能算开发者的问题?————开发者使用了ai进行编程
直到这时,我才意识到目前大众对于ai的偏见依旧是根深蒂固的,能正确认识ai的人少之又少。L站因为成天和ai打交道,在小圈子里的我以前很自然的会认为大众都能理解ai编程。但是实际截然相反
----------------------
ai写的代码难道就低人一等吗
ai辅助编程,形式上有很多种,包括tab补全,也包括像向ai询问意见,以及最重要的————直接让ai接手参与开发,也就是vibe coding
我们可以直接下一个推论:随着vibe coding的出现,所有游戏mod都将迎来第二春
所有的代码编写都将迎来质的飞跃
----------------------
大众遗留的ai刻板印象
回到正题,尽管vibe coding在正规以及非正规程序员以及ai爱好者圈子里已经是众所周知甚至不可能不用的时候了,但是在大众人眼里,似乎是一种低劣的象征,都离不开—————ai写的代码。好像ai编写的代码就低人一等一样,是劣质的象征
这一切都源自于几年前sd1.5时代,ai绘画给人打上的刻板印象
但是不得不说的是,ai让他们失望了。现阶段ai已经有了足够的生产力,最早是LLM,后面到Nano banana,再到现阶段的即梦2
ai的发展已经到了真正可用的时代。以及达到了普通人都能随便触碰和制作到以前不敢想的东西了。
----------------------
ai简化了什么?
传统来讲,任何一个项目我们都可以分为:
1.配环境
2.开发内容
3.调试打包
这里面,最难的部分莫过于第二步,第三步了。配环境?都是通用的环境,甚至有模板,让你直接使用,不用自己专门配环境。
而第二步,需要大量的代码基础,时间,去编写一行行代码。第三步,还需要你能理解报错,去一个个debug,测试交互,搜索等等
现在ai可以给你省去最难的编写代码和调试,你只需要关注于更宏大的地方就行了,生产力得到了质的飞跃。
或许你会说:ai考虑的没有人细。抱歉,人写代码是为了什么?达到预期,通过各种测试。那么ai的代码如果也能达到预期,你会在意他是谁写的吗?况且人有时也会遗漏,可能还不如ai。
----------------------
那到底该如何看待ai制作的东西,正确的态度是什么?
真正遭人诟病的是:我支付了传统人工制作的成本,想要得到的东西应该也是人工制作的,但是实际得到的确实ai生成的
换个说法:手工制作的面条和工业机器生产的面条,那就应该有两个不同的价格
传统手工制作的就是应该会更贵
但是放到上面的MC阡陌交通Mod例子里,开发者自己付出了心血和成本,制作了自己的模组公开到网上。使用的人没有支付一定点费用,那你有什么资格批评。
结语
现在以及未来的ai生产只会越来越好用,门槛只会越来越低,固步自封只会落后于时代。就像:
传统手工制作的产品在工业批量生产面前不堪一击一样
以及
高生产力,低门槛的工具真正意义上的给到了普通人手上。是时候进入新时代,使用新的视角面对新工具了
觉得眼熟吗?在第一次工业时期,英国人面对史蒂芬森的慢悠悠的蒸汽火车就是现在大众的样子
另外值得一提的是,该模组作者最近又开发了新的模组————mmdskin,评论区暂时没有看到有人提ai的事情。只能说,ai已经进入了生产,一般人完全是分不出来的,所以你即便不想接受,但又不得不接受ai生产出的内容。因为他就是比传统人工好用,生产力就是高,质量也不比传统人工差
----------------------
补充
刚才才了解到最近几天 mc模组社区又出现了 氚模组 往崩溃日志里塞ai提示词拒绝进行分析的事
只能说前途漫长
50 posts - 30 participants
Read full topic
via LINUX DO - 热门话题 (author: 羽织)
引言
2025年可以说是vibe coding的元年,真正意义上的0门槛编程基本上已经到来
但是在去年年底,在MC圈子里有一个模组————阡陌交通————遭到了一堆人的围攻。这个模组里许可有问题是一回事
但是被带的节奏里有一个让L站的人听到了会很想笑的,这还能算开发者的问题?————开发者使用了ai进行编程
直到这时,我才意识到目前大众对于ai的偏见依旧是根深蒂固的,能正确认识ai的人少之又少。L站因为成天和ai打交道,在小圈子里的我以前很自然的会认为大众都能理解ai编程。但是实际截然相反
----------------------
ai写的代码难道就低人一等吗
ai辅助编程,形式上有很多种,包括tab补全,也包括像向ai询问意见,以及最重要的————直接让ai接手参与开发,也就是vibe coding
我们可以直接下一个推论:随着vibe coding的出现,所有游戏mod都将迎来第二春
所有的代码编写都将迎来质的飞跃
----------------------
大众遗留的ai刻板印象
回到正题,尽管vibe coding在正规以及非正规程序员以及ai爱好者圈子里已经是众所周知甚至不可能不用的时候了,但是在大众人眼里,似乎是一种低劣的象征,都离不开—————ai写的代码。好像ai编写的代码就低人一等一样,是劣质的象征
这一切都源自于几年前sd1.5时代,ai绘画给人打上的刻板印象
但是不得不说的是,ai让他们失望了。现阶段ai已经有了足够的生产力,最早是LLM,后面到Nano banana,再到现阶段的即梦2
ai的发展已经到了真正可用的时代。以及达到了普通人都能随便触碰和制作到以前不敢想的东西了。
----------------------
ai简化了什么?
传统来讲,任何一个项目我们都可以分为:
1.配环境
2.开发内容
3.调试打包
这里面,最难的部分莫过于第二步,第三步了。配环境?都是通用的环境,甚至有模板,让你直接使用,不用自己专门配环境。
而第二步,需要大量的代码基础,时间,去编写一行行代码。第三步,还需要你能理解报错,去一个个debug,测试交互,搜索等等
现在ai可以给你省去最难的编写代码和调试,你只需要关注于更宏大的地方就行了,生产力得到了质的飞跃。
或许你会说:ai考虑的没有人细。抱歉,人写代码是为了什么?达到预期,通过各种测试。那么ai的代码如果也能达到预期,你会在意他是谁写的吗?况且人有时也会遗漏,可能还不如ai。
----------------------
那到底该如何看待ai制作的东西,正确的态度是什么?
真正遭人诟病的是:我支付了传统人工制作的成本,想要得到的东西应该也是人工制作的,但是实际得到的确实ai生成的
换个说法:手工制作的面条和工业机器生产的面条,那就应该有两个不同的价格
传统手工制作的就是应该会更贵
但是放到上面的MC阡陌交通Mod例子里,开发者自己付出了心血和成本,制作了自己的模组公开到网上。使用的人没有支付一定点费用,那你有什么资格批评。
结语
现在以及未来的ai生产只会越来越好用,门槛只会越来越低,固步自封只会落后于时代。就像:
传统手工制作的产品在工业批量生产面前不堪一击一样
以及
高生产力,低门槛的工具真正意义上的给到了普通人手上。是时候进入新时代,使用新的视角面对新工具了
觉得眼熟吗?在第一次工业时期,英国人面对史蒂芬森的慢悠悠的蒸汽火车就是现在大众的样子
另外值得一提的是,该模组作者最近又开发了新的模组————mmdskin,评论区暂时没有看到有人提ai的事情。只能说,ai已经进入了生产,一般人完全是分不出来的,所以你即便不想接受,但又不得不接受ai生产出的内容。因为他就是比传统人工好用,生产力就是高,质量也不比传统人工差
----------------------
补充
刚才才了解到最近几天 mc模组社区又出现了 氚模组 往崩溃日志里塞ai提示词拒绝进行分析的事
只能说前途漫长
50 posts - 30 participants
Read full topic
via LINUX DO - 热门话题 (author: 羽织)
放假一周vibe上线了一个四方支付中台,赚三万块,ai确实适合做外包
原项目是php的,有一些遗留bug,原维护人员不愿意维护,老板找到我,花了一周用claude+go+vue重写了一遍
全程vibe,上线也是claude自己ssh操作,目前切了20个门店过来,一天交易额40万。没有发生业务上的问题和性能问题
每天上午写两个小时,下午带娃,晚上写四个小时,刚开始给老板报的工时写差不多需要三个月,但是由于有php项目可以参照,ai速度过于快了
也是从这个项目用wsl,体感确实比windows 用ai好很多。
单测覆盖率90%,所有支付通道做了契约测试,claude推荐github跑cicd,买了个github team 48刀,买了个台阿里云开发服务器 88元,买了个mysql开发数据服务器 99元,redis 开发服务器 128元,总共成本差不多这么多。
趁这个红利期,大家可以多接点外包,不求多,一年的claude5x费用有了
25 posts - 23 participants
Read full topic
via LINUX DO - 热门话题 (author: 兔子馍馍)
原项目是php的,有一些遗留bug,原维护人员不愿意维护,老板找到我,花了一周用claude+go+vue重写了一遍
全程vibe,上线也是claude自己ssh操作,目前切了20个门店过来,一天交易额40万。没有发生业务上的问题和性能问题
每天上午写两个小时,下午带娃,晚上写四个小时,刚开始给老板报的工时写差不多需要三个月,但是由于有php项目可以参照,ai速度过于快了
也是从这个项目用wsl,体感确实比windows 用ai好很多。
单测覆盖率90%,所有支付通道做了契约测试,claude推荐github跑cicd,买了个github team 48刀,买了个台阿里云开发服务器 88元,买了个mysql开发数据服务器 99元,redis 开发服务器 128元,总共成本差不多这么多。
趁这个红利期,大家可以多接点外包,不求多,一年的claude5x费用有了
25 posts - 23 participants
Read full topic
via LINUX DO - 热门话题 (author: 兔子馍馍)
朋友在小红书上看到的智谱 GLM 5,笑死我了哈哈哈
有个表情,年度编程语言 Top10,谁还有来着。
找到了
27 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ChinaRan404)
有个表情,年度编程语言 Top10,谁还有来着。
找到了
27 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ChinaRan404)
本科即将毕业,存了12w,很迷茫,不知道毕业后干什么
新能源材料专业的本科生一枚,之前考研的时候想转码但没坚持下来,现在又赶上ai编程爆发,感觉当码农未来比较悲观,又不想从事本专业工作(要深造才有出路),不知道毕业后何去何从
56 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: 向往)
新能源材料专业的本科生一枚,之前考研的时候想转码但没坚持下来,现在又赶上ai编程爆发,感觉当码农未来比较悲观,又不想从事本专业工作(要深造才有出路),不知道毕业后何去何从
56 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: 向往)
继 oh-my-claudecode 后,oh-my-codex 也来了
启发自 oh-my-opencode,一个多月前有位老哥整了个 CC 版的 oh-my-claudecode,反响还挺热烈的:
github.com
GitHub - Yeachan-Heo/oh-my-claudecode: Teams-first Multi-agent orchestration for Claude...
Teams-first Multi-agent orchestration for Claude Code
今天忽然发现这位老哥开始捣鼓起了 oh-my-codex:
github.com
GitHub - Yeachan-Heo/oh-my-codex: OmX - Oh My Codex: Power tools for OpenAI Codex...
OmX - Oh My Codex: Power tools for OpenAI Codex CLI
看 commit 历史好像是昨天正式开工的。 🫣
等不及风佬的以 Codex 为核心的 CCG 可能可以先试试看这个?
【开源·更新】CCG v1.7.61 : Claude Code 编排三 CLI 协作 | Codex + Gemini + Claude | Agent Teams 并行实施 开发调优
23 posts - 18 participants
Read full topic
via LINUX DO - 热门话题 (author: paguro)
启发自 oh-my-opencode,一个多月前有位老哥整了个 CC 版的 oh-my-claudecode,反响还挺热烈的:
github.com
GitHub - Yeachan-Heo/oh-my-claudecode: Teams-first Multi-agent orchestration for Claude...
Teams-first Multi-agent orchestration for Claude Code
今天忽然发现这位老哥开始捣鼓起了 oh-my-codex:
github.com
GitHub - Yeachan-Heo/oh-my-codex: OmX - Oh My Codex: Power tools for OpenAI Codex...
OmX - Oh My Codex: Power tools for OpenAI Codex CLI
看 commit 历史好像是昨天正式开工的。 🫣
等不及风佬的以 Codex 为核心的 CCG 可能可以先试试看这个?
【开源·更新】CCG v1.7.61 : Claude Code 编排三 CLI 协作 | Codex + Gemini + Claude | Agent Teams 并行实施 开发调优
期待佬基于codex为核心的工作流,能干十几小时的那种,打通计划、实现、测试、验收的全流程 大约思路是前期spec制定非常详细的计划、定好约束、条件、验收标准等等(避免AI跑偏),然后还有前端UI/UX通过playwright预览或者其他确定一个原型基础。 一切都决定好了之后就能生成csv一条条任务出来,codex就会照着一个个去做了,实现完代码就会自己写单元测试、API测试、集成测试、…
23 posts - 18 participants
Read full topic
via LINUX DO - 热门话题 (author: paguro)
GPTteam车位免费上车
dash.xpzsd.codes
GPT Team 兑换 · 新春特别版
先到先得
27 posts - 25 participants
Read full topic
via LINUX DO - 热门话题 (author: NPC)
dash.xpzsd.codes
GPT Team 兑换 · 新春特别版
先到先得
27 posts - 25 participants
Read full topic
via LINUX DO - 热门话题 (author: NPC)
【萌新报道+抽奖】新春佳节,百元红包)本轮抽取二等奖(22*2)
非常感谢帮我入站支持的两位佬友y佬&e佬,祝L站蒸蒸日上,感谢管理组 🤟
新春将近,提前祝各位佬友们2026LL大顺
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
抽奖主题: [新春佳节,提前祝各位佬友们新年快乐]
🏆️ 奖品详情(本轮为抽取二等奖):
[一等奖]:[LL大顺-66红包*1]
[二等奖]:[真不错哎-22红包*2]
[三等奖]:[也还可以-11红包*3]
:three_o_clock: 活动时间:
开始时间:[发帖起]
截止时间:[2026年2月17日00:00:00]
📝 参与方式:
在本帖下回复关于你的新年祝福。
🔍️ 抽奖规则:
每位用户仅允许参与一次单轮抽奖(共三轮)。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
注:
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
17号0时结束所有抽奖并24小时内公布所有中奖名单
210 posts - 210 participants
Read full topic
via LINUX DO - 热门话题 (author: 10nely)
非常感谢帮我入站支持的两位佬友y佬&e佬,祝L站蒸蒸日上,感谢管理组 🤟
新春将近,提前祝各位佬友们2026LL大顺
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
抽奖主题: [新春佳节,提前祝各位佬友们新年快乐]
🏆️ 奖品详情(本轮为抽取二等奖):
[一等奖]:[LL大顺-66红包*1]
[二等奖]:[真不错哎-22红包*2]
[三等奖]:[也还可以-11红包*3]
:three_o_clock: 活动时间:
开始时间:[发帖起]
截止时间:[2026年2月17日00:00:00]
📝 参与方式:
在本帖下回复关于你的新年祝福。
🔍️ 抽奖规则:
每位用户仅允许参与一次单轮抽奖(共三轮)。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
注:
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
17号0时结束所有抽奖并24小时内公布所有中奖名单
210 posts - 210 participants
Read full topic
via LINUX DO - 热门话题 (author: 10nely)
[开源]nocturne memory,遵循神经科学的AI用MCP本地记忆系统已升级至uri+SQLite!用网址一样的感觉来管理你家ai的记忆吧~
via LINUX DO - 热门话题 (author: 我不爱世界)
via LINUX DO - 热门话题 (author: 我不爱世界)
Telegraph
[开源]nocturne memory,遵循神经科学的AI用MCP本地记忆系统已升级至uri+SQLite!用网址一样的…
大家好,我本人是搞神经科学的,一直在研究怎么让ai有类似人类的记忆系统。之前我开发了nocturne memory这个项目,它是一个双前端(AI用MCP,人类用web),统一后端的AI外置记忆系统。现在版本升级更易用了,分享出来显摆一下 😊 github.comGitHub - Dataojitori/nocturne_memory: 一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI...一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI 拥有持久的、结构化的记忆,不再是只有7秒记忆的金鱼。
国内几家模型是不是都在 openrouter 上刷量?
感觉有点大跃进了,至少不是真实用户在用。有很明显的倾向是大于90%的流量都走的官方部署的,而不是第三方,很可能是刷自家部署的成本低。
Novita AI 同时接了 DeepSeek-V3.2、Minimax-2.5、K2.5、GLM-5;如果用DeepSeek-V3.2的流量作为真实用户的基线估算,等比例估计这三家的真实用户消耗量,DeepSeek昨日在openrouter上总用量为104B
● DeepSeek 实际 104B
● GLM-5 理论 104 * 46.6/41.8 = 93B,实际 185B
● Kimi-K2.5 理论 57B,实际 146B
● MiniMax M2.5 理论 39B,实际 462B
MiniMax 这个感觉有点太离谱了…
另外一个证据是 Kimi 和 MiniMax 两家的大部分调用都不来自 Openclaw、Kiro,大部分都没有来源(虽然这个可以刷,伪造 Referer 就行)。
MiniMax
你的意思是上线第一天有300B新增,然后第二天保持不变吗(
GLM
Z-Code 是官方出的 IDE,先不说根本没人用,走 Openrouter 也非常的可疑。
Kimi
Top5 App 跑了 56.1B,而用 NovitaAI 估算得到的结果是 57B,非常接近了。可以推测 Kimi 在刷量的时候没有带 Referer,而真实用户用的时候大部分会带。
52 posts - 37 participants
Read full topic
via LINUX DO - 热门话题 (author: adm9856)
感觉有点大跃进了,至少不是真实用户在用。有很明显的倾向是大于90%的流量都走的官方部署的,而不是第三方,很可能是刷自家部署的成本低。
Novita AI 同时接了 DeepSeek-V3.2、Minimax-2.5、K2.5、GLM-5;如果用DeepSeek-V3.2的流量作为真实用户的基线估算,等比例估计这三家的真实用户消耗量,DeepSeek昨日在openrouter上总用量为104B
● DeepSeek 实际 104B
● GLM-5 理论 104 * 46.6/41.8 = 93B,实际 185B
● Kimi-K2.5 理论 57B,实际 146B
● MiniMax M2.5 理论 39B,实际 462B
MiniMax 这个感觉有点太离谱了…
另外一个证据是 Kimi 和 MiniMax 两家的大部分调用都不来自 Openclaw、Kiro,大部分都没有来源(虽然这个可以刷,伪造 Referer 就行)。
MiniMax
你的意思是上线第一天有300B新增,然后第二天保持不变吗(
GLM
Z-Code 是官方出的 IDE,先不说根本没人用,走 Openrouter 也非常的可疑。
Kimi
Top5 App 跑了 56.1B,而用 NovitaAI 估算得到的结果是 57B,非常接近了。可以推测 Kimi 在刷量的时候没有带 Referer,而真实用户用的时候大部分会带。
52 posts - 37 participants
Read full topic
via LINUX DO - 热门话题 (author: adm9856)