放假一周vibe上线了一个四方支付中台,赚三万块,ai确实适合做外包
原项目是php的,有一些遗留bug,原维护人员不愿意维护,老板找到我,花了一周用claude+go+vue重写了一遍
全程vibe,上线也是claude自己ssh操作,目前切了20个门店过来,一天交易额40万。没有发生业务上的问题和性能问题
每天上午写两个小时,下午带娃,晚上写四个小时,刚开始给老板报的工时写差不多需要三个月,但是由于有php项目可以参照,ai速度过于快了
也是从这个项目用wsl,体感确实比windows 用ai好很多。
单测覆盖率90%,所有支付通道做了契约测试,claude推荐github跑cicd,买了个github team 48刀,买了个台阿里云开发服务器 88元,买了个mysql开发数据服务器 99元,redis 开发服务器 128元,总共成本差不多这么多。
趁这个红利期,大家可以多接点外包,不求多,一年的claude5x费用有了
25 posts - 23 participants
Read full topic
via LINUX DO - 热门话题 (author: 兔子馍馍)
原项目是php的,有一些遗留bug,原维护人员不愿意维护,老板找到我,花了一周用claude+go+vue重写了一遍
全程vibe,上线也是claude自己ssh操作,目前切了20个门店过来,一天交易额40万。没有发生业务上的问题和性能问题
每天上午写两个小时,下午带娃,晚上写四个小时,刚开始给老板报的工时写差不多需要三个月,但是由于有php项目可以参照,ai速度过于快了
也是从这个项目用wsl,体感确实比windows 用ai好很多。
单测覆盖率90%,所有支付通道做了契约测试,claude推荐github跑cicd,买了个github team 48刀,买了个台阿里云开发服务器 88元,买了个mysql开发数据服务器 99元,redis 开发服务器 128元,总共成本差不多这么多。
趁这个红利期,大家可以多接点外包,不求多,一年的claude5x费用有了
25 posts - 23 participants
Read full topic
via LINUX DO - 热门话题 (author: 兔子馍馍)
朋友在小红书上看到的智谱 GLM 5,笑死我了哈哈哈
有个表情,年度编程语言 Top10,谁还有来着。
找到了
27 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ChinaRan404)
有个表情,年度编程语言 Top10,谁还有来着。
找到了
27 posts - 22 participants
Read full topic
via LINUX DO - 热门话题 (author: ChinaRan404)
本科即将毕业,存了12w,很迷茫,不知道毕业后干什么
新能源材料专业的本科生一枚,之前考研的时候想转码但没坚持下来,现在又赶上ai编程爆发,感觉当码农未来比较悲观,又不想从事本专业工作(要深造才有出路),不知道毕业后何去何从
56 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: 向往)
新能源材料专业的本科生一枚,之前考研的时候想转码但没坚持下来,现在又赶上ai编程爆发,感觉当码农未来比较悲观,又不想从事本专业工作(要深造才有出路),不知道毕业后何去何从
56 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: 向往)
继 oh-my-claudecode 后,oh-my-codex 也来了
启发自 oh-my-opencode,一个多月前有位老哥整了个 CC 版的 oh-my-claudecode,反响还挺热烈的:
github.com
GitHub - Yeachan-Heo/oh-my-claudecode: Teams-first Multi-agent orchestration for Claude...
Teams-first Multi-agent orchestration for Claude Code
今天忽然发现这位老哥开始捣鼓起了 oh-my-codex:
github.com
GitHub - Yeachan-Heo/oh-my-codex: OmX - Oh My Codex: Power tools for OpenAI Codex...
OmX - Oh My Codex: Power tools for OpenAI Codex CLI
看 commit 历史好像是昨天正式开工的。 🫣
等不及风佬的以 Codex 为核心的 CCG 可能可以先试试看这个?
【开源·更新】CCG v1.7.61 : Claude Code 编排三 CLI 协作 | Codex + Gemini + Claude | Agent Teams 并行实施 开发调优
23 posts - 18 participants
Read full topic
via LINUX DO - 热门话题 (author: paguro)
启发自 oh-my-opencode,一个多月前有位老哥整了个 CC 版的 oh-my-claudecode,反响还挺热烈的:
github.com
GitHub - Yeachan-Heo/oh-my-claudecode: Teams-first Multi-agent orchestration for Claude...
Teams-first Multi-agent orchestration for Claude Code
今天忽然发现这位老哥开始捣鼓起了 oh-my-codex:
github.com
GitHub - Yeachan-Heo/oh-my-codex: OmX - Oh My Codex: Power tools for OpenAI Codex...
OmX - Oh My Codex: Power tools for OpenAI Codex CLI
看 commit 历史好像是昨天正式开工的。 🫣
等不及风佬的以 Codex 为核心的 CCG 可能可以先试试看这个?
【开源·更新】CCG v1.7.61 : Claude Code 编排三 CLI 协作 | Codex + Gemini + Claude | Agent Teams 并行实施 开发调优
期待佬基于codex为核心的工作流,能干十几小时的那种,打通计划、实现、测试、验收的全流程 大约思路是前期spec制定非常详细的计划、定好约束、条件、验收标准等等(避免AI跑偏),然后还有前端UI/UX通过playwright预览或者其他确定一个原型基础。 一切都决定好了之后就能生成csv一条条任务出来,codex就会照着一个个去做了,实现完代码就会自己写单元测试、API测试、集成测试、…
23 posts - 18 participants
Read full topic
via LINUX DO - 热门话题 (author: paguro)
GPTteam车位免费上车
dash.xpzsd.codes
GPT Team 兑换 · 新春特别版
先到先得
27 posts - 25 participants
Read full topic
via LINUX DO - 热门话题 (author: NPC)
dash.xpzsd.codes
GPT Team 兑换 · 新春特别版
先到先得
27 posts - 25 participants
Read full topic
via LINUX DO - 热门话题 (author: NPC)
【萌新报道+抽奖】新春佳节,百元红包)本轮抽取二等奖(22*2)
非常感谢帮我入站支持的两位佬友y佬&e佬,祝L站蒸蒸日上,感谢管理组 🤟
新春将近,提前祝各位佬友们2026LL大顺
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
抽奖主题: [新春佳节,提前祝各位佬友们新年快乐]
🏆️ 奖品详情(本轮为抽取二等奖):
[一等奖]:[LL大顺-66红包*1]
[二等奖]:[真不错哎-22红包*2]
[三等奖]:[也还可以-11红包*3]
:three_o_clock: 活动时间:
开始时间:[发帖起]
截止时间:[2026年2月17日00:00:00]
📝 参与方式:
在本帖下回复关于你的新年祝福。
🔍️ 抽奖规则:
每位用户仅允许参与一次单轮抽奖(共三轮)。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
注:
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
17号0时结束所有抽奖并24小时内公布所有中奖名单
210 posts - 210 participants
Read full topic
via LINUX DO - 热门话题 (author: 10nely)
非常感谢帮我入站支持的两位佬友y佬&e佬,祝L站蒸蒸日上,感谢管理组 🤟
新春将近,提前祝各位佬友们2026LL大顺
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
抽奖主题: [新春佳节,提前祝各位佬友们新年快乐]
🏆️ 奖品详情(本轮为抽取二等奖):
[一等奖]:[LL大顺-66红包*1]
[二等奖]:[真不错哎-22红包*2]
[三等奖]:[也还可以-11红包*3]
:three_o_clock: 活动时间:
开始时间:[发帖起]
截止时间:[2026年2月17日00:00:00]
📝 参与方式:
在本帖下回复关于你的新年祝福。
🔍️ 抽奖规则:
每位用户仅允许参与一次单轮抽奖(共三轮)。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
注:
为了大家中奖概率大点,分为3次 抽奖
14号开启三等奖
15号开启二等奖
16号开启一等奖
17号0时结束所有抽奖并24小时内公布所有中奖名单
210 posts - 210 participants
Read full topic
via LINUX DO - 热门话题 (author: 10nely)
[开源]nocturne memory,遵循神经科学的AI用MCP本地记忆系统已升级至uri+SQLite!用网址一样的感觉来管理你家ai的记忆吧~
via LINUX DO - 热门话题 (author: 我不爱世界)
via LINUX DO - 热门话题 (author: 我不爱世界)
Telegraph
[开源]nocturne memory,遵循神经科学的AI用MCP本地记忆系统已升级至uri+SQLite!用网址一样的…
大家好,我本人是搞神经科学的,一直在研究怎么让ai有类似人类的记忆系统。之前我开发了nocturne memory这个项目,它是一个双前端(AI用MCP,人类用web),统一后端的AI外置记忆系统。现在版本升级更易用了,分享出来显摆一下 😊 github.comGitHub - Dataojitori/nocturne_memory: 一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI...一个轻量级、可回滚、可视化的 **AI 外挂记忆库**。让你的 AI 拥有持久的、结构化的记忆,不再是只有7秒记忆的金鱼。
国内几家模型是不是都在 openrouter 上刷量?
感觉有点大跃进了,至少不是真实用户在用。有很明显的倾向是大于90%的流量都走的官方部署的,而不是第三方,很可能是刷自家部署的成本低。
Novita AI 同时接了 DeepSeek-V3.2、Minimax-2.5、K2.5、GLM-5;如果用DeepSeek-V3.2的流量作为真实用户的基线估算,等比例估计这三家的真实用户消耗量,DeepSeek昨日在openrouter上总用量为104B
● DeepSeek 实际 104B
● GLM-5 理论 104 * 46.6/41.8 = 93B,实际 185B
● Kimi-K2.5 理论 57B,实际 146B
● MiniMax M2.5 理论 39B,实际 462B
MiniMax 这个感觉有点太离谱了…
另外一个证据是 Kimi 和 MiniMax 两家的大部分调用都不来自 Openclaw、Kiro,大部分都没有来源(虽然这个可以刷,伪造 Referer 就行)。
MiniMax
你的意思是上线第一天有300B新增,然后第二天保持不变吗(
GLM
Z-Code 是官方出的 IDE,先不说根本没人用,走 Openrouter 也非常的可疑。
Kimi
Top5 App 跑了 56.1B,而用 NovitaAI 估算得到的结果是 57B,非常接近了。可以推测 Kimi 在刷量的时候没有带 Referer,而真实用户用的时候大部分会带。
52 posts - 37 participants
Read full topic
via LINUX DO - 热门话题 (author: adm9856)
感觉有点大跃进了,至少不是真实用户在用。有很明显的倾向是大于90%的流量都走的官方部署的,而不是第三方,很可能是刷自家部署的成本低。
Novita AI 同时接了 DeepSeek-V3.2、Minimax-2.5、K2.5、GLM-5;如果用DeepSeek-V3.2的流量作为真实用户的基线估算,等比例估计这三家的真实用户消耗量,DeepSeek昨日在openrouter上总用量为104B
● DeepSeek 实际 104B
● GLM-5 理论 104 * 46.6/41.8 = 93B,实际 185B
● Kimi-K2.5 理论 57B,实际 146B
● MiniMax M2.5 理论 39B,实际 462B
MiniMax 这个感觉有点太离谱了…
另外一个证据是 Kimi 和 MiniMax 两家的大部分调用都不来自 Openclaw、Kiro,大部分都没有来源(虽然这个可以刷,伪造 Referer 就行)。
MiniMax
你的意思是上线第一天有300B新增,然后第二天保持不变吗(
GLM
Z-Code 是官方出的 IDE,先不说根本没人用,走 Openrouter 也非常的可疑。
Kimi
Top5 App 跑了 56.1B,而用 NovitaAI 估算得到的结果是 57B,非常接近了。可以推测 Kimi 在刷量的时候没有带 Referer,而真实用户用的时候大部分会带。
52 posts - 37 participants
Read full topic
via LINUX DO - 热门话题 (author: adm9856)
在家也可以KTV?Mo KTV 试运营!
Mo KTV - TV 端
Read full topic
via LINUX DO - 热门话题 (author: 神墨)
Mo KTV - TV 端
Mo KTV 试运营,Bug请底下反馈!
正在适配简体和英文版本!55 posts - 40 participants
Read full topic
via LINUX DO - 热门话题 (author: 神墨)
【开源】JustSearch:基于Playwright 的 AI 联网搜索助手,支持真机阅读与自主迭代,无需 Search API,脚本一键部署(支持 docker),带 WebUI
via LINUX DO - 热门话题 (author: Mozi)
via LINUX DO - 热门话题 (author: Mozi)
Telegraph
【开源】JustSearch:基于Playwright 的 AI 联网搜索助手,支持真机阅读与自主迭代,无需 Searc…
优势:可用Google、Bing、Duckduckgo 搜索引擎(无需Search API)自由度高,支持关键词搜索和直接跳转网址脚本一键部署,支持Docker和Python本地部署深度搜索,可在页面中点击元素控制网页选择NVIDIA NIM API,完全免费,且部分模型响应延迟低 提供了一键部署脚本,支持 Docker 和本地环境。推荐使用 Docker 以获得最佳体验。