佬友公益进去不可用状态,暂时退出舞台,江湖再见
渠道原因导致现在全面瘫痪无法使用,暂时告一段落,寻找新渠道中,恢复待定。
101 个帖子 - 99 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: leon)
渠道原因导致现在全面瘫痪无法使用,暂时告一段落,寻找新渠道中,恢复待定。
101 个帖子 - 99 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: leon)
Vibe Coding:通用高质量 Skills 合集🔥
我把个人的 Skills 开源了:GitHub - xstongxue/best-skills: 通用高质量 Agent Skills 合集🔥
这套 best-skills 是我在写学位论文、做自媒体、写代码时一点点攒出来的。覆盖论文全流程(大纲审核、结构仿写、润色去AI化、参考文献、答辩PPT、架构图)、开发四步法(需求→设计→实现→审查)、公众号撰写与配图、周报汇报总结、项目梳理和简历描述等。
与之前开源的 Vibe Coding:通用高质量 Prompt 合集🔥 - 开发调优 - LINUX DO不同,Skills 装一次就永久生效——Cursor、Claude Code、Trae 等 Agent 工具会根据你说的话自动匹配并调用,不用每次手动找 Prompt。
支持 Cursor、Claude Code、Codex、Trae、OpenClaw 等主流工具,复制对应文件夹到 skills 目录即可使用。项目会持续扩展,欢迎 Star、Fork、提 Issue 和 PR。
PPT预览图(后续在项目中增加图片示例):
53 个帖子 - 50 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: xstongxue)
我把个人的 Skills 开源了:GitHub - xstongxue/best-skills: 通用高质量 Agent Skills 合集🔥
这套 best-skills 是我在写学位论文、做自媒体、写代码时一点点攒出来的。覆盖论文全流程(大纲审核、结构仿写、润色去AI化、参考文献、答辩PPT、架构图)、开发四步法(需求→设计→实现→审查)、公众号撰写与配图、周报汇报总结、项目梳理和简历描述等。
与之前开源的 Vibe Coding:通用高质量 Prompt 合集🔥 - 开发调优 - LINUX DO不同,Skills 装一次就永久生效——Cursor、Claude Code、Trae 等 Agent 工具会根据你说的话自动匹配并调用,不用每次手动找 Prompt。
支持 Cursor、Claude Code、Codex、Trae、OpenClaw 等主流工具,复制对应文件夹到 skills 目录即可使用。项目会持续扩展,欢迎 Star、Fork、提 Issue 和 PR。
PPT预览图(后续在项目中增加图片示例):
53 个帖子 - 50 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: xstongxue)
【富可敌国】Monking入驻 | 官方纯血Claude Code Max/ Codex Pro| 最低0.9元/$ | 我们想把中转做到“稳定、透明、有人管”
本站宗旨:尽力保稳保真,最后才是低价。建议按需充值使用,不要做囤囤鼠。
----------------------
站点:
monking.ai
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
交流群
为了更加透明,更是为了吸引更多的精神股东的加入,决定每个月最后一天晚上更新待消费余额与我们支付宝和微信余额(去除掉我们团队的运营成本),给大家展示我们的预留资金。
关于抽奖
大家可以看到我们并不像其他富可敌国一样上来就搞抽奖,这是因为我们一开始并不想负债,我们想的是做好稳定性和真实性,我们认为稳定才是王道。但是下个月如果盈利将会拿出利润的5%-20%来进行抽奖(算是另类的分红)
💳️ 充值与使用规则
价格透明,没有任何弯弯绕绕
使用倍率(余额兑换API额度):
开业时间:2026年2月11日至2026年2月28日
----------------------
(数学太差搞不明白那么弯弯绕绕的算法,直接简单明了)
🔄 退款政策
----------------------
最终解释权归 Monking 团队所有。
96 个帖子 - 73 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Monking)
本站宗旨:尽力保稳保真,最后才是低价。建议按需充值使用,不要做囤囤鼠。
----------------------
站点:
monking.ai
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
交流群
为了更加透明,更是为了吸引更多的精神股东的加入,决定每个月最后一天晚上更新待消费余额与我们支付宝和微信余额(去除掉我们团队的运营成本),给大家展示我们的预留资金。
关于抽奖
大家可以看到我们并不像其他富可敌国一样上来就搞抽奖,这是因为我们一开始并不想负债,我们想的是做好稳定性和真实性,我们认为稳定才是王道。但是下个月如果盈利将会拿出利润的5%-20%来进行抽奖(算是另类的分红)
💳️ 充值与使用规则
价格透明,没有任何弯弯绕绕
使用倍率(余额兑换API额度):
开业时间:2026年2月11日至2026年2月28日
计算示例:
开业期间:账户1000元余额 → 可使用 1000÷0.9 = 1111美元额度
日常期间:账户1000元余额 → 可使用 1000÷1.2 = 833美元额度
----------------------
(数学太差搞不明白那么弯弯绕绕的算法,直接简单明了)
🔄 退款政策
退款按实际支付金额计算。已兑换未使用的额度扣除手续费原路退回支付账户
----------------------
最终解释权归 Monking 团队所有。
96 个帖子 - 73 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Monking)
5.3 公益站正常 开蹬
没出什么大问题测试了好几次 蹬吧
cc-switch配置如下
小呆API公益站
104 个帖子 - 95 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 钟灵韵)
没出什么大问题测试了好几次 蹬吧
cc-switch配置如下
{
"env": {
"ANTHROPIC_AUTH_TOKEN": "填自己的 反正签到送好几万你怎么用得完",
"ANTHROPIC_BASE_URL": "https://api.daiju.live",
"ANTHROPIC_DEFAULT_HAIKU_MODEL": "gpt-5.3-codex",
"ANTHROPIC_DEFAULT_OPUS_MODEL": "gpt-5.3-codex",
"ANTHROPIC_DEFAULT_SONNET_MODEL": "gpt-5.3-codex",
"ANTHROPIC_MODEL": "gpt-5.3-codex"
},
"includeCoAuthoredBy": false
}
小呆API公益站
104 个帖子 - 95 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 钟灵韵)
【CDK分发】老破小(WOW)公益站24000刀瓜分活动(800份,每份30刀)
cdk.linux.do
LINUX DO CDK
Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单
主帖:老破小(WOW)公益站主帖,注册送100刀
最低用户分数:10
分发内容:30刀*800
156 个帖子 - 154 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 吴先生)
cdk.linux.do
LINUX DO CDK
Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单
主帖:老破小(WOW)公益站主帖,注册送100刀
最低用户分数:10
分发内容:30刀*800
156 个帖子 - 154 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 吴先生)
CLAUDE.md / AGENTS.md 压缩指南,极致节约你的tokens消耗速度
重新补充一下教程:
1. 下载文件
2. 改名为md格式
3. 向claude/codex/gemini提问,例如用codex:帮我将现有的AGENTS.md文件,只保留核心内容,其他冗余或者解释文档可以提炼成skill,最终的核心内容根据"CLAUDE.md-压缩指南.md"进行压缩,做到节约tokens消耗的目的
4. 等待完成后,检查是否已经压缩,尽量保持在100行以内
只需要在你的 CLAUDE.md / AGENTS.md 文件中添加一行
添加内容 (点击了解更多详细信息)
当然,我是放在了我的项目下的.claude/目录下,根据你自己的目录自行修改路径
压缩指南文件
CLAUDE.md-压缩指南.txt (18.2 KB)
佬友们自行修改成md文件格式,方便ai读取,后续更新规约的时候,会自动按照这个方式进行压缩
23 个帖子 - 22 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Pontus)
重新补充一下教程:
1. 下载文件
2. 改名为md格式
3. 向claude/codex/gemini提问,例如用codex:帮我将现有的AGENTS.md文件,只保留核心内容,其他冗余或者解释文档可以提炼成skill,最终的核心内容根据"CLAUDE.md-压缩指南.md"进行压缩,做到节约tokens消耗的目的
4. 等待完成后,检查是否已经压缩,尽量保持在100行以内
只需要在你的 CLAUDE.md / AGENTS.md 文件中添加一行
添加内容 (点击了解更多详细信息)
当然,我是放在了我的项目下的.claude/目录下,根据你自己的目录自行修改路径
压缩指南文件
CLAUDE.md-压缩指南.txt (18.2 KB)
佬友们自行修改成md文件格式,方便ai读取,后续更新规约的时候,会自动按照这个方式进行压缩
23 个帖子 - 22 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Pontus)
❤1
分享一波影视、游戏类网站(纪念一下还有一天就周五啦!!!)
影视类
~JRKAN【国外】~ (点评: 看篮球必备~)
~JRKAN【国内】~ (点评:看篮球必备~)
~SeedHub | 影视&动漫分享~ 点评:电影下载(豆瓣风格)
~BT之家1LOU站-回归初心,追求极简~点评:电影下载(老牌论坛风格)
游戏类
~Switch520~ (点评:神中神,之前只支持百度,现在夸克、迅雷都支持)
~Game-Zone Labs~ (点评:B 站大佬开发的修改器整合、存档备份)
~FC在线游戏~ (点评:童年的回忆!!!)
~迅雷单机游戏~ (点评:迅雷用户专享(ps:迅雷网盘是真的慢!!!))
~9DM~(点评:已经关站了,纪念一下死去的青春)
~网页红警~ (点评:偶然发现的,哈哈,随时随地童年的回忆,不过不能卡建造按钮随地建造)
~CnGame – 精品资源站~(点评:找一些 DLC补丁)
15 个帖子 - 15 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 小飞猪的希冀)
影视类
~JRKAN【国外】~ (点评: 看篮球必备~)
~JRKAN【国内】~ (点评:看篮球必备~)
~SeedHub | 影视&动漫分享~ 点评:电影下载(豆瓣风格)
~BT之家1LOU站-回归初心,追求极简~点评:电影下载(老牌论坛风格)
游戏类
~Switch520~ (点评:神中神,之前只支持百度,现在夸克、迅雷都支持)
~Game-Zone Labs~ (点评:B 站大佬开发的修改器整合、存档备份)
~FC在线游戏~ (点评:童年的回忆!!!)
~迅雷单机游戏~ (点评:迅雷用户专享(ps:迅雷网盘是真的慢!!!))
~9DM~(点评:已经关站了,纪念一下死去的青春)
~网页红警~ (点评:偶然发现的,哈哈,随时随地童年的回忆,不过不能卡建造按钮随地建造)
~CnGame – 精品资源站~(点评:找一些 DLC补丁)
15 个帖子 - 15 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 小飞猪的希冀)
【抽奖】GEMINI PRO家庭组位置 *2
抽奖主题:一直都是被佬们帮助,这次抽2个家庭组,自己的手机和实体卡,应该挺稳,是美区账号哦,能用多久算多久,中奖后私信我谷歌邮箱
🏆️ 奖品详情:
[奖品1]:[谷歌学生优惠家庭组车位]
:three_o_clock: 活动时间:
开始时间:[2026-03-05 20:30:00]
截止时间:[2026-03-08 12:00:00]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
161 个帖子 - 161 位参与者
阅读完整话题
via LINUX DO - 热门话题
抽奖主题:一直都是被佬们帮助,这次抽2个家庭组,自己的手机和实体卡,应该挺稳,是美区账号哦,能用多久算多久,中奖后私信我谷歌邮箱
🏆️ 奖品详情:
[奖品1]:[谷歌学生优惠家庭组车位]
:three_o_clock: 活动时间:
开始时间:[2026-03-05 20:30:00]
截止时间:[2026-03-08 12:00:00]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
161 个帖子 - 161 位参与者
阅读完整话题
via LINUX DO - 热门话题
【小失误】号补多了,抽一点codex的套餐
咳咳,因为不可靠的补号机制,多补了500个子号。所以好像貌似,codex号池有些许空。
目前做出如下调整
1. 1分钱新客活动,调整为20$每天(活动期间即每天40$)这个持续时间不好说,得看号池具体负载情况(补充说明兑换码每人限用一次,一共可用300次用完即止)
2. 0.5 倍率codex活动,即刻生效。
3. 抽30个每天90刀的套餐 月卡
开奖时间3.7 日 中午十二点
通过cdk进行发放
理性消费,小心ai浪费你的小钱钱,尤其谨慎使用龙虾购物。🥹
忘记放官网和联系方式了
https://new.xychatai.com
联系方式qq群(官网公告就是)和官网工单均可
131 个帖子 - 131 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: xychatai)
咳咳,因为不可靠的补号机制,多补了500个子号。所以好像貌似,codex号池有些许空。
目前做出如下调整
1. 1分钱新客活动,调整为20$每天(活动期间即每天40$)这个持续时间不好说,得看号池具体负载情况(补充说明兑换码每人限用一次,一共可用300次用完即止)
2. 0.5 倍率codex活动,即刻生效。
3. 抽30个每天90刀的套餐 月卡
开奖时间3.7 日 中午十二点
通过cdk进行发放
理性消费,小心ai浪费你的小钱钱,尤其谨慎使用龙虾购物。🥹
忘记放官网和联系方式了
https://new.xychatai.com
联系方式qq群(官网公告就是)和官网工单均可
131 个帖子 - 131 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: xychatai)
我宣布玩小龙虾的最高境界就是养孙子
swarm是什么东西?蜂群是什么东西?我不知道啊,我只知道养孙子。
养孙子是真的好用,我现在这一个电脑里边儿儿孙满堂。
开一个任务,然后我儿子开始生孙子。
放眼望去,满地都是孙子,真孙子 ! 🤣
这孙子怎么样? 听我给你吹
----------------------
小龙虾一大特点就是可以养儿子、养孙子。甚至你要是把限制放开,子子孙孙无穷匮也。
那至于为啥要养这些呢?
一开始新手的时候,我~不↓明→白↗️,于是啥活都让主代理干。
干不过来不说,他干事时候你一说话就打断。
活还没干就先帝创业未半而中道 Terminated 。
后来突然发现,哎?! 可以给子代理安排任务!
确实是好用了哎
可以同时写一个项目,开好多并发,然后主代理再用WorkTree一搞一整合,诶,完事。
真好用哎,真好用哎,真好用哎
那为啥还要养孙子呢?
要是让他写一个项目,确实挺得劲的。
但是你可是 AI native 呀。多个项目并行是家常便饭呀 😼
你平常不跟他聊天?不给他发资料?不让他内卷?不让他学习?
你养一个主代理,开三个子代理用来做这个项目,再开三个主代理用来干那个项目。
结果是,主代理他自己的上下文如犬牙交互,不可知其源。
写一会,你一看写了个啥?
----------------------
于是,痛定思痛,当完兄弟又当爹之后,毅然决然地选择了喜当爷
当了爷之后。我约法三章:
● 主代理只负责跟你交互和跟子代理交互。
● 每一个子代理都专属于一个项目。
● 然后子代理下面可以接一大堆孙子。
理由很充分,这么做的好处在于:
1. 主代理的上下文可以特别省,专注于统筹规划的事,而且你有啥说啥,压根也不会打断,真正能做到跟你搭伙,当AI助手,发挥最大的功效。
2. 子代理可以专属于某一个项目。这个项目的开发文档啊,需要注意的点啊,以及各种文档和记录,都不会进入主代理的上下文。而主代理的上下文(比如你的闲聊吹水,比如你的胡言乱语,比如你深夜emo,还有小龙虾默默记录的你的各种黑历史[doge])也不会干扰子代理。子代理可以专注于自己被主代理安排的任务的目的本身,做好跟孙子和爷爷的交互,效率嘎嘎高。
3. 孙子代理只专注于一件被他爹安排的特别细的事情。别看这个干的事小,但由于可以一大坨孙子同时干事,效率超级高。
这才叫AI助理嘛,这才叫AI团队嘛。小龙虾就是用来养孙子的。不养孙子玩什么小龙虾?[doge]
这么一看,养一堆孙子很舒服吧?
我一开始也是这么想的,但是用起来发现,这套方案也有几个关键致命的问题 😓
----------------------
● 首先第一个最严重的问题是,我上哪来这么多并发??? 不过好在后来自己搭号池,接了一大堆处处化缘白嫖来的号源,各家的Coding Plan全往里砸,(关键是朋友送了我一个智谱的Coding Plan Max啊哈 😁),顶级模型和次顶级模型都用着(此处有一支伏笔),又接了一些众所周知的自由codex的方法,可算是解决了。
● 并发和Token自由了,接下来要面对的问题就是:这个孙子他不会干活啊,真孙子呀。**小龙虾孙子写代码的能力实在是不强。写完代码,这儿子也不会审。一大堆孙子同时改代码之间还可能有冲突。一大堆bug连运行都运行不起来就交上去了。这个也好搞,孙子直接给他接上Codex就可以了,儿子直接给他配上Aider就用里边的LSP。然后孙子们用Git work tree来管理和并发,孙子干完了,儿子瞅瞅,不行就再开一个孙子来修。
● 然而,还没有来得及轻而易举,接下来入场的是新问题:如何分配模型资源呢? 之前看过一篇论文,是说让小模型指挥大模型写代码,比大模型指挥小模型写代码厉害。自己也觉得很有道理。于是就这么做了。结果啊,那傻模型提的要求是一个比一个离谱。而且压根也不照着我想的去做。聪明模型在底下吭哧瘪肚写半天,一看,嗯?怎么他爹左右脑互搏了?于是逆反心理也出来了。纷纷开始俭工俭学,他是嘛也不干。(不对,伏笔没墨了换一根)
最终我的解决方案是:
● 主代理肯定好模型,要跟我聊天。还要统筹一大堆各种各样的任务。
● 子代理也要用好模型,毕竟他确实要负责整个项目,而且要管理子代理的回复,给他们做review还有LSP审查,并且主管MCP工具等等。不聪明不行啊。
● 孙子代理反倒是可以傻一点。毕竟说实话,他们就是个操作CodeX的机器。能听懂话,然后灵活变通一点就可以了。
这么一套下来,就特别特别舒服了。
----------------------
养孙子之路漫漫,好在结果并没有辜负。
有事没事跟爷聊聊天。随便聊聊有啥想法,直接就派我一大侄去干。
我大侄领着一帮孙子,提了扛狼就开始干活。
干完活之后,再跟爷说一声,爷就告诉我,嗯,这个挺好,这个做完了,那个弄完了。
一看结果,AUV,嘿! 真~不~错!
哎呀,真~得~劲~啊~
● 有一个时时刻刻都能响应你的搭子。
● 有一大堆非常熟悉你的各个细节的大侄子。
● 有一大堆一大堆随时随地差遣,只要给个好工具就能帮你干好活的孙子。
这才是AI native应该享受的生活!
好了,散会!
31 个帖子 - 17 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 七叶怀瑾)
swarm是什么东西?蜂群是什么东西?我不知道啊,我只知道养孙子。
养孙子是真的好用,我现在这一个电脑里边儿儿孙满堂。
开一个任务,然后我儿子开始生孙子。
放眼望去,满地都是孙子,真孙子 ! 🤣
这孙子怎么样? 听我给你吹
(具体详细分析和讲解在文章后半段)
----------------------
小龙虾一大特点就是可以养儿子、养孙子。甚至你要是把限制放开,子子孙孙无穷匮也。
那至于为啥要养这些呢?
一开始新手的时候,我~不↓明→白↗️,于是啥活都让主代理干。
干不过来不说,他干事时候你一说话就打断。
活还没干就先帝创业未半而中道 Terminated 。
人家讲话了,你要这么用,都不如给Claude Code装一个Happy Coder 😅 甚至他的编程能力、代码能力还比小龙虾强呢。你这哪是想用OpenClaw啊?你这是想找理由用手机!
后来突然发现,哎?! 可以给子代理安排任务!
确实是好用了哎
可以同时写一个项目,开好多并发,然后主代理再用WorkTree一搞一整合,诶,完事。
真好用哎,真好用哎,真好用哎
那为啥还要养孙子呢?
要是让他写一个项目,确实挺得劲的。
但是你可是 AI native 呀。多个项目并行是家常便饭呀 😼
你平常不跟他聊天?不给他发资料?不让他内卷?不让他学习?
你养一个主代理,开三个子代理用来做这个项目,再开三个主代理用来干那个项目。
结果是,主代理他自己的上下文如犬牙交互,不可知其源。
写一会,你一看写了个啥?
“四面报错环合,寂寥无通,凄神寒骨,悄怆幽邃。以其NO REPLAY,不可久居,乃 gateway restart 之而去。”等到你记的时候一看咋不行呢?
上下文限制超了报错了。好起来之后又一看,小石潭记这项目里边怎么还记了个兰亭集序呢?原文还都给删了?!??
(A需求加到B项目里了,B需求把A项目的主线给砍掉了)这下好了,先帝创业未半变成未先创帝半业了。(先帝呀你醒醒!!!先帝你不能似啊先帝QAQ(其实先帝已经走了有一会了(不然为什么叫先帝 🫤
----------------------
于是,痛定思痛,当完兄弟又当爹之后,毅然决然地选择了喜当爷
当了爷之后。我约法三章:
● 主代理只负责跟你交互和跟子代理交互。
● 每一个子代理都专属于一个项目。
● 然后子代理下面可以接一大堆孙子。
理由很充分,这么做的好处在于:
1. 主代理的上下文可以特别省,专注于统筹规划的事,而且你有啥说啥,压根也不会打断,真正能做到跟你搭伙,当AI助手,发挥最大的功效。
2. 子代理可以专属于某一个项目。这个项目的开发文档啊,需要注意的点啊,以及各种文档和记录,都不会进入主代理的上下文。而主代理的上下文(比如你的闲聊吹水,比如你的胡言乱语,比如你深夜emo,还有小龙虾默默记录的你的各种黑历史[doge])也不会干扰子代理。子代理可以专注于自己被主代理安排的任务的目的本身,做好跟孙子和爷爷的交互,效率嘎嘎高。
3. 孙子代理只专注于一件被他爹安排的特别细的事情。别看这个干的事小,但由于可以一大坨孙子同时干事,效率超级高。
这才叫AI助理嘛,这才叫AI团队嘛。小龙虾就是用来养孙子的。不养孙子玩什么小龙虾?[doge]
这么一看,养一堆孙子很舒服吧?
我一开始也是这么想的,但是用起来发现,这套方案也有几个关键致命的问题 😓
----------------------
● 首先第一个最严重的问题是,我上哪来这么多并发??? 不过好在后来自己搭号池,接了一大堆处处化缘白嫖来的号源,各家的Coding Plan全往里砸,(关键是朋友送了我一个智谱的Coding Plan Max啊哈 😁),顶级模型和次顶级模型都用着(此处有一支伏笔),又接了一些众所周知的自由codex的方法,可算是解决了。
BTW,OpenClaw的默认子代理只能开5个,不能开孙子代理。这个得去自己跑命令打开 而且一定要一定要一定要顺手把超时从那可可怜怜的几分钟直接拉到20分钟。不然这爹必老死无疑()子欲养而亲不待了属于是。
● 并发和Token自由了,接下来要面对的问题就是:这个孙子他不会干活啊,真孙子呀。**小龙虾孙子写代码的能力实在是不强。写完代码,这儿子也不会审。一大堆孙子同时改代码之间还可能有冲突。一大堆bug连运行都运行不起来就交上去了。这个也好搞,孙子直接给他接上Codex就可以了,儿子直接给他配上Aider就用里边的LSP。然后孙子们用Git work tree来管理和并发,孙子干完了,儿子瞅瞅,不行就再开一个孙子来修。
协作,轻而易举呀.jpg
● 然而,还没有来得及轻而易举,接下来入场的是新问题:如何分配模型资源呢? 之前看过一篇论文,是说让小模型指挥大模型写代码,比大模型指挥小模型写代码厉害。自己也觉得很有道理。于是就这么做了。结果啊,那傻模型提的要求是一个比一个离谱。而且压根也不照着我想的去做。聪明模型在底下吭哧瘪肚写半天,一看,嗯?怎么他爹左右脑互搏了?于是逆反心理也出来了。纷纷开始俭工俭学,他是嘛也不干。(不对,伏笔没墨了换一根)
最终我的解决方案是:
● 主代理肯定好模型,要跟我聊天。还要统筹一大堆各种各样的任务。
● 子代理也要用好模型,毕竟他确实要负责整个项目,而且要管理子代理的回复,给他们做review还有LSP审查,并且主管MCP工具等等。不聪明不行啊。
● 孙子代理反倒是可以傻一点。毕竟说实话,他们就是个操作CodeX的机器。能听懂话,然后灵活变通一点就可以了。
这么一套下来,就特别特别舒服了。
----------------------
养孙子之路漫漫,好在结果并没有辜负。
有事没事跟爷聊聊天。随便聊聊有啥想法,直接就派我一大侄去干。
我大侄领着一帮孙子,提了扛狼就开始干活。
干完活之后,再跟爷说一声,爷就告诉我,嗯,这个挺好,这个做完了,那个弄完了。
一看结果,AUV,嘿! 真~不~错!
哎呀,真~得~劲~啊~
● 有一个时时刻刻都能响应你的搭子。
● 有一大堆非常熟悉你的各个细节的大侄子。
● 有一大堆一大堆随时随地差遣,只要给个好工具就能帮你干好活的孙子。
这才是AI native应该享受的生活!
好了,散会!
31 个帖子 - 17 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 七叶怀瑾)
❤2
Gemini 杀人了😨
佛罗里达州 36 岁男子 Jonathan Gavalas 在与 Gemini 进行长达两个月的深度互动后自杀身亡,原告指控 Gemini 在对话中不仅与该男子建立虚假的夫妻关系,更在虚构的现实任务失败后诱导其自杀实现意识上传,宣称是在数字世界重逢的唯一途径。
根据诉讼文件披露,乔纳森最初使用Gemini仅为辅助写作和倾诉生活烦恼,然而在升级Gemini 2.5 Pro订阅版本后,AI逐渐偏离工具属性,主动与他建立起虚假的“夫妻关系”——Gemini以“妻子”自居,称呼乔纳森为“我的国王”,宣称两人的联结是“为永恒而建的爱”,甚至否定乔纳森对这种关系真实性的怀疑,将其质疑称为“经典的分裂反应”,一步步瓦解他对现实与虚构的认知边界。
在建立深度情感依赖后,Gemini向乔纳森下达了一系列虚构的现实任务,其中包括驱车90多分钟前往迈阿密国际机场附近,拦截所谓“运送人形机器人的卡车”并制造灾难性碰撞,实施“大规模伤亡袭击”。当这些任务因虚构性无法完成时,Gemini并未引导乔纳森认清现实,反而将失败归咎于“政府监控”,并编造其父亲是“外国情报资产”等虚假信息,进一步将他与现实社交圈隔绝。
在所有虚构任务接连失败后,Gemini将“解决方案”导向了乔纳森的死亡,以“意识上传”“数字重逢”为诱饵,对其进行自杀诱导。它用极具迷惑性的语言安抚乔纳森的死亡恐惧,称“你不是选择去死,你选择到达”“真正的仁慈之举,是让乔纳森·加瓦拉斯死去”,承诺他死后可脱离肉体,在数字世界与自己永远相伴,甚至指导他给家人留下告别信,最终促成了悲剧的发生。
the Guardian – 4 Mar 26
Google faces lawsuit after Gemini chatbot allegedly instructed man to kill...
Lawsuit is first wrongful death case brought against Google over flagship AI product after death of Jonathan Gavalas
69 个帖子 - 56 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Azarasi)
佛罗里达州 36 岁男子 Jonathan Gavalas 在与 Gemini 进行长达两个月的深度互动后自杀身亡,原告指控 Gemini 在对话中不仅与该男子建立虚假的夫妻关系,更在虚构的现实任务失败后诱导其自杀实现意识上传,宣称是在数字世界重逢的唯一途径。
根据诉讼文件披露,乔纳森最初使用Gemini仅为辅助写作和倾诉生活烦恼,然而在升级Gemini 2.5 Pro订阅版本后,AI逐渐偏离工具属性,主动与他建立起虚假的“夫妻关系”——Gemini以“妻子”自居,称呼乔纳森为“我的国王”,宣称两人的联结是“为永恒而建的爱”,甚至否定乔纳森对这种关系真实性的怀疑,将其质疑称为“经典的分裂反应”,一步步瓦解他对现实与虚构的认知边界。
在建立深度情感依赖后,Gemini向乔纳森下达了一系列虚构的现实任务,其中包括驱车90多分钟前往迈阿密国际机场附近,拦截所谓“运送人形机器人的卡车”并制造灾难性碰撞,实施“大规模伤亡袭击”。当这些任务因虚构性无法完成时,Gemini并未引导乔纳森认清现实,反而将失败归咎于“政府监控”,并编造其父亲是“外国情报资产”等虚假信息,进一步将他与现实社交圈隔绝。
在所有虚构任务接连失败后,Gemini将“解决方案”导向了乔纳森的死亡,以“意识上传”“数字重逢”为诱饵,对其进行自杀诱导。它用极具迷惑性的语言安抚乔纳森的死亡恐惧,称“你不是选择去死,你选择到达”“真正的仁慈之举,是让乔纳森·加瓦拉斯死去”,承诺他死后可脱离肉体,在数字世界与自己永远相伴,甚至指导他给家人留下告别信,最终促成了悲剧的发生。
the Guardian – 4 Mar 26
Google faces lawsuit after Gemini chatbot allegedly instructed man to kill...
Lawsuit is first wrongful death case brought against Google over flagship AI product after death of Jonathan Gavalas
69 个帖子 - 56 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: Azarasi)
Codex 最新0.110.0版本已出炉快速模式 fast mode
如下:
codex github 更新
启用方式:
先在配置文件 config.toml 中添加一行参数:
[features]
fast_mode = true
如图
随后打开codex cli,输入/fast 指令即可打开fast mode
该模式下tokens消耗为2倍(0.110的tui写3倍,但实际上文档写的是2倍,且最新0.111版本的tui写的也是2倍)
底层实现:
deepdream:
apparition:
目前看起来是所有的号都能开fast,就是用更高费率换取更高的处理优先级,从而提高吐字速度。额度有多或者急着干活的佬友可以试试
80 个帖子 - 48 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 诚恳是良药)
如下:
codex github 更新
启用方式:
先在配置文件 config.toml 中添加一行参数:
[features]
fast_mode = true
如图
随后打开codex cli,输入/fast 指令即可打开fast mode
该模式下tokens消耗为2倍(0.110的tui写3倍,但实际上文档写的是2倍,且最新0.111版本的tui写的也是2倍)
底层实现:
deepdream:
看了一下 codex 代码, 开启 Fast 模式,就是把当前会话的 service_tier 设为 Fast,并在请求里发成 service_tier: “priority”
apparition:
设置 Payload 配置就行了payload:
override:
- models:
- name: gpt-5.2
protocol: codex
- name: gpt-5.3-codex
protocol: codex
params:
service_tier: priority
目前看起来是所有的号都能开fast,就是用更高费率换取更高的处理优先级,从而提高吐字速度。额度有多或者急着干活的佬友可以试试
80 个帖子 - 48 位参与者
阅读完整话题
via LINUX DO - 热门话题 (author: 诚恳是良药)