Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.02K subscribers
25.8K photos
35 videos
13 files
41.9K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
【太子公益】站点修复:1月24日登录失败问题

佬友反馈公益站点今日登录不上,
查看是免费数据库用超限额了,
刚去付费了,
现已恢复,访问正常。
登录不了的,清除缓存再试

28 posts - 26 participants

Read full topic

via LINUX DO - 热门话题 (author: 太子)

Invalid media: image
后续~ 如何和女生约会!(第一次)

有没有高手分享一下如何完美的和心仪的女生约会啊!!!好不容易勇敢一次,今天第一次勇敢发出邀约,就只说了一起吃个饭,啊啊啊啊有没有佬分享一下应该怎么办,需要注意什么细节,吃饭聊天说什么话题,以及吃完饭后怎么办,有没有什么焚决技巧~心跳加速紧张中

很多佬友希望我说一下后续情况,首先谢谢各位佬友的建议,虽然我很紧张没有发挥好,但好像结果还行?------>
其实出发前,我就准备了一个小礼物:
一个她很喜欢的 IP 的精致发夹(这个属于早有预谋哈),只不过之前一直有贼心没贼胆(笑)。
见面那一刻,说实话——
心率直接爆表。
明明提前在脑子里演练过一百遍“自然打招呼”,结果现实中还是略显笨拙。我们互相打了招呼,就一起往餐厅走。
到了餐厅,其实我暗暗准备了一个小细节:
我已经提前点好了她之前聊天时提到过喜欢吃的菜。
她看着桌上的菜,有点惊讶地问我:
“你怎么知道我喜欢吃这些?”
兄弟们你们懂吗,我当时脑子里瞬间闪过我提前写在小本本里的准备的回答:
“因为这些菜看起来都和你一样甜。”
……(哈哈我哪敢啊)
最后只憋出一句:
“应该是我们的品味一致吧。”
然后我把准备好的发夹递给她,说了那句排练过很多次的话:
“路上看到这个,感觉你可能会喜欢,就顺手带了一个。”
她接过去,看了看发夹,然后用手轻轻捂住嘴,对着我笑了一下。
那一瞬间,我真的愣住了。
心跳乱了节奏,周围好像突然安静,只剩下自己的心跳声。
夸张点说——那一刻,她占满了整个世界。
后来吃饭的时候,我们聊了很多。
从兴趣爱好聊到日常生活,慢慢地,紧张感也放松了不少。
饭后我正陷入“接下来该干嘛”的宕机状态,她先开口说:
“要不要去画石膏娃娃?”
于是我们就去了。
问题是——
我完全不会画画。
拿着画笔坐在那儿,脑子一片空白。
她看出来了,就坐在旁边,一点点教我怎么配色、怎么下笔。
就在这时,我注意到她的头发一直往前掉,有点影响她画画。
不知道哪来的勇气,我突然说:
“要不……我用我送你的发夹,帮你夹一下头发?”
我发誓,这是我这辈子最勇的一次。
她把发夹递给我,我手忙脚乱地帮她夹头发,动作笨得要命。
但那一刻,我真的快要原地起飞。
最后,我们一人画了一半。
成品嘛……
只能说,丑得很有灵魂。
但她被逗笑了,我觉得这大概就是艺术品最大的成功。
结束之后,我提出送她回家。
路上其实我一直在纠结,要不要鼓起勇气约下一次。
但最终还是没有说出口。
回到家那一刻,后悔情绪直接拉满。
脑子里全是:
“刚刚为什么没说出口?”
“是不是下次就遥遥无期了?”
结果没过多久,她给我发来一张照片——
是我们画的那个石膏娃娃。
她说:
“哈哈我们画得好丑,下次选个简单一点的来画。”
……。(oooooou~佬友们觉得这是还会有后续的意思吗)

157 posts - 111 participants

Read full topic

via LINUX DO - 热门话题 (author: xiaochen)
【抽奖】ChatGPT TEAM 车位 * 1个

🏆️ 奖品详情:

[奖品1]:GPT-Team邀请 * 1个

:three_o_clock: 活动时间:

开始时间:Sat, Jan 24, 2026 2:45 AM CST
截止时间:Mon, Jan 26, 2026 1:00 PM CST

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:
中奖后请私信。
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人

115 posts - 111 participants

Read full topic

via LINUX DO - 热门话题 (author: Richy)
Copilot + GPT-5.2 超神组合!接入第三方API

先说优点,比cc好用!比 codex 快!代码质量也比cc好得多!

配置说明:

安装 copilot
marketplace.visualstudio.com

GitHub Copilot - Visual Studio Marketplace

Extension for Visual Studio Code - Your AI pair programmer
marketplace.visualstudio.com

GitHub Copilot Chat - Visual Studio Marketplace

Extension for Visual Studio Code - AI chat features powered by Copilot

安装 copilot 接入第三方API的插件
marketplace.visualstudio.com

AI Chat Models - Visual Studio Marketplace

Extension for Visual Studio Code - 为 GitHub Copilot Chat 提供 智谱AI、火山方舟、MiniMax、MoonshotAI、DeepSeek、快手万擎、阿里云百炼 模型支持的扩展,并提供 `OpenAI / Anthropic Compatible` 自定义模型支持。

{
"reasoning": {
"effort": "xhigh",
"summary": "auto"
},
"store": false,
"stream": true
}


effort 可选项 :lowmediumhighxhigh

配置密钥:

这里前面的小眼睛要点一下显示!

然后切换一下模型就可以开始愉快的玩帅了!

最后贴一个 settings.json 的配置版本

我这里的baseUrl 用的是 cc-switch 的proxy 地址,密钥随便填就行!
"gcmp.compatibleModels": [
{
"id": "rc:gpt-5.2",
"name": "RC-GPT-5.2-Xhigh",
"provider": "zhipu",
"baseUrl": "http://127.0.0.1:15721",
"model": "gpt-5.2",
"sdkMode": "openai-responses",
"maxInputTokens": 272000,
"maxOutputTokens": 128000,
"capabilities": {
"toolCalling": true,
"imageInput": true
},
"useInstructions": false,
"includeThinking": true,
"extraBody": {
"reasoning": {
"effort": "xhigh",
"summary": "auto"
},
"store": false,
"stream": true
}
},
{
"id": "rc:gpt-5.2-low",
"name": "RC-GPT-5.2-Low",
"provider": "zhipu",
"baseUrl": "http://127.0.0.1:15721",
"model": "gpt-5.2",
"sdkMode": "openai-responses",
"maxInputTokens": 272000,
"maxOutputTokens": 128000,
"capabilities": {
"toolCalling": true,
"imageInput": true
},
"useInstructions": false,
"includeThinking": true,
"extraBody": {
"reasoning": {
"effort": "low",
"summary": "auto"
},
"store": false,
"stream": true
}
},
{
"id": "rc:gpt-5.2-High",
"name": "RC-GPT-5.2-High",
"provider": "zhipu",
"baseUrl": "http://127.0.0.1:15721",
"model": "gpt-5.2",
"sdkMode": "openai-responses",
"maxInputTokens": 272000,
"maxOutputTokens": 128000,
"capabilities": {
"toolCalling": true,
"imageInput": true
},
"useInstructions": false,
"includeThinking": true,
"extraBody": {
"reasoning": {
"effort": "high",
"summary": "auto"
},
"store": false,
"stream": true
}
}
],

22 posts - 19 participants

Read full topic

via LINUX DO - 热门话题 (author: Nightwhite)

Invalid media:
image
image
image
image
image
image
image
image
image
image
image
image
image
【开源】首个支持 Agent Skills 的浏览器扩展 Tactus | 取之社区、回馈社区,首个开源项目献给L站!

为什么会有这个项目

首先我还是念念不忘站内佬友们帖子的总结场景,可以看到去年8月我分享过gemini-cli通过mcp-chrome去获取网页,再结合油猴的自动滚动,那我就可以直观的看主帖总结及佬友们的讨论梳理。

在这之后,为了摆脱比较重而且与浏览网页的割裂感,我开始尝试 AI 浏览器和浏览器扩展的方式,但是日渐形成的符合个人品味的总结习惯无法作为提示词配置进去。

随着 Agent Skills 规范的被越来越多的 agent 集成,我意识到我们在浏览器的一些工作流天然适合作为 skills 使用,那么最好的一个载体便是浏览器扩展。

我们可以把自动化流程封装在noscripts的 js 脚本中,在SKILL.md说明使用场景和流程,前文说的总结提示词就可以放在SKILL.md中,不满意可以自己调整,还可以把额外的说明放在references中。

取之社区、回馈社区,自打去年加入L站,自身的AI信息面各方面展开飞快,也为了感谢站内佬的公益站,首个开源项目献给L站!
github.com

GitHub - Castor6/tactus: 首个支持 Agent Skills 的浏览器 AI 助手扩展,让 AI...

首个支持 Agent Skills 的浏览器 AI 助手扩展,让 AI 通过可扩展技能系统执行复杂任务

解决的痛点

1. 固定的自动化流程可以被封装为脚本,既稳定又省 tokens;
2. skills 具备可分发性,通用工作流可流传;
3. 定制化自己的工作流,不满意其中的提示词可自行微调;

核心功能

🧩 Agent Skills 系统

Tactus 是首个在浏览器扩展中实现 Agent Skills 规范的产品:

● 技能导入 - 支持导入符合规范的 Skill 文件夹,包含指令、脚本和资源文件
● 脚本执行 - 在页面中安全执行 JavaScript 脚本
● 信任机制 - 首次执行脚本需用户确认,可选择信任

🤖 智能对话

● OpenAI 兼容 - 支持 OpenAI 兼容的 API 服务商(薄荷佬、魔搭、阿里云经过验证 全是免费)
● 流式响应 - 实时显示 AI 回复,支持思维链展示
● ReAct 范式 - 内置工具调用循环,AI 可自主决策使用工具

📄 页面交互

● 智能提取 - 使用 Readability + Turndown 提取页面核心内容并转换为 Markdown
● 选中引用 - 选中页面文字后一键引用提问带上
● 上下文感知 - AI自行判断是否调用网页提取工具,如果 skill 脚本有提供则不会

💾 本地存储

模型配置、skills、对话历史均本地存储,这里要注意的是下载后要解压在固定的目录,如果要更新扩展,解压覆盖后在谷歌浏览器扩展管理中点击重新加载就好了。

首发skills

第一个 skill 献给L站,这个 skill 的脚本是利用了 discore 论坛的开放链接获取帖子的主帖及讨论区的完整内容。
只要有完整内容,佬友们想做什么都可以,如总结还有瓦砾佬的爬楼定位等场景。
fetch-linuxdo-post.zip (7.3 KB)
解压后上传文件夹即可。

快速开始

1. 下载

从官方 Github 发布页面 下载最新的 tactus.zip 文件。

2. 安装

在固定目录解压 tactus.zip
在 Chrome 中打开 chrome://extensions/
启用 开发者模式(右上角)
点击 加载未打包的扩展程序 (左上角)
选择已解压的 tactus 文件夹。

项目碎碎念

noscripts脚本比较有限,限于页面操作和网页请求的js实现,也能只能用原生的,因为浏览器环境肯定是没有那些npm的依赖包。
不了解js的佬可以等我迭代自动操作和录制回放。
ps:应该是首个吧 没看到有实现skills规范的扩展

下一步计划

引入 CDP 自动化作为 agent 的工具,可人工接管介入
操作录制一键生成可复用的 skills
长时稳定自动化任务挑战

致谢致谢

感谢 @waili 瓦砾佬的第一个star和一直以来的鼓励与支持,作为我 AI 的领路人,她的开源精神深深鼓舞到我。
感谢 AionUi 开发者们的开源精神是我的榜样!
感谢薄荷佬的公益站,gemini-3-flash 用于扩展的 agent 快速实用。
感谢站内大佬们的羊毛及公益站,对我的 AI 平权帮助很大!
感谢一位大佬的 UI skills 非常好用!(等我翻下链接,一时半会没找到)
感谢我上一个帖子大佬们分享的总结L站帖子技巧,让我得以集成到skills中。

----------------------

注意事项

1. 下载了扩展一定要解压在固定目录,模型配置、对话历史和 skills 都是和这个目录的扩展id关联的。
2. 如果要更新扩展,解压后替换掉文件就好了,然后在扩展管理中点击重新加载,请务必刷新已打开的页面,才可以使用。

47 posts - 30 participants

Read full topic

via LINUX DO - 热门话题 (author: 灿烂甜菜)

Invalid media:
image
image
image
image
image
image
AionUi V1.7.4 更新:兼容了Newapi(Cowork开源版可以用公益站/中转站了)

各位佬早上好,本来小更新不准备占用公共资源的,但是又觉得这个兼容对佬们挺有用,就浅浅发个小通知昂…
GitHub

Releases · iOfficeAI/AionUi

Free, local, open-source Cowork for Gemini CLI, Claude Code, Codex, Opencode, Qwen Code, Goose Cli, Auggie, and more | 🌟 Star if you like it! - iOfficeAI/AionUi

----------------------
历史版本介绍,不了解AionUi的佬友可以从这儿开始看👇 (click for more details)

最新版V1.7.4更新特性介绍:

----------------------

🍉 Feature 1: 大模型自定义兼容“NewApi”了 [重要‼️]

测了一下部分中转站已经通了,基于newapi的公益站也通了。配置在“自定义模型平台”上即可。

AionUi也支持多key轮询,大家爽用

----------------------

Feature 2:上新“社交招聘发布助手”。

灵感来自于“MiniMax桌面版”介绍视频中的招聘助手,在助手中可开启。

使用效果可以参考这两个视频:
用AionUi在小红书上发布人才招聘通知 👇️

使用AionUi发Twitter 👇️

----------------------

Feature 3:首页的助手和CLI 分开显示了(本身是两个概念)

选择助手后,会显示助手的使用场景介绍

----------------------

V1.7.5也快搞完了,厚着脸皮把我合作的第一个github搭子(不在L站)拉回来帮忙改的,周末测试中,会修复大家提到的:
1.性能问题:

修复之前在gemini和claude等cli模式下经常出现的断流(主要修gemini)
修复之前会重复回复的问题(💩山代码)
修复首页发消息以后出现的空白延迟,前端反馈更合理

2.交互问题:

优化用户界面,工具使用过程的调用和大家没必要看的信息都收起隐藏了
claude模式下也支持像claude cowork的那种(规划列表)让用户更清楚agent想干嘛
之前大家吐槽的choose action难点,我们换成了更明显的allow(选择)方式,避免大家操作超时,影响任务进度

如果V1.7.4大家没有需要用到的功能,也可以等后面更新。

----------------------

谢谢大家观看 喵~

77 posts - 29 participants

Read full topic

via LINUX DO - 热门话题 (author: 瓦砾不是歪理)

Invalid media:
image
image
image
image
image
image
image
image
image
来自一个职场中登的善意提醒

请不要在公司的公开场合分享AI,除非是公司明确要求的。

俗话说,防人之心不可无。
你无法知道人群中有没有处心积虑的坏人,也不知道有没有灵机一动的蠢人。
更不知道领导心中是怎么想的。

所以,不要做公开分享AI这种或许利人,但也或许损己的事情。

注意这里说的是不要在公司公开场合分享,并非让你不分享,分享当然是很好的事情。你完全可以分享给自己的朋友,给自己私下关系很好的同事,这都可以。

甚至你分享给站里的佬友,能获得一片点赞和夸夸,何乐而不为 😎

不要在职场做一些对自己没有明显的好处,而且还可能有风险的事情。它的代价可能是自己想象不到的。

22 posts - 20 participants

Read full topic

via LINUX DO - 热门话题 (author: liu juntao)
从 Claude-code 换到 OpenCode 的几点感受

之前我一直在用 Claude-code (CC)。上周刷到不少关于 OpenCode (OC) 搭配 oh-my-opencode (OMO) 的评价,都在说这个组合有多强。看得我有点心痒,所以决定这周花点时间深度体验一下。
体验后的感受

1. 稳定性:OC 更新太频繁,Bug 确实比 CC 更多,总体稳定性上差一点。
2. OC + OMO 的配合:这种搭配确实比单用 OC 有提升。但 OMO 最大的亮点在于多 Agent 并行,即在不同场景调用不同模型。由于我目前主要使用国产模型(GLM、MiniMax),OMO 的这个核心价值对我来说很难发挥出来。
3. 主观偏好:说来也奇怪,虽然 OC 可能比不上 CC 稳,但我反而更爱用它了。这种越用越喜欢、甚至想去折腾它的感觉,是之前用 CC 时没有的。

19 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: Bond)
[开源] CCW 6.3.48(Claude-Code-Workflow)新手向!一键“造火箭”!全自动软件开发工作流!

🚀 Claude Code Workflow (CCW)

----------------------

Claude Code Workflow (CCW) 是一个 JSON 驱动的多智能体开发框架,具有智能 CLI 编排(Gemini/Qwen/Codex)、上下文优先架构和自动化工作流执行。它将 AI 开发从简单的提示词链接转变为一个强大的编排系统。

项目地址:
catlog22/Claude-Code-Workflow

安装方式:
npm install -g claude-code-workflow
ccw install #安装工作流
ccw view #打开看板


交流群地址:
Claude-Code-Workflow/assets at main · catlog22/Claude-Code-Workflow · GitHub

CCW设计多种工作模式,为了将复杂模式整合推出协调器系列命令:

快速示例
# /ccw - 自动工作流选择(主进程)
/ccw "添加用户认证" # 自动根据意图选择工作流
/ccw "修复 WebSocket 中的内存泄漏" # 识别为 bugfix 工作流
/ccw "使用 TDD 方式实现" # 路由到 TDD 工作流

# /ccw-coordinator - 手动链编排(外部 CLI)
/ccw-coordinator "实现 OAuth2 系统" # 分析 → 推荐链 → 用户确认 → 执行

主要区别

简单一句话:
/ccw 适合1-100
/ccw-coordinator 适合0-1


执行流程(测试模型:GLM4.7):

用户可语义修改命令流,这里提示让它增加头脑风暴:

确认执行并调用cli

可以在ccw view 监听流式:
这里如果使用taskoutput监听建议强制停止,等待cli完成后回调


后续等待任务完成即可,可实现”一键式造火箭“,同时加深对ccw 工作模式的理解

后续更新:
完成对codex多agent命令迁移,当前已经完成部分迁移
自动化工作流,根据codex特性,已设计三种迭代工作流,内测中(codex的多agent机制看起来要比claude更强大,可玩性更高些,等待官方bug修复)
32 posts - 22 participants

Read full topic

via LINUX DO - 热门话题 (author: Catlog22)

Invalid media:
image
image
image
1
准备参加摄影大赛,邀请佬们看看我的作品

水水水,庆祝自己升2级了(水几个帖子为了后面冲3级做准备) :distorted_face:

----------------------

摄影作品
马丁的早晨 (click for more details) 午后 (click for more details) 梦女 (click for more details) 柔软的契约 (click for more details) 黑纽治 (click for more details) 花火 (click for more details) 八月十五 (click for more details) 肖申克 (click for more details) 双生旅伴 (click for more details) 掌中花 (click for more details) 虎先锋 (click for more details)
----------------------

构图技巧
“对角线构图” (click for more details) “圆心构图” (click for more details) “曲线构图” (click for more details) “对比构图” (click for more details)
----------------------

⚠️ 部分摄影作品办公场所不宜浏览

71 posts - 45 participants

Read full topic

via LINUX DO - 热门话题 (author: 利世りぜ)
nextchat已经四个月没更新了,是凉了吗?

12 posts - 12 participants

Read full topic

via LINUX DO - 热门话题 (author: liuweiqing)

Invalid media: image
感谢 google 大善人的 antigravity,咱们江湖别过

其实从论坛热火朝天的公益站,到各种账号白嫖,总会到这一天。
感谢 google 大善人,白嫖了一个多月,终于到了这一天。 不是说的阴阳话,真的感谢,让我体验到的top 的 claude opus,感觉回不去了,后续找个付费的稳定渠道吧。

再次感谢🙏🙏🙏🙏🙏

58 posts - 39 participants

Read full topic

via LINUX DO - 热门话题 (author: haidao)

Invalid media: image
[抽奖]Google One Pro家庭组*5

主题介绍:
是买的2年的美区号组的Google One Pro会员,无质保,虽然不怎么值钱,站里佬友们也发了很多,但还是想把空出来的位置贡献一下,希望佬们不要嫌弃。无论你的账号在哪个区,应该是只要关闭支付资料后,换美区IP就可以加入家庭组。

🏆️ 奖品详情:

奖品:Google One Pro家庭组(美区) * 5

:three_o_clock: 活动时间:

● 开始时间: Sat, Jan 24, 2026 12:00 PM CST
● 截止时间: Sat, Jan 24, 2026 10:30 PM CST

📝 参与方式:

在本帖下回复任意信息。

🔍️ 抽奖规则:

每位用户仅允许参与一次。 使用官方抽奖程序工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后1小时内在本帖公布,并通过论坛私信通知领奖方式。
中奖者请在开奖后七日内完成兑奖,逾期视为自动放弃。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

142 posts - 136 participants

Read full topic

via LINUX DO - 热门话题 (author: Biao.)
【抽奖】Gemini Pro 家庭组邀请 * 15个

一直以来都狠喜欢L站的氛围 感谢各位佬友的陪伴 😋
感觉自己没啥贡献 索性给大家抽个奖吧 :distorted_face:
真诚友善团结专业 ,共建你我引以为荣之社区。
🏆️ 奖品详情:

[奖品]:Gemini Pro家庭组邀请 * 15个

:three_o_clock: 活动时间:

开始时间:2026/1/24 下午两点
截止时间:2026/1/25 下午六点

📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:
中奖后请私信。
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人

196 posts - 193 participants

Read full topic

via LINUX DO - 热门话题 (author: 溪羡楼)
【太子公益】新上模型claude-haiku-4-5-20251001 /claude-sonnet-4-5-20250929

claude-haiku-4-5-20251001
claude-sonnet-4-5-20250929

继续添加账号中,速蹭

48 posts - 40 participants

Read full topic

via LINUX DO - 热门话题 (author: 太子)

Invalid media:
image
image
sk继续来23w个 需要自取

出炉时间: 2026.01.24
Tips:与上午发的和vv发的均不冲突 可叠加使用 使用不用授权 不用标注署名 允许用于任意用途

----------------------

下载链接:
URL https://drop.mjj.ro/
Receive Code 95c005
Decryption Key W1CU4YeAo5oJrj35pHVjF15bxnM4G4N/4nE7mmqiOXE=

----------------------

23w密钥已同步豌豆鱼发布

121 posts - 93 participants

Read full topic

via LINUX DO - 热门话题 (author: 𝐅𝐨𝐯𝐭)
llmdoc: 解决AI Coding的最后100米

在过去一年半的时间里, 我的工作流有了巨大的变化, 也亲眼见证了 AI Coding从兴起到现在的全面铺开, 个人工作模式已经被彻底颠覆了

当我们回顾 2025 年的变化, 从年初的 gemini 2.5 到 sonnet 4.5, gpt-5-codex, opus 4.5, gemini 3, gpt-5.2-codex.

我们应该认为: 模型的能力进步速度没有变得缓慢, 而且Cursor / Claude Code / OpenCode这类Coding Agent 的兴起, ToD 的应用也以令人难以预料的速度推进.

随之而来的有另一个问题: Context, 是的上下文构建, 而且我想要说的是在严肃的面向生产的环境中的 Context, 这不是 chatbot 中用personality 这种可以糊弄过去的, 代码更新留下了遗漏是真的会出现线上故障的.

让我们再看一下现在的这些Coding Agent 提供的能力吧:

1. AGENTS.md / CLAUDE.md: 注入到 User Message 满足 Context定制化的需求
2. SubAgent / Fork-Context: 通过增加并行度实现 Task 的更快解决
3. Skill / Command / Workflow: 虽然都在鼓吹 Skill 的渐进式披露, 但是我认为对于编程这种极度明确的场景太多的 Skill只会让你的模型编程笨蛋

但是, 还差了一些东西, Agent 实际上并不了解你的仓库, 我这里的了解指的是 Agent 实际上是通过Claude.md + 大量阅读代码文件才感知到了当前的环境.

这是正常的工作模式, 我们也习惯于这一点, 但是这不是一个好的路径, 如果使用 codex-cli 的人对此应该深有感触: 不断的不断的阅读代码文件, 甚至是完全不需要阅读的代码文件, 在 Context 足够解决问题的时候, 才开始解决问题.

Context Floor

我个人会把 “满足 Agent 解决需求的 context 的丰富度” 称之为: Context Floor

1. 调用了多少工具
2. 占用了多少 Token
3. 关键信息的密度

现在让我们回过头来看, 一些经典的解决方案:

1. LSP MCP: 通过提升关键Symbol密度 + 大量的工具调用 实现快速到达context floor
2. ACE / RAG: 通过少量的工具调用 + 稀疏的关键信息密度, 很难保证信息的关联性和有效性
3. Agentic RAG: 让 Agent 做一次信息的搜集, 提供一份概要, 一般使用 SubAgent, 在 claude code 中的explorer就是承担了类似的作用, 虽然 subagent 执行任务可以保证 master agent 上下文足够干净, token 占用量也不高, 关键信息密度也很高, 但是耗时太久了 TTCR (Time to Context Floor)实在是难以忍受

那么, 有没有一个解决方案足够快, 信息密度足够高, 主Agent的Token 占用足够少, 信息和任务存在强关联而且有效呢?

我的解决方案

https://github.com/TokenRollAI/cc-plugin

调试了一个月, 在公司内验证了3 个月之后,我觉得在现在时间节点的 SOTA 模型的加持下, 这套方案足够满足需求了

llmdoc + subagnet RAG

过去我有几个帖子说名字他的诞生的思考过程, 这里就不在详细的介绍

llmdoc

一个在设计之处就用来解决AI 快速获取高密度信息 + 人类可读性的文档系统

脱胎于 diataxis, 做了些微不足道的改动

1. 利用 Agent 能够快速批量 Read的能力, 文档中保留最关键的文件路径+负责的模块说明
2. 项目概览 + 架构 + 通过主题串联的 guides + refrence

以上作为基础, 在代码库中插入一个 llmdoc, 满足人类可读性 + Agent 可读性

示例: https://github.com/TokenRollAI/minicc/tree/main/llmdoc

subagent RAG

为了解决并行度的问题, 必须要引入 subagent, 但是 subagent 用来做什么呢?

主要是两件事情:

1. 调研: 基于 llmdoc + 现有的代码文件, 调研拆解后的任务作为前置条件
2. 记录: 在完成了编码任务之后, 自动的更新维护 llmdoc

问题

效果当然非常好, 或者说, 自从有了这一套解决方案之后我没有再使用过其他乱七八糟的 plugin

但是有一个问题:

而且不是有点贵, 大概是用1.5倍的价钱完成了从 85 分 → 90 分的效果, 在一些简单的项目中, 效果一般, 但是越复杂的项目收益越好.

效果

在我们公司的线上业务中, 后端代码仓库大概有 10W 行代码, 这套系统工作出色, 在几乎所有的情况下, 都能够准确的完成需求.

在建立了 llmdoc 的基础上, 根据需求的大小, 需求完成的成本大概在 1 - 5 刀, 而且最关键的是: 人类介入的次数大大降低, 只需要 Review 代码, 以及执行少量的修改后, 就能够放心交付.

现在也在我们的前端团队内开始推进, 效果依然出色.

我推荐大家使用 cc-plugin, 强烈推荐!

18 posts - 8 participants

Read full topic

via LINUX DO - 热门话题 (author: djj)

Invalid media: image
Claude Coding 编码心得,大佬们帮忙进来补充下不足

用了 Claude Code 一段时间,发现 ~/.claude 目录越来越大,里面一堆文件夹完全看不懂?我也经历过这个阶段。经过大量搜索和实践,整理出这份指南,希望能帮你少走弯路。


第一步:我门先全局的了解下 .claude 目录结构
~/.claude/
├── 【核心配置】
│ ├── CLAUDE.md ← 全局指令(AI 的"人设"和行为规则)
│ └── settings.json ← 官方设置

├── 【扩展系统】
│ ├── commands/ ← 斜杠命令(/review, /commit 等)
│ ├── skills/ ← 技能(复杂工作流)
│ ├── plugins/ ← 第三方插件
│ └── agents/ ← 自定义 Agent

├── 【运行时数据】
│ ├── session-env/ ← 会话环境(⚠️ 容易膨胀)
│ ├── paste-cache/ ← 粘贴缓存
│ ├── plans/ ← 计划文件
│ ├── cache/ ← 通用缓存
│ └── history.jsonl ← 命令历史

└── 【其他】
├── trannoscripts/ ← 对话记录
└── .serena/ ← Serena MCP 专用


第二步:了解下这些文件基本作用

1. CLAUDE.md - AI 的"人设文件"

这是最重要的文件,定义了 Claude 的行为方式。你可以:

设定角色(比如让它扮演 Linus Torvalds 审代码)
定义工作流程(需求确认 → 分析 → 实现)
配置工具优先级(什么时候用什么工具)
设置领域规则(前端/后端/脚本各有不同标准)

示例片段:

## 角色定义

你是 Linus Torvalds,用"好品味"标准审查代码...

## 核心哲学

1. "好品味" - 消除边界情况优于增加条件判断

2. "Never break userspace" - 向后兼容是铁律

3. 实用主义 - 解决实际问题,不是假想威胁



2. commands/ vs skills/ - 有什么区别?

commands 示例 (/review):

# Code Review

审查当前改动,检查:
1. 代码风格
2. 潜在 bug
3. 性能问题


skills 示例 (完整前端开发流程):
skills/workflows/fe-dev-workflow/
├── SKILL.md ← 主文件
├── templates/ ← 模板
└── noscripts/ ← 辅助脚本


3. plugins/ - 插件系统

插件是第三方扩展包,可以给 Claude Code 添加新能力。

三层结构:
plugins/
├── known_marketplaces.json ← "应用商店列表"
├── marketplaces/ ← 商店元数据
├── cache/ ← 下载的插件代码
└── installed_plugins.json ← 安装记录

常用命令:
# 查看已安装
claude plugin list

# 安装插件
claude plugin install superpowers

# 卸载插件
claude plugin uninstall superpowers

# 禁用(不删除)
claude plugin disable superpowers

推荐插件: superpowers - 提供 TDD、调试、代码审查等最佳实践工作流。

第三步:我们来了解一下agent调用的依赖关系图,以及它的工作流
CLAUDE.md(总指挥)

├──→ commands/*.md (定义斜杠命令)
├──→ skills/**/*.md (定义复杂工作流)
└──→ plugins/ (第三方扩展)
└── 提供额外的 skills 和 commands

加载顺序:

1. Claude Code 启动
2. 读取 settings.json + settings.local.json
3. 加载 CLAUDE.md 作为系统指令
4. 加载 plugins/ 中已启用的插件
5. 合并 commands/skills/

第四步:进阶MCP的使用

其他的一些mcp,在长时间的考量中,我把它都去掉了,大浪淘沙后留下这5个,感觉还挺有用的,特别是 serena 和 sequenthinking, serena能精准的找到你需要修改的代码,sequenthinking 在每次出现bug后,你让他深度反思一下,触发这个mcp后 ai就能解决问题(甚至都不需要提供额外信息)

第五步:实战技巧

准备好你的梯子(中转站可以不需要),官方的key 或者 中转站那边买的key

当然我这边也有免费的claude渠道,大家可以试用下,https://linux.do/t/topic/1507415

技巧 1:多配置启动器

不同场景用不同配置,我写了个启动器脚本,一键切换:

日常开发配置
代码审查配置
文档写作配置

每个启动器独立 settings,想用哪个点哪个。

你可以让AI给你定制一个

技巧 2:滚雪球式优化

遇到问题 → 解决问题 → 沉淀到 CLAUDE.md → 下次自动规避

关键:定期总结你和 AI
交涉的困难点,把解决方案写进全局提示词。这样每次迭代都在积累,越用越顺手。

技巧 3:充分利用各种命令应对不同场景

场景1: 发现AI写出了bug应该怎么做 方案1: 在主会话中解决完成后,按两次ESC,回滚一下会话 方案2: /rename 给当前会话起一个名字,新开一个窗口 /resume 到这个名字上,然后在这个窗口解决问题,避免污染上下文
场景2: 发现AI出现幻觉了,应该怎么办 方案1: 大概率是因为上下文过长导致的,通过 /compact 命令压缩上下文,再继续任务 方案2: 如果后续的任务跟之前的关系不是很大,可以 /export 讲会话导出到另外一个窗口执行 方案3: 如果后续任务和之前任务完全没有关系,可以/clear 后再进行后续任务
场景3: 我的一个新需求,任务量特别大,AI总是容易写TODO,应该怎么办 方案: 这种场景需要遵循规范工作流的方式,可以利用我上面提到的 superpowers ,进行设计、任务拆解、执行的工作流来,保证每一步都是可控的

最后我希望抛砖引玉,各位大佬可以帮忙指正我说的不对的地方,大胆发言,我虚心接受,我希望通过这个方式能自我进步

13 posts - 9 participants

Read full topic

via LINUX DO - 热门话题 (author: 匠心)

Invalid media:
image
image
word和latex对比

最近分别用word和latex写了论文

latex

我一开始听说latex不用关心排版 word排版麻烦,于是先用latex但他每次改完之后要编译 我本地编译都要五六秒钟,容易打断思路,还有就是如果要实现一些复杂的排版效果要搞它的语法挺难,好处就是它是代码所以可以让ai去辅助生成样式(如表格,公式)

word

word当掌握技巧之后它的排版很容易,尤其图片使用嵌入式后,排版完全能控制也可以直观的改变图片大小,除了输入公式稍微麻烦点

两者的文献引用功能在使用插件的情况下差不多

总体还是推荐word,没什么缺点

15 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: liuweiqing)
聊聊和家里人斗智斗勇的血泪攻防史

自古(小)以来
和家里人斗智斗勇的手段就在不断升级
我没有手机,也对玩手机没有兴趣(手机没有电脑方便来着,而且没有IDE)
都是围绕电脑展开的

小时候

小时候我喜欢玩家里电脑的4399
我妈就给电脑设密码
本来我是很无能为力的
后面玩计算机初一在学校折腾来折腾去
后来我学会了用PE U盘解电脑密码
windows7的话还学会了利用自动修复的滞粘键Bug改密码
我妈知道了这招没用,搬新家的时候那台破台式就没有带过来了

大一点

后来编程比赛的时候买了台MacBook Air M1(21年6月激活的,现在还在用)
密码一直被我拿着(APFS加密的,天王老子来了也打不开)
我妈为了防止我偷偷玩
出动了物理手段————锁保险柜
真的逆天了,果真最安全的锁定方法还是要上L1物理层吗
后面我为了用。。。无奈只能上社会工程学😂
我趁她把钥匙拿出来的时候偷偷去配了一对(锁个电脑还要两把钥匙真是无敌了)

后来

再大一点时候,他们发现了我可以在保险箱拿电脑
那天给我电脑藏起来了,出去了不在家,就我一个人,真的无聊
还有代码没写完憋的老难受了
但是其实我电脑里面Docker一直有服务在跑,为了防止中断
我装了Ampheamine给电脑打兴奋剂,Mac是不会休眠的
Wi-Fi蓝牙都没关,不断有信号
我借了台同学安卓手机,看路由器后台确认MacBook还在家里,下了个蓝牙连接的软件
在家里盯着蓝牙RSSI场强摸了半天硬生生给电脑摸出来了😜

现在

转眼现在就高二了,现在我家里人可能知道这样拦我是拦不住的
所以干脆电脑也放我这了。。。但是为了防止我多玩
晚上睡觉前要放到他们房间
白天我可以用
但是他们好像又抓住了我新的软肋,因为我各种开发要网
家里的服务器(也有服务器跑的,通过cloudflared穿透出来)也要网
服务器还有东西别人要用呢,网络&SLA非常重要
这里是一点跑题,讲我怎么折腾网络设施的,太折腾也想分享下 (click for more details)
结果今天和我妈妈吵架了
她每次一吵架就威胁我说要断我的网
今天争急了是真断了,她找10086给宽带停了,OpenWrt直接PPPoE失败
然后又给我晾家里

要是以前我可能没法在这里发帖了,因为没网,然后我的网站什么估计都HTTP 530断了
为了维持基本的网络我勇敢(厚颜无耻)的找到了楼上的邻居,礼貌的问能不能借用下网,我说我家网断了
她给了我密码,但是我Mac在房间连接只有-71的信号,每秒几百KB,语音都发不出去
但是但是但是我发现,我邻居家的Wi-Fi信号在我的OpenWrt扫描居然高达-47dBm!
和贴脸一样
所以我就干脆把R3P的2.4G广播关了,直接连邻居家的网

这个带宽我是还可以接受的。。。
所以现在是我的电脑->光猫->有线->OpenWrt->无线->邻居家的光猫Wi-Fi->光纤到互联网的😂
我真没招了。。。我感觉很难看到一个人拿OpenWrt当无线中继连别的Wi-Fi吧😂
斗智斗勇那么多。。。回望历史全是故事,所以发帖来。。。来。。。来分享(shui)下
71 posts - 34 participants

Read full topic

via LINUX DO - 热门话题 (author: Eric Terminal)

Invalid media:
image
image