终于水到100天!抽个奖吧
看着connect里的连续登陆在97,98,99反复横跳,终于也是达成了100天
赶上今天积分大追缴,干成大负翁了,抽一个没人要的88VIP视频或者音乐会员吧
不知道这个抽奖的格式都是怎么写的,就去找个了帖子复制了一下
抽奖主题: 88VIP视频或者音乐会员吧,10月31到期
🏆️ 奖品详情:
[奖品]:88VIP视频或者音乐会员,10月31到期
PS:需要提供手机号,如果不愿意提供的话,我也没能力折现
:three_o_clock: 活动时间:
时间: Tue, Jan 6, 2026 12:00 AM CST → Thu, Jan 8, 2026 10:00 AM CST
📝 参与方式:
在本帖下任意回复。(希望能点个狗头(哈哈
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
114 posts - 114 participants
Read full topic
via LINUX DO - 热门话题 (author: Lavaclone)
Invalid media:
image
image
看着connect里的连续登陆在97,98,99反复横跳,终于也是达成了100天
赶上今天积分大追缴,干成大负翁了,抽一个没人要的88VIP视频或者音乐会员吧
不知道这个抽奖的格式都是怎么写的,就去找个了帖子复制了一下
抽奖主题: 88VIP视频或者音乐会员吧,10月31到期
🏆️ 奖品详情:
[奖品]:88VIP视频或者音乐会员,10月31到期
PS:需要提供手机号,如果不愿意提供的话,我也没能力折现
:three_o_clock: 活动时间:
时间: Tue, Jan 6, 2026 12:00 AM CST → Thu, Jan 8, 2026 10:00 AM CST
📝 参与方式:
在本帖下任意回复。(希望能点个狗头(哈哈
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
114 posts - 114 participants
Read full topic
via LINUX DO - 热门话题 (author: Lavaclone)
Invalid media:
image
image
原本都想放弃了,感谢大佬的教程,感谢L站
🥰看了下面大佬的教程试了大概7,8次终于成功了 😋
https://linux.do/t/topic/1406215/288
感谢喵喵佬帮忙注册的小号长期经营(谷歌注册喵)ヾ(≧▽≦*)o
也是搭上了末班车 之前一直用的cursor,windsurf和kiro
关于小号的加入 看了别的佬的帖子换成同一IP就行了 感谢 🫡
42 posts - 31 participants
Read full topic
via LINUX DO - 热门话题 (author: doro好忙)
Invalid media:
image
image
🥰看了下面大佬的教程试了大概7,8次终于成功了 😋
https://linux.do/t/topic/1406215/288
感谢喵喵佬帮忙注册的小号长期经营(谷歌注册喵)ヾ(≧▽≦*)o
也是搭上了末班车 之前一直用的cursor,windsurf和kiro
关于小号的加入 看了别的佬的帖子换成同一IP就行了 感谢 🫡
42 posts - 31 participants
Read full topic
via LINUX DO - 热门话题 (author: doro好忙)
Invalid media:
image
image
One MCP 发布新功能 - 用 Skill 替代 MCP,省下 80% 的 Context 开销
大家好!
如果你在使用 Claude Code、Cursor 时配置了多个 MCP服务,你一定能感受到上下文(Context)窗口的压力。
😱 痛点:被工具定义吃掉的 Context
Anthropic 官方曾在 Advanced Tool Use
技术博客中披露过工具定义的开销数据:
• GitHub: 35 个工具占用约 26,000 tokens
• Slack: 11 个工具占用约 21,000 tokens
这意味着,如果你同时开启这两个 MCP 服务,还没开始对话,近 50,000 tokens 就已经消失了。这不仅让 API成本激增,更会导致 AI 的推理能力因为背景噪声过多而下降,甚至出现指令遵循失败。
──────────────────────────────────────────
🚀 One MCP v1.0.1:两种方案帮你「减负」
One MCP 新版本增加了 服务组合 (Combo)功能
针对不同场景提供两种瘦身方案:
方案一:导出为 Anthropic Skill (推荐)
Anthropic 近期将 Skill 定为开放标准,旨在解决大规模工具定义的开销问题。我也在 OpenCode 和 Droid 上完成了实测,效果非常理想。
• 极低开销:AI 只读取一个精简的 SKILL.md(~500 tokens),替代数万 tokens 的 JSON 定义。
• 按需加载:工具详情只有在 AI 决定调用时才会被实时读取,完美适配 Anthropic 的官方实践。
• 零依赖:导出的 Python 执行器仅使用标准库,不需安装任何包,开箱即用。
• 广泛适配:完美支持 Claude Code / Droid / OpenCode 等支持 Skill 协议的客户端。
方案二:精简版组合 MCP (适用于传统客户端)
如果你的软件尚未支持 Skill 协议,你可以将 N 个服务组合成一个统一端点:
• 精简工具:Context 里只暴露
• 动态调用:无论后台有多少工具,AI 的初始上下文里永远只有这两个入口。
──────────────────────────────────────────
📊 性能实测
以我测试的一个包含 4 个服务(24 个工具)的组合为例:
• 原生 MCP 模式:占用约 12,000+ tokens。
• One MCP Skill 模式:仅占用约 800 tokens。
Context 节省率达 93%! 把宝贵的 Context 留给代码和真正的逻辑。
──────────────────────────────────────────
🛠️ 实战案例
● 1. 使用Skill(工具:OpenCode)
这个例子,我创建了一个cherry-studio工具的组合,包含exa,amap,whois等4个mcp,导出skill,再解压到
最终LLM按照skill.md的说明,使用python脚本调用了合适的mcp工具
● 1. 使用组合后的MCP(工具:Cherry Studio)
一开始只占用1000个token,然后查询时,这里会多调用一次查找合适的工具和参数
──────────────────────────────────────────
🛠️ 快速体验
1. Docker 一键启动:
1. 在后台安装所需的 MCP 服务,创建一个「服务组合」。
2. 导出 Skill:点击导出 zip 包,解压到对应的 Skill 目录即可使用。
──────────────────────────────────────────
也可以登录我的demo站点创建skill体验:
Demo: https://demo.one-mcp.com/
项目地址
GitHub: https://github.com/burugo/one-mcp
欢迎 Star ⭐️ 和试用,让我们一起终结 MCP 的 Context 焦虑!如果有使用上的问题,欢迎在评论区讨论。
27 posts - 21 participants
Read full topic
via LINUX DO - 热门话题 (author: buru)
Invalid media:
image
image
image
image
image
大家好!
如果你在使用 Claude Code、Cursor 时配置了多个 MCP服务,你一定能感受到上下文(Context)窗口的压力。
😱 痛点:被工具定义吃掉的 Context
Anthropic 官方曾在 Advanced Tool Use
技术博客中披露过工具定义的开销数据:
• GitHub: 35 个工具占用约 26,000 tokens
• Slack: 11 个工具占用约 21,000 tokens
这意味着,如果你同时开启这两个 MCP 服务,还没开始对话,近 50,000 tokens 就已经消失了。这不仅让 API成本激增,更会导致 AI 的推理能力因为背景噪声过多而下降,甚至出现指令遵循失败。
──────────────────────────────────────────
🚀 One MCP v1.0.1:两种方案帮你「减负」
One MCP 新版本增加了 服务组合 (Combo)功能
针对不同场景提供两种瘦身方案:
方案一:导出为 Anthropic Skill (推荐)
Anthropic 近期将 Skill 定为开放标准,旨在解决大规模工具定义的开销问题。我也在 OpenCode 和 Droid 上完成了实测,效果非常理想。
• 极低开销:AI 只读取一个精简的 SKILL.md(~500 tokens),替代数万 tokens 的 JSON 定义。
• 按需加载:工具详情只有在 AI 决定调用时才会被实时读取,完美适配 Anthropic 的官方实践。
• 零依赖:导出的 Python 执行器仅使用标准库,不需安装任何包,开箱即用。
• 广泛适配:完美支持 Claude Code / Droid / OpenCode 等支持 Skill 协议的客户端。
方案二:精简版组合 MCP (适用于传统客户端)
如果你的软件尚未支持 Skill 协议,你可以将 N 个服务组合成一个统一端点:
• 精简工具:Context 里只暴露
search_tools 和 execute_tool。• 动态调用:无论后台有多少工具,AI 的初始上下文里永远只有这两个入口。
──────────────────────────────────────────
📊 性能实测
以我测试的一个包含 4 个服务(24 个工具)的组合为例:
• 原生 MCP 模式:占用约 12,000+ tokens。
• One MCP Skill 模式:仅占用约 800 tokens。
Context 节省率达 93%! 把宝贵的 Context 留给代码和真正的逻辑。
──────────────────────────────────────────
🛠️ 实战案例
● 1. 使用Skill(工具:OpenCode)
这个例子,我创建了一个cherry-studio工具的组合,包含exa,amap,whois等4个mcp,导出skill,再解压到
opencode的skill目录最终LLM按照skill.md的说明,使用python脚本调用了合适的mcp工具
● 1. 使用组合后的MCP(工具:Cherry Studio)
一开始只占用1000个token,然后查询时,这里会多调用一次查找合适的工具和参数
──────────────────────────────────────────
🛠️ 快速体验
1. Docker 一键启动:
docker run --name one-mcp -d \
-p 3000:3000 \
-v $(pwd)/data:/data \
buru2020/one-mcp:latest
# Access the application
open http://localhost:3000
# Default username/password
root/123456
1. 在后台安装所需的 MCP 服务,创建一个「服务组合」。
2. 导出 Skill:点击导出 zip 包,解压到对应的 Skill 目录即可使用。
──────────────────────────────────────────
也可以登录我的demo站点创建skill体验:
Demo: https://demo.one-mcp.com/
项目地址
GitHub: https://github.com/burugo/one-mcp
欢迎 Star ⭐️ 和试用,让我们一起终结 MCP 的 Context 焦虑!如果有使用上的问题,欢迎在评论区讨论。
27 posts - 21 participants
Read full topic
via LINUX DO - 热门话题 (author: buru)
Invalid media:
image
image
image
image
image
Team 5个位置
抽奖主题: [5个 Team位置]
:three_o_clock: 活动时间:
开始时间:发布时间
截止时间:[2026 年 1 月 6 日 20 点]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
差点忘记开奖了
227 posts - 226 participants
Read full topic
via LINUX DO - 热门话题 (author: 苏万)
抽奖主题: [5个 Team位置]
:three_o_clock: 活动时间:
开始时间:发布时间
截止时间:[2026 年 1 月 6 日 20 点]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
差点忘记开奖了
================================================================================
LINUX DO 抽奖结果 - 0.1.1
================================================================================
帖子链接: https://linux.do/t/topic/1411661
帖子标题: Team 5个位置
帖子作者: JohnElex
发帖时间: 2026-01-06 14:52:18
--------------------------------------------------------------------------------
抽奖时间: 2026-01-06 20:50:49
参与楼层: 2 - 226 楼
有效楼层: 225 楼
中奖数量: 5 个
最终种子: fd5c848a9ea213d8802e26b093e9dfc7ac12cdd997bf99f1afda2e016071a607
--------------------------------------------------------------------------------
恭喜以下楼层中奖:
--------------------------------------------------------------------------------
[ 1 ] 101 楼,楼层链接: https://linux.do/t/topic/1411661/101
[ 2 ] 144 楼,楼层链接: https://linux.do/t/topic/1411661/144
[ 3 ] 104 楼,楼层链接: https://linux.do/t/topic/1411661/104
[ 4 ] 18 楼,楼层链接: https://linux.do/t/topic/1411661/18
[ 5 ] 65 楼,楼层链接: https://linux.do/t/topic/1411661/65
================================================================================
注: 楼层顺序即为抽奖顺序
================================================================================
227 posts - 226 participants
Read full topic
via LINUX DO - 热门话题 (author: 苏万)
爆破手何在?
pow.linux.do
PoW Shield
下午简单搓了个小玩意,有没有爆破手来帮我测一测,逆一逆?看能不能给移植到服务器上跑之类的 :tieba_025:
289 posts - 255 participants
Read full topic
via LINUX DO - 热门话题 (author: Neo)
pow.linux.do
PoW Shield
下午简单搓了个小玩意,有没有爆破手来帮我测一测,逆一逆?看能不能给移植到服务器上跑之类的 :tieba_025:
289 posts - 255 participants
Read full topic
via LINUX DO - 热门话题 (author: Neo)
闲聊一下,说说自己最近对codex skills manus等一系列2025年下半年已经发生2026年将要发生的推断
主要是涉及到目前AI代理中出现的一个新特性,名为skills,该特性翻译为“技能”,它是把一串规范和工具包装成可复用功能,让模型调用。但是就是基于这个特性,我突然发现这可能和今年下半年市场对agent产品热情熄灭、Manus被Meta收购(Manus自己也急着出售)有关。不知道我的推测是否合理,佬友可以听我讲述一番。
skills这项功能绝对是颠覆性的,在Claude推出它时大伙都低估了它的能力。第一是工具调用,Claude code等支持skills的AI代理本身就可以使用,Window、Linux终端持有的命令,执行的代码脚本例如.py、.sh脚本,而skills内部则是编写触发后内部的流程规划。而2025年下半年的模型基座能力提升,终于是触摸到长链路任务的复杂规划能力,skills本质就是规划任务能力的体现。skills中包含的各类情景,例如出现错误应该如何操作、获得响应应该如何返回、等待时长通过什么得知,这都是写在skills内部的。而且模型还会基于情景进行纠错,继续任务task的流程直至交付完善。
Manus急着卖大概率是发现市面上的模型基座已经快具备长链路任务规划能力和情景纠错能力了,他们的工具本质上是个多Agent交互系统,基于上下文工程+文件系统+沙箱组成了一整套自循环场景,而skills也是一种自循环场景,两者在功能性上实际上是相同的。甚至skills在交付能力上更大于Manus,因为内部不需要那么多Agent反复迭代,导致长链路任务的幻觉,所以Manus这类产品已经被技术迭代了。大厂都不复刻Manus大概也是清晰地知道这类产品只是玩具,市场并不需要那么不稳定的工具。
另外就是我自己的感知,2026年开始模型厂商都会开始卷长链路的自动化流程任务,完全自动循环实现的落地交付,这种情形是最接近我们未来设想的AGI的愿景。只要通过想要的落地交付物,AI就能通过链路规划的任务自动实现结果的交付,通过基座强大的纠错机制,人类就可以放弃理解黑盒中的实际业务,只要知道开头和结尾就行。所以说Manus急着卖自己,2025年的下半年Manus的技术就已经属于落后的了。在Codex中的GPT5.2基座就已经有长链路规划和自动纠错能力,他们测试后恐慌的急着找出路,通用agent的这条路,终究是被模型厂商轻松超越了。
目前最大的恐慌就是下半年语言没啥优势了,2026年我推测真正富有架构能力且有认知结果推断能力的工程师才能活下去,再比较语言能力的强弱估计都没啥意义了。属于程序员的失业潮应该快了。我不敢想,只要自己想要,通过skills、流程分析、自动规划,加分支纠错,场景测试,最终落地,就能实现一个商业化的产品。我调试代码写代码干嘛呢?跳过中间直接落地,就像炼金术一样。
因为我推测skills的能力后,突然发现AI离操作现实应用也不远了。AI通过curl就可以触发接口,而现代互联网都是各种REST风格的API接口,只要得知这些接口内容就可以组合成一套链路复杂的任务流,去实现以前想都不敢想的能力,例如航空分析、商业化的调研。抓取一些被设有爬虫保护的网站,就算不知道这些接口,也可以通过chrome devtools、MCP浏览器工具去获取,甚至写playwright抓取页面元素。还有像数据库操作、Docker操作、SSH远程的服务器操作,这些只要能获得细节内容再编制成skills,就能实现自动化分析,产生实际想要的页面结果、实际的产品。
我现在愈发觉得skills就是一个产品,只是他们包裹在现在的Claude code、Codex等各类AI代理中。不在意中间流程只想知道交付,把skills包装成一个绘图工具,内部编写使用OpenAI格式或者Google格式,去访问对应的能实现功能的小香蕉api端点,剩下等待就是出图,把他包裹在一个Web页面上,它就是一个出图网站。业务流程的具体实现需要用到哪些代码,无非是工具链路需要给它一些实际情景:等待响应、获取返回、得到结果如何包装,以及一些编辑好的工具,这不都是写在skills里的吗?与其说是技能包,不如说就是打包的一整套交付流程。
如此强大的功能,都得益于GPT5.2那夸张的执行能力。在Codex里面GPT5.2甚至能工作22个小时不被阻断,持续性到交付。例如n8n之流,我看在2026年上半年就会迎来死亡。
84 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: ShiroEirin)
Invalid media: image
主要是涉及到目前AI代理中出现的一个新特性,名为skills,该特性翻译为“技能”,它是把一串规范和工具包装成可复用功能,让模型调用。但是就是基于这个特性,我突然发现这可能和今年下半年市场对agent产品热情熄灭、Manus被Meta收购(Manus自己也急着出售)有关。不知道我的推测是否合理,佬友可以听我讲述一番。
skills这项功能绝对是颠覆性的,在Claude推出它时大伙都低估了它的能力。第一是工具调用,Claude code等支持skills的AI代理本身就可以使用,Window、Linux终端持有的命令,执行的代码脚本例如.py、.sh脚本,而skills内部则是编写触发后内部的流程规划。而2025年下半年的模型基座能力提升,终于是触摸到长链路任务的复杂规划能力,skills本质就是规划任务能力的体现。skills中包含的各类情景,例如出现错误应该如何操作、获得响应应该如何返回、等待时长通过什么得知,这都是写在skills内部的。而且模型还会基于情景进行纠错,继续任务task的流程直至交付完善。
Manus急着卖大概率是发现市面上的模型基座已经快具备长链路任务规划能力和情景纠错能力了,他们的工具本质上是个多Agent交互系统,基于上下文工程+文件系统+沙箱组成了一整套自循环场景,而skills也是一种自循环场景,两者在功能性上实际上是相同的。甚至skills在交付能力上更大于Manus,因为内部不需要那么多Agent反复迭代,导致长链路任务的幻觉,所以Manus这类产品已经被技术迭代了。大厂都不复刻Manus大概也是清晰地知道这类产品只是玩具,市场并不需要那么不稳定的工具。
另外就是我自己的感知,2026年开始模型厂商都会开始卷长链路的自动化流程任务,完全自动循环实现的落地交付,这种情形是最接近我们未来设想的AGI的愿景。只要通过想要的落地交付物,AI就能通过链路规划的任务自动实现结果的交付,通过基座强大的纠错机制,人类就可以放弃理解黑盒中的实际业务,只要知道开头和结尾就行。所以说Manus急着卖自己,2025年的下半年Manus的技术就已经属于落后的了。在Codex中的GPT5.2基座就已经有长链路规划和自动纠错能力,他们测试后恐慌的急着找出路,通用agent的这条路,终究是被模型厂商轻松超越了。
目前最大的恐慌就是下半年语言没啥优势了,2026年我推测真正富有架构能力且有认知结果推断能力的工程师才能活下去,再比较语言能力的强弱估计都没啥意义了。属于程序员的失业潮应该快了。我不敢想,只要自己想要,通过skills、流程分析、自动规划,加分支纠错,场景测试,最终落地,就能实现一个商业化的产品。我调试代码写代码干嘛呢?跳过中间直接落地,就像炼金术一样。
因为我推测skills的能力后,突然发现AI离操作现实应用也不远了。AI通过curl就可以触发接口,而现代互联网都是各种REST风格的API接口,只要得知这些接口内容就可以组合成一套链路复杂的任务流,去实现以前想都不敢想的能力,例如航空分析、商业化的调研。抓取一些被设有爬虫保护的网站,就算不知道这些接口,也可以通过chrome devtools、MCP浏览器工具去获取,甚至写playwright抓取页面元素。还有像数据库操作、Docker操作、SSH远程的服务器操作,这些只要能获得细节内容再编制成skills,就能实现自动化分析,产生实际想要的页面结果、实际的产品。
我现在愈发觉得skills就是一个产品,只是他们包裹在现在的Claude code、Codex等各类AI代理中。不在意中间流程只想知道交付,把skills包装成一个绘图工具,内部编写使用OpenAI格式或者Google格式,去访问对应的能实现功能的小香蕉api端点,剩下等待就是出图,把他包裹在一个Web页面上,它就是一个出图网站。业务流程的具体实现需要用到哪些代码,无非是工具链路需要给它一些实际情景:等待响应、获取返回、得到结果如何包装,以及一些编辑好的工具,这不都是写在skills里的吗?与其说是技能包,不如说就是打包的一整套交付流程。
如此强大的功能,都得益于GPT5.2那夸张的执行能力。在Codex里面GPT5.2甚至能工作22个小时不被阻断,持续性到交付。例如n8n之流,我看在2026年上半年就会迎来死亡。
84 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: ShiroEirin)
Invalid media: image
闲的没事给CodexCli的config.toml完整配置扒了下来
developers.openai.com
Basic Configuration
Learn the basics of configuring your local Codex client
developers.openai.com
Advanced Configuration
More advanced configuration options for Codex local clients
developers.openai.com
Configuration Reference
Complete reference for Codex config.toml keys
基础配置项
----------------------
认证与登录
----------------------
Feature Flags (
----------------------
沙箱配置 (
----------------------
Shell 环境策略 (
----------------------
MCP 服务器配置 (
----------------------
自定义模型提供商 (
----------------------
可观测性 (
----------------------
历史记录 (
----------------------
TUI 配置 (
----------------------
项目相关
----------------------
Profiles 配置档案
使用方式:
----------------------
其他配置
32 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: 钟阮)
Invalid media:
image
image
看升级后有个环境报错,一怒之下,翻了下文档查阅文档:
developers.openai.com
Basic Configuration
Learn the basics of configuring your local Codex client
developers.openai.com
Advanced Configuration
More advanced configuration options for Codex local clients
developers.openai.com
Configuration Reference
Complete reference for Codex config.toml keys
基础配置项
----------------------
认证与登录
----------------------
Feature Flags (
[features])----------------------
沙箱配置 (
[sandbox_workspace_write])----------------------
Shell 环境策略 (
[shell_environment_policy])----------------------
MCP 服务器配置 (
[mcp_servers.<id>])----------------------
自定义模型提供商 (
[model_providers.<id>])----------------------
可观测性 (
[otel])----------------------
历史记录 (
[history])----------------------
TUI 配置 (
[tui])----------------------
项目相关
----------------------
Profiles 配置档案
# 顶层默认配置
model = "gpt-5-codex"
approval_policy = "on-request"
[profiles.deep-review]
model = "gpt-5-pro"
model_reasoning_effort = "high"
approval_policy = "never"
[profiles.lightweight]
model = "gpt-4.1"
approval_policy = "untrusted"
使用方式:
codex --profile deep-review----------------------
其他配置
32 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: 钟阮)
Invalid media:
image
image
有朋友找到我说她手机被老公安装了病毒软件,可以试试监控她的屏幕和定位,并且她找不到,而且没法卸载,手机店也找不到。
放在当前 2026 年,我实在是想象不到这是什么软件,是如何做到的,现在手机还没给到我,想问下各位佬,真有可能吗?有什么可以快速排查的工具吗?
我个人的想法就是adb 拉软件列表和抓请求包。
补充一下,我跟她没有任何关系,是她找她朋友(我的朋友),过来拜托我看看她手机。我是程序员。
她有这个怀疑,是因为她去抓奸的过程被她老公全程发现了。
165 posts - 108 participants
Read full topic
via LINUX DO - 热门话题 (author: 林森)
放在当前 2026 年,我实在是想象不到这是什么软件,是如何做到的,现在手机还没给到我,想问下各位佬,真有可能吗?有什么可以快速排查的工具吗?
我个人的想法就是adb 拉软件列表和抓请求包。
补充一下,我跟她没有任何关系,是她找她朋友(我的朋友),过来拜托我看看她手机。我是程序员。
她有这个怀疑,是因为她去抓奸的过程被她老公全程发现了。
165 posts - 108 participants
Read full topic
via LINUX DO - 热门话题 (author: 林森)
【抽奖】ChatGPT Team 车位 * 4
● ChatGPT Team 车位 * 4 (无质保,不过之前开的都还挺稳)
:three_o_clock: 活动时间:
● 开始时间:发帖时间
● 截止时间:Wed, Jan 7, 2026 9:00 PM CST
📝 参与方式:
● 每位用户仅允许参与一次,中奖者将邮箱私信给楼主即可。
● 使用 LINUX DO 抽奖程序随机抽取中奖者。
⚠️ 注意事项:
● 本活动将在活动截止时间后关闭回帖,以确保公正性。
● 中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
● 所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人
157 posts - 157 participants
Read full topic
via LINUX DO - 热门话题 (author: 𝒳)
[!tip] 唉,据说部分佬友一夜暴富了,可惜不是我~ 只能抽个奖赚点 LDC 了 :tieba_009:🏆️ 奖品详情:
● ChatGPT Team 车位 * 4 (无质保,不过之前开的都还挺稳)
:three_o_clock: 活动时间:
● 开始时间:发帖时间
● 截止时间:Wed, Jan 7, 2026 9:00 PM CST
📝 参与方式:
[!success] 在本帖下回复任意内容,希望你能给我点个赞~救救穷孩子吧:tieba_095:🔍️ 抽奖规则:
● 每位用户仅允许参与一次,中奖者将邮箱私信给楼主即可。
● 使用 LINUX DO 抽奖程序随机抽取中奖者。
⚠️ 注意事项:
● 本活动将在活动截止时间后关闭回帖,以确保公正性。
● 中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
● 所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人
157 posts - 157 participants
Read full topic
via LINUX DO - 热门话题 (author: 𝒳)
抽15个Gemini enterprise
抽奖主题: Gemini enterprise *15
🏆️ 奖品详情:
Gemini enterprise *15
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 2:00 PM CST
📝 参与方式:
在本帖下回复任意内容,要是能 👍️ 更好了
🔍️ 抽奖规则:
使用官方抽奖工具
随机抽取中奖者。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
195 posts - 195 participants
Read full topic
via LINUX DO - 热门话题 (author: aizith)
抽奖主题: Gemini enterprise *15
🏆️ 奖品详情:
Gemini enterprise *15
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 2:00 PM CST
📝 参与方式:
在本帖下回复任意内容,要是能 👍️ 更好了
🔍️ 抽奖规则:
使用官方抽奖工具
随机抽取中奖者。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
195 posts - 195 participants
Read full topic
via LINUX DO - 热门话题 (author: aizith)
今天去线下面试,面试官是 L 佬
如题,你说过不过是不是在这里喊一下我可以用 credit 积分买职位吗?
统一回复怎么发现的:
因为我有 ai 开源项目聊到了,问的混哪个社区,我说 L 站
90 posts - 67 participants
Read full topic
via LINUX DO - 热门话题 (author: beingS)
如题,你说过不过是不是在这里喊一下我可以用 credit 积分买职位吗?
统一回复怎么发现的:
因为我有 ai 开源项目聊到了,问的混哪个社区,我说 L 站
90 posts - 67 participants
Read full topic
via LINUX DO - 热门话题 (author: beingS)
没啥抽的,之前也搞过公益站,抽两个人用我现在自用的api
之前公益站因为各种原因不搞了,
但是自己还在用自己的2api渠道
不支持 function call
模型还是挺全的。
自己用每个月额度都用不完,抽两个佬友用,用沉浸式翻译估计够呛能支持。
正常问答肯定是没问题。
可用模型市面上的基本都有
1月7号 18:00开奖
奖品
自用2api站点 API*2 理论上能用到我不用。
我啥时候不用你啥时候也就用不了了。
40个模型总共
266 posts - 266 participants
Read full topic
via LINUX DO - 热门话题 (author: 猫的于)
Invalid media: image
之前公益站因为各种原因不搞了,
但是自己还在用自己的2api渠道
不支持 function call
模型还是挺全的。
自己用每个月额度都用不完,抽两个佬友用,用沉浸式翻译估计够呛能支持。
正常问答肯定是没问题。
可用模型市面上的基本都有
1月7号 18:00开奖
奖品
自用2api站点 API*2 理论上能用到我不用。
我啥时候不用你啥时候也就用不了了。
40个模型总共
266 posts - 266 participants
Read full topic
via LINUX DO - 热门话题 (author: 猫的于)
Invalid media: image
签到站升星站二合一
签到站和升星系统合并在一起了,然后签到也不会发放兑换码了,而是直接的打进你的账户里面增加余额。就不用拿着兑换码再去对换了()
然后,概率调了一下(应该是一下吧),之前说的没错,太容易1w次了嘿嘿,甚至还有人发帖说连续几天抽到1w的!!!所以就微微的降低了:one_o_clock:
157 posts - 149 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
Invalid media:
image
image
image
签到站和升星系统合并在一起了,然后签到也不会发放兑换码了,而是直接的打进你的账户里面增加余额。就不用拿着兑换码再去对换了()
然后,概率调了一下(应该是一下吧),之前说的没错,太容易1w次了嘿嘿,甚至还有人发帖说连续几天抽到1w的!!!所以就微微的降低了:one_o_clock:
157 posts - 149 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
Invalid media:
image
image
image
「免费」nvidia下模型免费使用
nivida模型免费用
在手机cherrystudio响应速度挺快的
官网
build.nvidia.com
Try NVIDIA NIM APIs
Experience the leading models to build enterprise generative AI apps now.
api请求地址
https://integrate.api.nvidia.com/v1/chat/completions
82 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Haggi)
Invalid media:
image
image
nivida模型免费用
在手机cherrystudio响应速度挺快的
官网
build.nvidia.com
Try NVIDIA NIM APIs
Experience the leading models to build enterprise generative AI apps now.
api请求地址
https://integrate.api.nvidia.com/v1/chat/completions
82 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Haggi)
Invalid media:
image
image
火绒强力卸载要来啦,拳打GeekUninstaller,脚踢TotalUninstall :tieba_016:
下午刚看到消息,火绒强力卸载准备在2天后开始做beta版的测试了,看是可以卸载除了WinAPP外的软件,而且还是独立安装,大家感兴趣的蹲一蹲
bbs.huorong.cn
火绒强力卸载 - 火绒安全软件
火绒强力卸载 ,火绒安全软件
但现在看论坛还是一片空白
:tieba_016:
72 posts - 68 participants
Read full topic
via LINUX DO - 热门话题 (author: (๑;ᴗ ;)ﻭ)
Invalid media:
image
image
下午刚看到消息,火绒强力卸载准备在2天后开始做beta版的测试了,看是可以卸载除了WinAPP外的软件,而且还是独立安装,大家感兴趣的蹲一蹲
1月8号的他们家论坛bbs.huorong.cn
火绒强力卸载 - 火绒安全软件
火绒强力卸载 ,火绒安全软件
但现在看论坛还是一片空白
:tieba_016:
72 posts - 68 participants
Read full topic
via LINUX DO - 热门话题 (author: (๑;ᴗ ;)ﻭ)
Invalid media:
image
image
搞了个新的神经网络架构 Fielix,比 Transformer 学得快,分享一下
闲着没事搞了个神经网络架构,开源出来水一下
GitHub: GitHub - 1600822305/Fielix: A novel neural network architecture featuring Field Effect Propagation, Dynamic Topology, Spiral Memory, and Emergent Position Encoding. Achieves better learning efficiency than Transformer.
简单说就是用"场效应"替代注意力机制,实验下来学习效率比 Transformer 高不少:
实验结果 (27M 参数)
● 初始 Loss:Fielix 3.0 vs Transformer 7.9
● 最终 Loss:Fielix 1.66 vs Transformer 2.59
● 训练速度:慢 2x
缺点是训练慢 2 倍 😂
没精力继续优化了,感兴趣的大佬随便玩
52 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Fake)
闲着没事搞了个神经网络架构,开源出来水一下
GitHub: GitHub - 1600822305/Fielix: A novel neural network architecture featuring Field Effect Propagation, Dynamic Topology, Spiral Memory, and Emergent Position Encoding. Achieves better learning efficiency than Transformer.
简单说就是用"场效应"替代注意力机制,实验下来学习效率比 Transformer 高不少:
实验结果 (27M 参数)
● 初始 Loss:Fielix 3.0 vs Transformer 7.9
● 最终 Loss:Fielix 1.66 vs Transformer 2.59
● 训练速度:慢 2x
缺点是训练慢 2 倍 😂
没精力继续优化了,感兴趣的大佬随便玩
52 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Fake)
以为买的人少就没有人发现?L站富可敌国商家x-aio模型一天改三次模型倍率,用国产模型以次充好,暗改prompt计费规则
现在纯粹剩下看乐子的心态了,哈。
而且突然发现好像改了计费规则是不是,还是我记错了,以前好像是1额度等于10次api调用,啥时候编程阶梯段计费了,佬们随便看看就好
282 posts - 138 participants
Read full topic
via LINUX DO - 热门话题 (author: 0.6)
Invalid media:
image
image
image
image
现在纯粹剩下看乐子的心态了,哈。
而且突然发现好像改了计费规则是不是,还是我记错了,以前好像是1额度等于10次api调用,啥时候编程阶梯段计费了,佬们随便看看就好
282 posts - 138 participants
Read full topic
via LINUX DO - 热门话题 (author: 0.6)
Invalid media:
image
image
image
image
【太子公益】芝麻开门:500
从
【太子公益】更新啦,接入 new-api,支持 CC,
【太子公益】接入 NewAPI-Tool,小黑耗子要注意喔
讨论
昨天接入new-api,昨天是临时提前开放通知,好多佬友没赶上,今天接入new-api tools,趁着新鲜开放第2批。,这次提前通知了喔,接下来就是维护渠道以及模型了。
人员:500
开放时间:2026-01-08 22:00:00
taizi.api.51yp.de5.net
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
这应该是本月最后一次开放了,
排除重大更新都会开放,比如接入LDC
祝佬友们开门!!!
60 posts - 52 participants
Read full topic
via LINUX DO - 热门话题 (author: 太子哥)
Invalid media: image
从
【太子公益】更新啦,接入 new-api,支持 CC,
【太子公益】接入 NewAPI-Tool,小黑耗子要注意喔
讨论
昨天接入new-api,昨天是临时提前开放通知,好多佬友没赶上,今天接入new-api tools,趁着新鲜开放第2批。,这次提前通知了喔,接下来就是维护渠道以及模型了。
人员:500
开放时间:2026-01-08 22:00:00
taizi.api.51yp.de5.net
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
这应该是本月最后一次开放了,
排除重大更新都会开放,比如接入LDC
祝佬友们开门!!!
60 posts - 52 participants
Read full topic
via LINUX DO - 热门话题 (author: 太子哥)
Invalid media: image
小红书小绿书神器来了!【开源自荐】
平时喜欢自己画一些信息图,感觉很好看,所以搓了个项目专门用来使用大香蕉生成信息图。我和cc联合,天下无敌! :lark_085:
内置12个模板。
网站内可以配置api直接用,也可以复制prompt,粘贴到gemini或者flow之类的生成。
佬友们有新的模板也欢迎贡献!
在线地址:https://nano-info.aizhi.site/
github地址: liujuntao123/Nano-Info
30 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: liu juntao)
Invalid media: image
平时喜欢自己画一些信息图,感觉很好看,所以搓了个项目专门用来使用大香蕉生成信息图。我和cc联合,天下无敌! :lark_085:
内置12个模板。
网站内可以配置api直接用,也可以复制prompt,粘贴到gemini或者flow之类的生成。
佬友们有新的模板也欢迎贡献!
在线地址:https://nano-info.aizhi.site/
github地址: liujuntao123/Nano-Info
30 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: liu juntao)
Invalid media: image
Vibe Coding 可能正在掏空你的大脑。
说这话的是个叫Stephan Schmidt的老程序员,他写代码写了40年,什么技术浪潮都见过。
他最近分享了自己用AI编程的感受:这种累不是加班的那种腰酸背痛,是一种大脑被掏空的虚脱感。
我第一次看到这句话的时候,觉得说得太准了。
很多人可能疑惑,工具不是应该让人更轻松吗?怎么反而更累了?
带着这个疑问,我去查了不少资料,也跟几位深度使用AI编程的朋友聊了聊。
聊完之后,我好像想明白了一些事情。
Vibe Coding这个概念最早是AI大牛Andrej Karpathy提出来的。
简单说就是:写代码不用再一行一行敲了,你只需要告诉AI你想要什么,它就能哗啦啦给你生成几百行代码。
以前写代码有个节奏,你写一段,编译一下,等个几十秒,然后看看结果,再想想怎么改。
这个过程虽然慢,但给了大脑处理信息的时间。
那些等待的时间不是浪费,而是大脑在悄悄建立对代码的理解。
但AI把这个等待时间给取消了。
现在的节奏变成了:输入需求、生成代码、发现报错、点击修复、再次生成。
整个循环快得惊人,快到大脑根本来不及消化。
Schmidt打了个比方,我觉得特别形象。
他说这就像从扛着锄头种地,一夜之间换成了开时速200公里的联合收割机。
机器不等你,你得跟上它的节奏。
Schmidt还讲了个他年轻时的故事。
那时候他在一家塑料厂打工,负责操作一台机器。
机器每隔几十秒就会叮一声,提醒他去取下零件、换上新外壳。
刚开始他压力特别大,因为他必须按照机器的节奏来,而不是机器按照他的节奏来。
他说现在的AI编程就是那台塑料机。
AI不会累,它可以无限地输出。
你给它一个模糊的反馈,它马上吐出新方案。
你还没看完呢,它又准备好下一个了。
为了不让这台永不停歇的机器闲着,人类只能不断加快自己的反馈速度。
你看出问题了吗?
我们本来是想用工具来服务自己,结果变成了我们在服务工具。
人的脑力是有上限的。
传统编程的时候,你虽然在干活,但你的角色是生产者,代码是从你脑子里流出来的,你清楚每一行是什么意思。
但用AI编程的时候,你的角色变了,你变成了审查者。
第一,你要处理高频的上下文切换。
AI可能一次性改动五六个文件,你得在几秒钟内理解这些文件之间的关系,判断这个方案行不行。
这种跳跃式的思考,消耗的脑力是惊人的。
第二,你要做大量的双向对齐。
传统编程,代码是你脑中想法的实现。但AI生成的代码,是它自己推演出来的。这个推演过程不一定和你想的一样。
于是你得不停地猜:AI是怎么理解我的需求的?它为什么这么写?这个实现方式和我预期的差多少?
这种猜测本身就很耗能。
第三,你要保持持续的警觉。
AI生成的代码里可能藏着bug。
你不知道在哪儿,但你知道肯定有,所以你得一直绷着神经。
这三种压力叠加在一起,就形成了一种隐性疲劳。
你并没有真的在敲键盘,但大脑已经在高速运转了。
当我们的思考速度跟不上生产速度的时候,该怎么办?
这个问题其实不只存在于编程领域。
工具在加速,但人脑的处理能力并没有跟着升级。
这就形成了一个gap。
我觉得这是我们这代人需要认真面对的一个课题。
Schmidt给了几个建议:
第一步,有意识地控制节奏。
不要被AI的生成速度带跑,它输出再快,也不意味着你要立刻响应。
如果你看不明白AI给的东西,那就停下来。慢慢看,想清楚再继续。
第二步,每天做一次手动回顾。
花点时间把AI今天生成的代码过一遍,在脑子里重新建立一个完整的模型。
这个步骤很多人会觉得浪费时间,AI都写好了,我为什么还要再看?
但这恰恰是保持认知清晰的关键。
你可以把这个过程理解成和AI做一次同步。你得知道它干了什么,才能在下一次给出更精准的指令。
第三步,方案先行。
不要每次AI吐出代码都去精挑细选。
更聪明的做法是:在动手之前,先把大方向定好。告诉AI你的整体架构是什么,用什么技术栈,有什么约束条件。
前期的引导做得越充分,后期的返工就越少。
这其实是一种思维方式的转变,从被动接受变成主动引导。
AI编程确实是好东西,它能帮我们做很多以前做不了的事情。
但它也带来了新的挑战:我们得学会在高速运转的工具面前,保持自己的节奏感。
人需要时间思考,需要空间消化,需要偶尔停下来喘口气。
把思考的间隙,从机器手里抢回来,是我们这一代人要学会的最重要的能力之一。
感觉很有共鸣,和大家分享
passport.weibo.com
Sina Visitor System
54 posts - 46 participants
Read full topic
via LINUX DO - 热门话题 (author: z1056544889)
说这话的是个叫Stephan Schmidt的老程序员,他写代码写了40年,什么技术浪潮都见过。
他最近分享了自己用AI编程的感受:这种累不是加班的那种腰酸背痛,是一种大脑被掏空的虚脱感。
我第一次看到这句话的时候,觉得说得太准了。
很多人可能疑惑,工具不是应该让人更轻松吗?怎么反而更累了?
带着这个疑问,我去查了不少资料,也跟几位深度使用AI编程的朋友聊了聊。
聊完之后,我好像想明白了一些事情。
Vibe Coding这个概念最早是AI大牛Andrej Karpathy提出来的。
简单说就是:写代码不用再一行一行敲了,你只需要告诉AI你想要什么,它就能哗啦啦给你生成几百行代码。
以前写代码有个节奏,你写一段,编译一下,等个几十秒,然后看看结果,再想想怎么改。
这个过程虽然慢,但给了大脑处理信息的时间。
那些等待的时间不是浪费,而是大脑在悄悄建立对代码的理解。
但AI把这个等待时间给取消了。
现在的节奏变成了:输入需求、生成代码、发现报错、点击修复、再次生成。
整个循环快得惊人,快到大脑根本来不及消化。
Schmidt打了个比方,我觉得特别形象。
他说这就像从扛着锄头种地,一夜之间换成了开时速200公里的联合收割机。
机器不等你,你得跟上它的节奏。
Schmidt还讲了个他年轻时的故事。
那时候他在一家塑料厂打工,负责操作一台机器。
机器每隔几十秒就会叮一声,提醒他去取下零件、换上新外壳。
刚开始他压力特别大,因为他必须按照机器的节奏来,而不是机器按照他的节奏来。
他说现在的AI编程就是那台塑料机。
AI不会累,它可以无限地输出。
你给它一个模糊的反馈,它马上吐出新方案。
你还没看完呢,它又准备好下一个了。
为了不让这台永不停歇的机器闲着,人类只能不断加快自己的反馈速度。
你看出问题了吗?
我们本来是想用工具来服务自己,结果变成了我们在服务工具。
人的脑力是有上限的。
传统编程的时候,你虽然在干活,但你的角色是生产者,代码是从你脑子里流出来的,你清楚每一行是什么意思。
但用AI编程的时候,你的角色变了,你变成了审查者。
第一,你要处理高频的上下文切换。
AI可能一次性改动五六个文件,你得在几秒钟内理解这些文件之间的关系,判断这个方案行不行。
这种跳跃式的思考,消耗的脑力是惊人的。
第二,你要做大量的双向对齐。
传统编程,代码是你脑中想法的实现。但AI生成的代码,是它自己推演出来的。这个推演过程不一定和你想的一样。
于是你得不停地猜:AI是怎么理解我的需求的?它为什么这么写?这个实现方式和我预期的差多少?
这种猜测本身就很耗能。
第三,你要保持持续的警觉。
AI生成的代码里可能藏着bug。
你不知道在哪儿,但你知道肯定有,所以你得一直绷着神经。
这三种压力叠加在一起,就形成了一种隐性疲劳。
你并没有真的在敲键盘,但大脑已经在高速运转了。
当我们的思考速度跟不上生产速度的时候,该怎么办?
这个问题其实不只存在于编程领域。
工具在加速,但人脑的处理能力并没有跟着升级。
这就形成了一个gap。
我觉得这是我们这代人需要认真面对的一个课题。
Schmidt给了几个建议:
第一步,有意识地控制节奏。
不要被AI的生成速度带跑,它输出再快,也不意味着你要立刻响应。
如果你看不明白AI给的东西,那就停下来。慢慢看,想清楚再继续。
第二步,每天做一次手动回顾。
花点时间把AI今天生成的代码过一遍,在脑子里重新建立一个完整的模型。
这个步骤很多人会觉得浪费时间,AI都写好了,我为什么还要再看?
但这恰恰是保持认知清晰的关键。
你可以把这个过程理解成和AI做一次同步。你得知道它干了什么,才能在下一次给出更精准的指令。
第三步,方案先行。
不要每次AI吐出代码都去精挑细选。
更聪明的做法是:在动手之前,先把大方向定好。告诉AI你的整体架构是什么,用什么技术栈,有什么约束条件。
前期的引导做得越充分,后期的返工就越少。
这其实是一种思维方式的转变,从被动接受变成主动引导。
AI编程确实是好东西,它能帮我们做很多以前做不了的事情。
但它也带来了新的挑战:我们得学会在高速运转的工具面前,保持自己的节奏感。
人需要时间思考,需要空间消化,需要偶尔停下来喘口气。
把思考的间隙,从机器手里抢回来,是我们这一代人要学会的最重要的能力之一。
感觉很有共鸣,和大家分享
passport.weibo.com
Sina Visitor System
54 posts - 46 participants
Read full topic
via LINUX DO - 热门话题 (author: z1056544889)