Linux.do 热门话题 – Telegram
Linux.do 热门话题
2.96K subscribers
25.7K photos
35 videos
13 files
41.9K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
【开源】这款免费不限量的 Z-Image 网站,支持 A4F 免费模型,同时增加了 99% 没听说过的 OPFS 支持,允许用户在浏览器中长期保存大量文件(无服务器使用画廊功能)。

这几天我对派奇智图的底层代码进行了一次脱胎换骨式的重构,让项目结构更加清晰,耦合性更低。
github.com

GitHub - Amery2010/peinture: A general-purpose AI image generation framework...

A general-purpose AI image generation framework that supports Hugging Face, Gitee, Model Scope, and more.

我在项目底层增加了对 OPFS(Origin private file system)的支持,简单来说 OPFS 是浏览器提供的私有的高性能本地存储空间。图片生成后会默认下载并保存到临时的 OPFS 存储空间,这样在本地查看或操作图片时就无需再从网络上下载文件,也无需担心文件短时间内过期的问题。通过 OPFS,我实现了在无服务器(浏览器本地)直接使用画廊功能。 这样很多没有 S3 服务或者 WebDAV 的朋友也可以使用画廊功能,保存自己喜欢的图片了 😍

增加了对 A4F 免费模型的支持。免费用户一天可以使用 300 次创作,允许使用的模型包括 Z-Image Turbo、Google Imagine 4 和 Google Imagine 3.5。不过目前测试下来,A4F 的免费服务稳定性不高,经常会出现生成失败的情况,不确定是我网络问题还是这个网站服务的问题。另外他们对图片尺寸的支持性很低,很多图片生成的尺寸都不遵循参数 😂

我对 Hugging Face 的请求进行了重构,使用了通用的 Queue API,这个 API 可以更清楚的返回错误信息,稳定性也更高。

您可以通过我的 Demo 网站:Peinture 快速体验此项目。

另外此项目也有服务器版本,支持自部署,方便您与您的朋友共享您的图片生成服务。

如果您喜欢此项目,不妨 star 此项目 😁

24 posts - 21 participants

Read full topic

via LINUX DO - 热门话题 (author: 子言)

Invalid media:
image
image
[抽奖] 闲置racknerd美国 服务器, 一直没用, 抽了吧

有一台 racknerd 美国服务器闲置几个月了, 一直没用, 抽了吧

🏆️ 奖品详情:
给SSH,racknerd号我还用


:three_o_clock: 活动时间:

开始时间:Now
截止时间:Thu, Jan 22, 2026 11:00 PM CST
改一下时间, 下班之前发了~
截止时间:Thu, Jan 22, 2026 5:00 PM CST

📝 参与方式:

本贴任意回复即可(当然点点赞就更好了,感谢:tieba_002: )

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 Linux 抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

170 posts - 168 participants

Read full topic

via LINUX DO - 热门话题 (author: 布布布布布)

Invalid media:
image
image
庆祝L站两周年!Linuxdo定制钥匙扣20个【第一期】

不负期待~感谢佬友们的热情参与!每一条留言里的宝藏推荐老倔驴都认真看过啦~

大家呼声最高的就是纪念周边、E卡和键盘!为了更贴合L站专属福利主题,本次抽奖最终锁定周边主题!老规矩,回帖抽奖 ,周年限定款钥匙扣20个!

----------------------

奖品由老倔驴开户赞助,老倔驴开户选择多还靠谱,聚合几十家券商优惠,连接上百家营业部,已帮助 2000 人+,无一差评。

🎁换费率更低的点这里: https://jue.lv/kh/LD/202601c (10+券商可选,开户有礼!)

友情提示:不因奖品而涉足股市,得不偿失!

702 posts - 702 participants

Read full topic

via LINUX DO - 热门话题 (author: 老倔驴)

Invalid media: image
GLM 4.7 已经疯了,开始自己骂自己了

任务完不成开始自己骂自己了。。。 注意里面骂他的不是我骂的 ,是他自己骂自己

36 posts - 35 participants

Read full topic

via LINUX DO - 热门话题 (author: 骑狗上学)

Invalid media: image
又出现程序员猝死,你怎么看(在V站看到的热论)

32岁程序员周末晕倒后猝死,抢救期间曾被拉入工作群,工伤申请已被受理
高广辉,32岁,猝死。他是程序员,这在抢救记录中成为了“既往史”。
120院前医疗急救病历中,既往史提及“程序员经常熬夜”。在转院至广东省第二中医院后,既往史标注“患者家属诉患者为程序员,平时工作强度大压力大”。
在家人的描述中,他是河南人,跟随父母来到了广东,童年时曾捡垃圾换取零用钱,大学就读于软件学院,多次兼职缓解拮据,与同校的爱人结婚,至今未育,曾写日记“命运和挫折让我慢慢成长”。
在公司里,他被晋升为部门经理,猝死前一周的工作日,他最早到家时间为21:38,最晚为22:47。猝死当天是周六,部门有4项工作任务到了截止日,他打开过公司OA系统。抢救期间,他被拉入了一个工作群内。死亡后,有不知情的同事发来消息,拜托他“要把这个改下”。
上为自媒体百家号的刊录
感觉现在程序员都快成为耗材了,没一点人性
PS:借用某位老哥的话:
建议那家公司倒闭,所有不尊重劳动法的公司都倒闭,干不下去就别干,别说什么强制双休公司就得倒闭。大不了大家一起送外卖。
信息转载自转载说明

67 posts - 55 participants

Read full topic

via LINUX DO - 热门话题 (author: 倾风)

Invalid media: image
各位佬注意,千万不要用 geminidesk这个软件了,开发者投毒

geminidesk 一个类似桌面版本的gemini,可以快捷键呼出主界面使用的软件,之前在论坛里还被推荐过的,被发现收集用户密码、登录令牌等隐私信息,reddit上已经有不少人被偷密码了,大家下载的了赶紧卸载,目前github仓库已经被封了:GitHub · Where software is built

但是这个人好像又开了另外一个仓库。下面是reddit的讨论:https://www.reddit.com/r/GeminiAI/comments/1ovwimh/warning_geminidesk ,各位佬友千万要注意。

36 posts - 36 participants

Read full topic

via LINUX DO - 热门话题 (author: zihh)
早上上班惊魂,被电动车撞倒了,那哥们还跑了

早上我骑电车在直线正常行驶去地铁站,然后我右侧方有个人从我右侧过去,然后给我挂倒了。他还唉一声,结果您猜怎么着,跑路了。
一溜烟跑了,我在后边大声喊装听不见。顿时我的九牛二虎之力来了,立马从地上爬起来。
立马骑电车追他(追他之前努力看清楚他电动车牌号,以及人物特征)
然后路过一个路口,右侧方观察没有此人物特征,于是继续直行追他,在追了大概1公里发现可疑目标,立马截停他【电车改过限速,可以60公里时速】。
问他是不是你撞的我,一开始不承认,我说我如果找帽子叔叔。你就肇事逃逸。
然后装可能是,开始装傻。他还带着个孩子。
我电车侧面剐蹭了。后视镜碎了。脚趾头被电车砸了一下。
我说先跟我去九号店给我把电车修了。
然后再跟我去医院把脚趾头看了。
他说孩子看牙着急,我说你在着急,你可以内侧超车吗?
一番沟通下来,拿到了合理的赔偿。
于是我现在在写这个帖子。
遇到这种情况,先跟对方说,找帽子解决。

43 posts - 34 participants

Read full topic

via LINUX DO - 热门话题 (author: 我就哈哈大笑)
从0开始的Opencode.json高级参数配置教程【含配置Provider/中转站/思考预算等】

0.前言

Open code的配置一直是比较繁琐的,虽然开箱即用,但如果想配置转发站就有点头疼了。在网上找了很多教程,但大都简略,很多第三方转发站的文档写的也不明白(点名spoiler)。

有很多佬友开发了可视化/后端插件,如AI-toolboxOCCMCLIProxyAPI。这些都很好用!感谢佬友们!你们的贡献让社区变得如此美好,也深深激励了我 🥹

在使用了一段时间后,我发现掌握一些模型config配置原理是有必要的.插件只能帮忙切换provider,每个模型的进阶参数如思考预算,仍然要自己配置.懂得如何修改配置文件也能让我们把这些插件用的更好.

所以写一篇教程,从0开始配置opencode.json.希望能帮到各位尝试opencode(并想在opencode中配置使用自定义转发站)的佬友,同时也记录自己学习各类官方文档的过程 🥰
comment 1: 通过本教程你可以收获: (click for more details) comment 2: 本教程重点在于详细和实操,不是一个面面俱到的教程. (click for more details)
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!


1.初始化
action 1:如果你已经有opencode.json就可以跳过 (click for more details)

2.Provider配置

2.1 官方Provider配置
如果你使用的是Opencode官方支持的Provider,例如Opencode Zen,GLM Coding Plan,那么基本上只需要在安装好的opencode TUI中输入/connect并回车即可。
如果你想在这篇文档中找到含截图配置教学,请展开以下三角形
action 2:连接Github Copilot作为Provider (click for more details) reference 1:相关文档 (click for more details)

2.2 自定义API Key/转发站Provider配置
站内轮子:OpenCode 自定义服务商(中转站)接入指南
如果你想在这篇文档中找到含截图配置教学,请展开以下三角形
action 3:通过可视化方式连接Right Code(转发站)作为Provider(推荐) (click for more details) action 4:通过/connect方式连接Right Code(转发站)作为Provider (click for more details) action 5:通过auth login方式连接Right Code(转发站)作为Provider (click for more details) document-reading 1:通过阅读Opencode和转发站官方文档配置Provider (click for more details) recommend 1:Provider可视化配置,一键切换和分流 (click for more details) reference 2:相关文档 (click for more details) comment 3:碎碎念 (click for more details)

3.Models配置

3.1 Options配置

配好了转发站,但是模型用起来不好用,可能是因为没有配置OptionsOptions是厂商自定义的参数列表,例如Codex的思考预算,佬友们常说的Xhigh / high都在options设置。

3.1.1 Options作用

(以Right Code转发站的Codex端点为例展示)
example 1:使用Right Code转发站转发/codex端点,默认配置 (click for more details)
可以看到,虽然能返回,但codex-max在每次调用后马上就返回了,也没有展示思考,使用体验很不好。难道codex-max这么蠢吗?或者是被降智了?
example 2:使用Right Code转发站转发/codex端点,增加Options配置 (click for more details)
但是如example 2所示,同样的模型和转发站,没有一步一停,也展示了思考内容,花费2分钟。
example 3:config片段对比 (click for more details)
可以看出,问题的关键在于我在options中配置了三个选项reasoningEffort:high,textVerbosity:medium和reasoningSummary:auto 🥹
additional 1:参数作用说明 (click for more details)

3.1.2 Options配置
document-reading 2:通过阅读OpenCode官方文档配置codex模型和claude模型options (click for more details) notification 1:Options跟随Models变化,而不是Provider或中转站 (click for more details) document-reading 3:通过阅读OPENAI官方文档进一步配置codex模型options (click for more details) notification 2:不同中转站实现的接口可能不同 (click for more details)

3.2 Variants配置

Variants实际上就是一个List,其中的每个元素是一个Options设置。通过切换不同的Variants,我们实际上能够切换不同的Options组合。参考文档:Models | OpenCode

原配置一个模型只能有一个设置:
    "gpt-5.2-codex": {
"name": "gpt-5.2-codex",
"options":{
"reasoningEffort": "high",
"textVerbosity": "medium",
"reasoningSummary": "auto"
}
},

现在我想针对这个模型切换不同的Options组合,则把它们打包到Variants列表里.
    "gpt-5.2-codex": {
"name": "gpt-5.2-codex",
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"xhigh": {
"reasoningEffort": "xhigh",
"textVerbosity": "medium",
},
},
},

可以看到,现在可以调整xhigh和high进行推理了.

4.留言

Plugins配置,如Oh-My-Opencode配置等站内已有其他轮子,不再赘述;
exercise 1:完善Right Code/Claude 4.5 Opus模型的初始opencode.json文件 (click for more details)

习题1参考答案效果展示

配置1:opus4.5 very-lazy
不进行思考,Effort(努力值)为低,即“降智”。Effort不设置时默认为高

配置2:opus4.5 think-2000:
(思考预算为2000,进行简单的思考)

配置3:opus4.5 think-16000:(思考预算为16000)
thinking budget = 16000.可以看出,思考明显更充分
这三张图片对应exercise 1中我对opus4.5所修改的配置.
同一个模型显示出三种不同的效果,展示了options配置的必要性.
感谢你看到这里! 🥰 🥹 🥰

17 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: MicroT)

Invalid media:
image
image
image
image
终末地!启动!

35 posts - 32 participants

Read full topic

via LINUX DO - 热门话题 (author: 神墨)

Invalid media:
image
image
[减肥]从214斤到122斤,减肥92斤后我的对比,以及我总结心得

无用药,九分吃一分练,纯有氧,学校食堂窗口为主要饮食,最狠的时候是减到了61kg掉了92斤,现在是维持在了65kg左右

照片对比

四张图片都是无P原相机直出
减前 (click for more details) 减后 (click for more details)
----------------------

心得

只为本人经验分享,内容仅作参考,以下方法均只能保证本人有效,不保证所有人都适用,如果你不认同,以你为准

首先贴一句我认为减肥最重要的一段话吧,尤其是对大基数而言:

你为什么这么胖,这完全是你基因决定的,基因让你就是更容易比其他人馋,胃口就是比别人好,无论你后面瘦到什么程度,基因给你食欲带来的影响都会伴随你的一生

因此,你的减肥路上是没有终点的,你只要产生哪怕一点减完后就可以随便吃的想法,无论那时你减到什么程度,都会立马反弹,甚至会反弹到比你最胖的时候还要再胖很多,很多

无论你想用什么方法去减肥,你都要放弃幻想,先思考一下改变后的饮食方式,运动强度,能不能让你坚持一辈子,否则,无论你减多少次,最后的结果一定都是失败。

----------------------

具体吃和练的细则我就不啰嗦了,B站有太多优质健身up主,他们出的减脂视频和网课一样长达一两个小时,而且还图文并茂啥细节都告诉你,干货肯定比我纯文字一通讲要多得多,也更好吸收。

我先分享几点我在这段时间体会到比较重要的点:

● 不追求体脂的极限或练得特别大,就不要算热量吃“减脂餐” 热量差是减肥最关键的数据,你必须了解热量的最基本知识,但很可惜大多数情况下,你根本没法算热量,尤其是日常去食堂小档口吃饭,你再怎么细致地去把每种食材都单独扣出来一点点地去分析加算,你也没办法去猜到老板到底放了这顿菜放了多少油放了多少调料。就算你是自己再家做,顿顿上称算精确热量也会迟早把你折磨疯掉,你减肥是找一种能坚持一生的健康平衡的饮食方式,而不是没完没了的抠不必要的细节。 ● 不算热量不代表你就可以凭感觉吃了 很多胖子对自己的饭量完全没有概念,特别是当他们饿肚子的时,他们能吃下远超自己预估的饭菜量还经常拒不承认,用x分饱这种说法来给你每餐定量是完全不准确的。你需要做的是至少在减肥的头两个月每餐都带上食物称,给自己定好量吃,等你能做到一眼就能看出重量的时候才可以“凭感觉”。 我最开始的定量是400g饭(纯白饭,不能加任何一点其他的酱料和汤汁)300g肉(只要有肉蛋豆的菜不管肉含量怎么样都算进里面,番茄炒蛋连番茄带一起是300g那就吃300g,纯卤鸡腿量出来是300g那也吃300g。) 一天只吃两顿时间安排随意,能保证自己一整天都不会饿到受不了就行。素菜(纯素清炒那种,带一点肉都不算)不限量。我每餐这样吃,能一直钓成到145斤,可以给大家参考一下

上面说的“减脂餐”,是指鸡胸肉西蓝花类似这种的轻食店标配,如果你本身就比较爱吃这些食材那当我没说,但事实是绝大部分人尤其是胖子都会觉得这种“减脂餐”过于难吃了,你绝对不可能做到坚持一辈子……大基数减肥,家常菜就足够了,只需要确保菜里没有绝对不能吃的食材(参考下列表格)
我自己减肥期间绝对不会吃的食物清单(非常重要) (click for more details)
----------------------

● 不要给自己主动安排欺骗餐 不要以“提高基础代谢”为理由去给自己每段时间特意安排欺骗餐。大部分胖子一顿欺骗餐随随便便就能干七八千卡,提升的基础代谢绝对没办法把这堆热量补救回来。
而且大概率你每个月总会因为各种各样的原因去参加聚餐,等到那时候稍微放开一点解解馋就够了,只要你一个月聚餐没超过两次,每次聚餐都不是完全胡吃海喝完全放飞自我,对整个减肥时间线来说影响都是不大的,聚完餐也不要补救,以前正常该怎么吃怎么练,后面照常就行饿了。
当然,如果你想减得又快又好,能不聚餐就别去聚餐,而且说实话,如果你一个月很容易聚超过四次餐,那么减肥也与你没什么关系了。
● 不要吃盖浇饭,米饭和饭菜要严格分开 中餐本身就是偏油的料理,如果你在外面吃的话放油量更是会像不要钱那样加,但好在大部分的肉菜并不会完全吸收,很多油都会沉降到汤汁里,但如果你吃盖浇饭甚至是拌饭的话,那基本上就等于把炒菜放油脂全部又吸回去,怎么可能不会胖,所以我不推荐你减肥时在外面吃粉面类,你吃饭类快餐让老板饭菜分开很容易,但是你很难让面馆老板给你面菜分开,何况很多面馆里光面汤就已经够油了……
● 吃所有的肉记得去皮剃肥 我知道你吃的是平价盒饭,没有哪个老板会闲的没事去完皮再给你上菜,但不代表你就可以这样算了,你一定得把皮给剃了,不仅皮要去,像鸭腿这种皮下面还有厚厚一层脂肪,你也必须剃了,如果已经吃到嘴里面了,你就把它给吐出来,这没什么难的,吐鱼骨头大家都这么熟练,怎么吐皮就不会了呢。可以剃的不干净,但是只要见到肥肉,就一定得剃
● 九分吃一分练,但这一分非常重要 我自己是完全放弃了无氧,有氧强度也很一般,基本就是一周抽个五天每天跑3km,说是跑但是我配速平均只有5:30,基本就是遛弯。我最胖时期跑都跑不了,下楼散步3km就完事了。不过我完全瘦下来后可以随便很轻松用4:30的配速跑完5km了 这点强度消耗的热量确实完全不够看,论热量而言,九分吃一分练这样的说法是没什么问题的。 但是不代表你就可以不运动不做有氧了,这点运动量虽然低但也是有两三百卡,如果换成纯饿来创造这个缺口的话,折磨实际会比有氧多很多很多… 最关键的是,养成有氧的习惯能给你带来除了食物以外的排解情绪手段,你养成运动的习惯,才能更好接受我最开始写的那些约束。 不过还是要明白,练只是一分,没有练大或者极低体脂的执念,别把运动的量看得这么重要,运动途中感觉膝盖或者脚踝有任何不适,马上停下来休息个两天三天再说。别把自己整成残疾了
● 保持良好作息和睡眠 睡眠质量在减肥中比你想象中还要大,虽然它不制造热量差,但我亲身实践,只要你一段时间都没怎么睡好,你的饥饿感就会短时间内攀到顶峰,瞬间瓦解你的心理防线让你不由自主地狂吃,所以睡眠不好的老哥想要开始减的话希望你能优先解决睡眠的问题

----------------------

反正先写这么多吧,后面我再到楼中回复~
spoiler
45 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: 可爱归归)
什么?听说你的Claude Code还在遗忘上下文?

事情是这样的:当我使用 Claude Code 进行长时间对话时,随着上下文逐渐接近上限,Claude 会自动调用 /compact 命令对历史对话进行压缩。但 Claude 官方的压缩方式本质上只是让大模型对历史对话做一层摘要,这个效果比较一般 🥲,会丢失很多重要细节。

因此,我希望借助大模型本身,在上下文被压缩之前,将上一轮对话中的有效信息结构化地沉淀下来,并存储到项目目录中。具体来说,是从上一轮对话中提炼出 indexdetail 两类文件:
index 用于记录上一轮对话中已经达成的项目状态已验证的事实关键决策与结论
detail 用于保存可被索引的具体实现细节,index 中通过序号引用对应的 detail 文件,从而在需要时精确回溯上下文细节
之所以采用这种设计,是参考了 skill 的思想,目标是实现渐进式上下文注入的机制,从而在后续对话中尽量节省上下文长度。例如,可以在 Claude.md 中对模型进行如下提示:

“如果用户提出新需求,请先查看 index 目录,判断过去是否已有类似实现或已知问题;如需进一步了解细节,再根据 index 中的索引访问对应的 detail 文件。”

----------------------

项目地址

https://github.com/Jackson7362085/context-retrieval

安装

进入 Claude Code,输入:
/plugin marketplace add Jackson7362085/context-retrieval
/plugin install context-retrieval

----------------------

卸载
/plugin uninstall context-retrieval

----------------------

使用:

对当前对话生成总结文件

1. 可以主动输入 /save-summary 命令,对当前对话进行总结,在项目目录中生成相应总结文件
2. 插件绑定了 PreCompact hook,在 Claude 即将自动压缩上下文时,会自动调用 save_summary.py,确保关键信息在压缩前被保存

----------------------

下一轮对话使用总结文件

通过 MCP 工具访问,当前提供了以下两个 tool:

read_context_index 读取项目的 .claude/context/index.json 文件,用于获取上一轮对话的摘要信息(项目目标、当前状态、已验证事实、下一步行动等)
read_context_resolution 读取某个具体问题的详细解决方案(包括问题分析、根本原因、解决步骤、验证方法)

----------------------
实现细节模型提示词实际使用的对话记录 (click for more details)
一些其他想法

23年之前是模型时代,GPT等模型让机器第一次具备了通用的语言与推理能力,24-25是智能体时代RAG 与工具调用(Tool Use)的普及,让 AI 拥有了手和眼,开始具备执行复杂任务的能力。26年之后应该是认知时代,希望AI可以拥有"长期记忆"与"连贯人格"。未来的 AI 不再是阅后即焚的聊天窗口,而是有历史、有偏好、真正懂你的"第二大脑" 🧠

当然个人是希望基础模型架构上能有所突破,可以实现类似的能力,否则我们只能依赖于工程实现。 25年相关的辅助模型长期记忆项目有Mem0,MemU等,以及前一阵的cowork的类似记忆项目,都是通过向量召回的形式,主要受限于基于相似度检索的固有缺陷:过度抽取,多轮任务容易漂移,不可解释,长期一致性弱。感觉这就是简单介绍AI记忆的产品,不能算是下一代智能体的记忆基础。还有类似的项目MemOS,其实是想打造一个AI时代的操作系统,也就是上下文操作系统,他的设计哲学是 ‘不仅存数据,连记忆本身也应该是可学习的结构’,但是最终发展向何方也不好说,但是我认为OS这个概念应该是正确的,智能体需要一个统一的 Memory OS 来管理:世界镜像、用户模型、关系图谱、时间线、任务链、工具调用状态。
EverMemOS(开源版)官方公布成绩是92.3%,横评可复现92.32%,是目前评测中唯一在综合得分上超越 LLM Full-context的记忆系统,且平均Token数显著低于full-context。这打破了我们的固有认知。通常认为把所有历史扔给大模型(Full-context)是效果最好的。但评测数据显示,过多的上下文反而引入了噪音,稀释了模型的注意力。EverMemOS证明了一点:对于长期记忆,'精准的遗忘’和’精准的记’一样重要。高质量的记忆抽取和召回系统,实际上是在帮大模型做’注意力减负’。
在编程这种反馈及时的领域,一个好的记忆系统应该是怎么样的需要我们持续思考改进,个人的项目充其量就是抛砖引玉,如果后期更新我也会及时同步到git仓库,可以随手点个star关注 💖,同时也期待佬友们更好的创意 🥰

20 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: Jackson7362085)
【AICodeMirror周四福利日】

▍AlCodeMirror 周四福利日 ▍

🏆️ 奖品详情:

10 个 价值 20RMB 订阅激活码(支持使用 codex/GeminiCLI) (相当于 100 刀 codex/ 29 刀 GeminiCLI)

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:2026 年 1 月 23 日 14:30

📝 参与方式:

在本帖下回复AICodeMirror使用体验或其他

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 48 小时内在本帖公布,并通过私信通知领奖方式(抽中可以主动私聊我们,以防我方账号私聊上限,耽误您宝贵时间)。
该激活码可以转增,重复中奖,激活码仍然发放,但同一账号不能重复激活。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

▍AlCodeMirror ▍

国内第一批老牌 CC/CX/Gemini 编程工具中转站,始于2025年6月11日,至今已稳定运营200天

合规运营、稳定可靠、产品多元,一切尽在 : AICodeMirror

😼 我们的优势

● 1. 合规运营: 无手续费开票/对公转账/合同采购单齐全
● 2. 稳定可靠: 全球高保/国内直连多线路保障
● 3. 产品多元: 包月订阅/按量付费均有

🌟 我们的产品

● ClaudeCode:(折扣价:2元1刀)
● Codex:(折扣价:0.15元1刀)
● Gemini:(折扣价:0.5元1刀)

群内有每日AI资讯/技术交流/不定期抽奖,欢迎大家加入群聊玩耍

感谢您的参与,祝您生活愉快!

152 posts - 152 participants

Read full topic

via LINUX DO - 热门话题 (author: AICodeMirror)

Invalid media: image
L站有女佬(生理)吗

祝女佬:
祝你眼里有光,心中有爱,
每天都被温柔包围,
出门遇到好天气,
低头捡到小惊喜,
有人惦记,有人偏爱,
事业顺风顺水,
爱情甜甜蜜蜜,
钱包越来越鼓,
身材越来越好,
皮肤越来越嫩,
笑容永远灿烂,
烦恼通通退散,
所愿皆成,所行皆坦途,
星辰大海,皆为你闪耀✨️

祝男佬:
娶到上面的女佬

58 posts - 49 participants

Read full topic

via LINUX DO - 热门话题 (author: miaoxiansheng)
快抽plus

开了一个plus,朋友竟然一直没有用 :distorted_face:,浪费可惜了,codex什么的都没用呢 :tieba_002:,所以速速抽个gpt plus会员

🏆️ 奖品详情:

gpt plus会员:

:three_o_clock: 活动时间:

开始时间:发帖时间
截止时间:Thu, Jan 22, 2026 9:00 PM CST

📝 参与方式:

在本帖下回复任意内容即可,点点赞更好 🤩

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛 管理团队 最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

270 posts - 270 participants

Read full topic

via LINUX DO - 热门话题 (author: 长长同学)

Invalid media: image
【薄荷公益站】上新分组,codex分组

[!note] 分组选择:kyx分组

codex模型放在二星和三星是有点速率低了,所以就单独拎出来了,全站都可以用,速率限制是5分钟50次,自己按需蹬吧

最好就是用在codex上面咯,普通聊天调用确实不大好调用,不过我实测的话,在cherrystudio上面是可用的,选择oai渠道,填入url和key就可以了

curl的话:
curl --location --request POST 'https://x666.me/v1/responses' \
--header 'authorization: Bearer sk-' \
--header 'content-type: application/json' \
--data-raw '{
"model": "gpt-5.2",
"input": [
{
"role": "developer",
"content": "你是一个有用的助手"
},
{
"role": "user",
"content": [
{
"type": "input_text",
"text": "你好"
}
]
}
],
"stream": true
}'

我一开始看oai api文档,死活调用不出来,人都麻了,一直502,结果发现原来是input这里面有大问题。

100 posts - 92 participants

Read full topic

via LINUX DO - 热门话题 (author: bohe)

Invalid media:
image
image
image
有我一样感觉AI突然就停滞不前了的佬友吗?

可能是看到现在到处都是Skills,这也Skills那也Skills有点头大了,明明都是翻来覆去的玩弄上下文,但是硬要营销一个新概念。

最近一段时间不仅是模型有点停滞不前,Agent也一段时间没有让人惊艳的技术实践,本来感觉泡沫能撑到29年,但是26年一开始就感觉基本到头了,是不是今年没有什么跨越式进步泡沫就要爆了?

----------------------

感觉很悲哀,AGI基本没什么机会了

84 posts - 63 participants

Read full topic

via LINUX DO - 热门话题 (author: enpitsulin)

Invalid media:
image
image
[开源] 🔐 GoogleManager - 谷歌多账号管理web(Flask + React)(无AFF)

项目介绍

GoogleManager 是一款专业的谷歌账号资产管理系统,适合需要管理多个谷歌账号的用户。

✨️ 功能特性

🔑 账号管理 - 批量导入、单个导入、智能搜索、状态筛选
🛡️ 2FA 验证码 - 一键生成 TOTP 验证码,实时倒计时
📋️ 快捷复制 - 一键复制完整账号信息
📊 出售状态 - 标记已售/未售,二次确认机制
📜 修改历史 - 记录密码、2FA、恢复邮箱等修改记录
🔒️ 安全特性 - 管理员密码保护、7天登录有效期、IP 封禁机制
🎨 暗色/亮色模式 - 支持主题切换

🛠️ 技术栈

仓库链接:
github.com

GitHub - yynxxxxx/Google_Manager: Google Account Manager - 专业的谷歌账号资产管理系统

Google Account Manager - 专业的谷歌账号资产管理系统

🚀 快速开始
# 安装依赖
pip install -r requirements.txt
cd frontend && npm install

# 构建并启动
npm run build && cd ..
python run.py

21 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: keenskyの)

Invalid media:
image
image
image
微信公众号文章解析成markdown格式-免费部署

网站地址:
https://huggingface.co/spaces/ideaflow/article-to-markdown
图片:

此地址huggingface目前只支持微信公众号(csdn国外ip无法访问导致)

如果csdn也支持需要本地部署docker,本地支持语雀其他已经没有试验了,之前写的小项目,现在突然翻出来了~~~ :bili_056:
docker pull ghcr.io/idea-flow/article-to-markdown:main
docker run -d -p 7860:7860 ghcr.io/idea-flow/article-to-markdown:main

代码以开源github

https://github.com/Idea-flow/toMkServer

25 posts - 19 participants

Read full topic

via LINUX DO - 热门话题 (author: ideaflow)

Invalid media:
image
image
image
想听大家说说

大家好,想替一位好朋友请教一个情感问题。他最近遇到一位很有好感的女生。但是交谈过程中说如下的话不知道该怎么办了,就目前所知道的这些想听听大家的意见:

不想做大女人,面对自己另一半的时候不想有姐姐感,想要做小女人
希望另一半细心、成熟,能主动觉察她的需求
自己是个慕强的人,历任男朋友都是比较出众,生活中不用说就能帮自己解决很多问题。

我朋友是个学霸,之前是一个大厂程序员,后来不干了做起自媒体,比较腼腆。情商比较低。不太会觉察别人的情绪变化,那种心大傻乎乎的人。
女方知道的比较少,是个平面模特,相貌也挺出众,平时看这是落落大方的,还有就是家里欠了点钱需要她去还。

148 posts - 66 participants

Read full topic

via LINUX DO - 热门话题 (author: 俺也一样)
【AI编程】拒绝上下文过载:如何让Claude Code学会“渐进式阅读”

被举报AIGC了,hook脚本到github取吧
github.com

GitHub - Cedriccmh/cc-read-limit-hook: A hook that limit and guide how claude code read...

A hook that limit and guide how claude code read files.

----------------------

时间过得真快,距离上次发话题已经过去几个月,成年人的时间真是不经用。马上过年了,想罢年前一定要发点东西出来的。预祝大家新年快乐。

----------------------

场景是这样的:
当claude code读取代码时,往往倾向于读取整个文件,如果文件非常大(比如5000行+),这样的文本塞进上下文。结果就是:

什么是“渐进式披露”?

举个例子,这就好比一个人类程序员接手新项目时,不会上来就把 10 万行代码从头到尾读一遍。你会先看目录结构(ls),再搜关键字(grep),最后只打开相关的那几十行代码(read)。

Anthropic 的文档里一直强调这一点:让模型先通过搜索定位,再通过切片读取。

但在实际的行时,claude code执“太勤快”,往往是直接 Read 整个文件。所以,我们需要给它装一个“防呆开关”。

这个 Hook 是怎么工作的?

这是一个Python 脚本,在 PreToolUse 时的 Hook(工具调用前拦截),配合 CLAUDE.md 的提示词,组合引导claude code读取精确上下文。

核心逻辑

这个方案由两部分组成:

为什么这个方法 Work?

这利用了 LLM 的一个特性:它们非常听“报错信息”的话。

当 Tool Use 失败并返回一个明确的“推荐路径”时,claude code会立刻进行自我修正。

这样就强行把它拽回了“渐进式披露”的最佳实践路径上。

如何食用

你需要两个东西:一个是配置在项目根目录的规则文件,一个是实际执行拦截的 Python 脚本。

1. 提示词 (CLAUDE.md)

把这段加到你的项目提示词文件(CLAUDE.md \ AGENTS.md)中。告诉claude code读取策略。

中文版本
### 文件读取策略

**强制规则**:每次调用 Read 工具时**必须**指定 `offset` 和 `limit` 参数,禁止使用默认值。

#### 参数要求

| 参数 | 要求 | 说明 |
| ------ | -------------- | ----------------------------- |
| `offset` | **必须指定** | 起始行号(从 0 开始) |
| `limit` | **必须指定** | 读取行数,单次不超过 500 行 |

#### 读取流程

1. **侦察**:先用 Grep 了解文件结构,或定位目标关键词行号。
2. **精准打击**:使用 offset + limit 精确读取目标区域。
3. **扩展**:如果需要更多上下文,再调整 offset 继续读取。

**目标**:保持上下文精准、最小化。如果不遵守,工具调用将被 Hook 拦截。



English Version
### File Reading Strategy

**MANDATORY RULE**: Every `Read` tool call **MUST** verify `offset` and `limit` parameters. Default full-file reads are prohibited for non-trivial files.

#### Parameter Requirements

| Param | Requirement | Denoscription |
| -------- | -------------- | ----------------------------- |
| `offset` | **REQUIRED** | Start line number (0-indexed) |
| `limit` | **REQUIRED** | Max lines to read (Max 500) |

#### Workflow

1. **Recon**: Use `Grep` first to understand structure or locate keywords.
2. **Surgical Read**: Use `offset` + `limit` to read only the relevant section.
3. **Expand**: Adjust `offset` to read more context only if strictly necessary.

**Goal**: Keep context precise and minimal. Violations will be blocked by the PreToolUse hook.



2. Hook (Python 脚本)

从上面github仓库获取hook文件,并配置到你的claude code(如果不熟悉可以直接把文件丢给claude code让他代劳)。

(这个脚本稍微有点长,但逻辑很简单:检查文件大小 → 检查参数 → 决定是放行、自动修正还是报错拦截)

效果

装上这一套之后,你会发现 claude code 的行为模式变了:

虽然多了一步交互,但上下文极其干净,Token 消耗量大大降低,而且修改的准确率反而提高了。

32 posts - 23 participants

Read full topic

via LINUX DO - 热门话题 (author: cedric chen)

Invalid media:
image
image
image
image
image