Linux.do 热门话题 – Telegram
Linux.do 热门话题
2.96K subscribers
25.7K photos
35 videos
13 files
41.9K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
新人报道!以及关于欧洲的一些你可能感兴趣的事

首先非常荣幸能成为本站的一员,因为我不是技术佬,也没有什么拿的出手的好东西给大家分享,不过由于我在意大利:italy:已经生活了10年了,对这边的情况还算是比较了解,就给大家辟一下网络上的谣言吧(因为国内平台会扭曲这边真实的生活)
1.这边福利待遇很好吗?工资又高事又少吗?
a:高福利,高薪往往只会出现在那些比较大的企业里,不可能存在全民都很好的情况,但是这些企业门槛非常的高,你要是有这个能力,你在国内也能拿到对应的待遇。但事实上是绝大部分人都进不去这种公司的。
2.意大利关于民生保障策略
a:讨论最高的我觉得应该是说医保吧,这边确实是实行全民医保,只要你在这边有一个合法的身份,那么看病,治疗什么的几乎不怎么花钱,这可以说是免费的;但是往往免费的东西是最贵的:这一点不好详细展开,举个🌰,生小病去看医生,多半医生会给你开止痛药,消炎药;稍微严重一点的需要检查,你会发现由于人太多,导致公共设施数量严重不足,你经常需要等待几天甚至数月才能够进行一项特定的检查,(说实话,小病自己就好了大病也被你拖死了)。要是你很严重,需要进急诊中心的情况,你会发现你叫救护车,他们好像在自己家里逛街一样慢悠悠的来到你这儿,先闲聊一小会甚至是小饮一杯咖啡,然后再不紧不慢的问你点问题才会把你送进急诊。而如果你是自己去的急诊的话,那么你通常会被门口护士拦住,然后让你一排就是四五个小时的队。。。所以其实更多时候,这边的华人大部分还是会选择回国看病,虽然花钱,但是最起码能救命(bushi)
3.关于普通人的生活幸福度
a:国内一直在渲染欧美这边人均收入有多高多高,但实际上,真正普通人的收入比你想的要低的多(月薪1000-2000欧),看上去还不错对吧?但其实真的没有办法存到几个子的,小地方工资低是常态,你要是新人的话,甚至只能拿到一个三位数的工资,而且这将持续三年甚至四年,(这就是双休 假期多的代价)而大地方的话,由于生活成本的急剧攀升,你会发现你赚的钱大多都是拿去交房租,付水电煤,吃穿用度了。再加上这边税实在高的离谱,你能看到的东西基本上都有税。虽然都说欧美人不喜欢存钱,但我的感觉就是他们想存都存不到钱。
4.这边的华人都很有钱吗?
a:真实的情况恰恰相反,因为其实大部分的华人在这边都是从事着餐饮,美甲,百货店员,理发这种工作,其中有一些历史遗留和政治因素就不说了,还有一部分原因是因为当初出国的华人蛮多都是没有什么文凭;只能从事一些这种体力劳动,然后刚好有亲戚在国外就人拉人的,大家都出来了。这些行业在国内属于已经卷到没边了,而由于老外独特的个性就导致中国人这种吃苦耐劳的精神得到发挥,于是大部分市场都被中国人给吃下了。所以你要说工资高吗?那必然是比较高的,但是代价就是你不会拥有社保,也不会拥有五险一金这种东西。所以其实大家狠蓝的辣。

暂时只能想到这么多,你要是有什么问题,欢迎在下面提问,我看到了就会回。谢谢大家

60 posts - 48 participants

Read full topic

via LINUX DO - 热门话题 (author: Matthew)
和大家聊聊6G,以及谈谈5G为什么不算成功

刚看到有版友发的:中国6G要来了
也看到了下面网友的质疑。

5G确实不算成功,当初宣传的低延迟、高带宽,结果后来发现实际应用很少用到,绝大部分场景用4G也可以;比如说当初设想自动驾驶要用5G的低延迟、高带宽实时传输视频到云端,结果今天的自动驾驶技术方案都是在车上完成的,不需要云端实时控制。设想的远程手术场景,结果对医生、对设备的要求很高,也没有普及开。现在也就在矿山自动化等少数场景有用处。本质上,就是5G是拿着锤子找钉子:设计的低延迟、高带宽特性,实际能用的场景很少。

但6G的场景就现实多了:

手机直连卫星——这个在星链上已经验证了。现在华为Mate 80已经可以直连卫星了,但连得很慢,还要找角度对准卫星,只能当户外应急。6G规范里,手机和卫星是天然直连的,切换卫星连接和切换地面基站连接就跟坐高铁的时候切换基站一样自然。这样坐飞机也可以上网了。而且俄乌战场上我们已经看到了星链的作用,6G普及后,就不需要像星链终端一样还要带个大锅盖,直接手机就可以联网了。
通感一体化(ISAC):现在2G/3G/4G/5G终端,如果要定位你的位置,一般是用三角定位法,就是你和3个基站的相对位置,然后大致算出来你在什么地方。6G技术里,一是有源定位,就是手机本身就是一个定位源,精度可以到厘米,可以随时知道你在哪儿;二是无源感知,6G基站和6G的手机,你可以把它们当成是一个一个的“雷达”,所以即便是没有信号的物体,比如说猫啊狗啊,路过的自行车啊之类,都可以被“雷达”扫描到、定位到。甚至你在做什么动作,都可以被扫描到,比如说你挥一下手,不用摄像头手机也可以感知到,这样就可以做出相应动作当你把手机放在胸口附近时,它能通过无线电波的微小多普勒频移,感知你心脏的跳动和肺部的呼吸起伏。这样就可以做各种健康监测的应用了。

所以6G的这些能力,都是划时代的,是4G/5G无法实现的。6G普及将会比5G快很多。

p.s. 当然,我想大家也一定意识到这里的隐私问题。比如说和女朋友打扑克的时候,即便手机放在一边,没有开摄像头,理论上也是可以感知的 🤣 技术的进步无法阻挡,到那个时候我想应该会有防范措施出来,比如用法拉第电笼做一个“隐私保护盒”,在家就把手机扔进去 😅

78 posts - 72 participants

Read full topic

via LINUX DO - 热门话题 (author: quaful)
新Claude Code Remotion Skill !!!太厉害了

Remotion 开发了自己的 Skill 可以用claude code, Gemini cli … 快速的做好看的视频!
Github: https://github.com/remotion-dev/skills
Skills.sh: Skill for remotion-dev/skills

安装: npx skills add remotion-dev/skills

1. 可以选不同的安装地点

注意用space把不想要的去掉否则会安装所有!!!

2. 选scope

3. 选安装方式

4. 安装完毕!

怎么开始使用?

1. 安装 remotion : bun create video
2.blank template

3. 选名字和tailwind

4. 安装:bun install
5. 开启bun run dev

因该能开到这个在 http://localhost:3000/MyComp

6. 用claude 写想做的motion graphic!

结果:

22 posts - 22 participants

Read full topic

via LINUX DO - 热门话题 (author: Philip)

Invalid media:
image
image
image
image
image
image
image
image
animation
A\ 又疯了

嗯 你写文档上遗弃就遗弃
你写客户端里持续显示有病吧

真理之 npm仓库除非撤了后续不再发布 那才是真的遗弃

不然瞎说什么鬼话呢 一样的核心
这还没完 这下真复现了

稳定复现 百分百死于这个

64 posts - 47 participants

Read full topic

via LINUX DO - 热门话题 (author: 哈雷彗星)

Invalid media:
image
image
image
image
image
image
我想问一下,富可敌国真的不赚钱吗?

先叠甲

今晚的帖子看得我有点迷糊。我觉得我是L站的一份子,忍不住想发个帖。只是为了讨论,如果违规了麻烦管理受累删除掉,谢谢。

----------------------

我想说的

以下富可敌国指的是再论坛卖中转服务(CC, Codex之类)的,之前不知道还有专门充值但不做生意的,解释一下。

如果富可敌国,真的不赚钱,那么应该给你磕一个。下面的话当我没说。

如果富可敌国,是赚钱的。那么你要求用户跟你同舟共济的理由是什么?你赚钱的时候应该没分给用户吧?

第1个问题: 那你要求用户跟你同舟,真的合适吗?

----------------------

再说说富可敌国的服务

从最开始的宣传 “纯血 Max” 招揽生意,到各种各样稀奇古怪的来源都被冠名上官方 API 的说法。所以说所有的解释权都在你们手里,论坛的用户没有任何话语权,对吧?

甚至在服务不能保证的前提下(各种原因), 让用户退款退款,然后还想给自己贴一个很有商誉的label?

第2个问题: 当你承诺的服务不能达到的时候,仅仅是退款不需要承担任何的惩罚吗?有些退款还在克扣用户的金额。真的合适吗?

----------------------

我希望L站更好,也希望各种各样的制度会更规范。有感而发

125 posts - 91 participants

Read full topic

via LINUX DO - 热门话题 (author: DPDP)
”拉闸“ 2.1.15 的改动修补

cc升级到2.1.15后部分公益站(wong)无法使用继续讨论:

env添加 "CLAUDE_CODE_ATTRIBUTION_HEADER":"0"

问题解决

密码的 一个一个来

74 posts - 57 participants

Read full topic

via LINUX DO - 热门话题 (author: 哈雷彗星)
「快讯」NoteBookLM被一比一致敬了

元宝大战Gemini 3,你们知道吗?
😆

30 posts - 28 participants

Read full topic

via LINUX DO - 热门话题 (author: 凌镜)

Invalid media:
image
image
智谱 AI 输入法发布 1.5.0 版本更新:AI 语音输入“永久免费”

58 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: Mozi)

Invalid media:
image
image
image
CC-Switch将支持Opencode!

CC-Switch或将发布3.10.0版本Release并在此版本支持Opencode!

最近一次commit:
github.com/farion1231/cc-switch

chore: release v3.10.0

已提交 12:01PM - 21 Jan 26 UTC
farion1231
+52 -10

pull request merge记录:
github.com/farion1231/cc-switch

feat: add OpenCode as the fourth managed CLI application
mainfeat/opencode-support
已打开 12:23PM - 19 Jan 26 UTC
farion1231
+4215 -192
## Summary Add OpenCode support as the fourth managed CLI application in CC Switch. OpenCode uses an **additive provider management** model (multiple providers coexist, hot-switch within the app), which differs from the **replacement model** used by Claude/Codex/Gemini. ### Key Features - Full provider management for OpenCode (add/edit/delete/duplicate) - MCP server sync support with format conversion (stdiolocal, sseremote) - Provider presets for 20+ services (DeepSeek, Zhipu GLM, Qwen, Kimi, MiniMax, OpenRouter, etc.) - Model-level options editor for advanced SDK configuration - Extra options editor for SDK settings (timeout, setCacheKey, etc.) - Complete i18n support (Chinese, English, Japanese) ### Design Decisions | Feature | Claude/Codex/Gemini | OpenCode | |---------|---------------------|----------| | Provider Mode | Replacement (single active) | Additive (multiple coexist) | | UI Button | Enable/Switch | Add/Remove | | is_current | Required | Not needed | | Proxy/Failover | Supported | Not supported | | Tray Menu | Shows providers | Not applicable | ### Implementation Phases - Phase 1: Backend data structure expansion (AppType, McpApps, SkillApps, DB schema) - Phase 2: OpenCode provider data structures - Phase 3: Live config read/write module - Phase 4: MCP sync module with format conversion - Phase 5: Provider service layer with additive mode support - Phase 6: Tauri command extensions - Phase 7: Frontend TypeScript type definitions - Phase 8: Provider presets configuration - Phase 9: Frontend UI components - Phase 10: Internationalization ## Test Plan - [ ] Add OpenCode provider from preset → verify written to `~/.config/opencode/opencode.json` - [ ] Edit provider options and models → verify config updated correctly - [ ] Remove provider → verify removed from live config - [ ] Duplicate provider → verify unique key generated - [ ] MCP sync to OpenCode → verify format conversion (stdio→local, sse→remote) - [ ] Import from OpenCode config → verify providers imported to database - [ ] Switch between app tabs → verify OpenCode UI shows correctly - [ ] Verify proxy/failover UI hidden for OpenCode

38 posts - 34 participants

Read full topic

via LINUX DO - 热门话题 (author: MicroT)
【开源】这款免费不限量的 Z-Image 网站,支持 A4F 免费模型,同时增加了 99% 没听说过的 OPFS 支持,允许用户在浏览器中长期保存大量文件(无服务器使用画廊功能)。

这几天我对派奇智图的底层代码进行了一次脱胎换骨式的重构,让项目结构更加清晰,耦合性更低。
github.com

GitHub - Amery2010/peinture: A general-purpose AI image generation framework...

A general-purpose AI image generation framework that supports Hugging Face, Gitee, Model Scope, and more.

我在项目底层增加了对 OPFS(Origin private file system)的支持,简单来说 OPFS 是浏览器提供的私有的高性能本地存储空间。图片生成后会默认下载并保存到临时的 OPFS 存储空间,这样在本地查看或操作图片时就无需再从网络上下载文件,也无需担心文件短时间内过期的问题。通过 OPFS,我实现了在无服务器(浏览器本地)直接使用画廊功能。 这样很多没有 S3 服务或者 WebDAV 的朋友也可以使用画廊功能,保存自己喜欢的图片了 😍

增加了对 A4F 免费模型的支持。免费用户一天可以使用 300 次创作,允许使用的模型包括 Z-Image Turbo、Google Imagine 4 和 Google Imagine 3.5。不过目前测试下来,A4F 的免费服务稳定性不高,经常会出现生成失败的情况,不确定是我网络问题还是这个网站服务的问题。另外他们对图片尺寸的支持性很低,很多图片生成的尺寸都不遵循参数 😂

我对 Hugging Face 的请求进行了重构,使用了通用的 Queue API,这个 API 可以更清楚的返回错误信息,稳定性也更高。

您可以通过我的 Demo 网站:Peinture 快速体验此项目。

另外此项目也有服务器版本,支持自部署,方便您与您的朋友共享您的图片生成服务。

如果您喜欢此项目,不妨 star 此项目 😁

24 posts - 21 participants

Read full topic

via LINUX DO - 热门话题 (author: 子言)

Invalid media:
image
image
[抽奖] 闲置racknerd美国 服务器, 一直没用, 抽了吧

有一台 racknerd 美国服务器闲置几个月了, 一直没用, 抽了吧

🏆️ 奖品详情:
给SSH,racknerd号我还用


:three_o_clock: 活动时间:

开始时间:Now
截止时间:Thu, Jan 22, 2026 11:00 PM CST
改一下时间, 下班之前发了~
截止时间:Thu, Jan 22, 2026 5:00 PM CST

📝 参与方式:

本贴任意回复即可(当然点点赞就更好了,感谢:tieba_002: )

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用 Linux 抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

170 posts - 168 participants

Read full topic

via LINUX DO - 热门话题 (author: 布布布布布)

Invalid media:
image
image
庆祝L站两周年!Linuxdo定制钥匙扣20个【第一期】

不负期待~感谢佬友们的热情参与!每一条留言里的宝藏推荐老倔驴都认真看过啦~

大家呼声最高的就是纪念周边、E卡和键盘!为了更贴合L站专属福利主题,本次抽奖最终锁定周边主题!老规矩,回帖抽奖 ,周年限定款钥匙扣20个!

----------------------

奖品由老倔驴开户赞助,老倔驴开户选择多还靠谱,聚合几十家券商优惠,连接上百家营业部,已帮助 2000 人+,无一差评。

🎁换费率更低的点这里: https://jue.lv/kh/LD/202601c (10+券商可选,开户有礼!)

友情提示:不因奖品而涉足股市,得不偿失!

702 posts - 702 participants

Read full topic

via LINUX DO - 热门话题 (author: 老倔驴)

Invalid media: image
GLM 4.7 已经疯了,开始自己骂自己了

任务完不成开始自己骂自己了。。。 注意里面骂他的不是我骂的 ,是他自己骂自己

36 posts - 35 participants

Read full topic

via LINUX DO - 热门话题 (author: 骑狗上学)

Invalid media: image
又出现程序员猝死,你怎么看(在V站看到的热论)

32岁程序员周末晕倒后猝死,抢救期间曾被拉入工作群,工伤申请已被受理
高广辉,32岁,猝死。他是程序员,这在抢救记录中成为了“既往史”。
120院前医疗急救病历中,既往史提及“程序员经常熬夜”。在转院至广东省第二中医院后,既往史标注“患者家属诉患者为程序员,平时工作强度大压力大”。
在家人的描述中,他是河南人,跟随父母来到了广东,童年时曾捡垃圾换取零用钱,大学就读于软件学院,多次兼职缓解拮据,与同校的爱人结婚,至今未育,曾写日记“命运和挫折让我慢慢成长”。
在公司里,他被晋升为部门经理,猝死前一周的工作日,他最早到家时间为21:38,最晚为22:47。猝死当天是周六,部门有4项工作任务到了截止日,他打开过公司OA系统。抢救期间,他被拉入了一个工作群内。死亡后,有不知情的同事发来消息,拜托他“要把这个改下”。
上为自媒体百家号的刊录
感觉现在程序员都快成为耗材了,没一点人性
PS:借用某位老哥的话:
建议那家公司倒闭,所有不尊重劳动法的公司都倒闭,干不下去就别干,别说什么强制双休公司就得倒闭。大不了大家一起送外卖。
信息转载自转载说明

67 posts - 55 participants

Read full topic

via LINUX DO - 热门话题 (author: 倾风)

Invalid media: image
各位佬注意,千万不要用 geminidesk这个软件了,开发者投毒

geminidesk 一个类似桌面版本的gemini,可以快捷键呼出主界面使用的软件,之前在论坛里还被推荐过的,被发现收集用户密码、登录令牌等隐私信息,reddit上已经有不少人被偷密码了,大家下载的了赶紧卸载,目前github仓库已经被封了:GitHub · Where software is built

但是这个人好像又开了另外一个仓库。下面是reddit的讨论:https://www.reddit.com/r/GeminiAI/comments/1ovwimh/warning_geminidesk ,各位佬友千万要注意。

36 posts - 36 participants

Read full topic

via LINUX DO - 热门话题 (author: zihh)
早上上班惊魂,被电动车撞倒了,那哥们还跑了

早上我骑电车在直线正常行驶去地铁站,然后我右侧方有个人从我右侧过去,然后给我挂倒了。他还唉一声,结果您猜怎么着,跑路了。
一溜烟跑了,我在后边大声喊装听不见。顿时我的九牛二虎之力来了,立马从地上爬起来。
立马骑电车追他(追他之前努力看清楚他电动车牌号,以及人物特征)
然后路过一个路口,右侧方观察没有此人物特征,于是继续直行追他,在追了大概1公里发现可疑目标,立马截停他【电车改过限速,可以60公里时速】。
问他是不是你撞的我,一开始不承认,我说我如果找帽子叔叔。你就肇事逃逸。
然后装可能是,开始装傻。他还带着个孩子。
我电车侧面剐蹭了。后视镜碎了。脚趾头被电车砸了一下。
我说先跟我去九号店给我把电车修了。
然后再跟我去医院把脚趾头看了。
他说孩子看牙着急,我说你在着急,你可以内侧超车吗?
一番沟通下来,拿到了合理的赔偿。
于是我现在在写这个帖子。
遇到这种情况,先跟对方说,找帽子解决。

43 posts - 34 participants

Read full topic

via LINUX DO - 热门话题 (author: 我就哈哈大笑)
从0开始的Opencode.json高级参数配置教程【含配置Provider/中转站/思考预算等】

0.前言

Open code的配置一直是比较繁琐的,虽然开箱即用,但如果想配置转发站就有点头疼了。在网上找了很多教程,但大都简略,很多第三方转发站的文档写的也不明白(点名spoiler)。

有很多佬友开发了可视化/后端插件,如AI-toolboxOCCMCLIProxyAPI。这些都很好用!感谢佬友们!你们的贡献让社区变得如此美好,也深深激励了我 🥹

在使用了一段时间后,我发现掌握一些模型config配置原理是有必要的.插件只能帮忙切换provider,每个模型的进阶参数如思考预算,仍然要自己配置.懂得如何修改配置文件也能让我们把这些插件用的更好.

所以写一篇教程,从0开始配置opencode.json.希望能帮到各位尝试opencode(并想在opencode中配置使用自定义转发站)的佬友,同时也记录自己学习各类官方文档的过程 🥰
comment 1: 通过本教程你可以收获: (click for more details) comment 2: 本教程重点在于详细和实操,不是一个面面俱到的教程. (click for more details)
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!
篇幅所限,本篇教程大部分内容是折叠的!!!请点击黑色三角形展开查看!!!


1.初始化
action 1:如果你已经有opencode.json就可以跳过 (click for more details)

2.Provider配置

2.1 官方Provider配置
如果你使用的是Opencode官方支持的Provider,例如Opencode Zen,GLM Coding Plan,那么基本上只需要在安装好的opencode TUI中输入/connect并回车即可。
如果你想在这篇文档中找到含截图配置教学,请展开以下三角形
action 2:连接Github Copilot作为Provider (click for more details) reference 1:相关文档 (click for more details)

2.2 自定义API Key/转发站Provider配置
站内轮子:OpenCode 自定义服务商(中转站)接入指南
如果你想在这篇文档中找到含截图配置教学,请展开以下三角形
action 3:通过可视化方式连接Right Code(转发站)作为Provider(推荐) (click for more details) action 4:通过/connect方式连接Right Code(转发站)作为Provider (click for more details) action 5:通过auth login方式连接Right Code(转发站)作为Provider (click for more details) document-reading 1:通过阅读Opencode和转发站官方文档配置Provider (click for more details) recommend 1:Provider可视化配置,一键切换和分流 (click for more details) reference 2:相关文档 (click for more details) comment 3:碎碎念 (click for more details)

3.Models配置

3.1 Options配置

配好了转发站,但是模型用起来不好用,可能是因为没有配置OptionsOptions是厂商自定义的参数列表,例如Codex的思考预算,佬友们常说的Xhigh / high都在options设置。

3.1.1 Options作用

(以Right Code转发站的Codex端点为例展示)
example 1:使用Right Code转发站转发/codex端点,默认配置 (click for more details)
可以看到,虽然能返回,但codex-max在每次调用后马上就返回了,也没有展示思考,使用体验很不好。难道codex-max这么蠢吗?或者是被降智了?
example 2:使用Right Code转发站转发/codex端点,增加Options配置 (click for more details)
但是如example 2所示,同样的模型和转发站,没有一步一停,也展示了思考内容,花费2分钟。
example 3:config片段对比 (click for more details)
可以看出,问题的关键在于我在options中配置了三个选项reasoningEffort:high,textVerbosity:medium和reasoningSummary:auto 🥹
additional 1:参数作用说明 (click for more details)

3.1.2 Options配置
document-reading 2:通过阅读OpenCode官方文档配置codex模型和claude模型options (click for more details) notification 1:Options跟随Models变化,而不是Provider或中转站 (click for more details) document-reading 3:通过阅读OPENAI官方文档进一步配置codex模型options (click for more details) notification 2:不同中转站实现的接口可能不同 (click for more details)

3.2 Variants配置

Variants实际上就是一个List,其中的每个元素是一个Options设置。通过切换不同的Variants,我们实际上能够切换不同的Options组合。参考文档:Models | OpenCode

原配置一个模型只能有一个设置:
    "gpt-5.2-codex": {
"name": "gpt-5.2-codex",
"options":{
"reasoningEffort": "high",
"textVerbosity": "medium",
"reasoningSummary": "auto"
}
},

现在我想针对这个模型切换不同的Options组合,则把它们打包到Variants列表里.
    "gpt-5.2-codex": {
"name": "gpt-5.2-codex",
"variants": {
"high": {
"reasoningEffort": "high",
"textVerbosity": "low",
},
"xhigh": {
"reasoningEffort": "xhigh",
"textVerbosity": "medium",
},
},
},

可以看到,现在可以调整xhigh和high进行推理了.

4.留言

Plugins配置,如Oh-My-Opencode配置等站内已有其他轮子,不再赘述;
exercise 1:完善Right Code/Claude 4.5 Opus模型的初始opencode.json文件 (click for more details)

习题1参考答案效果展示

配置1:opus4.5 very-lazy
不进行思考,Effort(努力值)为低,即“降智”。Effort不设置时默认为高

配置2:opus4.5 think-2000:
(思考预算为2000,进行简单的思考)

配置3:opus4.5 think-16000:(思考预算为16000)
thinking budget = 16000.可以看出,思考明显更充分
这三张图片对应exercise 1中我对opus4.5所修改的配置.
同一个模型显示出三种不同的效果,展示了options配置的必要性.
感谢你看到这里! 🥰 🥹 🥰

17 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: MicroT)

Invalid media:
image
image
image
image
终末地!启动!

35 posts - 32 participants

Read full topic

via LINUX DO - 热门话题 (author: 神墨)

Invalid media:
image
image
[减肥]从214斤到122斤,减肥92斤后我的对比,以及我总结心得

无用药,九分吃一分练,纯有氧,学校食堂窗口为主要饮食,最狠的时候是减到了61kg掉了92斤,现在是维持在了65kg左右

照片对比

四张图片都是无P原相机直出
减前 (click for more details) 减后 (click for more details)
----------------------

心得

只为本人经验分享,内容仅作参考,以下方法均只能保证本人有效,不保证所有人都适用,如果你不认同,以你为准

首先贴一句我认为减肥最重要的一段话吧,尤其是对大基数而言:

你为什么这么胖,这完全是你基因决定的,基因让你就是更容易比其他人馋,胃口就是比别人好,无论你后面瘦到什么程度,基因给你食欲带来的影响都会伴随你的一生

因此,你的减肥路上是没有终点的,你只要产生哪怕一点减完后就可以随便吃的想法,无论那时你减到什么程度,都会立马反弹,甚至会反弹到比你最胖的时候还要再胖很多,很多

无论你想用什么方法去减肥,你都要放弃幻想,先思考一下改变后的饮食方式,运动强度,能不能让你坚持一辈子,否则,无论你减多少次,最后的结果一定都是失败。

----------------------

具体吃和练的细则我就不啰嗦了,B站有太多优质健身up主,他们出的减脂视频和网课一样长达一两个小时,而且还图文并茂啥细节都告诉你,干货肯定比我纯文字一通讲要多得多,也更好吸收。

我先分享几点我在这段时间体会到比较重要的点:

● 不追求体脂的极限或练得特别大,就不要算热量吃“减脂餐” 热量差是减肥最关键的数据,你必须了解热量的最基本知识,但很可惜大多数情况下,你根本没法算热量,尤其是日常去食堂小档口吃饭,你再怎么细致地去把每种食材都单独扣出来一点点地去分析加算,你也没办法去猜到老板到底放了这顿菜放了多少油放了多少调料。就算你是自己再家做,顿顿上称算精确热量也会迟早把你折磨疯掉,你减肥是找一种能坚持一生的健康平衡的饮食方式,而不是没完没了的抠不必要的细节。 ● 不算热量不代表你就可以凭感觉吃了 很多胖子对自己的饭量完全没有概念,特别是当他们饿肚子的时,他们能吃下远超自己预估的饭菜量还经常拒不承认,用x分饱这种说法来给你每餐定量是完全不准确的。你需要做的是至少在减肥的头两个月每餐都带上食物称,给自己定好量吃,等你能做到一眼就能看出重量的时候才可以“凭感觉”。 我最开始的定量是400g饭(纯白饭,不能加任何一点其他的酱料和汤汁)300g肉(只要有肉蛋豆的菜不管肉含量怎么样都算进里面,番茄炒蛋连番茄带一起是300g那就吃300g,纯卤鸡腿量出来是300g那也吃300g。) 一天只吃两顿时间安排随意,能保证自己一整天都不会饿到受不了就行。素菜(纯素清炒那种,带一点肉都不算)不限量。我每餐这样吃,能一直钓成到145斤,可以给大家参考一下

上面说的“减脂餐”,是指鸡胸肉西蓝花类似这种的轻食店标配,如果你本身就比较爱吃这些食材那当我没说,但事实是绝大部分人尤其是胖子都会觉得这种“减脂餐”过于难吃了,你绝对不可能做到坚持一辈子……大基数减肥,家常菜就足够了,只需要确保菜里没有绝对不能吃的食材(参考下列表格)
我自己减肥期间绝对不会吃的食物清单(非常重要) (click for more details)
----------------------

● 不要给自己主动安排欺骗餐 不要以“提高基础代谢”为理由去给自己每段时间特意安排欺骗餐。大部分胖子一顿欺骗餐随随便便就能干七八千卡,提升的基础代谢绝对没办法把这堆热量补救回来。
而且大概率你每个月总会因为各种各样的原因去参加聚餐,等到那时候稍微放开一点解解馋就够了,只要你一个月聚餐没超过两次,每次聚餐都不是完全胡吃海喝完全放飞自我,对整个减肥时间线来说影响都是不大的,聚完餐也不要补救,以前正常该怎么吃怎么练,后面照常就行饿了。
当然,如果你想减得又快又好,能不聚餐就别去聚餐,而且说实话,如果你一个月很容易聚超过四次餐,那么减肥也与你没什么关系了。
● 不要吃盖浇饭,米饭和饭菜要严格分开 中餐本身就是偏油的料理,如果你在外面吃的话放油量更是会像不要钱那样加,但好在大部分的肉菜并不会完全吸收,很多油都会沉降到汤汁里,但如果你吃盖浇饭甚至是拌饭的话,那基本上就等于把炒菜放油脂全部又吸回去,怎么可能不会胖,所以我不推荐你减肥时在外面吃粉面类,你吃饭类快餐让老板饭菜分开很容易,但是你很难让面馆老板给你面菜分开,何况很多面馆里光面汤就已经够油了……
● 吃所有的肉记得去皮剃肥 我知道你吃的是平价盒饭,没有哪个老板会闲的没事去完皮再给你上菜,但不代表你就可以这样算了,你一定得把皮给剃了,不仅皮要去,像鸭腿这种皮下面还有厚厚一层脂肪,你也必须剃了,如果已经吃到嘴里面了,你就把它给吐出来,这没什么难的,吐鱼骨头大家都这么熟练,怎么吐皮就不会了呢。可以剃的不干净,但是只要见到肥肉,就一定得剃
● 九分吃一分练,但这一分非常重要 我自己是完全放弃了无氧,有氧强度也很一般,基本就是一周抽个五天每天跑3km,说是跑但是我配速平均只有5:30,基本就是遛弯。我最胖时期跑都跑不了,下楼散步3km就完事了。不过我完全瘦下来后可以随便很轻松用4:30的配速跑完5km了 这点强度消耗的热量确实完全不够看,论热量而言,九分吃一分练这样的说法是没什么问题的。 但是不代表你就可以不运动不做有氧了,这点运动量虽然低但也是有两三百卡,如果换成纯饿来创造这个缺口的话,折磨实际会比有氧多很多很多… 最关键的是,养成有氧的习惯能给你带来除了食物以外的排解情绪手段,你养成运动的习惯,才能更好接受我最开始写的那些约束。 不过还是要明白,练只是一分,没有练大或者极低体脂的执念,别把运动的量看得这么重要,运动途中感觉膝盖或者脚踝有任何不适,马上停下来休息个两天三天再说。别把自己整成残疾了
● 保持良好作息和睡眠 睡眠质量在减肥中比你想象中还要大,虽然它不制造热量差,但我亲身实践,只要你一段时间都没怎么睡好,你的饥饿感就会短时间内攀到顶峰,瞬间瓦解你的心理防线让你不由自主地狂吃,所以睡眠不好的老哥想要开始减的话希望你能优先解决睡眠的问题

----------------------

反正先写这么多吧,后面我再到楼中回复~
spoiler
45 posts - 42 participants

Read full topic

via LINUX DO - 热门话题 (author: 可爱归归)
什么?听说你的Claude Code还在遗忘上下文?

事情是这样的:当我使用 Claude Code 进行长时间对话时,随着上下文逐渐接近上限,Claude 会自动调用 /compact 命令对历史对话进行压缩。但 Claude 官方的压缩方式本质上只是让大模型对历史对话做一层摘要,这个效果比较一般 🥲,会丢失很多重要细节。

因此,我希望借助大模型本身,在上下文被压缩之前,将上一轮对话中的有效信息结构化地沉淀下来,并存储到项目目录中。具体来说,是从上一轮对话中提炼出 indexdetail 两类文件:
index 用于记录上一轮对话中已经达成的项目状态已验证的事实关键决策与结论
detail 用于保存可被索引的具体实现细节,index 中通过序号引用对应的 detail 文件,从而在需要时精确回溯上下文细节
之所以采用这种设计,是参考了 skill 的思想,目标是实现渐进式上下文注入的机制,从而在后续对话中尽量节省上下文长度。例如,可以在 Claude.md 中对模型进行如下提示:

“如果用户提出新需求,请先查看 index 目录,判断过去是否已有类似实现或已知问题;如需进一步了解细节,再根据 index 中的索引访问对应的 detail 文件。”

----------------------

项目地址

https://github.com/Jackson7362085/context-retrieval

安装

进入 Claude Code,输入:
/plugin marketplace add Jackson7362085/context-retrieval
/plugin install context-retrieval

----------------------

卸载
/plugin uninstall context-retrieval

----------------------

使用:

对当前对话生成总结文件

1. 可以主动输入 /save-summary 命令,对当前对话进行总结,在项目目录中生成相应总结文件
2. 插件绑定了 PreCompact hook,在 Claude 即将自动压缩上下文时,会自动调用 save_summary.py,确保关键信息在压缩前被保存

----------------------

下一轮对话使用总结文件

通过 MCP 工具访问,当前提供了以下两个 tool:

read_context_index 读取项目的 .claude/context/index.json 文件,用于获取上一轮对话的摘要信息(项目目标、当前状态、已验证事实、下一步行动等)
read_context_resolution 读取某个具体问题的详细解决方案(包括问题分析、根本原因、解决步骤、验证方法)

----------------------
实现细节模型提示词实际使用的对话记录 (click for more details)
一些其他想法

23年之前是模型时代,GPT等模型让机器第一次具备了通用的语言与推理能力,24-25是智能体时代RAG 与工具调用(Tool Use)的普及,让 AI 拥有了手和眼,开始具备执行复杂任务的能力。26年之后应该是认知时代,希望AI可以拥有"长期记忆"与"连贯人格"。未来的 AI 不再是阅后即焚的聊天窗口,而是有历史、有偏好、真正懂你的"第二大脑" 🧠

当然个人是希望基础模型架构上能有所突破,可以实现类似的能力,否则我们只能依赖于工程实现。 25年相关的辅助模型长期记忆项目有Mem0,MemU等,以及前一阵的cowork的类似记忆项目,都是通过向量召回的形式,主要受限于基于相似度检索的固有缺陷:过度抽取,多轮任务容易漂移,不可解释,长期一致性弱。感觉这就是简单介绍AI记忆的产品,不能算是下一代智能体的记忆基础。还有类似的项目MemOS,其实是想打造一个AI时代的操作系统,也就是上下文操作系统,他的设计哲学是 ‘不仅存数据,连记忆本身也应该是可学习的结构’,但是最终发展向何方也不好说,但是我认为OS这个概念应该是正确的,智能体需要一个统一的 Memory OS 来管理:世界镜像、用户模型、关系图谱、时间线、任务链、工具调用状态。
EverMemOS(开源版)官方公布成绩是92.3%,横评可复现92.32%,是目前评测中唯一在综合得分上超越 LLM Full-context的记忆系统,且平均Token数显著低于full-context。这打破了我们的固有认知。通常认为把所有历史扔给大模型(Full-context)是效果最好的。但评测数据显示,过多的上下文反而引入了噪音,稀释了模型的注意力。EverMemOS证明了一点:对于长期记忆,'精准的遗忘’和’精准的记’一样重要。高质量的记忆抽取和召回系统,实际上是在帮大模型做’注意力减负’。
在编程这种反馈及时的领域,一个好的记忆系统应该是怎么样的需要我们持续思考改进,个人的项目充其量就是抛砖引玉,如果后期更新我也会及时同步到git仓库,可以随手点个star关注 💖,同时也期待佬友们更好的创意 🥰

20 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: Jackson7362085)