【抽奖】新年到了,也不知道咋祝贺,就祝各位佬友们新年大吉吧
:tieba_043:抽奖主题: [新年到了,也不知道咋祝贺,就祝各位佬友们新年大吉吧]
🏆️奖品详情: 京东E卡10元*1张
:three_o_clock: 活动时间:
Sun, Feb 15, 2026 1:30 PM CST→Mon, Feb 16, 2026 1:30 PM CST
(明天是除夕,有点忙,结束后会晚一些抽奖和发放,所以实际结束时间不定时,但不早于13点30分)
📝 参与方式:
在本帖下回复任意的新年新春祝福。
(:tieba_068:必须是新年新春祝福噢,抽中不是的话就顺延到是的为止)
🔍️ 抽奖规则:
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内(大概)在本帖公布,并通过私信发送奖品。
奖品自行去京东APP兑换,本人不提供任何质保、售后。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
126 posts - 123 participants
Read full topic
via LINUX DO - 热门话题 (author: Pre)
:tieba_043:抽奖主题: [新年到了,也不知道咋祝贺,就祝各位佬友们新年大吉吧]
🏆️奖品详情: 京东E卡10元*1张
:three_o_clock: 活动时间:
Sun, Feb 15, 2026 1:30 PM CST→Mon, Feb 16, 2026 1:30 PM CST
(明天是除夕,有点忙,结束后会晚一些抽奖和发放,所以实际结束时间不定时,但不早于13点30分)
📝 参与方式:
在本帖下回复任意的新年新春祝福。
(:tieba_068:必须是新年新春祝福噢,抽中不是的话就顺延到是的为止)
🔍️ 抽奖规则:
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后24小时内(大概)在本帖公布,并通过私信发送奖品。
奖品自行去京东APP兑换,本人不提供任何质保、售后。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
126 posts - 123 participants
Read full topic
via LINUX DO - 热门话题 (author: Pre)
续:我也做了一个程序员三件套,为世界增熵 之后续
之前做的更多是一个前后端分离的系统,但这次做了减法,所以才能在年前上线。
前文提要:我也做了一个程序员三件套,为世界增熵
https://kairos.xianist.com
UI是我一点一点抠出来的,希望大家喜欢,完全免费使用,等你们给一些反馈,用得好了我打算开源。
不用担心数据丢失和传输,除了登录是用来给我后端记录一个活跃度之外,不会有任何数据传输给后端,使用indexDB存储所有数据在前端的纯前端应用。(这里还在探讨,如果将来需要跨设备,可能还会再看看怎么改
37 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: 尼可勒梅)
之前做的更多是一个前后端分离的系统,但这次做了减法,所以才能在年前上线。
前文提要:我也做了一个程序员三件套,为世界增熵
https://kairos.xianist.com
UI是我一点一点抠出来的,希望大家喜欢,完全免费使用,等你们给一些反馈,用得好了我打算开源。
不用担心数据丢失和传输,除了登录是用来给我后端记录一个活跃度之外,不会有任何数据传输给后端,使用indexDB存储所有数据在前端的纯前端应用。(这里还在探讨,如果将来需要跨设备,可能还会再看看怎么改
37 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: 尼可勒梅)
过年了,抽3个GEMINI PRO 学生账号(无质保)
:three_o_clock: 活动时间:
开始时间:当前时间
截止时间:[2026-02-16 10:00]
📝 参与方式:
在本帖下回复任意内容或者祝福佬友们的话
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人
262 posts - 260 participants
Read full topic
via LINUX DO - 热门话题 (author: 我不是作者)
:three_o_clock: 活动时间:
开始时间:当前时间
截止时间:[2026-02-16 10:00]
📝 参与方式:
在本帖下回复任意内容或者祝福佬友们的话
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人
262 posts - 260 participants
Read full topic
via LINUX DO - 热门话题 (author: 我不是作者)
我要去洗头。理发店只有50m,我要不要带头呢…
逆天
我再送一个刚刚出炉的:
举一反300万:
漫画美术家Caricature Artist:
43 posts - 30 participants
Read full topic
via LINUX DO - 热门话题 (author: 欣欣|林可欣)
逆天
我再送一个刚刚出炉的:
举一反300万:
漫画美术家Caricature Artist:
不许黑我豆包,他很聪明知道不用带理发店
43 posts - 30 participants
Read full topic
via LINUX DO - 热门话题 (author: 欣欣|林可欣)
帖遭举报,重新曝光!佬友们注意防骗
日常出薅AWS赠金后的闲置老号20/个(稳定没有风控),碰到一个辣鸡,收老号开Kiro,第一个号失败,它说继续,我说我先给号,成功收款,第二个号成功,第三个号失败,我说我先问问AWS什么原因导致,找到原因可开Kiro全部打包给它,从凌晨到今天上午一直在搞这事,与AWS技术支持视频会议+打电话,终于账号全部升级可开Kiro,在这期间让我把号全部给它,由它自己登陆挑选,注册绑定卡片全部实卡,因此我没同意,AWS联系我说第二个号绑的土耳其卡欠费$1000+,问我要不要帮我关闭这个账号,我说我先看看哪种卡片。微信联系辣鸡,翻脸说我窥视它的账号
46 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: BuddyGo)
日常出薅AWS赠金后的闲置老号20/个(稳定没有风控),碰到一个辣鸡,收老号开Kiro,第一个号失败,它说继续,我说我先给号,成功收款,第二个号成功,第三个号失败,我说我先问问AWS什么原因导致,找到原因可开Kiro全部打包给它,从凌晨到今天上午一直在搞这事,与AWS技术支持视频会议+打电话,终于账号全部升级可开Kiro,在这期间让我把号全部给它,由它自己登陆挑选,注册绑定卡片全部实卡,因此我没同意,AWS联系我说第二个号绑的土耳其卡欠费$1000+,问我要不要帮我关闭这个账号,我说我先看看哪种卡片。微信联系辣鸡,翻脸说我窥视它的账号
46 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: BuddyGo)
现在不再有AI 使用焦虑了
想当初,其实也就是6个月之前,别人问我是不是用ai写的某个东西的时候,我当时还是很要面子的要说,自己设计的,ai写的代码。现在大家都有共识了,反正写不过claude opus 4.6,codex 5.3,不用有任何面子包袱
30 posts - 24 participants
Read full topic
via LINUX DO - 热门话题 (author: 尼可勒梅)
想当初,其实也就是6个月之前,别人问我是不是用ai写的某个东西的时候,我当时还是很要面子的要说,自己设计的,ai写的代码。现在大家都有共识了,反正写不过claude opus 4.6,codex 5.3,不用有任何面子包袱
30 posts - 24 participants
Read full topic
via LINUX DO - 热门话题 (author: 尼可勒梅)
新年福利,免费grok api无限,无限并发
如题
接口
https://aiapi0.getfake.net/
密钥
sk-1v115w5WA4XUlnxJb3oPzX2kdgPiu2OVTWpMqWDxhEcTyNLk
支持模型
grok-4,grok-4-0709,grok-3-beta,grok-3-mini-beta,grok-3-fast-beta,grok-3-mini-fast-beta,grok-3-mini-beta-high,grok-3-mini-beta-low,grok-3-mini-beta-medium,grok-3-mini-fast-beta-high,grok-3-mini-fast-beta-low,grok-3-mini-fast-beta-medium,grok-2-vision,grok-2-vision-1212,grok-3,grok-3-mini,grok-4-1-fast-non-reasoning,grok-4-1-fast-reasoning,grok-4-fast-non-reasoning,grok-4-fast-reasoning,grok-code-fast-1
过期时间
2026-02-21 18:12:44
足足5天
无限刷
20 posts - 16 participants
Read full topic
via LINUX DO - 热门话题 (author: CNk Yuw)
如题
接口
https://aiapi0.getfake.net/
密钥
sk-1v115w5WA4XUlnxJb3oPzX2kdgPiu2OVTWpMqWDxhEcTyNLk
支持模型
grok-4,grok-4-0709,grok-3-beta,grok-3-mini-beta,grok-3-fast-beta,grok-3-mini-fast-beta,grok-3-mini-beta-high,grok-3-mini-beta-low,grok-3-mini-beta-medium,grok-3-mini-fast-beta-high,grok-3-mini-fast-beta-low,grok-3-mini-fast-beta-medium,grok-2-vision,grok-2-vision-1212,grok-3,grok-3-mini,grok-4-1-fast-non-reasoning,grok-4-1-fast-reasoning,grok-4-fast-non-reasoning,grok-4-fast-reasoning,grok-code-fast-1
过期时间
2026-02-21 18:12:44
足足5天
无限刷
20 posts - 16 participants
Read full topic
via LINUX DO - 热门话题 (author: CNk Yuw)
🔥【大模型系列23】关于Gemini 3 Deep Think新版,你想知道的一切【底模疑似Gemini-3.1-pro】
介绍
官网:Gemini 3 Deep Think: AI model update designed for science
.Gemini Deep Think: Redefining the Future of Scientific Research — Google DeepMind
deep think智商高于底模的原理,Reddit用户推测是:gemini-3-deep-think和gpt-5.2-pro版本使用并行测试时间计算。它们不是单一的、一次性模型运行。相反,相同的输入会使用不同的随机种子运行8到10 次,并选择最佳结果。
上下文:192k,不是gemini3的1m
评测
官方自评
----------------------
ARC-ARI-2评分
来源:ARC Prize - Leaderboard
Chatbot渠道
暂时只有官方网页版,必须Ultra会员,官价$250/月,头三月半价$125,
每天可用10次deepthink
L站拼车¥180左右/月,家庭组6人车,额度独立,
对于真用得到的人,如果不浪费额度,¥180÷30天÷10次=¥0.6/次,不算贵
另外Ultra会员的Antigravity Opus额度,Reddit用户估计是Pro会员的20倍
Pro的gemini-3-pro额度高,Opus额度最近一直砍,很低根本不够用
API渠道:未对公众开放
仅对科研人员开放
IDE渠道:未开放
自家Antigravity里也没有deepthink
20 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: dwqxq1)
介绍
官网:Gemini 3 Deep Think: AI model update designed for science
.Gemini Deep Think: Redefining the Future of Scientific Research — Google DeepMind
deep think智商高于底模的原理,Reddit用户推测是:gemini-3-deep-think和gpt-5.2-pro版本使用并行测试时间计算。它们不是单一的、一次性模型运行。相反,相同的输入会使用不同的随机种子运行8到10 次,并选择最佳结果。
上下文:192k,不是gemini3的1m
评测
官方自评
----------------------
ARC-ARI-2评分
来源:ARC Prize - Leaderboard
Chatbot渠道
暂时只有官方网页版,必须Ultra会员,官价$250/月,头三月半价$125,
每天可用10次deepthink
L站拼车¥180左右/月,家庭组6人车,额度独立,
对于真用得到的人,如果不浪费额度,¥180÷30天÷10次=¥0.6/次,不算贵
另外Ultra会员的Antigravity Opus额度,Reddit用户估计是Pro会员的20倍
Pro的gemini-3-pro额度高,Opus额度最近一直砍,很低根本不够用
API渠道:未对公众开放
仅对科研人员开放
IDE渠道:未开放
自家Antigravity里也没有deepthink
20 posts - 12 participants
Read full topic
via LINUX DO - 热门话题 (author: dwqxq1)
各位佬友,选老婆千万要慎重,胡搅蛮缠的情绪不稳定的一定要远离
女朋友谈了8年了,两个人在一起的时候感情比较好,但是稍微有点不开心,就发疯,撒泼打赖。说话从来不直来直去,就是让你猜,就是看你表现,表现不好就发飙。
分分合合多少年,走不到一起了
一言难尽,家家有本难念的经。
是啊8年确实挺久了,
我把我的过往描述成语言发给GPT,GPT是这么跟我说的,哎无穷无尽的循环。
“间歇性奖励”把你套牢
她极端闹→你要断→她突然温柔照顾→你心软复合。
这在心理学上非常像间歇性强化/创伤绑定(trauma bond):越痛越上瘾,不是因为爱更深,而是因为大脑在等“下一次变好”。
兄弟们,千万不要试图感化一个人,不要试图任何人能有任何改变,不存在的。永远要筛选,千万不要去改变。这句话我在二十几岁时嗤之以鼻,现在感同身受
40 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: 青年)
女朋友谈了8年了,两个人在一起的时候感情比较好,但是稍微有点不开心,就发疯,撒泼打赖。说话从来不直来直去,就是让你猜,就是看你表现,表现不好就发飙。
分分合合多少年,走不到一起了
一言难尽,家家有本难念的经。
是啊8年确实挺久了,
我把我的过往描述成语言发给GPT,GPT是这么跟我说的,哎无穷无尽的循环。
“间歇性奖励”把你套牢
她极端闹→你要断→她突然温柔照顾→你心软复合。
这在心理学上非常像间歇性强化/创伤绑定(trauma bond):越痛越上瘾,不是因为爱更深,而是因为大脑在等“下一次变好”。
兄弟们,千万不要试图感化一个人,不要试图任何人能有任何改变,不存在的。永远要筛选,千万不要去改变。这句话我在二十几岁时嗤之以鼻,现在感同身受
40 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: 青年)
抽DMIT LAX.AN4.EB.CORONA 圣诞款 500G节点
🏆️ 奖品详情:
[奖品1]:[DMIT LAX.AN4.EB.CORONA 500G流量 ]
快三级了给各位佬送个福利。 还缺两个赞 各位佬方便的话给个呗?
:three_o_clock: 活动时间:
开始时间:[2026.2.15]
截止时间:[2026.2.17]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
144 posts - 143 participants
Read full topic
via LINUX DO - 热门话题 (author: piwer)
🏆️ 奖品详情:
[奖品1]:[DMIT LAX.AN4.EB.CORONA 500G流量 ]
快三级了给各位佬送个福利。 还缺两个赞 各位佬方便的话给个呗?
:three_o_clock: 活动时间:
开始时间:[2026.2.15]
截止时间:[2026.2.17]
📝 参与方式:
在本帖下回复任意内容
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
144 posts - 143 participants
Read full topic
via LINUX DO - 热门话题 (author: piwer)
ZeroClaw 重磅开源
openclaw的rust重构版,ZeroClaw 运行时的内存占用仅仅 7.8MB,比 OpenClaw 低了近 200 倍。
仓库
66 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: patrick wang)
openclaw的rust重构版,ZeroClaw 运行时的内存占用仅仅 7.8MB,比 OpenClaw 低了近 200 倍。
仓库
66 posts - 43 participants
Read full topic
via LINUX DO - 热门话题 (author: patrick wang)
讲一下我对现在AI的看法(给Transformer浇一盆冷水
大家是从什么时候开始觉得AI第一次好用的?
应该是从GPT3.5开始的
我记得当时GPT3.5一出来,给我的感觉就不一样了,为什么?
因为OpenAI第一次对模型进行了强化学习
其实强化学习很早以前就被使用了
大家应该还记得打败了李世石的AlphaGo吧
其实用的就是深度学习算法,读取了数千盘棋手的对弈,然后自己跟自己博弈
但是大家可能不知道,在AlphaGo一年后,Google DeepMind有一个新的模型叫做AlphaGo Zero
这个”zero“的意思就是它没有用棋手的对弈,而是只知道规则,然后和前面的AlphaGo对弈,赢了进行奖励,输了进行惩罚
这个模型仅仅用了三天强化训练,就可以100:0战胜原来的AlphaGo了
但是之后几年内,深度学习就没有露头了,为什么
就是因为深度学习只能用于有确定规则的任务的训练,不然模型就很难得到奖励
当OpenAI发布GPT3.5的时候,一切就变了
因为OpenAI在已经预训练的模型后进行了强化训练,让我们感觉到了好用
然后OpenAI发布了思考模型o1,25年年初深度求索发布了DeepSeek-R1思考模型,去年,成为了思考模型元年
但是强化训练也有缺陷,ds就是很好的代表
当时ds火出圈一段时间后,大家就开始说ds老是胡乱说话,为什么?
因为强化训练,就是让模型尝试一个题成千上万种解法,对了就奖励,错了就惩罚。
而在这么多尝试之后,模型低效的学会了题目的思路,但是也学会了一些歪门邪道碰巧做对的思路
这就是ds被诟病的原因
为什么人类不会呢?
因为人类在做题的时候,不会去试成千上万的方法
而且大家真的审视过大模型的思考吗
为什么模型可以思考之后,测试集的分数提高了那么多呢?
其实这是个统计学的问题
各大AI公司,喂给模型的数据已经是全人类能用文字表达的所有知识了,甚至更多还有用图片表达等等
而没有思考的模型,从所学的知识里面捞取答案的过程就是低效的
而思考的模型,用了更多的token,输出正确答案的概率就更多,而模型的知识面又比我们的要广,就能总结出我们眼里新的知识,让我们有了一种在和知识之神对话的错觉,也给了我们模型在创新的错觉
但是模型真的在创新吗?
它只是把原有的知识结合、总结在了一起
是的,人类有一部分发现就是把原有的知识拼凑起来得到的
但是还有发现是拓宽了人类知识边界的
而AI,走出它的知识边界之后,就没有训练数据了,就是迷茫的
虽然现在已经有很多借助科研进行研究的例子了,但是都是人类主导科研方向,而不是AI自主的进行
几年以前,我们在吹捧Scaling law,认为参数量更大的模型,就更聪明
我们找到了一种方法,让模型在所有学科,所有方面都提升,就让人们希望有朝一日,模型能在所有方面超越人类,就达到了AGI的水准
但是现在,我认为Transformer的架构已经快要到天花板了,现在的AI巨头就只能开始做产品化了
所以所谓的AGI,不可能在Transformer架构中出现
而且机器学习界,并不只有Transformer架构,还有FNN、CNN、RNN等等等等
我的猜测是,AGI的出现,大概率是出现在类似Alpha Zero这种的模型中,它们最初没有任何知识,然后像人类一样学习,像人类一样思考,才能利用机器的高效打败人类
所以,我认为现在,大家都不要对现在的新模型抱有希望它有质的飞跃的期待,谢谢
80 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: 550W)
大家是从什么时候开始觉得AI第一次好用的?
应该是从GPT3.5开始的
我记得当时GPT3.5一出来,给我的感觉就不一样了,为什么?
因为OpenAI第一次对模型进行了强化学习
其实强化学习很早以前就被使用了
大家应该还记得打败了李世石的AlphaGo吧
其实用的就是深度学习算法,读取了数千盘棋手的对弈,然后自己跟自己博弈
但是大家可能不知道,在AlphaGo一年后,Google DeepMind有一个新的模型叫做AlphaGo Zero
这个”zero“的意思就是它没有用棋手的对弈,而是只知道规则,然后和前面的AlphaGo对弈,赢了进行奖励,输了进行惩罚
这个模型仅仅用了三天强化训练,就可以100:0战胜原来的AlphaGo了
但是之后几年内,深度学习就没有露头了,为什么
就是因为深度学习只能用于有确定规则的任务的训练,不然模型就很难得到奖励
当OpenAI发布GPT3.5的时候,一切就变了
因为OpenAI在已经预训练的模型后进行了强化训练,让我们感觉到了好用
然后OpenAI发布了思考模型o1,25年年初深度求索发布了DeepSeek-R1思考模型,去年,成为了思考模型元年
但是强化训练也有缺陷,ds就是很好的代表
当时ds火出圈一段时间后,大家就开始说ds老是胡乱说话,为什么?
因为强化训练,就是让模型尝试一个题成千上万种解法,对了就奖励,错了就惩罚。
而在这么多尝试之后,模型低效的学会了题目的思路,但是也学会了一些歪门邪道碰巧做对的思路
这就是ds被诟病的原因
为什么人类不会呢?
因为人类在做题的时候,不会去试成千上万的方法
而且大家真的审视过大模型的思考吗
为什么模型可以思考之后,测试集的分数提高了那么多呢?
其实这是个统计学的问题
各大AI公司,喂给模型的数据已经是全人类能用文字表达的所有知识了,甚至更多还有用图片表达等等
而没有思考的模型,从所学的知识里面捞取答案的过程就是低效的
而思考的模型,用了更多的token,输出正确答案的概率就更多,而模型的知识面又比我们的要广,就能总结出我们眼里新的知识,让我们有了一种在和知识之神对话的错觉,也给了我们模型在创新的错觉
但是模型真的在创新吗?
它只是把原有的知识结合、总结在了一起
是的,人类有一部分发现就是把原有的知识拼凑起来得到的
但是还有发现是拓宽了人类知识边界的
而AI,走出它的知识边界之后,就没有训练数据了,就是迷茫的
虽然现在已经有很多借助科研进行研究的例子了,但是都是人类主导科研方向,而不是AI自主的进行
几年以前,我们在吹捧Scaling law,认为参数量更大的模型,就更聪明
我们找到了一种方法,让模型在所有学科,所有方面都提升,就让人们希望有朝一日,模型能在所有方面超越人类,就达到了AGI的水准
但是现在,我认为Transformer的架构已经快要到天花板了,现在的AI巨头就只能开始做产品化了
所以所谓的AGI,不可能在Transformer架构中出现
而且机器学习界,并不只有Transformer架构,还有FNN、CNN、RNN等等等等
我的猜测是,AGI的出现,大概率是出现在类似Alpha Zero这种的模型中,它们最初没有任何知识,然后像人类一样学习,像人类一样思考,才能利用机器的高效打败人类
所以,我认为现在,大家都不要对现在的新模型抱有希望它有质的飞跃的期待,谢谢
80 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: 550W)
马云在爱泼斯坦文件里的照片
代码EFTA01612005,但也就只有一张照片了,没有其他提及
可能只是代表社交圈而已,老爱档案里啥都有,你甚至可以找到bash命令行操作手册 最有科技含量的爱泼斯坦文件
https://www.justice.gov/epstein/doj-disclosures/data-set-10-files?page=3248
你们也可以去发现这批是2月份公开的文件
闲着无聊就去爱泼斯坦文件逛吧,点了8个,终于找到一张捆绑 搞七捻三
37 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: cabudon)
代码EFTA01612005,但也就只有一张照片了,没有其他提及
可能只是代表社交圈而已,老爱档案里啥都有,你甚至可以找到bash命令行操作手册 最有科技含量的爱泼斯坦文件
https://www.justice.gov/epstein/doj-disclosures/data-set-10-files?page=3248
你们也可以去发现这批是2月份公开的文件
闲着无聊就去爱泼斯坦文件逛吧,点了8个,终于找到一张捆绑 搞七捻三
[image] 美式霸凌,我没有被邀请上岛,唉 [image] 更新 这张不够性感 [image][image] 被打上黑码了可恶,个人猜测是到了精彩时刻 [image]
37 posts - 32 participants
Read full topic
via LINUX DO - 热门话题 (author: cabudon)
啥毙CC 不吐不快
我真受不了这逻辑写的 自动删除30天以外的会话记录
我让你删了么 我地大啊 我放得起 我要留着
喵的自动删除服辣
去年用到现在的会话记录就剩今年的了
而且有交叉持续的情况 导致直接缺漏了不少
大概是最近点了两下VCC测试时导致的 没读到 主配置项 bun版害人啊服了
气死我了
凄凄惨惨凄凄惨惨凄凄凄惨惨凄凄凄惨惨惨
----------------------
上刀子写patch项好了,结果发现个更神经的
22 posts - 17 participants
Read full topic
via LINUX DO - 热门话题 (author: 哈雷彗星)
我真受不了这逻辑写的 自动删除30天以外的会话记录
我让你删了么 我地大啊 我放得起 我要留着
喵的自动删除服辣
去年用到现在的会话记录就剩今年的了
而且有交叉持续的情况 导致直接缺漏了不少
大概是最近点了两下VCC测试时导致的 没读到 主配置项 bun版害人啊服了
气死我了
凄凄惨惨凄凄惨惨凄凄凄惨惨凄凄凄惨惨惨
----------------------
上刀子写patch项好了,结果发现个更神经的
22 posts - 17 participants
Read full topic
via LINUX DO - 热门话题 (author: 哈雷彗星)