抽15个Gemini enterprise
抽奖主题: Gemini enterprise *15
🏆️ 奖品详情:
Gemini enterprise *15
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 2:00 PM CST
📝 参与方式:
在本帖下回复任意内容,要是能 👍️ 更好了
🔍️ 抽奖规则:
使用官方抽奖工具
随机抽取中奖者。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
195 posts - 195 participants
Read full topic
via LINUX DO - 热门话题 (author: aizith)
抽奖主题: Gemini enterprise *15
🏆️ 奖品详情:
Gemini enterprise *15
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 2:00 PM CST
📝 参与方式:
在本帖下回复任意内容,要是能 👍️ 更好了
🔍️ 抽奖规则:
使用官方抽奖工具
随机抽取中奖者。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
195 posts - 195 participants
Read full topic
via LINUX DO - 热门话题 (author: aizith)
今天去线下面试,面试官是 L 佬
如题,你说过不过是不是在这里喊一下我可以用 credit 积分买职位吗?
统一回复怎么发现的:
因为我有 ai 开源项目聊到了,问的混哪个社区,我说 L 站
90 posts - 67 participants
Read full topic
via LINUX DO - 热门话题 (author: beingS)
如题,你说过不过是不是在这里喊一下我可以用 credit 积分买职位吗?
统一回复怎么发现的:
因为我有 ai 开源项目聊到了,问的混哪个社区,我说 L 站
90 posts - 67 participants
Read full topic
via LINUX DO - 热门话题 (author: beingS)
没啥抽的,之前也搞过公益站,抽两个人用我现在自用的api
之前公益站因为各种原因不搞了,
但是自己还在用自己的2api渠道
不支持 function call
模型还是挺全的。
自己用每个月额度都用不完,抽两个佬友用,用沉浸式翻译估计够呛能支持。
正常问答肯定是没问题。
可用模型市面上的基本都有
1月7号 18:00开奖
奖品
自用2api站点 API*2 理论上能用到我不用。
我啥时候不用你啥时候也就用不了了。
40个模型总共
266 posts - 266 participants
Read full topic
via LINUX DO - 热门话题 (author: 猫的于)
Invalid media: image
之前公益站因为各种原因不搞了,
但是自己还在用自己的2api渠道
不支持 function call
模型还是挺全的。
自己用每个月额度都用不完,抽两个佬友用,用沉浸式翻译估计够呛能支持。
正常问答肯定是没问题。
可用模型市面上的基本都有
1月7号 18:00开奖
奖品
自用2api站点 API*2 理论上能用到我不用。
我啥时候不用你啥时候也就用不了了。
40个模型总共
266 posts - 266 participants
Read full topic
via LINUX DO - 热门话题 (author: 猫的于)
Invalid media: image
签到站升星站二合一
签到站和升星系统合并在一起了,然后签到也不会发放兑换码了,而是直接的打进你的账户里面增加余额。就不用拿着兑换码再去对换了()
然后,概率调了一下(应该是一下吧),之前说的没错,太容易1w次了嘿嘿,甚至还有人发帖说连续几天抽到1w的!!!所以就微微的降低了:one_o_clock:
157 posts - 149 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
Invalid media:
image
image
image
签到站和升星系统合并在一起了,然后签到也不会发放兑换码了,而是直接的打进你的账户里面增加余额。就不用拿着兑换码再去对换了()
然后,概率调了一下(应该是一下吧),之前说的没错,太容易1w次了嘿嘿,甚至还有人发帖说连续几天抽到1w的!!!所以就微微的降低了:one_o_clock:
157 posts - 149 participants
Read full topic
via LINUX DO - 热门话题 (author: bohe)
Invalid media:
image
image
image
「免费」nvidia下模型免费使用
nivida模型免费用
在手机cherrystudio响应速度挺快的
官网
build.nvidia.com
Try NVIDIA NIM APIs
Experience the leading models to build enterprise generative AI apps now.
api请求地址
https://integrate.api.nvidia.com/v1/chat/completions
82 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Haggi)
Invalid media:
image
image
nivida模型免费用
在手机cherrystudio响应速度挺快的
官网
build.nvidia.com
Try NVIDIA NIM APIs
Experience the leading models to build enterprise generative AI apps now.
api请求地址
https://integrate.api.nvidia.com/v1/chat/completions
82 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Haggi)
Invalid media:
image
image
火绒强力卸载要来啦,拳打GeekUninstaller,脚踢TotalUninstall :tieba_016:
下午刚看到消息,火绒强力卸载准备在2天后开始做beta版的测试了,看是可以卸载除了WinAPP外的软件,而且还是独立安装,大家感兴趣的蹲一蹲
bbs.huorong.cn
火绒强力卸载 - 火绒安全软件
火绒强力卸载 ,火绒安全软件
但现在看论坛还是一片空白
:tieba_016:
72 posts - 68 participants
Read full topic
via LINUX DO - 热门话题 (author: (๑;ᴗ ;)ﻭ)
Invalid media:
image
image
下午刚看到消息,火绒强力卸载准备在2天后开始做beta版的测试了,看是可以卸载除了WinAPP外的软件,而且还是独立安装,大家感兴趣的蹲一蹲
1月8号的他们家论坛bbs.huorong.cn
火绒强力卸载 - 火绒安全软件
火绒强力卸载 ,火绒安全软件
但现在看论坛还是一片空白
:tieba_016:
72 posts - 68 participants
Read full topic
via LINUX DO - 热门话题 (author: (๑;ᴗ ;)ﻭ)
Invalid media:
image
image
搞了个新的神经网络架构 Fielix,比 Transformer 学得快,分享一下
闲着没事搞了个神经网络架构,开源出来水一下
GitHub: GitHub - 1600822305/Fielix: A novel neural network architecture featuring Field Effect Propagation, Dynamic Topology, Spiral Memory, and Emergent Position Encoding. Achieves better learning efficiency than Transformer.
简单说就是用"场效应"替代注意力机制,实验下来学习效率比 Transformer 高不少:
实验结果 (27M 参数)
● 初始 Loss:Fielix 3.0 vs Transformer 7.9
● 最终 Loss:Fielix 1.66 vs Transformer 2.59
● 训练速度:慢 2x
缺点是训练慢 2 倍 😂
没精力继续优化了,感兴趣的大佬随便玩
52 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Fake)
闲着没事搞了个神经网络架构,开源出来水一下
GitHub: GitHub - 1600822305/Fielix: A novel neural network architecture featuring Field Effect Propagation, Dynamic Topology, Spiral Memory, and Emergent Position Encoding. Achieves better learning efficiency than Transformer.
简单说就是用"场效应"替代注意力机制,实验下来学习效率比 Transformer 高不少:
实验结果 (27M 参数)
● 初始 Loss:Fielix 3.0 vs Transformer 7.9
● 最终 Loss:Fielix 1.66 vs Transformer 2.59
● 训练速度:慢 2x
缺点是训练慢 2 倍 😂
没精力继续优化了,感兴趣的大佬随便玩
52 posts - 48 participants
Read full topic
via LINUX DO - 热门话题 (author: Fake)
以为买的人少就没有人发现?L站富可敌国商家x-aio模型一天改三次模型倍率,用国产模型以次充好,暗改prompt计费规则
现在纯粹剩下看乐子的心态了,哈。
而且突然发现好像改了计费规则是不是,还是我记错了,以前好像是1额度等于10次api调用,啥时候编程阶梯段计费了,佬们随便看看就好
282 posts - 138 participants
Read full topic
via LINUX DO - 热门话题 (author: 0.6)
Invalid media:
image
image
image
image
现在纯粹剩下看乐子的心态了,哈。
而且突然发现好像改了计费规则是不是,还是我记错了,以前好像是1额度等于10次api调用,啥时候编程阶梯段计费了,佬们随便看看就好
282 posts - 138 participants
Read full topic
via LINUX DO - 热门话题 (author: 0.6)
Invalid media:
image
image
image
image
【太子公益】芝麻开门:500
从
【太子公益】更新啦,接入 new-api,支持 CC,
【太子公益】接入 NewAPI-Tool,小黑耗子要注意喔
讨论
昨天接入new-api,昨天是临时提前开放通知,好多佬友没赶上,今天接入new-api tools,趁着新鲜开放第2批。,这次提前通知了喔,接下来就是维护渠道以及模型了。
人员:500
开放时间:2026-01-08 22:00:00
taizi.api.51yp.de5.net
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
这应该是本月最后一次开放了,
排除重大更新都会开放,比如接入LDC
祝佬友们开门!!!
60 posts - 52 participants
Read full topic
via LINUX DO - 热门话题 (author: 太子哥)
Invalid media: image
从
【太子公益】更新啦,接入 new-api,支持 CC,
【太子公益】接入 NewAPI-Tool,小黑耗子要注意喔
讨论
昨天接入new-api,昨天是临时提前开放通知,好多佬友没赶上,今天接入new-api tools,趁着新鲜开放第2批。,这次提前通知了喔,接下来就是维护渠道以及模型了。
人员:500
开放时间:2026-01-08 22:00:00
taizi.api.51yp.de5.net
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
这应该是本月最后一次开放了,
排除重大更新都会开放,比如接入LDC
祝佬友们开门!!!
60 posts - 52 participants
Read full topic
via LINUX DO - 热门话题 (author: 太子哥)
Invalid media: image
小红书小绿书神器来了!【开源自荐】
平时喜欢自己画一些信息图,感觉很好看,所以搓了个项目专门用来使用大香蕉生成信息图。我和cc联合,天下无敌! :lark_085:
内置12个模板。
网站内可以配置api直接用,也可以复制prompt,粘贴到gemini或者flow之类的生成。
佬友们有新的模板也欢迎贡献!
在线地址:https://nano-info.aizhi.site/
github地址: liujuntao123/Nano-Info
30 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: liu juntao)
Invalid media: image
平时喜欢自己画一些信息图,感觉很好看,所以搓了个项目专门用来使用大香蕉生成信息图。我和cc联合,天下无敌! :lark_085:
内置12个模板。
网站内可以配置api直接用,也可以复制prompt,粘贴到gemini或者flow之类的生成。
佬友们有新的模板也欢迎贡献!
在线地址:https://nano-info.aizhi.site/
github地址: liujuntao123/Nano-Info
30 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: liu juntao)
Invalid media: image
Vibe Coding 可能正在掏空你的大脑。
说这话的是个叫Stephan Schmidt的老程序员,他写代码写了40年,什么技术浪潮都见过。
他最近分享了自己用AI编程的感受:这种累不是加班的那种腰酸背痛,是一种大脑被掏空的虚脱感。
我第一次看到这句话的时候,觉得说得太准了。
很多人可能疑惑,工具不是应该让人更轻松吗?怎么反而更累了?
带着这个疑问,我去查了不少资料,也跟几位深度使用AI编程的朋友聊了聊。
聊完之后,我好像想明白了一些事情。
Vibe Coding这个概念最早是AI大牛Andrej Karpathy提出来的。
简单说就是:写代码不用再一行一行敲了,你只需要告诉AI你想要什么,它就能哗啦啦给你生成几百行代码。
以前写代码有个节奏,你写一段,编译一下,等个几十秒,然后看看结果,再想想怎么改。
这个过程虽然慢,但给了大脑处理信息的时间。
那些等待的时间不是浪费,而是大脑在悄悄建立对代码的理解。
但AI把这个等待时间给取消了。
现在的节奏变成了:输入需求、生成代码、发现报错、点击修复、再次生成。
整个循环快得惊人,快到大脑根本来不及消化。
Schmidt打了个比方,我觉得特别形象。
他说这就像从扛着锄头种地,一夜之间换成了开时速200公里的联合收割机。
机器不等你,你得跟上它的节奏。
Schmidt还讲了个他年轻时的故事。
那时候他在一家塑料厂打工,负责操作一台机器。
机器每隔几十秒就会叮一声,提醒他去取下零件、换上新外壳。
刚开始他压力特别大,因为他必须按照机器的节奏来,而不是机器按照他的节奏来。
他说现在的AI编程就是那台塑料机。
AI不会累,它可以无限地输出。
你给它一个模糊的反馈,它马上吐出新方案。
你还没看完呢,它又准备好下一个了。
为了不让这台永不停歇的机器闲着,人类只能不断加快自己的反馈速度。
你看出问题了吗?
我们本来是想用工具来服务自己,结果变成了我们在服务工具。
人的脑力是有上限的。
传统编程的时候,你虽然在干活,但你的角色是生产者,代码是从你脑子里流出来的,你清楚每一行是什么意思。
但用AI编程的时候,你的角色变了,你变成了审查者。
第一,你要处理高频的上下文切换。
AI可能一次性改动五六个文件,你得在几秒钟内理解这些文件之间的关系,判断这个方案行不行。
这种跳跃式的思考,消耗的脑力是惊人的。
第二,你要做大量的双向对齐。
传统编程,代码是你脑中想法的实现。但AI生成的代码,是它自己推演出来的。这个推演过程不一定和你想的一样。
于是你得不停地猜:AI是怎么理解我的需求的?它为什么这么写?这个实现方式和我预期的差多少?
这种猜测本身就很耗能。
第三,你要保持持续的警觉。
AI生成的代码里可能藏着bug。
你不知道在哪儿,但你知道肯定有,所以你得一直绷着神经。
这三种压力叠加在一起,就形成了一种隐性疲劳。
你并没有真的在敲键盘,但大脑已经在高速运转了。
当我们的思考速度跟不上生产速度的时候,该怎么办?
这个问题其实不只存在于编程领域。
工具在加速,但人脑的处理能力并没有跟着升级。
这就形成了一个gap。
我觉得这是我们这代人需要认真面对的一个课题。
Schmidt给了几个建议:
第一步,有意识地控制节奏。
不要被AI的生成速度带跑,它输出再快,也不意味着你要立刻响应。
如果你看不明白AI给的东西,那就停下来。慢慢看,想清楚再继续。
第二步,每天做一次手动回顾。
花点时间把AI今天生成的代码过一遍,在脑子里重新建立一个完整的模型。
这个步骤很多人会觉得浪费时间,AI都写好了,我为什么还要再看?
但这恰恰是保持认知清晰的关键。
你可以把这个过程理解成和AI做一次同步。你得知道它干了什么,才能在下一次给出更精准的指令。
第三步,方案先行。
不要每次AI吐出代码都去精挑细选。
更聪明的做法是:在动手之前,先把大方向定好。告诉AI你的整体架构是什么,用什么技术栈,有什么约束条件。
前期的引导做得越充分,后期的返工就越少。
这其实是一种思维方式的转变,从被动接受变成主动引导。
AI编程确实是好东西,它能帮我们做很多以前做不了的事情。
但它也带来了新的挑战:我们得学会在高速运转的工具面前,保持自己的节奏感。
人需要时间思考,需要空间消化,需要偶尔停下来喘口气。
把思考的间隙,从机器手里抢回来,是我们这一代人要学会的最重要的能力之一。
感觉很有共鸣,和大家分享
passport.weibo.com
Sina Visitor System
54 posts - 46 participants
Read full topic
via LINUX DO - 热门话题 (author: z1056544889)
说这话的是个叫Stephan Schmidt的老程序员,他写代码写了40年,什么技术浪潮都见过。
他最近分享了自己用AI编程的感受:这种累不是加班的那种腰酸背痛,是一种大脑被掏空的虚脱感。
我第一次看到这句话的时候,觉得说得太准了。
很多人可能疑惑,工具不是应该让人更轻松吗?怎么反而更累了?
带着这个疑问,我去查了不少资料,也跟几位深度使用AI编程的朋友聊了聊。
聊完之后,我好像想明白了一些事情。
Vibe Coding这个概念最早是AI大牛Andrej Karpathy提出来的。
简单说就是:写代码不用再一行一行敲了,你只需要告诉AI你想要什么,它就能哗啦啦给你生成几百行代码。
以前写代码有个节奏,你写一段,编译一下,等个几十秒,然后看看结果,再想想怎么改。
这个过程虽然慢,但给了大脑处理信息的时间。
那些等待的时间不是浪费,而是大脑在悄悄建立对代码的理解。
但AI把这个等待时间给取消了。
现在的节奏变成了:输入需求、生成代码、发现报错、点击修复、再次生成。
整个循环快得惊人,快到大脑根本来不及消化。
Schmidt打了个比方,我觉得特别形象。
他说这就像从扛着锄头种地,一夜之间换成了开时速200公里的联合收割机。
机器不等你,你得跟上它的节奏。
Schmidt还讲了个他年轻时的故事。
那时候他在一家塑料厂打工,负责操作一台机器。
机器每隔几十秒就会叮一声,提醒他去取下零件、换上新外壳。
刚开始他压力特别大,因为他必须按照机器的节奏来,而不是机器按照他的节奏来。
他说现在的AI编程就是那台塑料机。
AI不会累,它可以无限地输出。
你给它一个模糊的反馈,它马上吐出新方案。
你还没看完呢,它又准备好下一个了。
为了不让这台永不停歇的机器闲着,人类只能不断加快自己的反馈速度。
你看出问题了吗?
我们本来是想用工具来服务自己,结果变成了我们在服务工具。
人的脑力是有上限的。
传统编程的时候,你虽然在干活,但你的角色是生产者,代码是从你脑子里流出来的,你清楚每一行是什么意思。
但用AI编程的时候,你的角色变了,你变成了审查者。
第一,你要处理高频的上下文切换。
AI可能一次性改动五六个文件,你得在几秒钟内理解这些文件之间的关系,判断这个方案行不行。
这种跳跃式的思考,消耗的脑力是惊人的。
第二,你要做大量的双向对齐。
传统编程,代码是你脑中想法的实现。但AI生成的代码,是它自己推演出来的。这个推演过程不一定和你想的一样。
于是你得不停地猜:AI是怎么理解我的需求的?它为什么这么写?这个实现方式和我预期的差多少?
这种猜测本身就很耗能。
第三,你要保持持续的警觉。
AI生成的代码里可能藏着bug。
你不知道在哪儿,但你知道肯定有,所以你得一直绷着神经。
这三种压力叠加在一起,就形成了一种隐性疲劳。
你并没有真的在敲键盘,但大脑已经在高速运转了。
当我们的思考速度跟不上生产速度的时候,该怎么办?
这个问题其实不只存在于编程领域。
工具在加速,但人脑的处理能力并没有跟着升级。
这就形成了一个gap。
我觉得这是我们这代人需要认真面对的一个课题。
Schmidt给了几个建议:
第一步,有意识地控制节奏。
不要被AI的生成速度带跑,它输出再快,也不意味着你要立刻响应。
如果你看不明白AI给的东西,那就停下来。慢慢看,想清楚再继续。
第二步,每天做一次手动回顾。
花点时间把AI今天生成的代码过一遍,在脑子里重新建立一个完整的模型。
这个步骤很多人会觉得浪费时间,AI都写好了,我为什么还要再看?
但这恰恰是保持认知清晰的关键。
你可以把这个过程理解成和AI做一次同步。你得知道它干了什么,才能在下一次给出更精准的指令。
第三步,方案先行。
不要每次AI吐出代码都去精挑细选。
更聪明的做法是:在动手之前,先把大方向定好。告诉AI你的整体架构是什么,用什么技术栈,有什么约束条件。
前期的引导做得越充分,后期的返工就越少。
这其实是一种思维方式的转变,从被动接受变成主动引导。
AI编程确实是好东西,它能帮我们做很多以前做不了的事情。
但它也带来了新的挑战:我们得学会在高速运转的工具面前,保持自己的节奏感。
人需要时间思考,需要空间消化,需要偶尔停下来喘口气。
把思考的间隙,从机器手里抢回来,是我们这一代人要学会的最重要的能力之一。
感觉很有共鸣,和大家分享
passport.weibo.com
Sina Visitor System
54 posts - 46 participants
Read full topic
via LINUX DO - 热门话题 (author: z1056544889)
某不知名实验室发布模型UNITY(疑似套壳),基准测试超过gpt5.2?
根据该团队描述,Unity是一个多模态模型,拥有80万token的上下文窗口和12.8万token的输出窗口,输出容量是Gemini 3 Flash和Pro的两倍。
x.com
XiamenLabs - 厦门实验室
@xiamenlabs
一切准备就绪。发布倒计时开始。 pic.x.com/quUdYH2qHt
8:25 PM - 5 Jan 2026 3 1 xiamenlabs.com
XiamenLabs - Unity AI
你信这张图还是信我是秦始皇?
楼下有佬友提出较大质疑,并且本身的信息也几乎完全没有。很有可能是个乌龙,大家就当看个乐子。如果觉得问题很大我看看要不要删帖。
159 posts - 94 participants
Read full topic
via LINUX DO - 热门话题 (author: LucentSnow)
Invalid media:
image
image
image
image
image
image
image
根据该团队描述,Unity是一个多模态模型,拥有80万token的上下文窗口和12.8万token的输出窗口,输出容量是Gemini 3 Flash和Pro的两倍。
x.com
XiamenLabs - 厦门实验室
@xiamenlabs
一切准备就绪。发布倒计时开始。 pic.x.com/quUdYH2qHt
8:25 PM - 5 Jan 2026 3 1 xiamenlabs.com
XiamenLabs - Unity AI
你信这张图还是信我是秦始皇?
楼下有佬友提出较大质疑,并且本身的信息也几乎完全没有。很有可能是个乌龙,大家就当看个乐子。如果觉得问题很大我看看要不要删帖。
159 posts - 94 participants
Read full topic
via LINUX DO - 热门话题 (author: LucentSnow)
Invalid media:
image
image
image
image
image
image
image
【taka-api】codex公益站(已关闭注册)
看佬友们对codex需求量很大,开个公益站,支持传参,最高xhigh,专门供应5.2和5.2codex,纯逆向,应该不会做其他模型,按次收费,0.1刀一次,初始送5刀,每天签到1刀,用临期小鸡搞一下,被打死了就跑路😋,余额可以使用ldc兑换,10:1(不要充太多,随时可能跑路)
codex.661118.xyz
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
限时开放,截止到明早9点或者注册到200人,先试试水
@neo
57 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: takatorury🛡)
Invalid media: image
看佬友们对codex需求量很大,开个公益站,支持传参,最高xhigh,专门供应5.2和5.2codex,纯逆向,应该不会做其他模型,按次收费,0.1刀一次,初始送5刀,每天签到1刀,用临期小鸡搞一下,被打死了就跑路😋,余额可以使用ldc兑换,10:1(不要充太多,随时可能跑路)
codex.661118.xyz
New API
OpenAI 接口聚合管理,支持多种渠道包括 Azure,可用于二次分发管理 key,仅单可执行文件,已打包好 Docker 镜像,一键部署,开箱即用
限时开放,截止到明早9点或者注册到200人,先试试水
@neo
57 posts - 42 participants
Read full topic
via LINUX DO - 热门话题 (author: takatorury🛡)
Invalid media: image
Privnode 上线 Claude Code 高可用性分组,不额外涨价!
尊敬的用户:
作为我们可用性承诺的一部分,我们已为 Tier 4, 5 用户增加了如下组件:
● Claude Code - HA
此分组倍率与您的 Claude Code 分组倍率相同。
此分组的用途是为特定 Tier 提供更高可用性的服务,作为我们 SLA 保证与 Tier 服务的一部分。
对于 Tier 分级详情,请参考:会员等级与权益 | Pricing Tiers
我们推荐任何现有的 Tier 4, 5 用户使用此分组替代 Claude Code 分组进行请求。
感谢您对 Privnode 的信任与支持。
此致,
Tethys Plex
----------------------
常见问题解答
1. Q: HA 代表什么?
High Availability 的缩写。
2. Q: 为何 Codex 不推出 HA 分组?
因为 Codex 目前兜底使用的是 0.3 倍率,还能接受。
3. Q: 为何推出 HA 分组?
为了保障用户体验,我们一直是在亏本从各家采购后备渠道,例如 Cubence, Packy 等友商。但如今部分后备渠道的成本较高,因此限制用户以减少一定的成本。spoiler
4. Q: 是否会出现类似于部分友商的 HA 分组可用性与其余用户差距过大的问题?
不会。非 HA 分组同样享受兜底策略。HA 分组仅仅是将部分成本过高的兜底渠道分开而已。目前仅差距 1 个供应商。
40 posts - 39 participants
Read full topic
via LINUX DO - 热门话题 (author: 铎)
尊敬的用户:
作为我们可用性承诺的一部分,我们已为 Tier 4, 5 用户增加了如下组件:
● Claude Code - HA
此分组倍率与您的 Claude Code 分组倍率相同。
此分组的用途是为特定 Tier 提供更高可用性的服务,作为我们 SLA 保证与 Tier 服务的一部分。
对于 Tier 分级详情,请参考:会员等级与权益 | Pricing Tiers
我们推荐任何现有的 Tier 4, 5 用户使用此分组替代 Claude Code 分组进行请求。
感谢您对 Privnode 的信任与支持。
此致,
Tethys Plex
----------------------
常见问题解答
1. Q: HA 代表什么?
High Availability 的缩写。
2. Q: 为何 Codex 不推出 HA 分组?
因为 Codex 目前兜底使用的是 0.3 倍率,还能接受。
3. Q: 为何推出 HA 分组?
为了保障用户体验,我们一直是在亏本从各家采购后备渠道,例如 Cubence, Packy 等友商。但如今部分后备渠道的成本较高,因此限制用户以减少一定的成本。spoiler
4. Q: 是否会出现类似于部分友商的 HA 分组可用性与其余用户差距过大的问题?
不会。非 HA 分组同样享受兜底策略。HA 分组仅仅是将部分成本过高的兜底渠道分开而已。目前仅差距 1 个供应商。
40 posts - 39 participants
Read full topic
via LINUX DO - 热门话题 (author: 铎)
一个Team 位置 抽奖
奖品 1:GPT team 车位 * 1
:three_o_clock: 活动时间:
开始时间:Tue, Jan 6, 2026 2:44 PM CST
截止时间:Wed, Jan 7, 2026 10:00 AM CST
📝 参与方式:
在本帖下回复任意内容,能点个👍️更好,感谢大家啦~
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
120 posts - 119 participants
Read full topic
via LINUX DO - 热门话题 (author: xxxx⚡️)
奖品 1:GPT team 车位 * 1
:three_o_clock: 活动时间:
开始时间:Tue, Jan 6, 2026 2:44 PM CST
截止时间:Wed, Jan 7, 2026 10:00 AM CST
📝 参与方式:
在本帖下回复任意内容,能点个👍️更好,感谢大家啦~
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
120 posts - 119 participants
Read full topic
via LINUX DO - 热门话题 (author: xxxx⚡️)
【有意思的软件工程】你知道Claude Code 一直在变化的状态词是什么吗?
佬友们是否有发现 Claude Code 在运行时会输出一些状态信息和操作描述,如果能看懂它们,编程的过程是否会更有意思?
我在探索时发现了这些有意思的小东西,把单词发给 Claude 翻译了,贴出来给大家看看。
词汇来源:tengu_spinner_words
一些小彩蛋,Claude 提供的
● Tengu (天狗) 是 Claude Code 的内部代号,来自日本民间传说中聪明狡黠的神话生物
● Reticulating 是《模拟人生》系列游戏加载画面的经典梗:“Reticulating splines”(编织样条曲线)
● Schlepping 来自意第绪语,意为"费力地拖着重物走"
● Flibbertigibbeting 是列表中最长的单词,源自古英语,形容轻浮活泼的状态
● Clauding 是专为 Claude 创造的独特动词
● Booping 来自网络文化中"boop the snoop"(轻触鼻子)的可爱梗
40 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: 温州程序员劝退师)
Invalid media: image
佬友们是否有发现 Claude Code 在运行时会输出一些状态信息和操作描述,如果能看懂它们,编程的过程是否会更有意思?
我在探索时发现了这些有意思的小东西,把单词发给 Claude 翻译了,贴出来给大家看看。
词汇来源:tengu_spinner_words
内部代号:天狗 (Tengu)。这些词会在 Claude Code 处理任务时随机旋转显示,共 90 个。
一些小彩蛋,Claude 提供的
● Tengu (天狗) 是 Claude Code 的内部代号,来自日本民间传说中聪明狡黠的神话生物
● Reticulating 是《模拟人生》系列游戏加载画面的经典梗:“Reticulating splines”(编织样条曲线)
● Schlepping 来自意第绪语,意为"费力地拖着重物走"
● Flibbertigibbeting 是列表中最长的单词,源自古英语,形容轻浮活泼的状态
● Clauding 是专为 Claude 创造的独特动词
● Booping 来自网络文化中"boop the snoop"(轻触鼻子)的可爱梗
40 posts - 29 participants
Read full topic
via LINUX DO - 热门话题 (author: 温州程序员劝退师)
Invalid media: image
喜欢看书的人一个下载的地方 開讀
Open Books Hong Kong – 24 Jun 24
圖書下載
All books on this platform are licensed under a Creativ...
香港中文大学、香港大学、香港城市大学三所高校的图书馆,联合把自家出版社出版的中文学术书籍正式开放下载。
这不是节选试读,也不是限时开放,而是完整电子书,无需注册、免费获取、合法传播。
其中大量是历史、思想史、社会研究、人文领域的作品,很多过去只存在于高校书库或高价外文渠道。
这些书都经过正式学术评审,采用 Creative Commons 授权,意味着:你可以读、可以存、可以分享(非商业用途),而不必担心版权风险。
在信息碎片化、短内容泛滥的当下,真正系统、严肃、长期有效的知识,正在被重新放回公共空间。
如果你愿意慢慢读历史、读思想,这个网站值得收藏:
關於開讀
知識無價 免費獲取
本先導計劃由香港中文大學、香港城市大學和香港大學三家高等教育院校的圖書館與出版社聯合發起,是香港首個開放取用(open access)圖書計劃。
本計劃將陸續推出三家大學出版社出版的中文學術著作,免費開放予公眾閱覽、下載、取用和傳播。 本計劃收入之圖書均經過匿名學術評審,並採用創用CC授權條款CC-BY-NC-ND 4.0。「知識無價,免費獲取。」我們希望透過此計劃,與世界分享香港出版的學術研究成果,推動學界積極參與全球知識開放運動,讓公眾受益。
34 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: fangxiusun)
Invalid media:
image
image
Open Books Hong Kong – 24 Jun 24
圖書下載
All books on this platform are licensed under a Creativ...
香港中文大学、香港大学、香港城市大学三所高校的图书馆,联合把自家出版社出版的中文学术书籍正式开放下载。
这不是节选试读,也不是限时开放,而是完整电子书,无需注册、免费获取、合法传播。
其中大量是历史、思想史、社会研究、人文领域的作品,很多过去只存在于高校书库或高价外文渠道。
这些书都经过正式学术评审,采用 Creative Commons 授权,意味着:你可以读、可以存、可以分享(非商业用途),而不必担心版权风险。
在信息碎片化、短内容泛滥的当下,真正系统、严肃、长期有效的知识,正在被重新放回公共空间。
如果你愿意慢慢读历史、读思想,这个网站值得收藏:
關於開讀
知識無價 免費獲取
本先導計劃由香港中文大學、香港城市大學和香港大學三家高等教育院校的圖書館與出版社聯合發起,是香港首個開放取用(open access)圖書計劃。
本計劃將陸續推出三家大學出版社出版的中文學術著作,免費開放予公眾閱覽、下載、取用和傳播。 本計劃收入之圖書均經過匿名學術評審,並採用創用CC授權條款CC-BY-NC-ND 4.0。「知識無價,免費獲取。」我們希望透過此計劃,與世界分享香港出版的學術研究成果,推動學界積極參與全球知識開放運動,讓公眾受益。
34 posts - 33 participants
Read full topic
via LINUX DO - 热门话题 (author: fangxiusun)
Invalid media:
image
image
新人送个福利吧,RedteaGo 美国 esim流量卡一张
抽奖主题: Redtea 美国esim流量卡一张,100MB
🏆️ 奖品详情:
[奖品1]:Redtea 美国esim流量卡一张,100MB 激活后 三日有效 *1
只能在美国使用,提供激活二维码;
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 12:00 PM CST
📝 参与方式:
每位用户仅允许参与一次。
使用官方抽奖工具
随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队
最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
100 posts - 100 participants
Read full topic
via LINUX DO - 热门话题 (author: Frederick)
抽奖主题: Redtea 美国esim流量卡一张,100MB
🏆️ 奖品详情:
[奖品1]:Redtea 美国esim流量卡一张,100MB 激活后 三日有效 *1
只能在美国使用,提供激活二维码;
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:Wed, Jan 7, 2026 12:00 PM CST
📝 参与方式:
在本帖下回复任意内容,要是能点个赞就更好了OVO🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用官方抽奖工具
随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队
最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
100 posts - 100 participants
Read full topic
via LINUX DO - 热门话题 (author: Frederick)
【抽奖】ChatGPT Team 车位*3
新人报到,贡献一点自己的力量!!!
🏆️ 奖品详情:
● ChatGPT Team 车位*3 ● 无质保哈,不过我自己用了一段时间,还是可以的,无质保,大家权衡!!!
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:明天中午十二点(2026/1/7 12:00)
📝 参与方式:
在本帖下回复任意合规内容(新人报道,不太懂违禁词,大家看着发哈哈哈)。
🔍️ 抽奖规则:
● 每位用户仅允许参与一次。
● 使用 LINUX DO 抽奖程序随机抽取中奖者。
⚠️ 注意事项:
● 本活动将在活动截止时间后关闭回帖,以确保公正性。
● 中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
● 所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
160 posts - 155 participants
Read full topic
via LINUX DO - 热门话题 (author: yanbozhang)
新人报到,贡献一点自己的力量!!!
🏆️ 奖品详情:
● ChatGPT Team 车位*3 ● 无质保哈,不过我自己用了一段时间,还是可以的,无质保,大家权衡!!!
:three_o_clock: 活动时间:
开始时间:发帖时间
截止时间:明天中午十二点(2026/1/7 12:00)
📝 参与方式:
在本帖下回复任意合规内容(新人报道,不太懂违禁词,大家看着发哈哈哈)。
🔍️ 抽奖规则:
● 每位用户仅允许参与一次。
● 使用 LINUX DO 抽奖程序随机抽取中奖者。
⚠️ 注意事项:
● 本活动将在活动截止时间后关闭回帖,以确保公正性。
● 中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
● 所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
160 posts - 155 participants
Read full topic
via LINUX DO - 热门话题 (author: yanbozhang)
奖品:GPT team 车位 * 2(1月7开,自用,无质保)
:three_o_clock: 活动时间:
开始时间:Wed, Jan 7, 2026 1:00 AM CST
截止时间:Wed, Jan 7, 2026 4:00 PM CST
📝 参与方式:
在本帖下回复任意内容,能点个👍️更好,感谢大家啦~
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
175 posts - 170 participants
Read full topic
via LINUX DO - 热门话题 (author: lanai)
:three_o_clock: 活动时间:
开始时间:Wed, Jan 7, 2026 1:00 AM CST
截止时间:Wed, Jan 7, 2026 4:00 PM CST
📝 参与方式:
在本帖下回复任意内容,能点个👍️更好,感谢大家啦~
🔍️ 抽奖规则:
每位用户仅允许参与一次。
使用 官方抽奖工具 随机抽取中奖者。
⚠️ 注意事项:
本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后 12 小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和管理团队最终解释。
期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。
175 posts - 170 participants
Read full topic
via LINUX DO - 热门话题 (author: lanai)