Linux.do 热门话题 – Telegram
Linux.do 热门话题
3.09K subscribers
25.9K photos
35 videos
13 files
42.1K links
除了Linux,其他的我们都聊一点
https://linux.do
Download Telegram
王者荣耀 小马糕

wz.bocchi.vip

王者荣耀灵宝集市码高价分享实时更新

网站直接套用的之前一个佬友的,不过他已经开始收费了 😄

30 posts - 25 participants

Read full topic

via LINUX DO - 热门话题 (author: 波奇酱)

Invalid media: image
【CloudFlare-ImgBed】不多说了,佬们自己看吧🫡

这个版本增加了滑动框选进行多选的功能,还支持 cmd/shift/ctrl 补充选择,太丝滑了!
https://cfbed.1314883.xyz/file/zotero-pro/PixPin_2026-02-07_21-59-34(1).gif(图片大于 4 MB)

还更新了一些实用功能:

文件详情弹窗支持编辑元数据(文件名、文件类型),编辑后实时同步到文件列表
文件详情弹窗支持重命名 File ID(URL 路径标识),含前端格式验证和后端重复性检测
随机图 API 新增 orientation 参数,支持按图片方向筛选(横图/竖图/方图),仅对 v2.5.7 及以上版本存储的图片生效
上传时自动提取图片尺寸信息(Width、Height),通过文件头魔数检测格式(仅支持jpeg, png, gif, webp等格式,不支持分块上传文件)

github.com

GitHub - MarSeventh/CloudFlare-ImgBed: Open-source file hosting solution based on...

Open-source file hosting solution based on CloudFlare (Image hosting/File storage/Cloud drive) / 基于 CloudFlare 的开源文件托管解决方案(图床/文件床/网盘)

求Star​✨️

22 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: 叁月柒)

Invalid media: image
想辞去工程师职位去游轮做服务员

我司也算是某一消费电子类产品的头部,核心业务排名始终全球第一,但是此等名誉和我这个垃圾没有半毛钱关系。入职半年以来,作为PMC方向的工程师,我拿着税后8K的工资,每天早8晚7/8,干着不喜欢且痛苦的工作。
刚开始先是每天学习日常工作,学习的过程中我发现这个工作内容跟之前面试的时候面试官所说的数据分析不一样,不是我想干的。随着继续深度的学习过程中,我的痛苦也与日俱增。我是一个非常需要兴趣驱动的人,但是这个工作内容我完全完全不喜欢,所以一直摆烂,和同期的新大相比,我根本毫不积极,学东西也慢,虽然带教很好,但是还免不了被骂。实际上手工作后,发现工作内容非常烦琐,需要和物控、主计划、生产、采购、工程、品管等等部门打交道,天天被骂,当时经常是哭着睡着,睡醒了眼睛也是湿的,梦里面也在流泪。
由于个人经历,我是一个防御性很强的人,在不安全的环境下会直接启动防御模式。在这个部门我就开启了防御模式,每天都笑不出来,绷着一张脸,也不和任何人打好关系,因此大家都觉得我没有融入团队(笑死,还融入,我只想炸了公司😊),但是最终我还是顺利转正了,这也只是我更痛苦的开始罢了。
转正后,轻松的过了一个月之后,噩梦开始了:我带了一条新线,这条线体非常难带,一天有无数个异常,每天都在落产,生产也非常不给力,连沟通都成问题,他们甚至听不懂我在说什么🤪。而且原来的一条线体,产品需求量暴增,业务竞标了无数个大标案,线体承受不住这个需求,连加了2条小线都不够,还得开夜班生产,这些都意味着我的工作量成倍增加。每个标案单的出货需求都非常急,有些甚至有罚款,我需要在有限的产能下,按照出货需求排程,但是他物料也不齐套啊,主芯片经常缺,前段钢壳也有瓶颈 后段物料不是跳票就是采购周期没有给够交不进来,而且物料经常还有异常要断线,产线生产不时也有异常入不了库需要我跟进,当时我经常性的每天干到下午6点多才有时间看邮件(每天看几百封邮件,看无数个群消息,回成百封邮件和消息)。因为异常太多了,我回邮件会比较晚,被骂;异常没有及时更进,被骂;即使跟进了,在损失最低的情况下,也被骂;到后面我都练就了:被骂面不改色,听着对方骂,骂完了继续沟通的能力,我的眼泪早已哭干了😄
和各种神人打交道以及被各种人骂甚至不是我最痛苦的点,最痛苦的点是因为这类工作的计划性质,我需要看未来几天的生产安排,一旦因为各种原因导致未来会断线,我就会陷入深深的焦虑,又要被骂了,又要去各种协调跟进了。因为这份工作,我甚至活在了对未来的恐惧之中,如果我继续干下去,我将会一周、一个月、一年、两年、一辈子都陷入对未来的恐惧当中。我真的没有办法接受我一辈子这样下去,在又一个失眠到4点的夜晚,我下定了离职的决心。这份工作就像一个烂苹果,如果因为担心失去这个苹果,而不把它扔出去,就腾不出手来拿新的水果,这个苹果也会一直在我手里变得越来越烂,况且我本来就不爱吃苹果🍎,何不把它扔出去呢。下定决心后,在一个周四的早上,我和领导提了离职,连年终奖我都不想要了,真的干不下去,痛苦到极致了。
但是我也不是很盲目很冲动提的,我刚入职就想走,但是当时没有钱,也不知道以后要去做什么,所以就一直忍着忍着,后来就发现可以去游轮上做海乘,和陆地上一样辛苦(平均每天干10H,连干5-7个月不休息)但是最起码人家是身体疲惫,一个月能攒1W+,包吃住并且干完一个合同能休2-3个月的假,也能练习英语口语、出国看看;我这每个月到手才8K,天天操不完的心,担惊受怕的,肾都不好了(思虑惊惧伤肾),何必呢。所以干够半年多,攒够4W,加上我原来的1W,我就提离职了,这点钱至少够我折腾一年。
我一直都想出国,因为我始终无法融入主流文化,虽然我在咱家生活了这么多人,但始终是一个局外人。出国既能脱离原有文化圈,也不用融入当地的文化,这非常适合我这种孤魂野鬼。再一个就是,我真的想去世界各地看看,作为一个没有家的人,我想给我的灵魂找一个可以托付的地方。我也真的不想过上5休2,一辈子困在格子间里的日子,真的。
海乘非常辛苦,但是它也有几个好处:1、能攒到钱 2、能练到口语 3、能去世界各地看看 有这三个优点,对我来说也够了。
所以,我又要过自我流放的日子了。

32 posts - 23 participants

Read full topic

via LINUX DO - 热门话题 (author: feng)
ai 短剧公益工具,毛病应该还不少,你提我改

当前只有线上版本,功能还不稳定,等做的差不多可以打包为exe给大家用。
http://58.87.99.7 欢迎测试,纯前端项目,所有配置都在你自己的浏览器缓存里
测试了豆包和newapi转接的gemini nano banana pro

使用说明

前三个工具是组合一起用的,第一个生成九宫格的提示词,第二个生成图片,第三个切图

生成的提示词可以一键代入图文生图
这份文档是给“第一次打开这个项目的人”准备的:它用最短路径带你认识系统能做什么、从哪里开始用,以及本目录下其它 Markdown 文档分别解决什么问题。
说明:本文刻意不包含“导演分镜金字塔/旧版”相关介绍。


这是什么

scenes-gen 是一个本地运行的前端工具箱,用来把“生成图片 / 处理图片 / 生成分镜提示词”等常见工作流放在同一个界面里完成。它的定位更像一把多功能小刀:不追求所有功能都最复杂,但追求“打开就能用、流程顺手、结果可复制/可下载”。

如果你是第一次配置模型或接口,优先看“模型与密钥管理”

系统功能一览

下面的功能名称以界面侧边栏/页面为准(可能会随版本调整,但工作流不变)。

1) 图像生成

把你的提示词与参考图变成最终图片,并保留历史记录,方便回看与复用。

常见用法:

写提示词 → 选择模型/参数 → 生成 → 预览/保存
多张参考图辅助风格统一(按页面提示添加)

2) 多机位工厂

一次触发多个机位(例如正/侧/背)的生成任务,适合做角色设定、道具三视图、场景多角度等“同题多解”的需求。

3) 拼图切分(GridSplitter)

把一张多宫格拼图切成单张小图,并支持批量导出下载,常用在“把合成图拆分成素材包”的场景。

工作流(典型):

上传拼图
设定网格(手动为主,必要时再用自动识别)
预览每个 tile
一键打包下载

4) 导演与分镜(StoryBoarder)

以参考图为依据,生成结构化的分镜提示词(按镜头类型组织),用于后续出图或撰写分镜脚本时快速对齐表达方式。

15 posts - 15 participants

Read full topic

via LINUX DO - 热门话题 (author: 张华)

Invalid media:
image
image
image
「慕鸢の公益站」余额福袋,领取后请及时兑换~

----------------------

https://newapi.linuxdo.edu.rs/

----------------------

领取链接(一百个,六十分以上可领)
cdk.linux.do

LINUX DO CDK

Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单

59 posts - 54 participants

Read full topic

via LINUX DO - 热门话题 (author: 慕鸢)

Invalid media:
image
image
【图像视频系列4】Seedance2.0内测,性能超过Sora2/VEO3.1,每天免费薅十几次的方法

Seedance2 vs Sora2

出境功能

只有即梦App和Sora App有录制出境功能
即梦网页版和小云雀网页版,国内国际版,小云雀App版,Sora网页版都没有录制出境功能
都是要拍自己视频,念数字克隆声音,不能上传视频
只有即梦App版有出境功能,对标Sora2的Cast in(以前叫Cameo)功能
Sora2不限出境人数,但实际超过5人很容易混淆,即梦限3人+1道具

分辨率

Sora2和seedance2都是720p,OpenAI的Pro会员有1080p

时长

Sora2有10s和15s,即梦App有5s和10s,即梦网页版有4~15秒,小云雀网页版有5/10/15s

额度

Sora2早期每天免费30条10s或15条15s,现在降为每天10条10s或5条15s
即梦App现在内测是每天10条

Seedance2渠道

另外画图seedream 5.0在2月10日左右也将内测
每个手机号以下①②③合起来每天可以薅十几条2.0视频
不够用就换抖音号(手机号)

①即梦网页渠道

网址:jimeng.jianying.com
网页有2.0,App没有

时间可以选4~15秒,颗粒度精确到1秒,720p

注册送2次+260积分,买¥1试用会员才能用2.0(记得立即取消订阅,以免7天后被扣费),每天送积分,1秒6积分=¥0.4

额外充值69/月÷1080积分=¥0.065/积分

②小云雀网页渠道

时貌似要手机版先注册,网页才能登上
网页有2.0,App也有

网址:xyq.jianying.com

是字节旗下内部赛马App,功能类似即梦,主打Agent一建出长片

时间只能5/10/15秒

账号积分与即梦完全无关,可同一个手机分别注册

注册送3次,1200积分,无需充值就能用2.0,每天120免费积分,免费1秒10积分,会员1秒可能6积分不确定¥0.2

会员首月39/月÷1200积分=¥0.032/积分,现在推广期价格是即梦一半

③豆包App渠道

app有2.0,网页没有
时间只能5/10秒,没有15秒
质量貌似比即梦/小云雀版略差

必须加豆包官方飞书群(1群或2群)才有2.0,填表填豆包uid,等管理员给通过会收到信息,再打开豆包app就有2.0了,每天10次

----------------------

在这里获取豆包uid:https://www.doubao.com/chat/settings

④Dreaminia 即梦国际版网站

网址:dreamina.capcut.com

需要美金信用卡或PayPal,不支持支付宝微信

现在可能还没上2.0,不确定

⑤Pippit 小云雀国际网页版渠道

网页版试用会员有seedance2.0和seeddream5.0画图,App版不确定
网址:https://www.pippit.ai/
需要开Global模式或改Pac文件,否则会跳转到国内版
7天免费试用,需绑卡,记得绑完立即取消,以免7天后扣款
注册送520积分,每天120
会员首月$18=3200积分

视频效果参见L站其他帖子

.即梦最新模型居然没人发!seedance2.0
.https://linux.do/t/topic/1577222

我近期帖子

.🔥【大模型系列20】关于Opus-4.6,你想知道的一切【Antigravity Ultra用户已上线4.6,Pro暂未上线】
.🔥【大模型系列19】关于GPT-5.3-Codex与Codex App,你想知道的一切【底楼更新gemini/opus/codex三窗口一起开方法】
.【Agent系列4】Clawdbot(Moltbot/OpenClaw)全球爆火的底层原理
.【图像视频系列3】Wan2.6 vs Sora2,阿里高仿Sora2上线【长期更新】
.【图像视频系列2】为什么Sora2是一款革命性产品,为什么能火遍全球,你想知道的一切【长期更新】

13 posts - 12 participants

Read full topic

via LINUX DO - 热门话题 (author: dwqxq1)

Invalid media:
image
image
image
【分享】12306车票查询MCP

platform.iflow.cn

心流开放平台 - 心流开放平台 | 心流开放平台

心流AI开放平台,用AI重塑研发范式,让每一位开发者体验沉浸、高效的创作流程
{
"mcpServers": {
"12306-mcp": {
"command": "npx",
"args": [
"-y",
"@iflow-mcp/12306-mcp@0.3.4"
]
}
}
}


19 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: Mozi)

Invalid media:
image
image
image
image
1000刀稳定grok api支持全模型(已恢复),量大管跑,给我狠狠刷

如题啊

接口

http://104.250.139.178:10922/

密钥

sk-0czyC3eKjcRAighrvaWroLDWWmqEL2QAQa187uzWZ6reLuI2

支持模型

grok-2,grok-2-vision,grok-2-vision-1212,grok-3,grok-3-beta,grok-3-fast-beta,grok-3-mini,grok-3-mini-beta,grok-3-mini-beta-high,grok-3-mini-beta-low,grok-3-mini-beta-medium,grok-3-mini-fast-beta,grok-3-mini-fast-beta-high,grok-3-mini-fast-beta-low,grok-3-mini-fast-beta-medium,grok-4,grok-4-0709,grok-4-0709-search,grok-4-1-fast-non-reasoning,grok-4-1-fast-reasoning,grok-vision-beta,grok-code-fast-1,grok-beta,grok-4-fast-reasoning,grok-4-fast-non-reasoning

模型真实

薅死x.ai

56 posts - 40 participants

Read full topic

via LINUX DO - 热门话题 (author: CNk Yuw)
高效Vibe Coding实战经验分享:将 CLAUDE.md 打造为「微型OS内核」,实现能力边界大拓宽

两个月前,我的 CLAUDE.md 塞了4200 Token的规则,有自己总结的,有从网上抄来的。大量规则并未带来好的性能,反而让agent很忘性,响应质量越来越差。而且,当我需要修改某个规则时,得在多个项目里同步更新,维护成本不言而喻。

认真花了一个月时间优化 CLAUDE.md ,探索很多不同的方法,也尝试Github上很高热度的CLAUDE.md。经过一个月的实战尝试,找到了一个最佳的CLAUDE.md模式:动态指令加载 + Task Mode 驱动。

一、传统的 CLAUDE.md 有什么问题?

相信很多开发者的 CLAUDE.md 长这样:所有规则平铺直叙地堆在一个文件里,用Markdown标题做简单的区块划分。早期内容不多时,这没问题。但随着规则增加,agent 每次执行任务前都要加载大量内容,但其中多数与当前任务无关。就好比厨师做菜前,把整个菜谱都背了一遍。我总结这类CLAUDE.md的四个问题:

1. Token 爆炸:每次对话都要加载完整规则,浪费大量 token,成本高,响应慢。
2. 维护繁琐:修改一条规得在每个项目的 CLAUDE.md 里同步更新,容易遗漏。
3. Agent困惑:无关规则干扰 AI 判断。比如在调试 Python 后端时,它还在纠结 React 组件的命名规范。
4. 行为模式混乱:AI 不知道当前的"任务上下文"。同样是"修改代码",开发新功能、重构优化、调试 bug 的行为模式应该完全不同,但传统 CLAUDE.md 写法难以表达这种差异。

二、拆解 CLAUDE.md ,开启瘦身之路

优化目标很明确:如何在保持 CLAUDE.md 篇幅精简的同时,保持内容不删减,甚至提高性能?

在借鉴了Skills, @chunxiangai@yan5xu 的Prompt思路,我的方案是:

1️⃣将原有 CLAUDE.md 拆散到文件云端,设置触发条件,让Agent进行动态指令加载;
2️⃣ 设置Task Mode ,进一步划分Agent的行为边界;

功能一:动态指令加载

所谓动态指令加载,本质就是把 CLAUDE.md 当成插件系统,将详细的规则放置在云端, CLAUDE.md 中只放置触发条件和云端URL即可。Agent在处理某任务时,会自己判断是否拉取云端规则。这样一来,即使你在CLAUDE.md中放置了很多规则,尺寸也不会膨胀。

还有一个好处是,你只要在云端修改一次,所有Agent都会同步这条规则,因为毕竟是运行时通过curl拉取的 。

如何实操呢?

云端规则方面,推荐借助 @modal 部署一个 API,方便 Agent 通过 curl 获取内容。

本地文件的话,我习惯在核心目录放置 Development_xxx.md 文件。比如 Development_Service.md 放在 app/service 下,Development_Repository.md 放在 app/repository 下。Agent 在这些目录工作时,就会读取 Development_xxx.md 并遵循其中要求。

这样一来,Agent 可以根据任务,选择性在合适时机读取内容,指令遵守性更强。经过多版本尝试,我总结了以下提示词,主流 Agent 对其遵守度都蛮不错的:

功能二:Task Mode 驱动

所谓Task Mode,就是在输入任务前先对任务归个类。比如,新增功能 → feature. ;重构现有模块 → refactor. ;解决bug → debug。每种模式会定义特定的行为,比如refactor不允许改动对外API接口,debug模式需先推断潜在可能,然后写print打印关键信息.

举个例子,我想要重构某服务模块,写提示词时可以这么写: “refactor. 请重构xxx服务模块,具体要求为: xxx”;当想要debug时候,可以这么写: “debug. 存在如下问题,请你定位问题所在并修复”

当某个task mode的要求比较多时,同样使用上述所说的**动态指令加载。**最后你的提示词会长成这样:

三、小结一下 + 模型推荐

按照上述动态指令加载 + Task Mode 驱动的方法瘦身CLAUDE.md后,Agent就会像一个微型OS内核,有“动态协议”,“任务状态机”等。

最后推荐GPT 5.2/5.3模型,它对这类CLAUDE.md/AGENT.md的遵守能力最强,和pi agent这种system prompt很干净的Harness配合时候,效果极佳。

27 posts - 21 participants

Read full topic

via LINUX DO - 热门话题 (author: BadJason)

Invalid media:
image
image
image
image
image
KonataAPI,中转站管理小工具,统计、查询、签到、测试功能齐全

分享一个自己写的小工具:KonataAPI

余额这块:

统一管理所有中转站,一键批量查余额
自动识别 OpenAI、NewAPI、sub2api 这些格式,不用手动配
没 API Key 的话用 Cookie 也能查

签到:

一键签到所有站点
配了 Cookie 的自动调接口签到,没配的打开浏览器让你手动签
签到记录都有保存

站点测试:

测连通性
Claude 真伪检测(问知识截止时间,准确率大概 95%)
可以直接在工具里对话测试
支持好几种请求格式:Anthropic 原生、OpenAI、OpenAI Responses、Claude CLI 格式

其他:

站点档案管理,记录充值、备注啥的
统计图表(余额分布、充值趋势)
低余额提醒
最小化到托盘、开机自启、定时自动查询

----------------------

支持的 API 格式:

----------------------

截图:
(1)数据统计

(2)令牌余额查询与日志查询

(3)一键签到和一键查询所有中转站余额

(4)连通性测试

(5)真伪性测试与对话



GitHub: xiaopenghuang/KonataAPI: 一个用于查询 AI 中转站余额和调用日志的桌面工具

觉得有用点个 Star ~

18 posts - 16 participants

Read full topic

via LINUX DO - 热门话题 (author: hurry_huang)

Invalid media:
image
image
image
image
image
image
今天我生日~~~~

如題
好麻煩。我媽那個客戶一直在那邊拖時間
都快要聊到晚上了
我的生日只能泡湯了 🙁

好想哭🥲

58 posts - 57 participants

Read full topic

via LINUX DO - 热门话题 (author: Sinkfield University)
【OpenClaw】小白也能看得懂的ClawBot原生接入ClaudeCode教程

最近在折腾Claw时感觉好多文档都是东一块西一块的,而且官方文档也是一坨,所以干脆自己写一个简单至极的直接接入CC的教程。

----------------------

1. 安装 ClaudeCode


2. 配置 Claude Code 自定义网关

2.1 编辑 ~/.claude/settings.json
{
"env": {
"ANTHROPIC_API_KEY": "******",
"ANTHROPIC_BASE_URL": "https://example.com",
"CLAUDE_CODE_DISABLE_NONESSENTIAL_TRAFFIC": "1"
},
"model": "opus"
}


2.2 验证网关是否生效:
claude -p "say hi"


2.3 如果不想改全局配置,可以用 --settings 指定配置:
claude --settings /Users/***/.claude/settings_local.json -p "你好"

能正常返回即说明网关和 key 配置正确。

----------------------

3. 安装 OpenClaw
TIP: Node.js >= 22.12.0


3.1 安装:
npm install -g openclaw


3.2 初始化:
openclaw setup

初始化成功响应如下:
Wrote ~/.openclaw/openclaw.json
Workspace OK: ~/.openclaw/workspace
Sessions OK: ~/.openclaw/agents/main/sessions

----------------------

4. 配置 OpenClaw

4.1 设置模型,可选 opussonnethaiku
openclaw config set agents.defaults.model.primary "claude-cli/opus"


4.2 设置 Gateway 为本地模式(不设会拒绝启动):
openclaw config set gateway.mode local


4.3 (可选)让 OpenClaw 使用指定的 Claude Code 配置,同2.3
openclaw config set agents.defaults.cliBackends.claude-cli.command "claude"
openclaw config set agents.defaults.cliBackends.claude-cli.args '["-p","--output-format","json","--dangerously-skip-permissions","--settings","/Users/***/.claude/settings_local.json"]'

----------------------

5. 启动 Gateway

5.1 先设置访问令牌:
openclaw config set gateway.auth.token "api-token-test"


5.2 安装服务、启动服务:
openclaw gateway install
openclaw gateway start


5.3 打开 Web 面板:
http://127.0.0.1:18789/#token=api-token-test


5.4 快速测试:
openclaw agent --local --session-id test --message "你好"

成功响应:
[agent/claude-cli] cli exec: provider=claude-cli model=opus promptChars=6
你好!有什么可以帮你的?

----------------------

6. 配置 Telegram Bot

6.1 启用 Telegram 插件:
openclaw plugins enable telegram

成功响应:
Enabled plugin "telegram". Restart the gateway to apply.


6.2 添加 Bot Token(从 Telegram @BotFather 获取):
openclaw channels add --channel telegram --token "8571******:AAF0Iu******BqaYtew-4"

成功响应:
Added Telegram account "default".


6.2 设置私聊策略为白名单模式:
openclaw config set channels.telegram.dmPolicy "allowlist"

成功响应:
Updated channels.telegram.dmPolicy. Restart the gateway to apply.


6.3 添加授权用户 ID(从 Telegram @userinfobot 获取,多个用户用逗号分隔):
openclaw config set channels.telegram.allowFrom '[你的USER_ID]'

成功响应:
Updated channels.telegram.allowFrom. Restart the gateway to apply.


6.4 (可选)如果 Bot 之前设过 webhook,启动会报冲突,先删掉:
curl -s "https://api.telegram.org/bot你的BOT_TOKEN/deleteWebhook"
{"ok":true,"result":true,"denoscription":"Webhook was deleted"}


6.5 配置完成后重启 Gateway
openclaw gateway restart

----------------------
接下来就能在 Telegram Bot 中愉快使用了!

----------------------
由于ClaudeCode支持的Tools限制,所以实际效果比OpenClaw接入Claude官方API会差一些。
14 posts - 14 participants

Read full topic

via LINUX DO - 热门话题

Invalid media: image
Claude 推出 fast mode,2.5倍加速,6倍价钱

更快的响应速度,质量不变

费用 ×6倍,即

<200k $30/150

>200k $60/225

cc订阅不能用,得加钱
Claude Code Docs

Speed up responses with fast mode - Claude Code Docs

Get faster Opus 4.6 responses in Claude Code by toggling fast mode.

Claude 推出 fast mode,2.5倍加速,6倍价钱 前沿快讯
卧槽, [image] 对比正常opus和sonnet [image]

79 posts - 53 participants

Read full topic

via LINUX DO - 热门话题 (author: Graye)

Invalid media:
image
image
【已领完 CDK分发】老破小(WOW)公益站20刀CDK(72份,共1440刀)

大家好!活动一下~ 然后领 CDK (/≧▽≦)/

主帖:【已接入LinuxDO OAuth】老破小公益站复活~ 注册送100刀(已上线 Kimi-2.5)
cdk.linux.do

LINUX DO CDK

Linux Do 社区 CDK 快速分享平台 - 让分享变得更简单

最低用户分数:10
分发内容:20刀*72
各位佬友不要问我为什么数量是 72,咱也不知道:D
顺带一提,最近公益站上线了 Flux 绘图模型,价格还没定好,欢迎来玩 (≧∇≦)ノ

兑换截至 2026/02/15 11:45:14

33 posts - 31 participants

Read full topic

via LINUX DO - 热门话题 (author: 吴先生)

Invalid media: image
震惊!Claude opus 4.6 数学能力飞速提升!在数学专业题目上拳打GPT5.2,脚踢Gemini 3!无思考模式持平GPT 5 Pro!

A\畜
来来来你告诉我claude数学能力持平 GPT 5.2 xhigh???????
来来来你告诉我不同推理强度差距这么小??无推理快赶上64k推理???
来来来你告诉我无推理的 opus 4.6 在 Tier4 超难题上持平GPT 5 pro????

:distorted_face:
35 posts - 13 participants

Read full topic

via LINUX DO - 热门话题 (author: lueluelue)

Invalid media:
image
image
image
【抽奖】一觉醒来升三级了,我也抽个奖吧,DeepL Pro账号一个月*2

抽奖主题: 三级了,感谢L站! 👋 😉我也来个抽奖

🏆️ 奖品详情:

[奖品]:DeepL Pro账号一个月 一共20篇文献翻译额度 文本翻译不限

:three_o_clock: 活动时间:

开始时间:2026/02/08 12:30
截止时间:2026/02/09 12:30
📝 参与方式:

在本帖下回复任意内容

🔍️ 抽奖规则:

每位用户仅允许参与一次。
使用官方抽奖工具随机抽取中奖者。

⚠️ 注意事项:

本活动将在活动截止时间后关闭回帖,以确保公正性。
中奖者将在活动结束后12小时内在本帖公布,并通过私信通知领奖方式。
所有规则及抽奖结果由活动发起人和论坛管理团队最终解释。

期待您的积极参与,祝您好运!如有任何疑问,欢迎随时联系抽奖发起人。

66 posts - 66 participants

Read full topic

via LINUX DO - 热门话题 (author: 連清琦)

Invalid media: image
Qwen 3.5 即将发布,新PR揭示线性注意力与 MoE 细节

Qwen似乎已准备好发布其下一代模型。根据 Hugging Face Transformers 代码库的最新动态显示,一项名为「Adding Support for Qwen3.5」的 PR已被提交,正式为即将到来的 Qwen 3.5 系列模型铺平道路

在本次更新中最引人注目的技术细节,莫过于一个名为 Qwen3_5DynamicCache 的新类别。根据代码注释,该缓存机制被设计为:
“A dynamic cache that can handle both the attention cache (which has a seq_len dimension) and the linear attention cache (which has a constant shape regardless of seq_len).”
(一個動態緩存,可同時處理具有序列長度維度的注意力緩存,以及具有恆定形狀的線性注意力緩存。)
根据 PR 中新增的,Qwen 3.5 系列将是一个庞大的家族,涵盖了纯文本、多模态视觉以及混合专家模型(MoE):

● 多模态视觉能力:包含 Qwen3_5VisionModelQwen3_5ForConditionalGeneration,并配备了自动图像处理器(Auto Image Processor),
● MoE 架构:代码中明确列出了 Qwen3_5MoeQwen3_5MoeText,证实 Qwen 3.5 将继续沿用Moe
Qwen3.5-9B-Instruct 现身 Hugging Face PR。**

2B 稠密模型,35B-A3B MoE(混合专家模型);支持视觉功能,采用基于 Gated DeltaNet 的混合架构。**
github.com/huggingface/transformers

Adding Support for Qwen3.5 (#43830)
mainbozheng-hit:qwen3_5
已打开 05:51AM - 08 Feb 26 UTC
bozheng-hit
+6720 -9
This PR adds the support of codes for the upcoming Qwen3.5 series models. For information about Qwen, please visit: 👉https://qwen.ai Special thanks to @JJJYmmm for helping complete the code in this PR. We also appreciate the valuable feedback and thorough review provided by @vasqu and @ArthurZucker ! 🙏

23 posts - 18 participants

Read full topic

via LINUX DO - 热门话题 (author: Bunn)

Invalid media:
image
image