橘橘橘子汁 & 🍊 – Telegram
橘橘橘子汁 & 🍊
12.4K subscribers
1.81K photos
114 videos
19 files
308 links
发一些好玩的

现在成 mb 的私人频道了

Links
t.me/Rosmontis_Daily
t.me/PDChinaNews
Download Telegram
谁家唐氏🤣
反 正 比 你 多
💯106😁34
小道消息说阿里有一个组做了个新的视频生成模型,打算这两天开源,现在放了个调用 api 的 demo 出来(这 demo 代码和上次那个一样烂 不会是同一个人写的吧

以及听说可以涩涩

https://huggingface.co/spaces/Wan-AI/Wan2.1

这两天活好多
🥰48😱1
🔥4723
🌚75😁4
突然想调查一下群友的喜好,以下哪些是可以食用的?(是可以!)
Anonymous Poll
80%
47%
71%
77%
洋葱
74%
香菜
32%
折耳根
🙊113🥰29
https://news.ycombinator.com/item?id=43178831
https://github.com/microsoft/vsmarketplace/issues/1168

妈耶...VS Code Material Theme 主题插件居然带毒,害怕
这得感染多少电脑啊...
😨65👨‍💻2
💯99🤣36
OpenAI 小丑麻了,据说 1t 激活,120t 训练量跑了个 4o 级别的玩意出来,哈哈
150 刀的推理成本就离谱,现在 OpenAI 真就只会无脑堆量了,还堆不出来,赶紧被 scaling law 干死吧
15 倍 claude-sonnet-3.7 的价格😅
🥴58💩13
今天 DeepSeek 开源的是一个自研的高速文件系统,对集群固态存储有很好的优化,也是我预测会开源的三个 infra 中的第二个(x

这个技术的重要性不亚于 FlashMLA,用户也可以明显感知到使用体验上的提升,其主要作用于 kvcache 的提速降本

使用过 DeepSeek API 的群友可能都会发现两个事情:API 的收费分输入和输出,其中输入「如果缓存击中,则价格打骨折」,这个缓存就是 kvcache

大家都知道现在的 causallm 都是相当于给出所有的上文(prefill),让模型预测下一个词;而由于 transformer 的无状态特性,每推理一个词模型都会需要把所有上文全部重新读一遍,非常浪费。kvcache 就是把重新读一遍前面部分的计算结果先暂存下来,来缓解这个问题
🔥73🥰7
来了来了,Day6!
把尤老板脸打烂,菜就多练.avif
这个大家都能看懂应该,看就是了

https://zhuanlan.zhihu.com/p/27181462601
🔥44👍5
11000 订阅!感谢观看~
🥰87❤‍🔥8

DeepSeek vs 腾讯元宝
😁96🤮27