Forwarded from Neural Shit
Лол, Метачка хочет запатентовать технологию цифрового воскрешения.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
Суть патента проста: нейронка жрёт для обучения все твои посты, переписки, лайки и комменты, чтобы создать твою полную цифровую копию.
В документе прямым текстом прописаны два сценария использования этого цифрового голема:
1) Когда ты просто решил отдохнуть от соцсетей (ну да, конечно).
2) Когда ты умер)
То есть, буквально сюжет той самой серии из "Черного зеркала". Ты уже давно почил, а твой аккаунт продолжает сраться в комментах, лайкать мемы и отвечать друзьям "лол, жиза".
Цукерберг решил, что смерть это не повод терять активную аудиторию. Теперь даже на том свете придется генерировать контент.
patentscope.wipo.int
WIPO - Search International and National Patent Collections
This patent search tool allows you not only to search the PCT database of about 2 million International Applications but also the worldwide patent collections. This search facility features: flexible search syntax; automatic word stemming and relevance ranking;…
🤡9😁5🗿3🤬1
This media is not supported in your browser
VIEW IN TELEGRAM
Image Generation with a Sphere Encoder
Китайцы упоролись и запилиликруглые тензоры сферический латент.
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
Китайцы упоролись и запилили
Мапят исходные картинки на сферу, решая проблему "углов" - отсутствия значения латента, которые не мапятся обратно в исходное распределение.
Таким образом, любое значение латента можно превратить в картинку из трейн сета.
project
paper
code - soon
🤩16🔥7😁7❤3🌚3
В предыдущем посте был webm видос, пришлось запилить сервис по конвертации webp -> PNG, webm -> MP4
Все локально в браузере.
Webplease
Все локально в браузере.
Webplease
1🔥18
🔬 ML PAPERS (arXiv, Feb 19)
📄 Towards a Science of AI Agent Reliability — 12 metrics for agent eval beyond success rate
→ arxiv.org/abs/2602.16666
📄 Agent Skill Framework — Can SLMs benefit from agent skills (Copilot, LangChain style)? On-prem focus
→ arxiv.org/abs/2602.16653
📄 Framework of Thoughts (FoT) — Unifies CoT/ToT/GoT with dynamic reasoning + auto-tuning
→ arxiv.org/abs/2602.16512
📄 Calibrate-Then-Act — LLM agents that reason about cost vs uncertainty tradeoffs
→ arxiv.org/abs/2602.16699
📄 MMA: Multimodal Memory Agent — Reliability scoring for retrieved memories (decay, credibility, conflict)
→ arxiv.org/abs/2602.16493
📄 Self-Supervised Semantic Bridge — Diffusion bridge for unpaired img2img translation + text-guided editing
→ arxiv.org/abs/2602.16664
📄 TeCoNeRV — Neural video compression with 20× memory reduction, +5.35dB PSNR at 720p
→ arxiv.org/abs/2602.16711
📄 ReMoRa — Long-video MLLM using compressed representations (sparse keyframes + motion)
→ arxiv.org/abs/2602.16412
📄 Towards a Science of AI Agent Reliability — 12 metrics for agent eval beyond success rate
→ arxiv.org/abs/2602.16666
📄 Agent Skill Framework — Can SLMs benefit from agent skills (Copilot, LangChain style)? On-prem focus
→ arxiv.org/abs/2602.16653
📄 Framework of Thoughts (FoT) — Unifies CoT/ToT/GoT with dynamic reasoning + auto-tuning
→ arxiv.org/abs/2602.16512
📄 Calibrate-Then-Act — LLM agents that reason about cost vs uncertainty tradeoffs
→ arxiv.org/abs/2602.16699
📄 MMA: Multimodal Memory Agent — Reliability scoring for retrieved memories (decay, credibility, conflict)
→ arxiv.org/abs/2602.16493
📄 Self-Supervised Semantic Bridge — Diffusion bridge for unpaired img2img translation + text-guided editing
→ arxiv.org/abs/2602.16664
📄 TeCoNeRV — Neural video compression with 20× memory reduction, +5.35dB PSNR at 720p
→ arxiv.org/abs/2602.16711
📄 ReMoRa — Long-video MLLM using compressed representations (sparse keyframes + motion)
→ arxiv.org/abs/2602.16412
arXiv.org
Towards a Science of AI Agent Reliability
AI agents are increasingly deployed to execute important tasks. While rising accuracy scores on standard benchmarks suggest rapid progress, many agents still continue to fail in practice. This...
❤4👍1
Forwarded from Осцилляции WaveCut (WaveCut)
Это было неизбежно: рано или поздно должны были появиться специализированные решения для инференса.
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
И вот, Taalas (бывшая команда из Tenstorrent) выкатили то, чего я так ждал — настоящий Direct-to-Silicon.
Ребята не стали мелочиться и буквально «запекли» модель в кремний. Никакой внешней памяти, никакого HBM, никакой сложной упаковки. Веса модели и архитектура — это и есть сам чип.
Цифры выглядят дико: 17,000 токенов в секунду на Llama 3.1 8B.
Это на порядок быстрее текущей SOTA GPU, при этом чип стоит в 20 раз дешевле в производстве и потребляет в 10 раз меньше энергии.
Самое крутое, что это не просто красивые слайды для инвесторов. Железо уже существует, и его можно «потрогать» (ссылка на демо внизу).
Конечно, это ASIC, и тут есть нюанс: чип заточен под одну конкретную модель. Но Taalas продумали этот момент — они оставили поддержку LoRA-адаптеров и изменяемого контекстного окна. То есть это не совсем уж «кирпич», гибкость для файн-тюнинга остается.
Сейчас у них готов чип с Llama 8B (HC1). Весной обещают выкатить что-то среднеразмерное с ризонингом, а к зиме грозятся показать фронтир-модель на втором поколении кремния.
У меня голова идет кругом от мыслей к чему это может привести.
Ссылки:
• Анонс
• Демо (скорость реально впечатляет)
⚡34❤10👍3
Claude Code - теперь сам себе девопс
Anthropic апдейтнули Claude Code и теперь он умеет буквально всекроме как выпить 6 пива до обеда (пока что).
Свежезавезенное:
- сам поднимает dev-серверы и показывает запущенное приложение прямо в интерфейсе
- находит баги и фиксит их без твоего участия
- code review прямо в diff view с комментами
- мониторит PR-ы на гитхабе в фоне, фиксит CI ошибки и мержит сам когда тесты зеленые
- сессии синхронятся между CLI, десктопом, вебом и мобилой
По сути теперь можно открыть PR, пойти пить кофе, а Claude сам разберется с комментами кожаных в ревью, починит pipeline и замержит. Ты вернешься - а там ужепрод лежит все в main.
В целом, Claude code мне нравится больше в тех областях, где чтение кода мне не поможет 😁 привет реакт, но по обвязке он раньше сильно проигрывал курсору. Теперь - нет.
Мы в очередной раз обречены.
Подробнее
@derplearning
Anthropic апдейтнули Claude Code и теперь он умеет буквально все
Свежезавезенное:
- сам поднимает dev-серверы и показывает запущенное приложение прямо в интерфейсе
- находит баги и фиксит их без твоего участия
- code review прямо в diff view с комментами
- мониторит PR-ы на гитхабе в фоне, фиксит CI ошибки и мержит сам когда тесты зеленые
- сессии синхронятся между CLI, десктопом, вебом и мобилой
По сути теперь можно открыть PR, пойти пить кофе, а Claude сам разберется с комментами кожаных в ревью, починит pipeline и замержит. Ты вернешься - а там уже
В целом, Claude code мне нравится больше в тех областях, где чтение кода мне не поможет 😁 привет реакт, но по обвязке он раньше сильно проигрывал курсору. Теперь - нет.
Мы в очередной раз обречены.
Подробнее
@derplearning
The Decoder
Anthropic updates Claude Code with desktop features that automate more of the dev workflow
Anthropic is rolling out new desktop features for Claude Code that automate more of the development workflow.
🔥18😁10❤6😢1
⚡️ DAILY TECH DIGEST — Sun, Feb 22, 2026
🔬 ML PAPERS (Trending)
🔥 BitDance: Scaling Autoregressive Image Gen with Binary Tokens — AR model using binary diffusion head instead of codebook indices. FID 1.24 on ImageNet, 30x speedup for 1024px gen, 5.4x fewer params than SOTA
📄 https://arxiv.org/abs/2602.14041
💻 https://github.com/shallowdream204/BitDance
🔥 Qwen3-TTS — Multilingual TTS with voice cloning and controllable speech gen. Dual-track LM architecture with specialized speech tokenizers for streaming
📄 https://arxiv.org/abs/2601.15621
🎵 HeartMuLa — Open-source music foundation models. LLM-based song gen with lyrics, style control per section. Claims Suno-level quality with academic-scale resources. Scales to 7B params
📄 https://arxiv.org/abs/2601.10547
🎨 Art2Mus — Direct artwork-to-music generation via visual conditioning. 105K artwork-music pairs dataset. No image-to-text middleman
📄 https://arxiv.org/abs/2602.17599
🖼 RetouchIQ — MLLM agents for instruction-based image retouching with RL + generalist reward model
📄 https://arxiv.org/abs/2602.17558
👗 CORAL — DiT-based virtual try-on with correspondence alignment. Explicit person-garment query-key matching
📄 https://arxiv.org/abs/2602.17636
🎥 GraphThinker — RL finetuning for video reasoning with event graph scene graphs. Reduces hallucinations
📄 https://arxiv.org/abs/2602.17555
🤖 GLM-5: Vibe Coding → Agentic Engineering — Zhipu's new foundation model. DSA for cost reduction, async RL alignment, MIT license
📄 https://arxiv.org/abs/2602.15763
🔬 ML PAPERS (Trending)
🔥 BitDance: Scaling Autoregressive Image Gen with Binary Tokens — AR model using binary diffusion head instead of codebook indices. FID 1.24 on ImageNet, 30x speedup for 1024px gen, 5.4x fewer params than SOTA
📄 https://arxiv.org/abs/2602.14041
💻 https://github.com/shallowdream204/BitDance
🔥 Qwen3-TTS — Multilingual TTS with voice cloning and controllable speech gen. Dual-track LM architecture with specialized speech tokenizers for streaming
📄 https://arxiv.org/abs/2601.15621
🎵 HeartMuLa — Open-source music foundation models. LLM-based song gen with lyrics, style control per section. Claims Suno-level quality with academic-scale resources. Scales to 7B params
📄 https://arxiv.org/abs/2601.10547
🎨 Art2Mus — Direct artwork-to-music generation via visual conditioning. 105K artwork-music pairs dataset. No image-to-text middleman
📄 https://arxiv.org/abs/2602.17599
🖼 RetouchIQ — MLLM agents for instruction-based image retouching with RL + generalist reward model
📄 https://arxiv.org/abs/2602.17558
👗 CORAL — DiT-based virtual try-on with correspondence alignment. Explicit person-garment query-key matching
📄 https://arxiv.org/abs/2602.17636
🎥 GraphThinker — RL finetuning for video reasoning with event graph scene graphs. Reduces hallucinations
📄 https://arxiv.org/abs/2602.17555
🤖 GLM-5: Vibe Coding → Agentic Engineering — Zhipu's new foundation model. DSA for cost reduction, async RL alignment, MIT license
📄 https://arxiv.org/abs/2602.15763
arXiv.org
BitDance: Scaling Autoregressive Generative Models with Binary Tokens
We present BitDance, a scalable autoregressive (AR) image generator that predicts binary visual tokens instead of codebook indices. With high-entropy binary latents, BitDance lets each token...
🔥2❤1
Ну и то же самое для HF:
• Mem0 — Production-ready long-term memory for AI agents with graph-based memory
📄 https://huggingface.co/papers/2504.19413
• RAG-Anything — Unified multimodal RAG with cross-modal relationships
📄 https://huggingface.co/papers/2510.12323
• Agent READMEs — First large-scale study of 2,303 agent context files across 1,925 repos. Security & performance specs critically underrepresented
📄 https://huggingface.co/papers/2511.12884
• Moonshine ASR — Tiny specialized ASR models for edge devices, beats multilingual models at small sizes
📄 https://huggingface.co/papers/2509.02523
• Mem0 — Production-ready long-term memory for AI agents with graph-based memory
📄 https://huggingface.co/papers/2504.19413
• RAG-Anything — Unified multimodal RAG with cross-modal relationships
📄 https://huggingface.co/papers/2510.12323
• Agent READMEs — First large-scale study of 2,303 agent context files across 1,925 repos. Security & performance specs critically underrepresented
📄 https://huggingface.co/papers/2511.12884
• Moonshine ASR — Tiny specialized ASR models for edge devices, beats multilingual models at small sizes
📄 https://huggingface.co/papers/2509.02523
🔥3