Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
337 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Why Can't Transformers Learn Multiplication? Reverse-Engineering Reveals Long-Range Dependency Pitfalls
https://www.alphaxiv.org/ru/overview/2510.00184v1

Метод Implicit Chain-of-Thought (ICoT), неявная цепочка рассуждений, позволил стандартному трансформеру достичь 100% точности при умножении четырёхзначных чисел, ранее точность была менее 1%.

Процедура обучения ICoT предоставляет явные токены цепочки рассуждений, которые показывают промежуточные шаги вычисления. В течение обучения эти явные токены постепенно удаляются. Это отличается от стандартного файнтюнинга, в котором модель видит только пары вход-выход без промежуточных шагов. Это развивает сильные дальние зависимости между токенами цифр.

Модель ICoT реализует умножение посредством сложного механизма «дерева внимания» на своих двух слоях: слой 1 — кэширование частичных произведений, слой 2 — извлечение и агрегация.

Модель разрабатывает сложные геометрические представления для численных вычислений: суммы Минковского для частичных произведений и кодирование на основе Фурье-базиса.

Sparse Hash AI
3
Vector Symbolic Algebras for the Abstraction and Reasoning Corpus
https://www.alphaxiv.org/overview/2511.08747v1
https://github.com/ijoffe/ARC-VSA-2025

Исследователи для решения ARC-AGI использовали Vector Symbolic Algebras (VSAs).

Sparse Hash AI
1
Pretraining Without Attention
https://www.alphaxiv.org/ru/overview/2212.10544v2
https://github.com/jxiw/BiGS

Работа из 23-го года*. State-Space Model, архитектура (Bidirectional Gated SSM, BiGS) которой без механизма внимания достигает производительности уровня BERT.

Архитектура с гейтированием (GATED / SSM) включает поэлементное умножение между преобразованными входными данными и выходами SSM. Этот механизм гейтирования, вдохновленный Gated Linear Units (GLUs), по-видимому, восстанавливает репрезентативную способность, необходимую для эффективного трансферного обучения.

* Из обратившего на себя моё внимание. Недавно нашумевшая работа Dragon Hatchling повторяет эту архитектуру за исключением того, что использует линейное внимание.

Sparse Hash AI
Sparse Hash AI
ACT-1 от Sunday Sparse Hash AI
Домашних роботов появилось уже немало, НО...

— Робот может написать симфонию почистить и пожарить картошку, разбить яйцо на сковородку и не сжечь омлет? 😄

Пока что таких ещё не завозили. 😐
👍2
Media is too big
VIEW IN TELEGRAM
Полноразмерный T800 от EngineAI. С начала бума/эры андроидов ещё не прошло даже полного года.

Sparse Hash AI
🔥1
Мех ARCHAX японской компании Tsubame Industries для тяжелой работы.

9 камер дают пилоту полный обзор на 360°. Система обратной связи передаёт точное усилие захвата. Может работать удалённо, аккумулятора хватает на день, и может самостоятельно добираться до места работы со скоростью 10 км/ч.

Предназначен для поисково-спасательных работ, вывода из эксплуатации ядерных объектов, крупномасштабного сноса.

Sparse Hash AI
NeuralRemaster: Phase-Preserving Diffusion for Structure-Aligned Generation
https://huggingface.co/papers/2512.05106

видео

Sparse Hash AI
👍1
On the generalization of language models from in-context learning and finetuning: a controlled study
https://www.alphaxiv.org/ru/overview/2505.00661

Сравнивалось обобщение языковых моделей во время обучения in-context (ICL) vs finetuning. Исследование демонстрирует превосходство ICL над finetuning в обобщении знаний на задачах вроде реверсии фактов и силлогизмов.

В экспериментах ICL достигает ~100% точности на тесте Reversal Curse при размещении всего датасета в контексте.

Sparse Hash AI