Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
337 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Less is More: Recursive Reasoning with Tiny Networks
https://arxiv.org/abs/2510.04871
https://alexiajm.github.io/2025/09/29/tiny_recursive_models.html

Рекурсивная модель рассуждений, развитие идеи из Hierarchical Reasoning Model (HRM). Размером всего в 7 млн параметров и выбивает 45% на ARC-AGI-1 и 8% на ARC-AGI-2.

Tiny Recursion Model (TRM) упрощает рекурсивные рассуждения до их основной сути, которая в конечном итоге не имеет ничего общего с человеческим мозгом, не требует ни математической (fixed-point) теоремы, ни какой-либо иерархии.

Sparse Hash AI
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Modelscope (слева) и Grok Imagine 0.9 (справа).

Sparse Hash AI
Экзоскелет от Boston Dynamics. Вес груза до 90 кг.

Погрузчик из Чужих.

Sparse Hash AI
🔥2
Sparse Hash AI
Sparse Hash AI
Играют биоэлектрические сигналы подберёзовика.

https://d.fixupx.com/Rainmaker1973/status/1976618087928782898

Sparse Hash AI
🤔1
Демонстрационное видео от Kreuzberg Dynamics, Mark 003.

Это было в Симпсонах Кибердеревне.

Sparse Hash AI
🔥2
Base Models Know How to Reason, Thinking Models Learn When
https://www.alphaxiv.org/overview/2510.07364v1
https://github.com/cvenhoff/thinking-llms-interp
https://thinking-llms-interp.com/
https://fixupx.com/cvenhoff00/status/1976633766811734461

Модели мышления не осваивают навыки мышления. Базовые модели уже содержат механизмы рассуждения, а модели мышления учатся, когда их использовать!

Sparse Hash AI
👍1
Attention Illuminates LLM Reasoning: The Preplan-and-Anchor Rhythm Enables Fine-Grained Policy Optimization
https://www.alphaxiv.org/ru/overview/2510.13554v1

Исследование показывает, как паттерны внимания в LLM могут пролить свет на их процессы рассуждения и обеспечить более эффективные методы обучения. Авторы демонстрируют, что механизмы внимания служат «механистическим планом» для рассуждений, раскрывая внутренний «ритм предварительного планирования и закрепления», который управляет тем, как эти модели структурируют свои мысли.

Sparse Hash AI
👍2
Media is too big
VIEW IN TELEGRAM
Unitree представила Unitree H2 Destiny Awakening.

Sparse Hash AI
Attention Sinks in Diffusion Language Models
https://www.alphaxiv.org/ru/overview/2510.15731v1

Attention Sinks существуют и в диффузных языковых моделях и их удаление не приводит к потери работоспособности в отличие от авторегрессионных моделей.

Sparse Hash AI
1
Language Models Model Language
https://www.alphaxiv.org/ru/overview/2510.12766v1

Статья затрагивает спорную дискуссию относительно того, действительно ли LLM понимают язык или просто имитируют его.

Согласно концепции Маньчака, язык функционирует по одному фундаментальному принципу: частоте употребления. Принцип частоты объясняет многочисленные лингвистические явления:

⦁ Высокочастотные паттерны становятся грамматическими правилами, тогда как низкочастотные паттерны остаются исключениями.
⦁ Изменение языка происходит через аналоговую регуляризацию, движимую частотой.
⦁ Континуум между грамматикой и лексиконом отражает градиенты частоты, а не категориальные различия.

Там, где Хомский постулирует сложные, иерархические структуры и трансформации, Маньчак предлагает простые правила, основанные на частоте. В статье эта контрастность иллюстрируется Примером 2, показывающим, как простое предложение требует сложного анализа в хомскианских терминах, но прямого синтеза по маньчаковским принципам.

Sparse Hash AI
👍2🤔1