Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
337 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Демонстрационное видео от Kreuzberg Dynamics, Mark 003.

Это было в Симпсонах Кибердеревне.

Sparse Hash AI
🔥2
Base Models Know How to Reason, Thinking Models Learn When
https://www.alphaxiv.org/overview/2510.07364v1
https://github.com/cvenhoff/thinking-llms-interp
https://thinking-llms-interp.com/
https://fixupx.com/cvenhoff00/status/1976633766811734461

Модели мышления не осваивают навыки мышления. Базовые модели уже содержат механизмы рассуждения, а модели мышления учатся, когда их использовать!

Sparse Hash AI
👍1
Attention Illuminates LLM Reasoning: The Preplan-and-Anchor Rhythm Enables Fine-Grained Policy Optimization
https://www.alphaxiv.org/ru/overview/2510.13554v1

Исследование показывает, как паттерны внимания в LLM могут пролить свет на их процессы рассуждения и обеспечить более эффективные методы обучения. Авторы демонстрируют, что механизмы внимания служат «механистическим планом» для рассуждений, раскрывая внутренний «ритм предварительного планирования и закрепления», который управляет тем, как эти модели структурируют свои мысли.

Sparse Hash AI
👍2
Media is too big
VIEW IN TELEGRAM
Unitree представила Unitree H2 Destiny Awakening.

Sparse Hash AI
Attention Sinks in Diffusion Language Models
https://www.alphaxiv.org/ru/overview/2510.15731v1

Attention Sinks существуют и в диффузных языковых моделях и их удаление не приводит к потери работоспособности в отличие от авторегрессионных моделей.

Sparse Hash AI
1
Language Models Model Language
https://www.alphaxiv.org/ru/overview/2510.12766v1

Статья затрагивает спорную дискуссию относительно того, действительно ли LLM понимают язык или просто имитируют его.

Согласно концепции Маньчака, язык функционирует по одному фундаментальному принципу: частоте употребления. Принцип частоты объясняет многочисленные лингвистические явления:

⦁ Высокочастотные паттерны становятся грамматическими правилами, тогда как низкочастотные паттерны остаются исключениями.
⦁ Изменение языка происходит через аналоговую регуляризацию, движимую частотой.
⦁ Континуум между грамматикой и лексиконом отражает градиенты частоты, а не категориальные различия.

Там, где Хомский постулирует сложные, иерархические структуры и трансформации, Маньчак предлагает простые правила, основанные на частоте. В статье эта контрастность иллюстрируется Примером 2, показывающим, как простое предложение требует сложного анализа в хомскианских терминах, но прямого синтеза по маньчаковским принципам.

Sparse Hash AI
👍2🤔1
This media is not supported in your browser
VIEW IN TELEGRAM
Совсем недавно сети путались в количестве пальцев на руке, сейчас в их моделях мира и следы на песке, оставленные лапами бобра, и интерференция волн в воде от его движения.
* бобры не едят рыбу

Sparse Hash AI
3
This media is not supported in your browser
VIEW IN TELEGRAM
Диффузная языковая моделька с маскированием как в игре Жизнь.

https://github.com/nathan-barry/tiny-diffusion

Sparse Hash AI
👍3
Sparse Hash AI
SAO2 от ENGINEAI
This media is not supported in your browser
VIEW IN TELEGRAM
Кикбоксинг от ENGINEAI.

В начале года их андроид с десятками подобных учился ходить, три месяца назад начал бегать.

Теперь, судя по скорости ударов и весе 25 кг, многих он ещё и отделает на ринге (или там, где поймает, кто медленно бегает).

Сравните с недавним кунг-фу спящих дроидов Маска.

Sparse Hash AI
2
Annie от компании Anhui AnyWit Robotics.

«Энни» представляет собой сочетание корпуса Unitree G1 и реалистичной головы робота NOETIX (созвучно - неэтичный).

видео

Sparse Hash AI