Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
339 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Predicting the Order of Upcoming Tokens Improves Language Modeling
Прогнозирование порядка следующих токенов улучшает языковое моделирование
https://www.alphaxiv.org/ru/overview/2508.19228v1

В работе предсказание трансформером следующего токена (NTP) дополнили обучением следующей последовательности - Token Order Prediction (TOP).

Для кодирования целевого вектора TOP использует оценку на основе близости, где следующие токены, появляющиеся раньше, получают более высокие баллы. В примере на картинке за первым токеном never следуют токены gonna, give, you и up, они получают свои оценки, соответственно, порядку следования (Token Order) - 3, 2, 1 и 0. У остальных токенов оценки приравниваются к минус бесконечности.

В результате такого обучения модель демонстрирует рост производительности по сравнению с NTP и масштабируемость.
🔥1
An Introduction to Autoencoders
Введение в автоэнкодеры
https://www.alphaxiv.org/ru/overview/2201.03898v1

Sparse Hash AI
Media is too big
VIEW IN TELEGRAM
Nano Banana проведёт вас по Средиземью.

Инструкции в комментарии.

Sparse Hash AI
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Disentangling the Factors of Convergence between Brains and Computer Vision Models
https://www.alphaxiv.org/ru/overview/2508.18226v1

Работа демонстрирует существенное сходство внутренних активаций DINOv3 с паттернами нейронной активности, наблюдаемыми в человеческом мозге.

DINOv3 - это современный Vision Transformer с самоконтролируемым обучением.

Иерархическая организация показывает сильное соответствие (R=0.38) между глубиной модели и кортикальной иерархией: ранние слои предсказывают активность V1, а глубокие слои согласуются с префронтальной корой. Временная динамика демонстрирует еще более сильное соответствие (R=0.96), показывая, что последовательная обработка в слоях трансформера отражает временное развертывание зрительной обработки в мозге.

Более крупные модели неизменно достигают более высокого сходства с мозгом по всем метрикам. Это преимущество размера наиболее выражено для высокоуровневых корковых областей, с минимальным влиянием на первичные зрительные области.

Sparse Hash AI
🤔1
Media is too big
VIEW IN TELEGRAM
Платформа NOMAD от scoutco.ai для походов за опятами.
Media is too big
VIEW IN TELEGRAM
Wuji Hand от китайской компании Pan Motor.

Этот революционный актуатор - game changer в роботехнике и не только. Просто фантастика.

Sparse Hash AI
Модель по тексту или картинке генерирует мир, который экспортируется в gaussian splats и рендерится Three.js.

https://marble.worldlabs.ai/

Sparse Hash AI
1