Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
337 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Can You Learn to See Without Images? Procedural Warm-Up for Vision Transformers
https://arxiv.org/abs/2511.13945

Исследование, показывающее, что предобучение Vision Transformers на символических последовательностях (например, сбалансированных скобках) без изображений повышает эффективность последующего обучения на ImageNet, делая модели более экономными по данным.

анонс

Sparse Hash AI
Beyond Data Filtering: Knowledge Localization for Capability Removal in LLMs
https://alignment.anthropic.com/2025/selective-gradient-masking/

Новое исследование компании Anthropic – Selective GradienT Masking (SGTM) – обучает модель LLM таким образом, чтобы опасные знания упаковывались в небольшой набор весов, которые впоследствии можно удалить с минимальным ущербом для остальной части модели.

SGTM изменяет процесс обучения, разделяя веса каждого слоя на часть, отвечающую за сохранение, и часть, отвечающую за забывание, где часть, отвечающая за забывание, предназначена для хранения знаний о рисках.

Когда модель видит четко обозначенный рискованный текст, обновления градиента получают только веса забывания, поэтому модель учится полагаться на этот фрагмент для понимания этих концепций.

SGTM превосходит фильтрацию данных по соотношению удаления рискованного контента и сохранения полезных навыков, требуя всего на 5% больше вычислений, и устойчиво к попыткам переобучения.

Sparse Hash AI
👍2
Видео от Disney Research, демонстрирующее робота Олафа из "Холодного сердца": его внутреннюю конструкцию, цикл ходьбы, снижение ударов и отслеживание производительности, что подчеркивает прогресс в аниматронике для тематических парков.

Olaf: Bringing an Animated Character to Life in the Physical World
https://www.alphaxiv.org/ru/overview/2512.16705

Sparse Hash AI
Multiscale Aggregated Hierarchical Attention (MAHA): A Game Theoretic and Optimization Driven Approach to Efficient Contextual Modeling in Large Language Models
https://www.alphaxiv.org/overview/2512.14925

https://github.com/canererden/MAHA-Project

MAHA представляет иерархическую архитектуру внимания для больших языковых моделей, которая решает проблему квадратичной вычислительной сложности стандартного самовнимания путем декомпозиции входных последовательностей на несколько масштабов и использования выпуклой оптимизации или теории игр для агрегации. Архитектура позволила сократить количество операций FLOP на 81% и потребление памяти на 56% по сравнению со стандартным MHA, сохраняя при этом конкурентоспособную производительность и демонстрируя превосходные возможности в моделировании дальних зависимостей.

Sparse Hash AI
👍1
Media is too big
VIEW IN TELEGRAM
Наконец-то полезный домашний робот – Pi 0.6 от компании Pi.

Sparse Hash AI
🔥3
Decoupling the "What" and "Where" With Polar Coordinate Positional Embeddings
https://www.alphaxiv.org/overview/2509.10534

Исследователи представляют позиционное вложение в полярных координатах (Polar Coordinate Positional Embedding, PoPE) — метод, который разделяет информацию о содержании и позиционную информацию в трансформерах, переформулируя позиционное кодирование в полярных координатах. PoPE последовательно достигает более низкой перплексии и более высокой точности без предварительной настройки (zero-shot accuracy), чем Rotary Position Embedding (RoPE) в задачах обработки языка, музыки и геномики, а также демонстрирует превосходную экстраполяцию длины без предварительной настройки для последовательностей в 10 раз длиннее обучающих данных.

Sparse Hash AI
This media is not supported in your browser
VIEW IN TELEGRAM
Новый мировой рекорд, 15 947 дронов в рое.

Sparse Hash AI
🔥1