Sparse Hash AI – Telegram
Sparse Hash AI
134 subscribers
154 photos
256 videos
3 files
337 links
AI обогатительная разработка ML месторождений. Осторожно, в канале ведутся подрывные работы!

Персональный чат https://news.1rj.ru/str/sparsehash
Download Telegram
Sparse Hash AI
ACT-1 от Sunday Sparse Hash AI
Домашних роботов появилось уже немало, НО...

— Робот может написать симфонию почистить и пожарить картошку, разбить яйцо на сковородку и не сжечь омлет? 😄

Пока что таких ещё не завозили. 😐
👍2
Media is too big
VIEW IN TELEGRAM
Полноразмерный T800 от EngineAI. С начала бума/эры андроидов ещё не прошло даже полного года.

Sparse Hash AI
🔥1
Мех ARCHAX японской компании Tsubame Industries для тяжелой работы.

9 камер дают пилоту полный обзор на 360°. Система обратной связи передаёт точное усилие захвата. Может работать удалённо, аккумулятора хватает на день, и может самостоятельно добираться до места работы со скоростью 10 км/ч.

Предназначен для поисково-спасательных работ, вывода из эксплуатации ядерных объектов, крупномасштабного сноса.

Sparse Hash AI
NeuralRemaster: Phase-Preserving Diffusion for Structure-Aligned Generation
https://huggingface.co/papers/2512.05106

видео

Sparse Hash AI
👍1
On the generalization of language models from in-context learning and finetuning: a controlled study
https://www.alphaxiv.org/ru/overview/2505.00661

Сравнивалось обобщение языковых моделей во время обучения in-context (ICL) vs finetuning. Исследование демонстрирует превосходство ICL над finetuning в обобщении знаний на задачах вроде реверсии фактов и силлогизмов.

В экспериментах ICL достигает ~100% точности на тесте Reversal Curse при размещении всего датасета в контексте.

Sparse Hash AI
Convergence for Discrete Parameter Updates
https://www.alphaxiv.org/ru/overview/2512.04051
https://github.com/hellas-ai/neurips2025-convergence-for-discrete-parameter-updates

Существующие подходы к квантованному обучению вычисляют обновления, используя непрерывную (с плавающей запятой) арифметику, а затем дискретизируют эти обновления с помощью функций квантования.

В данной работе предлагается фундаментальное изменение парадигмы путем введения схем дискретного обновления параметров, где правило обновления само по себе изначально является целочисленным, полностью обходя необходимость квантования непрерывных значений.

Обновление основано на мультиномиальном распределении с избытком нулей (Zero-Inflated Multinomial — ZIM).

Результаты показывают, что:

⦁ Дискретные обновления успешно сходятся к решениям, сравнимым со стандартным SGD

⦁ Метод работает «из коробки» с существующими архитектурами

⦁ Наблюдается скромное снижение точности на 0.5-1%, что соответствует теоретическому уровню шума

Sparse Hash AI
The Universal Weight Subspace Hypothesis
https://www.alphaxiv.org/ru/overview/2512.05117

В данной работе представлена гипотеза универсального весового подпространства, эмпирически демонстрирующая, что глубокие нейронные сети, обученные для выполнения различных задач и с использованием различных модальностей, сходятся к общим низкоразмерным параметрическим подпространствам. Это схождение позволяет значительно экономить память, например, до 100 раз для Vision Transformers и моделей LLaMA, и в 19 раз для адаптеров LoRA.

Гипотеза утверждает, что глубокие нейронные сети, независимо от их задач обучения, схем инициализации или конфигураций гиперпараметров, систематически сходятся к общим, низкоразмерным параметрическим подпространствам. Эта «Гипотеза универсального весового подпространства» предполагает, что кажущееся высокоразмерное пространство параметров нейронных сетей по большей части иллюзорно — значимая информация находится в гораздо меньшем, специфичном для архитектуры подпространстве.

Sparse Hash AI
👍1
Can You Learn to See Without Images? Procedural Warm-Up for Vision Transformers
https://arxiv.org/abs/2511.13945

Исследование, показывающее, что предобучение Vision Transformers на символических последовательностях (например, сбалансированных скобках) без изображений повышает эффективность последующего обучения на ImageNet, делая модели более экономными по данным.

анонс

Sparse Hash AI
Beyond Data Filtering: Knowledge Localization for Capability Removal in LLMs
https://alignment.anthropic.com/2025/selective-gradient-masking/

Новое исследование компании Anthropic – Selective GradienT Masking (SGTM) – обучает модель LLM таким образом, чтобы опасные знания упаковывались в небольшой набор весов, которые впоследствии можно удалить с минимальным ущербом для остальной части модели.

SGTM изменяет процесс обучения, разделяя веса каждого слоя на часть, отвечающую за сохранение, и часть, отвечающую за забывание, где часть, отвечающая за забывание, предназначена для хранения знаний о рисках.

Когда модель видит четко обозначенный рискованный текст, обновления градиента получают только веса забывания, поэтому модель учится полагаться на этот фрагмент для понимания этих концепций.

SGTM превосходит фильтрацию данных по соотношению удаления рискованного контента и сохранения полезных навыков, требуя всего на 5% больше вычислений, и устойчиво к попыткам переобучения.

Sparse Hash AI
👍2