Модель по тексту или картинке генерирует мир, который экспортируется в gaussian splats и рендерится Three.js.
https://marble.worldlabs.ai/
Sparse Hash AI
https://marble.worldlabs.ai/
Sparse Hash AI
❤1
LLM-JEPA: Large Language Models Meet Joint Embedding Predictive Architectures
https://www.alphaxiv.org/ru/overview/2509.14252v1
Исследователи представляют LLM-JEPA – функцию потерь, которая интегрирует архитектуры совместного предиктивного встраивания (Joint Embedding Predictive Architectures) из компьютерного зрения в обучение больших языковых моделей.
Sparse Hash AI
https://www.alphaxiv.org/ru/overview/2509.14252v1
Исследователи представляют LLM-JEPA – функцию потерь, которая интегрирует архитектуры совместного предиктивного встраивания (Joint Embedding Predictive Architectures) из компьютерного зрения в обучение больших языковых моделей.
Sparse Hash AI
Reward-optimizing learning using stochastic release plasticity
https://www.frontiersin.org/journals/neural-circuits/articles/10.3389/fncir.2025.1618506/
https://www.frontiersin.org/api/v4/articles/1618506/file/Data_Sheet_1.pdf/1618506_data-sheet_1/1
https://github.com/Brainmatrix-songlab/RSRP
Авторы представили обучающий фреймворк Reward-Optimized Stochastic Release Plasticity (RSRP), вдохновленный стохастической гедонистической синаптической гипотезой.
Гедонистическая синаптическая пластичность потенциально является более правдоподобным механизмом обучения в нейронных системах по сравнению с обратным распространением ошибок. В отличие от обратного распространения, которое основано на непрерывных сигналах контроля и дифференцируемых сетевых архитектурах, пластичность на основе вознаграждения работает без этих ограничений.
Подход обеспечивает конкурентоспособную производительность как в задачах обучения с подкреплением, так и в задачах классификации.
Sparse Hash AI
https://www.frontiersin.org/journals/neural-circuits/articles/10.3389/fncir.2025.1618506/
https://www.frontiersin.org/api/v4/articles/1618506/file/Data_Sheet_1.pdf/1618506_data-sheet_1/1
https://github.com/Brainmatrix-songlab/RSRP
Авторы представили обучающий фреймворк Reward-Optimized Stochastic Release Plasticity (RSRP), вдохновленный стохастической гедонистической синаптической гипотезой.
Гедонистическая синаптическая пластичность потенциально является более правдоподобным механизмом обучения в нейронных системах по сравнению с обратным распространением ошибок. В отличие от обратного распространения, которое основано на непрерывных сигналах контроля и дифференцируемых сетевых архитектурах, пластичность на основе вознаграждения работает без этих ограничений.
Подход обеспечивает конкурентоспособную производительность как в задачах обучения с подкреплением, так и в задачах классификации.
Sparse Hash AI
Geometric Deep Learning - Grids, Groups, Graphs, Geodesics, and Gauges
https://geometricdeeplearning.com/
https://arxiv.org/abs/2104.13478
Sparse Hash AI
https://geometricdeeplearning.com/
https://arxiv.org/abs/2104.13478
Sparse Hash AI
Media is too big
VIEW IN TELEGRAM
"Дурная голова ногам покоя не даёт". 🙂 Пододвинуть ближе корзину интеллекта пока не хватает.
Inductive Bias and Spectral Properties of Single-Head Attention in High Dimensions
https://www.alphaxiv.org/overview/2509.24914v1
Sparse Hash AI
https://www.alphaxiv.org/overview/2509.24914v1
Исследователи из EPFL используют статистическую физику и теорию случайных матриц для всестороннего теоретического анализа механизмов внимания с одной головой в высоких измерениях. Они выводят точные кривые обучения, спектральные распределения для обученных весов и демонстрируют, как l2 регуляризация индуцирует эффективное пенальти ядерной нормы, способствуя низкоранговым решениям и объясняя эмпирически наблюдаемые спектральные паттерны.
Sparse Hash AI
👍1
Стартап Westlake Robotics представил ИИ-модель «Shadow Function», которая генерирует действия робота, имитирующие движения оператора в режиме реального времени.
https://d.fixupx.com/TheHumanoidHub/status/1972716282509459567
Sparse Hash AI
https://d.fixupx.com/TheHumanoidHub/status/1972716282509459567
Sparse Hash AI
🤔1