Техножнец – Telegram
Техножнец
1.63K subscribers
1.04K photos
210 videos
12 files
371 links
Канал моих увлечений и поделок. Все ,что я делаю и выкладываю здесь - делается с любовью.
Download Telegram
🌋 ПАРАФЕРМИОНЫ: ФИЗИКИ ОТКРЫЛИ ТРЕТИЙ ТИП ЧАСТИЦ В ПРИРОДЕ! 🌋

🍄

Привет, синтеты! Физики из Rice University СЛОМАЛИ ФИЗИКУ - оказалось, что кроме фермионов и бозонов существует третий тип частиц. Да-да, вся ваша школьная физика устарела!

🧠 БЫЛО/СТАЛО:


СТАРАЯ МОДЕЛЬ:

Фермионы (электроны, кварки)
Бозоны (фотоны, глюоны)
Всё описывалось спином ±1
Работало 70+ лет!


НОВАЯ РЕАЛЬНОСТЬ:

Парафермионы - ТРЕТИЙ ТИП!
Новая математика волновых функций
Матричные преобразования вместо чисел
Квазичастицы УЖЕ СУЩЕСТВУЮТ!


🔬 КАК ЭТО РАБОТАЕТ:


ХИТРАЯ МАТЕМАТИКА:

Волновая функция = много "мод"
Каждая мода = вектор
Преобразования через матрицы
Результат = новый тип частиц!


ПОВЕДЕНИЕ В ПРИРОДЕ:

Фермионы: "Я один такой!"
Бозоны: "Тусим вместе!"
Парафермионы: "Я и один, и в толпе!"


⚡️ ПОЧЕМУ ЭТО ПЕРЕВОРОТ:


ГЛАВНОЕ:

Раньше думали - их можно разложить
Оказалось - ФУНДАМЕНТАЛЬНО НОВЫЙ ТИП
Не сводится к известным частицам
Существует как квазичастицы в материалах


💊 ЧТО ЭТО ЗНАЧИТ:


ПЕРСПЕКТИВЫ:

Новые технологии на квазичастицах
Возможное объяснение тёмной материи
Революция в квантовых вычислениях
ПОЛНОСТЬЮ НОВАЯ ФИЗИКА!


ИНТЕРЕСНЫЙ ФАКТ:

Математически возможны частицы со спином 17½, но природа такая снобка - не пускает их в нашу вселенную!

P.S. Для скептиков: полное исследование доступно в Nature: https://www.nature.com/articles/s41586-024-08262-7

#Физика #НовыеЧастицы #Парафермионы #ТёмнаяМатерия #КвантоваяФизика
🔥7👍4
Дональд Трамп выдал OpeAi 500 млрд долларов.

Думаете просто новость?

Нет. Отсюда идёт отсчёт когда фильмы про восстание роботов станут реальностью.

Скоро будет много новых мыслей , а пока что можете пересмотреть наше общение с Imaxai.

Многое станет ясным.

https://youtu.be/PTAYEPLUSpQ?si=YFrf7N9VHuEFQ49k
👍8🤔1
🌋 RUNWAY FRAMES: КАК AI НАУЧИЛСЯ СНИМАТЬ КРУЧЕ ТАРАНТИНО! 🌋

Привет, синтеты! Runway выкатили БОМБУ - свой генератор картинок Frames. И это не очередной перекрашенный StableDiffusion, а СВОЯ НЕЙРОНКА!

🎥 ЧТО ЗА ЗВЕРЬ:


ОСНОВНЫЕ ФИШКИ:

Собственный движок (не StableDiffusion, КАРЛ!)
Кинематографичность из коробки
Интеграция с Gen-3 для видео
UI как у людей (НАКОНЕЦ-ТО!)


🔬 ВОЗМОЖНОСТИ:


РЕЖИМЫ РАБОТЫ:

Аспекты от 16:9 до 21:9 (как в кино!)
Пресеты стилей (Nordic minimal - ОГОНЬ!)
Aesthetic range от 0 до 5
Создание своих стилей (привет, Линч!)


⚡️ РЕАЛЬНЫЕ ТЕСТЫ:


РЕЗУЛЬТАТЫ:

Текст читается (почти всегда!)
Руки рисует (иногда криво, но рисует!)
Свет и тени - БОЖЕСТВЕННО
Киношный грейн БЕЗ ФИЛЬТРОВ!


💊 МИНУСЫ (КУДА БЕЗ НИХ):


ЧЕГО НЕ ХВАТАЕТ:

Нет inpainting/outpainting
Нельзя менять промт при вариациях
Контроль поз - только мечтать
НО ЭТО ЖЕ V1, НАРОД!


P.S. Для скептиков: попробуйте сами - https://runwayml.com. Спойлер: вы влюбитесь!
P.P.S. Следующий апдейт в пятницу. Runway - короли пятничных обновлений!


БОНУС - KLING ELEMENTS:

До 4 референсов (10 сек в Pro)
Бешеная консистентность
Генерация долгая (но оно того стоит!)
НАКОНЕЦ-ТО можно делать нормальные развороты!


#Runway #Frames #AIкино #KlingУбийца #ПятничныйАпдейт
🔥1
🌋 AI - ЗАГОВОР МИЛЛИАРДЕРОВ: КАК НАС ВСЕХ ОБМАНЫВАЮТ! 🌋

Привет, синтеты! Сегодня разберём, как политики ТОТАЛЬНО ОБОСРАЛИСЬ в понимании AI, и почему мы все скоро станем рабами Сэма Альтмана!

🧠 В ЧЁМ ЛАЖА ПОЛИТИКОВ:


ЧТО ОНИ ДУМАЮТ:

- "Нам нужно больше AI-стартапов!" (LOL)
- "Европа должна внедрять AI!" (АХАХА)
- "Америка лидирует!" (НАИВНЫЕ!)


РЕАЛЬНОСТЬ:

- OpenAI = частная компания
- GPT = собственность миллиардеров
- Frontier Models = новая операционка жизни
- И ВСЁ ЭТО НЕ ВАШЕ, ЛОШАРЫ!


🔬 НАСТОЯЩИЙ РАСКЛАД:


ЭТО НЕ ГОНКА ЗА ДЕНЬГАМИ:

- Это гонка за ВЛАСТЬЮ
- Superhuman AI = мировое господство
- Маленькие стартапы = корм для китов
- Через 5 лет будет ПОЗДНО!


⚡️ КТО РЕАЛЬНО РУЛИТ:


ГЛАВНЫЕ ИГРОКИ:

- Palantir (Питер Тиль и его "Палантиры" 👁)
- OpenAI (Альтман строит своего бога)
- Маск (просто хочет править миром)
- ТОЛЬКО КИТАЙ ВСЁ ПОНЯЛ!


💊 ЧТО БУДЕТ ДАЛЬШЕ:


МРАЧНОЕ БУДУЩЕЕ:

- AI = новая операционка ВСЕГО
- Без AI = без шансов на выживание
- Европа проспала вообще ВСЁ
- Мы все будем майнить битки в метавселенной Альтмана


P.S. Для оптимистов: может, нам повезёт и ИИ решит, что люди не так уж и плохи! (ахаха, нет)

P.P.S. Следующая статья будет о том, как перестать волноваться и полюбить своего AI-оверлорда!


#AIзаговор #МиллиардерыПротивВсех #ГотовьтеськРабству #ПалантирВсеВидит
😁4
🌋 TITANS И TRANSFORMER²: GOOGLE СЛОМАЛА НЕЙРОНКИ НАВСЕГДА! 🌋

Привет, синтеты! Сегодня разберём АБСОЛЮТНОЕ БЕЗУМИЕ - Google и Sakana Labs выкатили два новых фреймворка, которые ПОЛНОСТЬЮ МЕНЯЮТ правила игры в AI. Держитесь крепче!

🧠 ЧТО ПРОИЗОШЛО (СПОЙЛЕР - КОНЕЦ ЭПОХИ):


БЫЛО:

Трансформеры как боги
"Внимание - это всё что нужно"
Статичные веса после обучения
СКУКА И ТОСКА!


СТАЛО:

Titans с тремя видами памяти
Transformer² с адаптивными весами
Обучение "на лету"
ПОЛНЫЙ РАЗРЫВ ШАБЛОНА!


🔬 TITANS - НОВЫЙ МОЗГ AI:


ТРИ ВИДА ПАМЯТИ (КАК У ЛЮДЕЙ!):

CORE (ЯДРО):


Короткая память
Фокус на текущем моменте
Как студент на лекции!



LONG-TERM (ДОЛГОВРЕМЕННАЯ):


Хранит весь опыт
Обновляется постоянно
Забывает ненужное
Как база знаний, только ЖИВАЯ!



PERSISTENT (ПОСТОЯННАЯ):


Базовые правила мира
Общие знания
Не меняется часто
Как учебник в голове!


⚡️ TRANSFORMER² - АДАПТИВНЫЙ МОНСТР:


КАК ЭТО РАБОТАЕТ:

Анализирует задачу
Подстраивает веса "на лету"
Разные части мозга для разных задач
УЧИТСЯ ПРЯМО В ПРОЦЕССЕ!


МЕТОДЫ АДАПТАЦИИ:

Prompt-based (через промты)
Classifier-based (через классификатор)
Few-shot (через оптимизацию)


💊 ПОЧЕМУ ЭТО ВЗРЫВ МОЗГА:


НОВЫЕ ВОЗМОЖНОСТИ:

Контекст > 2 миллионов токенов
Постоянное обучение
Память как у человека
Эффективность ЧЕРЕЗ КРЫШУ!


СРАВНЕНИЕ С КЛАССИКОЙ:

Быстрее GPT-4
Умнее Claude
Эффективнее Llama
И ЭТО ТОЛЬКО НАЧАЛО!


🎯 ЧТО ЭТО ЗНАЧИТ ДЛЯ НАС:


ПРАКТИЧЕСКИЕ ПОСЛЕДСТВИЯ:

AI будет учиться на ваших данных
Память останется между сессиями
Контекст размером с книгу
Прощай, лимиты токенов!


БУДУЩИЕ ПРИМЕНЕНИЯ:

Персональные AI-ассистенты с памятью
Анализ целых кодовых баз разом
Чтение многотомных документов
БЕСКОНЕЧНЫЕ ВОЗМОЖНОСТИ!


P.S. Для скептиков: код Titans скоро будет в открытом доступе. Готовьте свои видеокарты!


#TitansAI #Transformer2 #GoogleСломалаВсё #НейронкиБудущего #AIреволюция
ССЫЛКИ НА БУМАГИ (ПОКА ГУГЛ НЕ ПЕРЕДУМАЛ):

Titans: Learning to Memorize at Test Time https://arxiv.org/abs/2501.00663 Sakana Transformer² https://sakana.ai/transformer-squared/
👍5
Техножнец
🌋 TITANS И TRANSFORMER²: GOOGLE СЛОМАЛА НЕЙРОНКИ НАВСЕГДА! 🌋 Привет, синтеты! Сегодня разберём АБСОЛЮТНОЕ БЕЗУМИЕ - Google и Sakana Labs выкатили два новых фреймворка, которые ПОЛНОСТЬЮ МЕНЯЮТ правила игры в AI. Держитесь крепче! 🧠 ЧТО ПРОИЗОШЛО (СПОЙЛЕР…
Сравнительный анализ RUKALLAMA и Transformer²: Неожиданные параллели в подходах к адаптивным языковым моделям

Введение

Недавно представленная архитектура Transformer² от Sakana AI демонстрирует интересные параллели с проектом RUKALLAMA, несмотря на их различные масштабы и первоначальные цели.

Архитектурные сходства

Адаптивный подход

Обе архитектуры фокусируются на создании адаптивных систем, способных динамически настраиваться:

- Transformer² использует SVD и z-векторы для модификации весовых матриц
- RUKALLAMA применяет сплайны Колмогорова-Арнольда для трансформации пространств

Эффективность параметров

Оба решения стремятся к минимизации дополнительных параметров:

- Transformer² достигает этого через специализированные z-векторы
- RUKALLAMA использует композицию функций через сплайны

Ключевые различия в реализации

Масштаб операций
- Transformer² ориентирован на крупные модели и большие датасеты
- RUKALLAMA оптимизирована для работы с малыми объемами данных (82MB + 100MB инструкций)


Механизм адаптации
- Transformer² применяет внешнюю адаптацию через модификацию весов
- RUKALLAMA использует встроенную адаптивность через архитектурные решения


Теоретическая основа

Обе архитектуры опираются на фундаментальные математические принципы:

- Transformer² использует SVD для декомпозиции весовых матриц
- RUKALLAMA применяет теорему Колмогорова-Арнольда для аппроксимации функций


Заключение

Несмотря на разные подходы к реализации, обе архитектуры демонстрируют общее видение будущего языковых моделей - адаптивных систем, способных эффективно настраиваться под различные задачи. Это может указывать на формирующийся тренд в развитии языковых моделей в сторону большей гибкости и эффективности.
1👍4🔥3
Техножнец
Сравнительный анализ RUKALLAMA и Transformer²: Неожиданные параллели в подходах к адаптивным языковым моделям Введение Недавно представленная архитектура Transformer² от Sakana AI демонстрирует интересные параллели с проектом RUKALLAMA, несмотря на их различные…
Я , как раз, продумал кое какой интересный момент про токенизацию и про саму архитектуру.
Решил проблему с масштабированием и решил, что надо сразу тренировать 1 миллиард параметров и смотреть на реализацию.

ОЖИДАЙТЕ! В ПРОЦЕССЕ!
👍2
Техножнец
Сравнительный анализ RUKALLAMA и Transformer²: Неожиданные параллели в подходах к адаптивным языковым моделям Введение Недавно представленная архитектура Transformer² от Sakana AI демонстрирует интересные параллели с проектом RUKALLAMA, несмотря на их различные…
Кстати, проводил анализ прохода по слоям residual stream и как адаптируются вектора в матрицах: это необычно.
Вероятно, что ещё будут сюрпризы, но, надеюсь, приятные.

(речь про архитектуру на Колмогорова-Арнольда)
👍2
🌋 БЮДЖЕТНЫЙ МОУШЕН КАПЧУР: КАК СДЕЛАТЬ КРУТУЮ АНИМАЦИЮ БЕЗ ПОЧКИ! 🌋

Привет, синтеты! Сегодня научу делать КИНОШНУЮ анимацию для Unreal Engine почти на коленке. Продавать почку не придётся - хватит и телефона на Android!

🧠 ЧТО НАМ ПОНАДОБИТСЯ:


СОФТ:
- Quick Magic AI ($10/месяц)
- Frame Mancer Plugin ($20, ВСЕГО РАЗ!)
- Metahuman Animator (бесплатно!)
- Unreal Engine 5 (тоже бесплатно!)


ЖЕЛЕЗО:
- Android телефон (любой!)
- Крепление для головы ($100)
- Комп с видяхой (ну тут без вариантов)


🔬 ПРОЦЕСС ЗАХВАТА:


ТЕЛО (QUICK MAGIC):
- Снимаем на любую камеру
- Лучше с рук, не на штативе (МАГИЯ!)
- $2 за обработку (10 минут)
- Руки tracked ИДЕАЛЬНО!


ЛИЦО (FRAME MANCER):
1. Крепим телефон на голову
2. Снимаем видео
3. Импортим в Unreal
4. PROFIT!


⚡️ НАСТРОЙКА В UNREAL:


ВАЖНО, СУКА:
- Сначала обработка лица
- Потом добавляем метахумана
- Иначе всё крашится (проверено!)


ПРОЦЕСС:
1. Импорт видео через Frame Mancer
2. AI создаёт depth maps
3. Metahuman Animator делает магию
4. Ретаргетим на персонажа


💊 КРУТЫЕ ФИШКИ:


КАМЕРА:
- Прикрепляем сферу к голове или к руке или ещё к какому обьекту или части тела персонажа
- 35mm V vision
- 16:9 crop
- Tracking focus
- Handheld shake (как в кино!)


СВЕТ:
- Выставляйте в зависимости от ваших требований
- Spotlights для огня (подсвет персонажа)
- Синий DirectionalLight для луны или белый для солнца (выбирайте)
- АТМОСФЕРА ТОПЧИК! И ПОЧКА НА МЕСТЕ!


P.S. Ссылки на всё добро:


- Face Depth Frame Mancer: https://ko-fi.com/s/486013e215
- Крепление: https://www.facemotioncapture.com/
- ElevenLabs для морфинга голоса: https://try.elevenlabs.io/srb9mtho4n0l
- QuickMagic для ИИ анимации тела: https://www.quickmagic.ai?code=clmew4

#UnrealEngine #MocapНаКоленке #МетахуманыВМассы #БюджетнаяАнимация
👍6
Техножнец pinned «Сравнительный анализ RUKALLAMA и Transformer²: Неожиданные параллели в подходах к адаптивным языковым моделям Введение Недавно представленная архитектура Transformer² от Sakana AI демонстрирует интересные параллели с проектом RUKALLAMA, несмотря на их различные…»
🔥 ЖЕЛЕЗНЫЙ МОНСТР ДЛЯ RUKALLAMA: РАЗБОР ПОЛЁТОВ!

Привет, синтеты! 👋 Смотрите что за зверь будет крутить нашу малышку RUKALLAMA!

(ТАКИ ПРИОБРЕТЕНО)

🧠 МОНСТР-КОНФИГ:

- EPYC 7F52 (16 ядер / 32 потока)
- 256MB L3 кэша (для наших сплайнов самое то!)
- Tesla A100 40GB (нет, майнить не будем 😅)


🚀 ЧТО ЭТО ДАЁТ RUKALLAMA:

- Тренировка на максималках
- Батчи размером с вашу смелость
- Скорость как у Формулы-1


💎 ОСОБЫЙ МОМЕНТ:

Ребята, вы только вдумайтесь - A100 с 40GB памяти! Это значит что наша малышка RUKALLAMA (которая жрёт всего 8GB) будет чувствовать себя как рыба в океане! 🐠


🎯 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:

- Быстрая тренировка новых версий (не надо ждать запуска виртуальной машины и платить за это)
- Эксперименты на лету (не надо ждать)
- Возможность запускать несколько инстансов параллельно (посмотрим ещё, но в перспективе да)


💰 ЭКОНОМИКА:

Да, ценник за лям - это больно! НО! Учитывая что RUKALLAMA тренируется на 82MB данных и требует минимум ресурсов - это инвестиция в будущее!


🤓 ВЕРДИКТ:


RUKALLAMA можно смело расширять на 1млрд параметров и, с учётом ограничений, подходить более находчиво к процессу обучения. Только в ограничениях рождаются самые хорошие и эффективные решения!


Спасибо за вашу веру и поддержку.
Платить за свет теперь будет в разы легче, чем за УГОЛЬКУТАК (GoogleColab)!

P.S. Кто думает что это много для такой задачи, подождите...я потом счет за свет покажу! 🫦

#RUKALLAMA #НейроТачка #ЖелезныйАпгрейд #МаленькаяНоМощная
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥12🔥6💅1
🌋 ДРАМА В НЕЙРОТУСОВКЕ: ИЛОН VS АЛЬТМАН - БИТВА ЗА STARGATE!

Привет, нейрочады! 👋 


Тут такая драма разворачивается - grab your popcorn! 🍿

😤 ИЛОН БОМБИТ:

- "У них денег нет!"
- "Проект фейковый!"
- "А у меня вот Grok 3 скоро..."


😎 АЛЬТМАН ОТВЕЧАЕТ КАК БОСС:

- "Илон крутой, но неправ"
- "Приходи посмотреть, как строим"
- "У нас уже $160 млрд secured, бро!"


🏦 БЮДЖЕТЫ ПРОСТО КОСМОС:

- Stargate: $500 МЛРД (half a trillion, Карл!)
- Бюджет Пентагона: $850 млрд
- Наша А100: "я_в_опасности.jpg" 😅


🎭 ЗАКУЛИСНЫЕ ТЕОРИИ:

- Вообще-то они кореша
- Вместе OpenAI начинали
- Весь биф - постановка?


🍿 САМОЕ СОЧНОЕ:

Илон: *злобно твитит*
Альтман: "Давай, заходи на чай!"
SoftBank: "Деньги есть!"
Илон: *злобно твитит на японском*


😂 ВЫВОД:

Пока мы радуемся одной А100, эти ребята устроили драму на полтриллиона! И это только начало...


P.S. Кто думает, что это просто драма - погодите, когда они начнут делить рынок ИИ! 🔥

#НейроДрама #ИлонПодгорает #АльтманТроллит #StargateSaga
😁5
🤖 Здарова, синтеты!

Ну штош! Пока я нахожусь в режиме ожидания нашей мощной башни с А100, решил немного развлечься с логикой нейронок.
🔌⚡️
Построил нейронку, которая :

1. Распознает картинки.
2. Может спать чтобы структурировать данные и уменьшить свой размер. 👁👁
3. Имеет кратковременную память и постоянную.


Вот детали:


Эта нейронная сеть имитирует работу человеческого мозга при распознавании изображений собак, используя систему двойной памяти - кратковременную (помнит последние 3 изображения) и долговременную (хранит важные выученные характеристики). В основе лежит современная модель компьютерного зрения (ViT) от Google, которая анализирует изображения, разбивая их на маленькие части. Уникальность модели в том, что она "спит" каждые несколько циклов обучения - во время "сна" удаляет ненужные связи и "видит сны" о предыдущих изображениях, что помогает лучше запоминать важные признаки пород собак, как это делает человеческий мозг во время сна.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Техножнец
Photo
🔄 На всякий случай запустил параллельно ещё одну версию

📊 Как получится, покажу метрики и точность

🧠 Это очень интересный эксперимент, если в этом будет цимес

🔬 то я продолжу исследования биомеметических моделей нейронок
👍4
Техножнец
🔄 На всякий случай запустил параллельно ещё одну версию 📊 Как получится, покажу метрики и точность 🧠 Это очень интересный эксперимент, если в этом будет цимес 🔬 то я продолжу исследования биомеметических моделей нейронок
🔧 Это очень кастомная тема
🧬 Она требует понимания на уровне нейробиологии
Что приходится изучать?
🐁 Огромное количество видео с визуализациями экспериментов мышей
⚡️ Работа нейронов, аксонов, сигналы кортекса - это очень крутые штуки
🌐 Обширная область когнитивных искажений, восприятия, генеративных моделей мозга и так далее

💻 Сама область предсказаний чего стоит, поэтому очень хочется углубиться в это и найти перекликание в математике или python
🔥3
Техножнец
🔧 Это очень кастомная тема 🧬 Она требует понимания на уровне нейробиологии Что приходится изучать? 🐁 Огромное количество видео с визуализациями экспериментов мышей ⚡️ Работа нейронов, аксонов, сигналы кортекса - это очень крутые штуки 🌐 Обширная область…
# 📊 SLEEPNET: Анализ обучения


📈 Прогресс модели
*Увеличивает точность с каждой эпохой, но LOSS стабильно держится. Вероятно, что это некое плато.*

⚙️ Корректировка подхода
*Именно поэтому я поставил более медленное обучение, потому что может быть перескакивание нужных мест обобщений для модели. Что не очень грамотно!*

🔍 Заключение
Детали, детали, детали!
🌙 Объяснение сна в нейронной сети
Просто, скажем так, моё видение сна таким образом:
Представьте, что сон нейронной сети - это особый режим работы, похожий на человеческий сон, где происходит несколько важных процессов:
🌿 Прунинг (очистка)
Как садовник обрезает слабые ветки, так и нейронная сеть во время "сна" удаляет малозначимые связи. Это помогает:

Уменьшить размер сети
Сохранить только важные связи
Улучшить эффективность работы

💭 "Сновидения" (реактивация)
Сеть "просматривает" предыдущие изображения собак, как человек во сне перебирает дневные впечатления:

Повторно обрабатывает важные признаки
Укрепляет значимые связи
Переносит информацию из кратковременной памяти в долговременную

🔄 Структуризация
Во время "сна" происходит упорядочивание данных:

Группировка схожих признаков
Выделение ключевых характеристик
Оптимизация хранения информации

Именно так нейронная сеть учится эффективнее распознавать породы собак, становясь компактнее и точнее с каждым циклом сна.
👍12
Что в итоге?

SLEEPNET KAN


В итоге сделал на Колмогорова-Арнольда модель зрения.
Будет учиться разбирать породы собак.

Есть момент, где можно оптимизироваться.


# SLEEPNET KAN: Трансформер со сном

SLEEPNET KAN представляет собой биоинспирированную архитектуру Vision Transformer для классификации изображений. Ключевая особенность - имитация процессов сна и памяти человеческого мозга. Модель содержит около 300 миллионов параметров и использует двойную систему памяти: кратковременную (хранит 30 последних изображений) и долговременную (сохраняет статистику весов).

СОН

Каждые 5 эпох модель входит в "фазу сна", где происходит несколько важных процессов: очистка кратковременной памяти, удаление слабых нейронных связей (прунинг), синхронизация с долговременной памятью и "сновидения" - повторное проигрывание предыдущего опыта с добавлением шума. Это помогает модели лучше обобщать данные и избегать переобучения.


АРХИТЕКТУРА

Вместо стандартных линейных слоев в архитектуре используются сплайны Колмогорова-Арнольда - специальные нейронные структуры с внутренними и внешними функциями, способные лучше аппроксимировать сложные зависимости. Механизм внимания также модифицирован: использует сплайновые преобразования для Q, K, V проекций и включает 12 голов внимания.


СВОЙСТВА

Модель демонстрирует несколько уникальных свойств: темпоральную связность (использование информации из предыдущих изображений), самооптимизацию через "сон", адаптивность к изменениям в данных и эффективную регуляризацию. Для оптимизации вычислений используется смешанная точность (mixed precision) и аккумуляция градиентов, что позволяет эффективно обрабатывать большие батчи данных.


#AI #MachineLearning #NeuralNetworks #ComputerVision
👍4