Техножнец
Сравнительный анализ RUKALLAMA и Transformer²: Неожиданные параллели в подходах к адаптивным языковым моделям Введение Недавно представленная архитектура Transformer² от Sakana AI демонстрирует интересные параллели с проектом RUKALLAMA, несмотря на их различные…
Кстати, проводил анализ прохода по слоям residual stream и как адаптируются вектора в матрицах: это необычно.
Вероятно, что ещё будут сюрпризы, но, надеюсь, приятные.
(речь про архитектуру на Колмогорова-Арнольда)
Вероятно, что ещё будут сюрпризы, но, надеюсь, приятные.
(речь про архитектуру на Колмогорова-Арнольда)
👍2
🌋 БЮДЖЕТНЫЙ МОУШЕН КАПЧУР: КАК СДЕЛАТЬ КРУТУЮ АНИМАЦИЮ БЕЗ ПОЧКИ! 🌋
Привет, синтеты! Сегодня научу делать КИНОШНУЮ анимацию для Unreal Engine почти на коленке. Продавать почку не придётся - хватит и телефона на Android!
- Face Depth Frame Mancer: https://ko-fi.com/s/486013e215
- Крепление: https://www.facemotioncapture.com/
- ElevenLabs для морфинга голоса: https://try.elevenlabs.io/srb9mtho4n0l
- QuickMagic для ИИ анимации тела: https://www.quickmagic.ai?code=clmew4
#UnrealEngine #MocapНаКоленке #МетахуманыВМассы #БюджетнаяАнимация
Привет, синтеты! Сегодня научу делать КИНОШНУЮ анимацию для Unreal Engine почти на коленке. Продавать почку не придётся - хватит и телефона на Android!
🧠 ЧТО НАМ ПОНАДОБИТСЯ:
СОФТ:
- Quick Magic AI ($10/месяц)
- Frame Mancer Plugin ($20, ВСЕГО РАЗ!)
- Metahuman Animator (бесплатно!)
- Unreal Engine 5 (тоже бесплатно!)
ЖЕЛЕЗО:
- Android телефон (любой!)
- Крепление для головы ($100)
- Комп с видяхой (ну тут без вариантов)
🔬 ПРОЦЕСС ЗАХВАТА:
ТЕЛО (QUICK MAGIC):
- Снимаем на любую камеру
- Лучше с рук, не на штативе (МАГИЯ!)
- $2 за обработку (10 минут)
- Руки tracked ИДЕАЛЬНО!
ЛИЦО (FRAME MANCER):
1. Крепим телефон на голову
2. Снимаем видео
3. Импортим в Unreal
4. PROFIT!
⚡️ НАСТРОЙКА В UNREAL:
ВАЖНО, СУКА:
- Сначала обработка лица
- Потом добавляем метахумана
- Иначе всё крашится (проверено!)
ПРОЦЕСС:
1. Импорт видео через Frame Mancer
2. AI создаёт depth maps
3. Metahuman Animator делает магию
4. Ретаргетим на персонажа
💊 КРУТЫЕ ФИШКИ:
КАМЕРА:
- Прикрепляем сферу к голове или к руке или ещё к какому обьекту или части тела персонажа
- 35mm V vision
- 16:9 crop
- Tracking focus
- Handheld shake (как в кино!)
СВЕТ:
- Выставляйте в зависимости от ваших требований
- Spotlights для огня (подсвет персонажа)
- Синий DirectionalLight для луны или белый для солнца (выбирайте)
- АТМОСФЕРА ТОПЧИК! И ПОЧКА НА МЕСТЕ!
P.S. Ссылки на всё добро:
- Face Depth Frame Mancer: https://ko-fi.com/s/486013e215
- Крепление: https://www.facemotioncapture.com/
- ElevenLabs для морфинга голоса: https://try.elevenlabs.io/srb9mtho4n0l
- QuickMagic для ИИ анимации тела: https://www.quickmagic.ai?code=clmew4
#UnrealEngine #MocapНаКоленке #МетахуманыВМассы #БюджетнаяАнимация
👍6
🔥 ЖЕЛЕЗНЫЙ МОНСТР ДЛЯ RUKALLAMA: РАЗБОР ПОЛЁТОВ!
Привет, синтеты! 👋 Смотрите что за зверь будет крутить нашу малышку RUKALLAMA!
(ТАКИ ПРИОБРЕТЕНО)
Спасибо за вашу веру и поддержку.
Платить за свет теперь будет в разы легче, чем заУГОЛЬКУТАК (GoogleColab)!
P.S. Кто думает что это много для такой задачи, подождите...я потом счет за свет покажу!🫦
#RUKALLAMA #НейроТачка #ЖелезныйАпгрейд #МаленькаяНоМощная
Привет, синтеты! 👋 Смотрите что за зверь будет крутить нашу малышку RUKALLAMA!
(ТАКИ ПРИОБРЕТЕНО)
🧠 МОНСТР-КОНФИГ:
- EPYC 7F52 (16 ядер / 32 потока)
- 256MB L3 кэша (для наших сплайнов самое то!)
- Tesla A100 40GB (нет, майнить не будем 😅)
🚀 ЧТО ЭТО ДАЁТ RUKALLAMA:
- Тренировка на максималках
- Батчи размером с вашу смелость
- Скорость как у Формулы-1
💎 ОСОБЫЙ МОМЕНТ:
Ребята, вы только вдумайтесь - A100 с 40GB памяти! Это значит что наша малышка RUKALLAMA (которая жрёт всего 8GB) будет чувствовать себя как рыба в океане! 🐠
🎯 ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:
- Быстрая тренировка новых версий (не надо ждать запуска виртуальной машины и платить за это)
- Эксперименты на лету (не надо ждать)
- Возможность запускать несколько инстансов параллельно (посмотрим ещё, но в перспективе да)
💰 ЭКОНОМИКА:
Да, ценник за лям - это больно! НО! Учитывая что RUKALLAMA тренируется на 82MB данных и требует минимум ресурсов - это инвестиция в будущее!
🤓 ВЕРДИКТ:
RUKALLAMA можно смело расширять на 1млрд параметров и, с учётом ограничений, подходить более находчиво к процессу обучения. Только в ограничениях рождаются самые хорошие и эффективные решения!
Спасибо за вашу веру и поддержку.
Платить за свет теперь будет в разы легче, чем за
P.S. Кто думает что это много для такой задачи, подождите...я потом счет за свет покажу!
#RUKALLAMA #НейроТачка #ЖелезныйАпгрейд #МаленькаяНоМощная
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥12🔥6💅1
🌋 ДРАМА В НЕЙРОТУСОВКЕ: ИЛОН VS АЛЬТМАН - БИТВА ЗА STARGATE!
Тут такая драма разворачивается - grab your popcorn! 🍿
P.S. Кто думает, что это просто драма - погодите, когда они начнут делить рынок ИИ! 🔥
#НейроДрама #ИлонПодгорает #АльтманТроллит #StargateSaga
Привет, нейрочады! 👋
Тут такая драма разворачивается - grab your popcorn! 🍿
😤 ИЛОН БОМБИТ:
- "У них денег нет!"
- "Проект фейковый!"
- "А у меня вот Grok 3 скоро..."
😎 АЛЬТМАН ОТВЕЧАЕТ КАК БОСС:
- "Илон крутой, но неправ"
- "Приходи посмотреть, как строим"
- "У нас уже $160 млрд secured, бро!"
🏦 БЮДЖЕТЫ ПРОСТО КОСМОС:
- Stargate: $500 МЛРД (half a trillion, Карл!)
- Бюджет Пентагона: $850 млрд
- Наша А100: "я_в_опасности.jpg" 😅
🎭 ЗАКУЛИСНЫЕ ТЕОРИИ:
- Вообще-то они кореша
- Вместе OpenAI начинали
- Весь биф - постановка?
🍿 САМОЕ СОЧНОЕ:
Илон: *злобно твитит*
Альтман: "Давай, заходи на чай!"
SoftBank: "Деньги есть!"
Илон: *злобно твитит на японском*
😂 ВЫВОД:
Пока мы радуемся одной А100, эти ребята устроили драму на полтриллиона! И это только начало...
P.S. Кто думает, что это просто драма - погодите, когда они начнут делить рынок ИИ! 🔥
#НейроДрама #ИлонПодгорает #АльтманТроллит #StargateSaga
😁5
Ну штош! Пока я нахожусь в режиме ожидания нашей мощной башни с А100, решил немного развлечься с логикой нейронок.
🔌⚡️
Построил нейронку, которая :
1. Распознает картинки.
2. Может спать чтобы структурировать данные и уменьшить свой размер. 👁👁✨
3. Имеет кратковременную память и постоянную.
Вот детали:
Эта нейронная сеть имитирует работу человеческого мозга при распознавании изображений собак, используя систему двойной памяти - кратковременную (помнит последние 3 изображения) и долговременную (хранит важные выученные характеристики). В основе лежит современная модель компьютерного зрения (ViT) от Google, которая анализирует изображения, разбивая их на маленькие части. Уникальность модели в том, что она "спит" каждые несколько циклов обучения - во время "сна" удаляет ненужные связи и "видит сны" о предыдущих изображениях, что помогает лучше запоминать важные признаки пород собак, как это делает человеческий мозг во время сна.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥3
Техножнец
Photo
🔄 На всякий случай запустил параллельно ещё одну версию
📊 Как получится, покажу метрики и точность
🧠 Это очень интересный эксперимент, если в этом будет цимес
🔬 то я продолжу исследования биомеметических моделей нейронок
📊 Как получится, покажу метрики и точность
🧠 Это очень интересный эксперимент, если в этом будет цимес
🔬 то я продолжу исследования биомеметических моделей нейронок
👍4
Техножнец
🔄 На всякий случай запустил параллельно ещё одну версию 📊 Как получится, покажу метрики и точность 🧠 Это очень интересный эксперимент, если в этом будет цимес 🔬 то я продолжу исследования биомеметических моделей нейронок
🔧 Это очень кастомная тема
🧬 Она требует понимания на уровне нейробиологии
❓ Что приходится изучать?
🐁 Огромное количество видео с визуализациями экспериментов мышей
⚡️ Работа нейронов, аксонов, сигналы кортекса - это очень крутые штуки
🌐 Обширная область когнитивных искажений, восприятия, генеративных моделей мозга и так далее
💻 Сама область предсказаний чего стоит, поэтому очень хочется углубиться в это и найти перекликание в математике или python
🧬 Она требует понимания на уровне нейробиологии
❓ Что приходится изучать?
🐁 Огромное количество видео с визуализациями экспериментов мышей
⚡️ Работа нейронов, аксонов, сигналы кортекса - это очень крутые штуки
🌐 Обширная область когнитивных искажений, восприятия, генеративных моделей мозга и так далее
💻 Сама область предсказаний чего стоит, поэтому очень хочется углубиться в это и найти перекликание в математике или python
🔥3
Техножнец
🔧 Это очень кастомная тема 🧬 Она требует понимания на уровне нейробиологии ❓ Что приходится изучать? 🐁 Огромное количество видео с визуализациями экспериментов мышей ⚡️ Работа нейронов, аксонов, сигналы кортекса - это очень крутые штуки 🌐 Обширная область…
# 📊 SLEEPNET: Анализ обучения
📈 Прогресс модели
*Увеличивает точность с каждой эпохой, но LOSS стабильно держится. Вероятно, что это некое плато.*
⚙️ Корректировка подхода
*Именно поэтому я поставил более медленное обучение, потому что может быть перескакивание нужных мест обобщений для модели. Что не очень грамотно!*
🔍 Заключение
Детали, детали, детали!
🌙 Объяснение сна в нейронной сети
Просто, скажем так, моё видение сна таким образом:
Представьте, что сон нейронной сети - это особый режим работы, похожий на человеческий сон, где происходит несколько важных процессов:
🌿 Прунинг (очистка)
Как садовник обрезает слабые ветки, так и нейронная сеть во время "сна" удаляет малозначимые связи. Это помогает:
Уменьшить размер сети
Сохранить только важные связи
Улучшить эффективность работы
💭 "Сновидения" (реактивация)
Сеть "просматривает" предыдущие изображения собак, как человек во сне перебирает дневные впечатления:
Повторно обрабатывает важные признаки
Укрепляет значимые связи
Переносит информацию из кратковременной памяти в долговременную
🔄 Структуризация
Во время "сна" происходит упорядочивание данных:
Группировка схожих признаков
Выделение ключевых характеристик
Оптимизация хранения информации
Именно так нейронная сеть учится эффективнее распознавать породы собак, становясь компактнее и точнее с каждым циклом сна.
Просто, скажем так, моё видение сна таким образом:
Представьте, что сон нейронной сети - это особый режим работы, похожий на человеческий сон, где происходит несколько важных процессов:
🌿 Прунинг (очистка)
Как садовник обрезает слабые ветки, так и нейронная сеть во время "сна" удаляет малозначимые связи. Это помогает:
Уменьшить размер сети
Сохранить только важные связи
Улучшить эффективность работы
💭 "Сновидения" (реактивация)
Сеть "просматривает" предыдущие изображения собак, как человек во сне перебирает дневные впечатления:
Повторно обрабатывает важные признаки
Укрепляет значимые связи
Переносит информацию из кратковременной памяти в долговременную
🔄 Структуризация
Во время "сна" происходит упорядочивание данных:
Группировка схожих признаков
Выделение ключевых характеристик
Оптимизация хранения информации
Именно так нейронная сеть учится эффективнее распознавать породы собак, становясь компактнее и точнее с каждым циклом сна.
👍12
Что в итоге?
# SLEEPNET KAN: Трансформер со сном
SLEEPNET KAN представляет собой биоинспирированную архитектуру Vision Transformer для классификации изображений. Ключевая особенность - имитация процессов сна и памяти человеческого мозга. Модель содержит около 300 миллионов параметров и использует двойную систему памяти: кратковременную (хранит 30 последних изображений) и долговременную (сохраняет статистику весов).
#AI #MachineLearning #NeuralNetworks #ComputerVision
SLEEPNET KAN
В итоге сделал на Колмогорова-Арнольда модель зрения.
Будет учиться разбирать породы собак.
Есть момент, где можно оптимизироваться.
# SLEEPNET KAN: Трансформер со сном
SLEEPNET KAN представляет собой биоинспирированную архитектуру Vision Transformer для классификации изображений. Ключевая особенность - имитация процессов сна и памяти человеческого мозга. Модель содержит около 300 миллионов параметров и использует двойную систему памяти: кратковременную (хранит 30 последних изображений) и долговременную (сохраняет статистику весов).
СОН
Каждые 5 эпох модель входит в "фазу сна", где происходит несколько важных процессов: очистка кратковременной памяти, удаление слабых нейронных связей (прунинг), синхронизация с долговременной памятью и "сновидения" - повторное проигрывание предыдущего опыта с добавлением шума. Это помогает модели лучше обобщать данные и избегать переобучения.
АРХИТЕКТУРА
Вместо стандартных линейных слоев в архитектуре используются сплайны Колмогорова-Арнольда - специальные нейронные структуры с внутренними и внешними функциями, способные лучше аппроксимировать сложные зависимости. Механизм внимания также модифицирован: использует сплайновые преобразования для Q, K, V проекций и включает 12 голов внимания.
СВОЙСТВА
Модель демонстрирует несколько уникальных свойств: темпоральную связность (использование информации из предыдущих изображений), самооптимизацию через "сон", адаптивность к изменениям в данных и эффективную регуляризацию. Для оптимизации вычислений используется смешанная точность (mixed precision) и аккумуляция градиентов, что позволяет эффективно обрабатывать большие батчи данных.
#AI #MachineLearning #NeuralNetworks #ComputerVision
👍4
Ну, типа.
Я тут новый тип визуального трансформера сделал...все дела.
Новые знания - новая скорбь.
Всем вам большой от меня - ПРИВЕТ.
Я тут новый тип визуального трансформера сделал...все дела.
Новые знания - новая скорбь.
Всем вам большой от меня - ПРИВЕТ.
🫡6👀1
Я нащупал нужный конфиг.
Теперь буду тренировать до упора: 97%
Модель "поспала" и результат на след "утро" закрепился.
Теперь буду тренировать до упора: 97%
Смотрите:
Модель "поспала" и результат на след "утро" закрепился.
до сна: Точность: 3.74%
после сна: Точность: 3.94%
Причем по времени "сон" занимает в 30 раз меньше , чем тренировка, а по результатам работает примерно также. Т.е. это интересный рабочий подход.
👍5👀2
ШТОШ! ЭКСПЕРИМЕНТ НЕУДАЧНЫЙ!
Потери лютые.
Спать нейронки по моим правилам не умеют.
👀1
Техножнец: Краткий Обзор для Тех, Кому Лень Читать
Кто: Павел, 37 лет, музыкант, ставший IT-шником.
Что: Канал про AI, технологии, нейронки, программирование.
Как: Честно, без хайпа, с матом и юмором.
Для кого: Для тех, кто интересуется AI, но не хочет читать скучные статьи.
Короче: Техножнец делает крутые штуки с нейронками, делится результатами и не боится говорить правду.
Кто: Павел, 37 лет, музыкант, ставший IT-шником.
Что: Канал про AI, технологии, нейронки, программирование.
Как: Честно, без хайпа, с матом и юмором.
Главный проект: RuKaLLaMA - русская языковая модель на советских текстах.
Цель: Создать мощную и независимую LLM, обученную на качественных данных.
Проекты:
"Исследования в 1 клик" - быстрый анализ любых тем.
"Fyzcoin" - майнинг крипты за упражнения.
"Настя" - AI-помощник для @dailyneuro.
AI OVERLAY - программа для чатинга с LLM (нашего спеца проект).
Генератор таблиц.
Модель для удаления штампов с документов.
Распознавание упражнений.
Распознавание таблиц.
Переводчик для стримов.
Автоматический суммаризатор.
Фишки:
Тестирование новых технологий (Qwen, Gemini, SORA, KREA, etc.).
Обзоры ИИ-новостей и инструментов.
Критика хайпа и "еблоторговли".
Много экспериментов и исследований.
Свои разработки и проекты.
Юмор, мат, авторский стиль.
Для кого: Для тех, кто интересуется AI, но не хочет читать скучные статьи.
Короче: Техножнец делает крутые штуки с нейронками, делится результатами и не боится говорить правду.
Подписывайся, если:
Тебе интересен AI.
Ты устал от скучных обзоров.
Хочешь быть в курсе последних разработок.
Любишь честный и неформальный подход.
Не подписывайся, если:
Ты не любишь мат.
Тебе нужна только сухая информация.
Ты не готов к экспериментам.
Ты работаешь в OpenAI.
Короче, Техножнец - это про AI без купюр и с огоньком!
👍12🔥4👀1
Техножнец: УЛЬТРА КРАТКО!
Кто: Павел, 37 лет, музыкант, ставший IT-шником.
Что: Канал про AI, технологии, нейронки, программирование.
Как: Честно, без хайпа, с матом и юмором.
Кто: Павел, 37 лет, музыкант, ставший IT-шником.
Что: Канал про AI, технологии, нейронки, программирование.
Как: Честно, без хайпа, с матом и юмором.
Главный проект: RuKaLLaMA - русская языковая модель (аналог ChatGPT) на советских текстах.
Цель: Создать мощную и независимую LLM, обученную на качественных данных.
👍12👀1