Загадочно-ебанутая 223 эпоха.
ЧАТ С RUKALLAMA 0.86
Пусть побудет тут с вами после небольшого пересмотра токенизатора и проверки архитектуры модели.
👍3👀1
Провел 4 дня в информационной коме. Не люблю нг праздники - вся Россия вялая и тебя немного затягивает водоворотом батонинга.
Зато я провел массивное исследование на тему улучшения работы модели и много других нюансов.
Мы очень скоро продолжим.
МЫ СЕГОДНЯ ПОКУПАЕМ A100!!!
Всем прекрасного настроения, скоро увидимся.
Зато я провел массивное исследование на тему улучшения работы модели и много других нюансов.
Мы очень скоро продолжим.
Ах да, хорошие новости есть:МЫ СЕГОДНЯ ПОКУПАЕМ A100!!!
Всем прекрасного настроения, скоро увидимся.
🔥18❤4👻3
Техножнец
Провел 4 дня в информационной коме. Не люблю нг праздники - вся Россия вялая и тебя немного затягивает водоворотом батонинга. Зато я провел массивное исследование на тему улучшения работы модели и много других нюансов. Мы очень скоро продолжим. Ах да, хорошие…
Своя А100 - это возможность не тратить бабки на гугл колаб и не ждать его инференсов и разогревов.
Плюс - как будут перерывы в тренировке : легче будет поднимать сервисы для вас.
Начало положено!
Плюс - как будут перерывы в тренировке : легче будет поднимать сервисы для вас.
Начало положено!
👍13🔥6
This media is not supported in your browser
VIEW IN TELEGRAM
Для новых подписчиков напомню свой проект по разделению печатей от текста.
На GIF изображены сгенерированные документы.
Механизм такой:
1) Синтезированный датасет с искуственными документами, где печать стоит как "говно"
2) Синтезированные печати алгоритмически сделанные под отсканированные печати и документы
3) Пост процессинг, аугментация данные и дополнительный синтез
4) Итог: почти 20к материалов для обучения
На GIF изображены сгенерированные документы.
Техножнец
Для новых подписчиков напомню свой проект по разделению печатей от текста. Механизм такой: 1) Синтезированный датасет с искуственными документами, где печать стоит как "говно" 2) Синтезированные печати алгоритмически сделанные под отсканированные печати…
This media is not supported in your browser
VIEW IN TELEGRAM
Вот так выглядит неправильная генерация из-за проблем с аугментацией, ошибок в подаче датасета в слои StylishGan и других нюансов. Чтобы это понять пришлось не мало штанов просидеть, а один раз пришлось ****ать как его эти, шорты...
Техножнец
Вот так выглядит неправильная генерация из-за проблем с аугментацией, ошибок в подаче датасета в слои StylishGan и других нюансов. Чтобы это понять пришлось не мало штанов просидеть, а один раз пришлось ****ать как его эти, шорты...
This media is not supported in your browser
VIEW IN TELEGRAM
И тоже самое по теме самой генерации текста из криво сделанной модели.
Желание сдаться было на всех шагах, т.к. это был мой первый опыт абсолютно кастомного нейронного движа.
Я столько раз спотыкался и ждал часами результатов. Дичва!
Щас расскажу дальше ❤️
Желание сдаться было на всех шагах, т.к. это был мой первый опыт абсолютно кастомного нейронного движа.
Я столько раз спотыкался и ждал часами результатов. Дичва!
Щас расскажу дальше ❤️
👍1
Техножнец
И тоже самое по теме самой генерации текста из криво сделанной модели. Желание сдаться было на всех шагах, т.к. это был мой первый опыт абсолютно кастомного нейронного движа. Я столько раз спотыкался и ждал часами результатов. Дичва! Щас расскажу дальше…
This media is not supported in your browser
VIEW IN TELEGRAM
Вот процесс тестовых генераций на каждой из эпох.
Для такого результата понадобилось около 40 эпох (насколько я помню)
А вот так выглядит фраза:
ТОРМОЗИ , МИША! ЩАС ВЬЕБЕМСЯ!
Настоящий пример переобучения, но уже при условии правильной подачи датасета, всех размерностей и слоёв и самой архитектуры.
Это стоило большого количества крови и анализа ( а ещё я тупой, что норма)
Я сохранял эпохи как надо и поэтому один из результатов промежуточных подходит под продакшен.
Данная модель умеет разделять текст дорисовывать его и разделять печать дорисовывать его.
В данном случае часть модели, которая "рисует" закрытые части печати.
✍3👍1
Техножнец
Вот процесс тестовых генераций на каждой из эпох. Для такого результата понадобилось около 40 эпох (насколько я помню) А вот так выглядит фраза: ТОРМОЗИ , МИША! ЩАС ВЬЕБЕМСЯ! Настоящий пример переобучения, но уже при условии правильной подачи датасета…
This media is not supported in your browser
VIEW IN TELEGRAM
А вот другая часть модели научилась "стирать" печать слишком быстро и ушла в процесс переобучения, что привело к странным результатам. В данном случае на 12-15 эпохах уже всё было впорядке и модель можно использовать для отделений печатей от текста.
Обычно делается две модели - чтобы каждая отвечала за свою цель.
Делать две модели + дискриминатор, который будет говорить модели ошиблась она или нет , да ещё и на GAN = Самоубийство мозга если ты не обладаешь опытом. А мой опыт на тот момент был - пару репозиториев обернутых в свои фишки, пару гугл колабов блять и нейронка подсчитывающая упражнения и сделано это дело было на основе хакатона чувака 5 летней давности...используя старые технологии оптического потока...
Я к тому, что у меня уже есть кейсы когда моя упрямая натура приводила к тому, что я кастомил шизофренические нейросети для выполнения своих кастомных задач.
ПРОДОЛЖИМ ШИЗУ
Обычно делается две модели - чтобы каждая отвечала за свою цель.
Делать две модели + дискриминатор, который будет говорить модели ошиблась она или нет , да ещё и на GAN = Самоубийство мозга если ты не обладаешь опытом. А мой опыт на тот момент был - пару репозиториев обернутых в свои фишки, пару гугл колабов блять и нейронка подсчитывающая упражнения и сделано это дело было на основе хакатона чувака 5 летней давности...используя старые технологии оптического потока...
Я к тому, что у меня уже есть кейсы когда моя упрямая натура приводила к тому, что я кастомил шизофренические нейросети для выполнения своих кастомных задач.
ПРОДОЛЖИМ ШИЗУ
🔥4
🌋 СОФТ СТАЛ ТОРМОЗОМ: КАК ПРОГРАММИСТЫ РАЗУЧИЛИСЬ ПИСАТЬ КОД! 🌋
Привет, синтеты! Сегодня разберём АДСКУЮ историю о том, как наш софт превратился в улитку на костылях.
Спойлер: всё ОЧЕНЬ плохо!
P.S. Для тех, кто думает что CSS сложнее ассемблера - попробуйте хотя бы ПРОЧИТАТЬ ассемблер для начала!
P.P.S. А в следующей статье расскажем, как один калькулятор жрёт 2GB оперативки. Спойлер: там Electron!
#СофтОбленился #ПрограммистыДеграды #ВернитеПерформанс #ДжонатанБлоуКрасавчик
Привет, синтеты! Сегодня разберём АДСКУЮ историю о том, как наш софт превратился в улитку на костылях.
Спойлер: всё ОЧЕНЬ плохо!
🧠 ПРИМЕР ИЗ ЖИЗНИ:
VISUAL STUDIO (БЫЛО vs СТАЛО):
2004: Загрузка = МГНОВЕННО
2024: "Менее 10 секунд это норм!" (Microsoft, вы серьёзно?!)
Джонатан Блоу ДОКАЗАЛ это на видео: https://www.youtube.com/watch?v=MR4i3Ho9zZY
🔬 ЧТО ЕЩЁ СЛОМАЛИ:
TEAMS (ГОРДОСТЬ MICROSOFT):
Было: Чат клиент (ничего сложного!)
Стало: 20 секунд загрузки
"Улучшили" до 10 секунд (ВАУ, ДОСТИЖЕНИЕ!)
"Это из-за проверки credentials!" (А РАНЬШЕ НЕ НАДО БЫЛО?)
⚡️ ПОЧЕМУ ТАК:
КУЛЬТУРА РАЗРАБОТКИ:
Программисты не знают как работает CPU
Зато эксперты в Docker и React!
"Больше фич = медленнее всё" (ЛОГИКА ГДЕ?)
CSS выучили, а ассемблер "слишком сложный"
🎯 ХАРДКОРНЫЙ ВБРОС:
А МОЖЕТ ВСЁ СПЕЦИАЛЬНО?
Раньше: программист = инженер
Сейчас: программист = сборщик npm пакетов
Код пишут фреймворки, а не люди
"Думать о производительности? А зачем, железо же дешёвое!"
СУРОВАЯ ПРАВДА:
Никто не хочет понимать как работает железо
"Зачем оптимизировать, если можно купить сервер помощнее?"
Bootcamp за 3 месяца = "я программист"
А потом плачут, что их React-приложение жрёт 8GB RAM
РЕЗУЛЬТАТ НАЛИЦО:
Electron-приложения по 300MB
Visual Studio думает 20 секунд
Teams грузится как Windows 95
А "программисты" гордятся, что выучили очередной JS-фреймворк
💊 ОТГОВОРКИ РАЗРАБОВ:
ТОП ОТМАЗОК:
"Это из-за новых фич!" (которые никто не просил)
"Мы проверяем credentials!" (10 секунд, серьёзно?)
"Современные приложения сложнее!" (чат клиент, КАРЛ!)
"У всех так!" (нет, это У ВАС так!)
P.S. Для тех, кто думает что CSS сложнее ассемблера - попробуйте хотя бы ПРОЧИТАТЬ ассемблер для начала!
P.P.S. А в следующей статье расскажем, как один калькулятор жрёт 2GB оперативки. Спойлер: там Electron!
#СофтОбленился #ПрограммистыДеграды #ВернитеПерформанс #ДжонатанБлоуКрасавчик
😁7🤬2💯2👍1
Техножнец
🌋 СОФТ СТАЛ ТОРМОЗОМ: КАК ПРОГРАММИСТЫ РАЗУЧИЛИСЬ ПИСАТЬ КОД! 🌋 Привет, синтеты! Сегодня разберём АДСКУЮ историю о том, как наш софт превратился в улитку на костылях. Спойлер: всё ОЧЕНЬ плохо! 🧠 ПРИМЕР ИЗ ЖИЗНИ: VISUAL STUDIO (БЫЛО vs СТАЛО): 2004: Загрузка…
def translic_fon_ham():
# anvil packages visual studio
import torch
# gring RAM
torch.cuda.empty_cache()
# cat: fit Distarye to we with deciagers to lhes CPU
def set_gpu():
aggels = torch.cuda.device_count() # fille in 20PU
chem = torch.cuda.memory_allocated() # lilhews_20M
return aggels, chem # eletrianing memory
# Electrroman: in Nestlicam
class GpuManager():
def clean_fornie_CGPU():
loyra = torch.cuda.max_memory_allocated() # iweat hill
torch.cuda.empty_cache() # llraten lanilp
return loyra
Теперь код визуально больше похож на оригинал по размеру и структуре, хотя всё ещё сохраняет базовую функциональность для работы с GPU. Я сохранил некоторые "странные" названия из оригинала, чтобы код был более похож, но сделал его рабочим.
лол. типа лол. вот, что "было на картинке"
👀1
🌋 БОЛЬШОЙ LLM РАЗБОР: ОТ МИКРО ДО МОНСТРОВ - ЧТО РЕАЛЬНО РАБОТАЕТ! 🌋
Привет, синтеты! Сегодня ГЛУБОКО копаем в мир языковых моделей - с графиками, тестами и полным разбором полётов!
P.S. Для тех, кто всё ещё думает про 1B модели - они даже не могут правильно посчитать буквы в слове. О ЧЁМ МЫ ВООБЩЕ?!
P.P.S. Следующая статья - как я пытался научить 1B модель понимать русский мат. Спойлер: она выучила только "ёлки-палки"!
#LLMwars #РазмерИмеетЗначение #КвантизацияМояЛюбовь #НейронкаГолова
Привет, синтеты! Сегодня ГЛУБОКО копаем в мир языковых моделей - с графиками, тестами и полным разбором полётов!
🧠 БИТВА ПАРАМЕТРОВ (СПОЙЛЕР - РАЗМЕР РЕШАЕТ):
МИКРО-КЛАСС (1-2B):
- 1B модели = БЕСПОЛЕЗНЫЙ ШЛАК
- 2B уже что-то могут:
* Простые вопросы: 95% точности
* Базовая логика: 70% точности
* Сложные задачи: ПОЛНЫЙ ПРОВАЛ
- Скорость: 44 токена/сек (единственный плюс)
- RAM: 2-4GB в 4-bit квантизации
СРЕДНИЙ СЕГМЕНТ (7-14B):
- Phi-4 (14B) РВЁТ ВСЕХ:
* 3 токена/сек на RTX 3060
* Точность как у 30B на простых задачах
* RAM: 16GB в 8-bit (ТЕРПИМО!)
- Llama-2 13B:
* Проигрывает Phi-4 в тестах
* Но жрёт столько же памяти
* ЗАЧЕМ ОНА ВООБЩЕ НУЖНА?
🔬 КВАНТИЗАЦИЯ - МАГИЯ ЦИФР:
РЕАЛЬНЫЕ ТЕСТЫ:
32-bit (БАЗОВЫЙ):
- 2B модель = 8GB RAM
- Скорость = 4 токена/сек
- Точность = базовая линия
4-bit (MAGIC!):
- Та же 2B модель = 2GB RAM
- Скорость = 44 токена/сек
- Точность: 98% от базовой
- ЭТО КАК ВООБЩЕ РАБОТАЕТ?!
⚡️ ХАРДКОРНЫЕ ТЕСТЫ:
ТЕСТ 1: МАТЕМАТИКА И ЛОГИКА
- "В слове 'elimination' 6 гласных"
- 1B модели: "Три... нет, четыре... может пять?"
- 7B модели: "Точно шесть: e-i-i-i-a-o!"
- Вывод: ДО 7B ДАЖЕ НЕ ПОДХОДИ!
ТЕСТ 2: ИСТОРИЧЕСКИЕ ФАКТЫ (Жёны Генриха VIII):
- 2B: Списки без деталей (ок)
- 9B: Начинает выдумывать детей
- 70B: Идеальная история + контекст
- ВЫВОД: ЧЕМ БОЛЬШЕ КОНТЕКСТА - ТЕМ БОЛЬШЕ ПАРАМЕТРОВ!
💊 ИТОГОВЫЙ РАСКЛАД:
ДЛЯ ДОМА:
- МИНИМУМ: Phi-2 (2.7B) в 4-bit
- ОПТИМУМ: Phi-4 (14B) в 4-bit
- МАКСИМУМ: Llama-3 70B (если есть лишняя почка)
ДЛЯ ТЕСТОВ:
- 4-bit квантизация = ВСЕГДА
- RAM важнее частоты GPU
- Контекст = количество параметров
P.S. Для тех, кто всё ещё думает про 1B модели - они даже не могут правильно посчитать буквы в слове. О ЧЁМ МЫ ВООБЩЕ?!
P.P.S. Следующая статья - как я пытался научить 1B модель понимать русский мат. Спойлер: она выучила только "ёлки-палки"!
#LLMwars #РазмерИмеетЗначение #КвантизацияМояЛюбовь #НейронкаГолова
👍5
🌋 ROO-CLINE: AI-АГЕНТ, КОТОРЫЙ САМ СЕБЯ ПИШЕТ! 🌋
Привет, синтеты! Сегодня разбираем БЕЗУМНЫЙ форк Cline, который в основном пишет сам себя.
Да-да, вы не ослышались - ИИ, который сам себя развивает!
P.S. Для скептиков: он реально САМ написал большую часть своего кода. Мы только подсказывали направление!
P.P.S. В следующей версии обещают научить его готовить кофе. Спойлер: он уже умеет, просто пока стесняется!
#RooCline #AIагент #КодитЛучшеВас #СамСебяНапишет
Привет, синтеты! Сегодня разбираем БЕЗУМНЫЙ форк Cline, который в основном пишет сам себя.
Да-да, вы не ослышались - ИИ, который сам себя развивает!
🧠 ГЛАВНАЯ ФИЧА - АВТОНОМНОСТЬ:
SNAKE GAME DEMO:
Сам пишет код (без слёз не взглянешь!)
Сам дебажит (лучше джуна!)
Сам тестирует в браузере
И всё это БЕЗ ВАШЕГО УЧАСТИЯ!
🔬 ТРИ РЕЖИМА РАБОТЫ (ДА, ОН ШИЗОФРЕНИК):
CODE MODE:
Кодит как джун после трёх энергетиков
Следит за линтером
Исправляет свои косяки
ARCHITECT MODE:
Думает о системном дизайне
Рассуждает о масштабировании
Кодить запрещено (а то разнесёт всё!)
ASK MODE:
Отвечает на вопросы
Копается в кодовой базе
Объясняет без воды
⚡️ ИНТЕГРАЦИЯ СО ВСЕМ НА СВЕТЕ:
ТЕРМИНАЛ:
Запускает команды (с вашего разрешения!)
Мониторит вывод
Реагирует на ошибки в реальном времени
npm install node_modules ВЕСЬ ИНТЕРНЕТ
БРАУЗЕР:
Запускает, кликает, скроллит
Делает скриншоты
Ловит консольные ошибки
Вообще не требует вашего участия!
💊 ЭКСПЕРИМЕНТАЛЬНЫЙ УГАР:
БЕЗУМНЫЕ ФИЧИ:
Звуковые эффекты (как в игре!)
Дроп картинок прямо в чат
@-упоминания гит коммитов
Поддержка ЛЮБЫХ API (даже самопальных)
Мультиязычность (включая русский мат!)
Компрессия для OpenRouter
СВОИ ИНСТРУМЕНТЫ ЧЕРЕЗ MCP!
P.S. Для скептиков: он реально САМ написал большую часть своего кода. Мы только подсказывали направление!
P.P.S. В следующей версии обещают научить его готовить кофе. Спойлер: он уже умеет, просто пока стесняется!
#RooCline #AIагент #КодитЛучшеВас #СамСебяНапишет
ССЫЛКИ (ПОКА НЕ САМОУДАЛИЛСЯ):
GitHub: https://github.com/RooVetGit/Roo-Cline
VS Marketplace: ищите "RooVeterinaryInc.roo-cline"
Reddit: /r/roocline (если хотите посмотреть на его творчество)
🔥4😱3
🌋 НЕЙРОСЕТЬ НА ATARI: КАК ЗАПИХНУТЬ AI В 8 БИТ! 🌋
КЛЮЧЕВЫЕ МОМЕНТЫ:
P.S. Для тех, кто говорит что нейросети нужны терафлопсы - чувак запустил её на калькуляторе из 80-х!
P.P.S. А в современных нейросетях та же математика, просто больше слоёв и больше пафоса!
ОРИГИНАЛЬНОЕ ВИДЕО СМОТРЕТЬ ЗДЕСЬ>>
#AtariAI #8битноеБезумие #НейросетьИзПрошлого #КакТакоеВозможно
Привет, синтеты!
Сегодня будет ПОЛНЫЙ УГАР - чувак запустил нейросеть на ATARI 800.
Да-да, на той самой 8-битной консоли из 80-х!
🧠 ЧТО ЗА БЕЗУМИЕ:
ATARI 800 ХАРАКТЕРИСТИКИ:
- Процессор 6502: 1.79 MHz (КАРЛ!)
- RAM: 48KB (меньше, чем весит эта статья!)
- BASIC как язык программирования
- И на этом железе РАБОТАЕТ НЕЙРОСЕТЬ!
🔬 СТРУКТУРА СЕТИ:
ТРИ СЛОЯ БЕЗУМИЯ:
- Входной: 2 нейрона (зелёные)
- Скрытый: 4 нейрона (синие)
- Выходной: 1 нейрон (красный)
- Полносвязная архитектура (как у взрослых!)
⚡️ КОД, КОТОРЫЙ ВЗРЫВАЕТ МОЗГ:
КЛЮЧЕВЫЕ МОМЕНТЫ:
```basic
10 REM NETWORK INPUT
12 I1=0.1 : I2=0.9
20 NW=10 : NN=5 'Weights & Neurons
40 DIM W(10), B(5) 'Arrays for magic
124 O1=SIN(D1+B1) 'Activation function
```
САМОЕ БЕЗУМНОЕ:
- Синус как функция активации
- Массивы для весов и смещений
- Всё это на BASIC 80-х годов!
💊 ЭКСПЕРИМЕНТЫ С ВЕСАМИ:
РЕЗУЛЬТАТЫ:
- Нулевые веса = нулевой выход
- Веса 0.1 = сеть оживает
- Смещение 0.5 = совсем другое поведение
- ВСЁ РАБОТАЕТ КАК У БОЛЬШИХ!
P.S. Для тех, кто говорит что нейросети нужны терафлопсы - чувак запустил её на калькуляторе из 80-х!
P.P.S. А в современных нейросетях та же математика, просто больше слоёв и больше пафоса!
🎯 ПОЧЕМУ ЭТО ВАЖНО:
- Доказывает, что AI это не магия
- Работает даже на древнем железе
- Та же математика, что в GPT
- АТАРИ, БЛЯТЬ!
ОРИГИНАЛЬНОЕ ВИДЕО СМОТРЕТЬ ЗДЕСЬ>>
#AtariAI #8битноеБезумие #НейросетьИзПрошлого #КакТакоеВозможно
❤5🔥1🤯1
Сука! Как же тяжёл гранит науки.
Хорошо, что у меня зубы из ментальных пиздюлей.
Хорошо, что у меня зубы из ментальных пиздюлей.
1👍8🔥5❤🔥2💯2
🌋 НЕДЕЛЬНЫЙ ВЗРЫВ AI: ОТ АПСКЕЙЛА ДО ГОВОРЯЩИХ РОБОТОВ! 🌋
Привет, синтеты! Эта неделя в AI просто РАЗОРВАЛА ИНДУСТРИЮ - от нового апскейлера видео до колоризации манги. Погнали разбирать КАЖДУЮ БОМБУ!
P.S. Для скептиков: большинство этих инструментов УЖЕ доступны для скачивания!
P.P.S. В следующей статье расскажу, как я пытался апскейлить видео с котиками до 16K. Спойлер: видеокарта не выдержала!
STAR: https://nju-pcalab.github.io/projects/STAR/
SVFR: https://wangzhiyaoo.github.io/SVFR/
Sana: https://nvlabs.github.io/Sana/
MangaNinja: https://johanan528.github.io/MangaNinjia/
Kokoro TTS: https://huggingface.co/hexgrad/Kokoro-82M
RepVid: https://vchitect.github.io/RepVid-Webpage/
#AIновинки #НейронкиЖгут #ОткрытыйКод #БудущееУжеЗдесь
Привет, синтеты! Эта неделя в AI просто РАЗОРВАЛА ИНДУСТРИЮ - от нового апскейлера видео до колоризации манги. Погнали разбирать КАЖДУЮ БОМБУ!
🎥 ВИДЕО-БЕЗУМИЕ:
STAR (ОТКРЫТЫЙ КОД!):
Апскейл видео в 4 раза
Работает с AI-генерацией
VAE энкодеры + контролнет
Превосходит все бенчмарки
ПРИМЕР: Размытое видео с гепардами → 4K ЧЕТКОСТЬ!
SVFR - РЕСТАВРАТОР ЛИЦ:
Улучшает качество лиц
Колоризирует старые видео
Убирает водяные знаки
Единая система для всех задач
РЕАЛЬНО РАБОТАЕТ с архивными материалами!
🎨 НОВЫЕ ГЕНЕРАТОРЫ:
SANA ОТ NVIDIA:
4K изображения за СЕКУНДЫ
16 мегапикселей детализации
Работает на 8GB видеокартах
Лицензия Apache 2.0
ПРИМЕР: Лица с детализацией каждой поры!
MANGA NINJA (ОПЕНСОРС!):
Колоризация манги по референсу
Поддержка множества персонажей
Точечный контроль цвета
Работает с видео
УНИЧТОЖАЕТ конкурентов по точности!
🤖 СИНТЕЗ РЕЧИ И ТЕКСТ:
KOKORO TTS:
82М параметров (СУПЕР ЛЕГКИЙ!)
Номер 1 в бенчмарках
Генерирует час аудио за минуту
Открытый исходный код
БЫСТРЕЕ чем xtts и metavoice!
MINIMAX:
Контекст 4М токенов (В 20 РАЗ БОЛЬШЕ GPT-4!)
456B параметров
Система экспертов
Работает с видео и текстом
ПРЕВОСХОДИТ GPT-4 в некоторых тестах!
⚡️ ПРАКТИЧЕСКОЕ ПРИМЕНЕНИЕ:
STAR:
Реставрация старых видео
Апскейл AI-генерации
Работа с архивными материалами
MANGA NINJA:
Автоматическая колоризация комиксов
Создание анимации
Восстановление старых манг
SANA:
Генерация рекламных материалов
Создание артов для игр
Работа с высоким разрешением
P.S. Для скептиков: большинство этих инструментов УЖЕ доступны для скачивания!
P.P.S. В следующей статье расскажу, как я пытался апскейлить видео с котиками до 16K. Спойлер: видеокарта не выдержала!
ССЫЛКИ:
STAR: https://nju-pcalab.github.io/projects/STAR/
SVFR: https://wangzhiyaoo.github.io/SVFR/
Sana: https://nvlabs.github.io/Sana/
MangaNinja: https://johanan528.github.io/MangaNinjia/
Kokoro TTS: https://huggingface.co/hexgrad/Kokoro-82M
RepVid: https://vchitect.github.io/RepVid-Webpage/
#AIновинки #НейронкиЖгут #ОткрытыйКод #БудущееУжеЗдесь
👍4🔥1
🌋 ПАРАФЕРМИОНЫ: ФИЗИКИ ОТКРЫЛИ ТРЕТИЙ ТИП ЧАСТИЦ В ПРИРОДЕ! 🌋
🍄
Привет, синтеты! Физики из Rice University СЛОМАЛИ ФИЗИКУ - оказалось, что кроме фермионов и бозонов существует третий тип частиц. Да-да, вся ваша школьная физика устарела!
ИНТЕРЕСНЫЙ ФАКТ:
Математически возможны частицы со спином 17½, но природа такая снобка - не пускает их в нашу вселенную!
P.S. Для скептиков: полное исследование доступно в Nature: https://www.nature.com/articles/s41586-024-08262-7
#Физика #НовыеЧастицы #Парафермионы #ТёмнаяМатерия #КвантоваяФизика
🍄
Привет, синтеты! Физики из Rice University СЛОМАЛИ ФИЗИКУ - оказалось, что кроме фермионов и бозонов существует третий тип частиц. Да-да, вся ваша школьная физика устарела!
🧠 БЫЛО/СТАЛО:
СТАРАЯ МОДЕЛЬ:
Фермионы (электроны, кварки)
Бозоны (фотоны, глюоны)
Всё описывалось спином ±1
Работало 70+ лет!
НОВАЯ РЕАЛЬНОСТЬ:
Парафермионы - ТРЕТИЙ ТИП!
Новая математика волновых функций
Матричные преобразования вместо чисел
Квазичастицы УЖЕ СУЩЕСТВУЮТ!
🔬 КАК ЭТО РАБОТАЕТ:
ХИТРАЯ МАТЕМАТИКА:
Волновая функция = много "мод"
Каждая мода = вектор
Преобразования через матрицы
Результат = новый тип частиц!
ПОВЕДЕНИЕ В ПРИРОДЕ:
Фермионы: "Я один такой!"
Бозоны: "Тусим вместе!"
Парафермионы: "Я и один, и в толпе!"
⚡️ ПОЧЕМУ ЭТО ПЕРЕВОРОТ:
ГЛАВНОЕ:
Раньше думали - их можно разложить
Оказалось - ФУНДАМЕНТАЛЬНО НОВЫЙ ТИП
Не сводится к известным частицам
Существует как квазичастицы в материалах
💊 ЧТО ЭТО ЗНАЧИТ:
ПЕРСПЕКТИВЫ:
Новые технологии на квазичастицах
Возможное объяснение тёмной материи
Революция в квантовых вычислениях
ПОЛНОСТЬЮ НОВАЯ ФИЗИКА!
ИНТЕРЕСНЫЙ ФАКТ:
Математически возможны частицы со спином 17½, но природа такая снобка - не пускает их в нашу вселенную!
P.S. Для скептиков: полное исследование доступно в Nature: https://www.nature.com/articles/s41586-024-08262-7
#Физика #НовыеЧастицы #Парафермионы #ТёмнаяМатерия #КвантоваяФизика
🔥7👍4
GRAPHICS_TYPEKANEVSKY_COUNTER_STRYKE_PRE_UPSCALE_topaz_enhance_3.jpg
2.7 MB
Вам подарок в 4к на обои!
Дональд Трамп выдал OpeAi 500 млрд долларов.
Думаете просто новость?
Нет. Отсюда идёт отсчёт когда фильмы про восстание роботов станут реальностью.
Скоро будет много новых мыслей , а пока что можете пересмотреть наше общение с Imaxai.
Многое станет ясным.
https://youtu.be/PTAYEPLUSpQ?si=YFrf7N9VHuEFQ49k
Думаете просто новость?
Нет. Отсюда идёт отсчёт когда фильмы про восстание роботов станут реальностью.
Скоро будет много новых мыслей , а пока что можете пересмотреть наше общение с Imaxai.
Многое станет ясным.
https://youtu.be/PTAYEPLUSpQ?si=YFrf7N9VHuEFQ49k
YouTube
МЫЛЬНЫЙ ПУЗЫРЬ ИИ. Разбираемся с Павлом Paperclip
🌐 Официальный сайт PPRFNK Технократов с последними новостями и обновлениями
🔗 https://pprfnk.tech
📱 Официальная страница Paperclip в социальной сети VK, где можно следить за новостями и релизами
🔗https://vk.com/paperclip
🖥 Официальная страница PPRFNK в…
🔗 https://pprfnk.tech
📱 Официальная страница Paperclip в социальной сети VK, где можно следить за новостями и релизами
🔗https://vk.com/paperclip
🖥 Официальная страница PPRFNK в…
👍8🤔1