Graphnull – Telegram
🔥5🤬2
🔥3❤‍🔥1👍1🤬1
🔥3❤‍🔥1👍1🥰1🤬1
👍3🥰3❤‍🔥1🤬1
2🤔1🤬1
Дорогие подписчики, я хотел бы пожелать вам всего самого лучшего в этом новом году. Пусть он наполнен любовью, счастьем, здоровьем и успехом в ваших начинаниях. Пусть все ваши мечты сбываются и вы достигнете всего, что задумали.

Хоть я не часто выкладываю, я благодарен за вашу поддержку в прошедшем году. Благодаря вам, я могу продолжать делиться своими творениями и идеями. Этот год был для меня настоящим развитием во всех направлениях моей жизни и я уверен, следующий год будет не хуже. Я надеюсь, что канал продолжит расти и будет больше интересного контента.

Люблю вас! С 2024 годом!
🎉6🤬1
Фото от 07.01.24
Болел на праздниках. В этом месяце донастрою новый компьютер. Есть несколько небольших проектов с языковыми моделями, которые хочу показать, но не будет всё быстро, потому что моя производительность сейчас минимальная и в первую очередь хочу заниматься своим физическим состоянием. Чувствую себя спокойно и приятно
1🔥1👏1🤬1
🥰4🔥1👏1😁1🤬1
🔥1🤔1🤬1
🔥1🤬1
SMBH
<unknown>
🤬1
Есть интересная статья по сжатию изображения. https://habr.com/ru/articles/691192/
В этой статье автор сжимает изображение при помощи нейросети, которая сжимает размеры изображения в 50 раз, что бы нейросеть по генерации изображения работала быстрее. Я решил повторить эксперимент ради любопытства. Но не использовал нейросеть по генерации изображения, а использовал только сжиматель (VAE) и сжатое представление ещё попробовал сжать обычным архиватором (gzip).

Взял первое изображение 1024x1024 JPEG 144кб
Прогнал через VAE и квантовал в 8бит (65кб)
Сжал через gzip (48кб)
И разжал всё обратно во второе изображение.
Третье изображение в формате webp 42кб сжал через графический редактор. Я взял webp, потому что он намного лучше сжимает по сравнению jpeg.

Изображение принадлежит @Gmorv
👍1🔥1
В предыдущем посте был эксперимент с нейронкой (VAE), которая сжимает изображения в скрытое представление и разжимает обратно. Сама нейронка состоит из кодировщика и декодеровщика, она не быстрая и много весит.
Я решил обучить свою версию декодера, которая смогла бы разжать изображение намного быстрее в ущерб качеству. В итоге за полтора дня получилась нейронка размером 1 мегабайт (против 265 мегабайт оригинала). Скорость на CPU примерно в 50 раз быстрее. Это позволяет его запускать на любом калькуляторе, а сжатые изображения стримить прямо с генератора изображений.
Такой результат наталкивает на мысль, что увеличив немного модель, можно сделать дистиллированную версию оригинальной модели, но я этим не буду заниматься.
На примере видно, что изображения тускнее. Я обучал на датасете VOC2007, а там только фотографии и возможно это повлияло. Не знаю кому это может понадобиться, но код обучения, модель и пример в репозитории.
https://github.com/Graphnull/VAElight
👍1👌1