Data Science Guy – Telegram
Data Science Guy
3.6K subscribers
106 photos
10 videos
4 files
174 links
Канал проекта Data Science Guy на ютубе.

https://www.youtube.com/c/DataScienceGuy


Есть вопросы по обучению Data science и ML? Пишем в чат - https://news.1rj.ru/str/dsguy_chat
Download Telegram
Проводил эксперименты с заменой лиц.

-"Мама, купи Леголаса!"
-"У нас дома есть Леголас

Леголас дома:
Всем привет!
Эту неделю принимал участие в небольшом внутряковом хакатоне от канала ods_pet_projects.

В результате мы с командой сделали забавный “Генератор логотипов”. Под капотом WGAN-GP, StyleGAN2 и различные другие вещи.
Мы заняли с ним 3 место 🥳 (из 15 участников)
Можно попробовать бота тут (пока работает):
Бот: @LogoAfroBot

Так же вот список прикольных ботов других участников, попробуйте их тоже!

Платформа для оценки стоимости одежды, перед выставлением на авито
Бот: @PriceEvaluatorBot

Превратите себя в лягушку Пепе
Бот: @ods_sticker_pack_bot

Победители хакатона:
Создай открытку в стиле вайбера или одноклассников для своей бабушки.
Бот: @whatsup_card_bot

Чат-бот обученный на злачном чате из одс (осторожно может нагрубить в ответ)
Бот: @randomb_bot

Предскажите курс рубля в этом боте:
Бот: @RUB_OIL_bot

В учет итоговой оценки шел сам продукт, его презентация и репозиторий на гитхабе.
Пока ждете новое видео про математику, вот вам мой очередной эксперимент с лицами. Так выглядит по мнению нейросети мужик из мемa про "пюрешку с котлетками" если его пропустить через StyleGAN2. Мне особенно понравилось как шапка стала шевелюрой модной 💂🏻‍♀️
Друзья, решено - стриму быть! 😱
Я давно обещал провести прямую трансляцию, где вы могли бы задать мне свои вопросы ну и я мог бы просто пообщаться с аудиторией.
Предварительная дата это 01.11.
Надеюсь на хорошую явку, тогда будем проводить стримы регулярно)
​​Впечатляющая обработка фото нейросетями становится все более доступной широким массам. В Photoshop появятся нейронные фильтры — продвинутые инструменты для работы с отдельными частями и объектами на фото. Среди них — замена неба, замена фона, редактирование лиц (можно менять волосы, добавлять эмоции, делать лицо старше или младше). Также есть перенос стиля, раскраска черно-белых фото и сглаживание JPEG-артефактов. Целая фабрика нейросетей для улучшения фото в несколько кликов.
Всем привет. Уже посмотрели новый ролик?
Нашел тут интересный начинающий канал на Яндекс.Дзен с советами на все случаи жизни. Там есть статьи про собеседования, резюме и не только. Сделали небольшую коллаборацию с автором этого канала (видео про выгорание).

Например, недавно вышла статья про то, как обустроить комфортное место для работы или учебы у себя дома: https://zen.me/1Kp8KL
Может кому то пригодится )
This media is not supported in your browser
VIEW IN TELEGRAM
Увидел в @NeuralShit нейросеть зомбификатор
https://makemeazombie.com/
Можно к хэлоуину сделать себе аватарку)
Если еще потом скрестить с сервисом pantomime.it , то получается вообще неплохо))
01.11 (ближайшее воскресение) в 19 по мск. будет прямая трансляция на канале. Расскажу про проекты, которые довелось делать за время работы и так же буду отвечать на вопросы из чата. Еще раздам несколько кодов на доступ к курсам на сайте Хекслет. Жду всех!
Прикольная штука, которая поможет вам разобраться со сверточными нейросетями. Там можно поиграться, позакидывать свои картинки и посмотреть как сеть их предсказывает, а так же почитать теорию:
https://poloclub.github.io/cnn-explainer/

Например, логотип моего канала распознало как - sport car 😎
В 2-х словах о том, как стартовать соревнование на kaggle новичкам:
Более подробно поговорим о kaggle в одном из следующих видео.
Наткнулся на неплохой сайт с подборкой бесплатных книг по программированию в общем и по Python в частности. Делюсь)
http://programming-motherfucker.com/become.html
Намечается бесплатный онлайн курс «Введение в машинное обучение» от сообщества The Rolling Scopes. Начало занятий 18 января 2021.
https://rs.school/machine-learning

Возможно будет годный.
GPU Basics
#ai_hardware

Несмотря на обилие возможностей глубинного обучения в облаке, десятки тысяч людей продолжают делать это дома на своих компьютерах. И, наверное, уже все знают, что для обучения модели будет использоваться видеокарта – graphical processing unit (“GPU”), а не процессор (“CPU”).

Чтобы дать числовую оценку преимуществ GPU (будем использовать англоязычный термин, так как в нем присутствует «вычислительный» аспект, в отличие от слова «видеокарта») приведу недавний пример из практики. Решили посмотреть, за какое время центральный процессор справится с задачей, на которую у GPU уходит около часа. Оказалось – за 25 часов!

Конечно, данное значение будет отличаться для разных видов задач, CPU и GPU, архитектур систем и используемых для обучения библиотек, но вывод не изменится – GPU быстрее. Намного быстрее. До такой степени, что заниматься современным глубинным обучением на центральном процессоре сейчас вряд ли имеет смысл.

Сегодня немного поговорим о том, почему же GPU быстрей? Простой ответ – процесс глубинного обучения практически целиком состоит из перемножений очень больших матриц для оптимизации огромного количества параметров, а GPU с такой задачей справляется лучше.

Но возникает следующий вопрос – а почему именно GPU лучше перемножает матрицы?

Есть классическая аналогия, что CPU работает как гоночный автомобиль (чаще всего используется Феррари), а GPU как огромный трак. Если нужно доставить из пункта А в пункт Б небольшой груз, то Феррари это сделает намного быстрей.

Но если нужно перевести большое количество стройматериалов, то медленный трак сделает это намного быстрей, так как сможет это сделать за одну «ходку», в то время как Феррари потребуется десятки.

Самый простой способ продемонстрировать этот эффект, сравнить количество ядер. Для самых мощных современных процессоров это несколько десятков (32 – очень круто; 48 – фактически существующий предел). Это очень впечатляет, особенно тех, кто застал времена всего с одним единственным ядром. Но топовые GPU сейчас имеют более 10 тысяч ядер!

Да, ядра GPU другие, намного проще, чем сложные ядра CPU. Но против грубой силы приема нет, 10 тысяч ядер все равно позволяет производить намного больше параллельных вычислений, чем 32, а значит намного быстрей обучать модель.

С перевозкой грузов на траке есть одна большая проблема – его нужно долго нагружать и это может очень сильно удлинять общее время транспортировки.

И действительно, в базовом варианте необходимость перемещения больших объемов данных от процессора на GPU могла бы привести к большим потерям времени.

Но современные системы научились хорошо с этим справляться – они используют параллелизм, фактически, большое количество траков, работающих одновременно, и это позволяет решить проблему перемещения данных относительно быстро.

Таким образом, GPU имеют огромный выигрыш в скорости вычислений и теряют совсем немного из-за необходимости перемещения данных. Общий выигрыш в скорости очень велик.

Глубже в технические детали не пойдем – кто хочет легко может найти про них информацию в других источниках, да и для большинства задач обучения Искусственного интеллекта это не обязательно. Но время от время мы будем писать про практические аспекты «домашнего глубинного обучения».