Университет «Нетология» запускает набор на очную программу обучения «Data Scientist». Мощная 5-месячная программа для аналитиков, разработчиков и продакт-менеджеров, которые ставят своей целью научиться профессионально работать с данными.
В рамках курса вы научитесь создавать рекомендательные системы, создавать и обучать нейросети, прогнозировать стоимость акций и других товаров, обрабатывать тексты на естественном языке и использовать data scientist в e-commerce.
с 19 по 28 февраля включительно по кодовому слову ACCURACY скидка 20 000 руб + онлайн курс "Big Data: основы работы с большими массивами данных" (http://netolo.gy/ecE) в подарок.
Успейте подать заявку — http://netolo.gy/ecD
В рамках курса вы научитесь создавать рекомендательные системы, создавать и обучать нейросети, прогнозировать стоимость акций и других товаров, обрабатывать тексты на естественном языке и использовать data scientist в e-commerce.
с 19 по 28 февраля включительно по кодовому слову ACCURACY скидка 20 000 руб + онлайн курс "Big Data: основы работы с большими массивами данных" (http://netolo.gy/ecE) в подарок.
Успейте подать заявку — http://netolo.gy/ecD
Forwarded from Книги для программистов
Глубокое обучение.pdf
14.2 MB
Forwarded from Machine Learning Research
Five video classification methods in Keras and TensorFlow
https://blog.coast.ai/five-video-classification-methods-implemented-in-keras-and-tensorflow-99cad29cc0b5
https://blog.coast.ai/five-video-classification-methods-implemented-in-keras-and-tensorflow-99cad29cc0b5
Medium
Five video classification methods implemented in Keras and TensorFlow
Exploring the UCF101 video action dataset
Forwarded from BigQuery Insights
Подборка Телеграм-каналов по анализу данных:
@BigQuery Insights - анализ больших данных в Google BigQuery, примеры решений и советы по работе с данными.
@WebAnalyst - WebAnalytics - полезное о веб-аналитике, повышению конверсии и анализу данных в маркетинге.
@ai_machinelearning_big_data - информация из мира Машинного обучения, Нейронных сетей и Искусственного интеллекта.
@datarootlabs - DataRoot University - бесплатные курсы data science / engineering и актуальные новости из сферы.
@deeplearning_ru - материалы из области Глубокого обучения с уклоном на Машинное зрение.
@just_data_science - об анализе данных и машинном обучении - понятным языком.
@owoxbicis - новости и статьи, инструменты, вебинары и конференции в сфере аналитики.
@heyml - Hey Machine Learning - новости по машинному обучению и искусственному интеллекту.
via @BigQuery
@BigQuery Insights - анализ больших данных в Google BigQuery, примеры решений и советы по работе с данными.
@WebAnalyst - WebAnalytics - полезное о веб-аналитике, повышению конверсии и анализу данных в маркетинге.
@ai_machinelearning_big_data - информация из мира Машинного обучения, Нейронных сетей и Искусственного интеллекта.
@datarootlabs - DataRoot University - бесплатные курсы data science / engineering и актуальные новости из сферы.
@deeplearning_ru - материалы из области Глубокого обучения с уклоном на Машинное зрение.
@just_data_science - об анализе данных и машинном обучении - понятным языком.
@owoxbicis - новости и статьи, инструменты, вебинары и конференции в сфере аналитики.
@heyml - Hey Machine Learning - новости по машинному обучению и искусственному интеллекту.
via @BigQuery
Небольшая коллекция вдохновляющих ML-экспериментов:
✨ https://aijs.rocks/
Многие вы точно видели, рекомендую походить по сайту — все примеры работают прямо в браузере.
Особенно мне понравился проект «Musical Spinners From Latent Space» – ML генерирует бесконечный космо-эмбиент, его даже можно слушать.
from: @denissexy
✨ https://aijs.rocks/
Многие вы точно видели, рекомендую походить по сайту — все примеры работают прямо в браузере.
Особенно мне понравился проект «Musical Spinners From Latent Space» – ML генерирует бесконечный космо-эмбиент, его даже можно слушать.
from: @denissexy
aijs.rocks
A curated collection of inspirational AI-powered JavaScript apps. Find examples of artificial intelligence and machine learning with Javanoscript
Forwarded from Karim Iskakov - канал (karfly_bot)
В современных компаниях накапливается большой объем данных, из которых можно извлекать важную аналитику, строить гипотезы или модели прогнозирования.
Data Enginer — это специалист, который как раз и собирает данные из разных источников, структурирует и передает аналитикам для принятия бизнес-решений.
Потребность в специалистах Data Engineering сейчас очень высокая и, по прогнозам, будет расти. По версии кадрового агентства Glassdoor, профессия Data Engineer входит в топ-10 в рейтинге самых лучших профессий Америки.
В SkillFactory запустили специализацию "Data Engineer", программа которой ориентирована на практику и изучение главных инструментов и направлений, подходит для тех, кто имеет знания по SQL, Linux и языка Python.
За 12 месяцев вы повысите свой профессиональный уровень и освоите новую специализацию дата-инженера.
Ознакомитесь с полной программой специализации: http://bit.ly/2UzPzHW
Data Enginer — это специалист, который как раз и собирает данные из разных источников, структурирует и передает аналитикам для принятия бизнес-решений.
Потребность в специалистах Data Engineering сейчас очень высокая и, по прогнозам, будет расти. По версии кадрового агентства Glassdoor, профессия Data Engineer входит в топ-10 в рейтинге самых лучших профессий Америки.
В SkillFactory запустили специализацию "Data Engineer", программа которой ориентирована на практику и изучение главных инструментов и направлений, подходит для тех, кто имеет знания по SQL, Linux и языка Python.
За 12 месяцев вы повысите свой профессиональный уровень и освоите новую специализацию дата-инженера.
Ознакомитесь с полной программой специализации: http://bit.ly/2UzPzHW
skillfactory.ru
Курс Data Engineer - Обучение инженеров данных - SkillFactory - Школа Data Science
Курс Data Engineer ★ Подготовка Data Engineering с нуля. На курсе изучите: SQL, ETL-процессы, инструменты Hadoop и Spark. ▶ Школа по работе с данными Skillfactory ☎ +7 (495) 291-09-15
Forwarded from Karim Iskakov - канал (karfly_bot)
This media is not supported in your browser
VIEW IN TELEGRAM
"One more paper from our lab. Authors animate talking heads with facial landmarks using only few shots of target person (or even 1 shot). Revive Dostоevsky!"
🔎 youtu.be/p1b5aiTrGzY
🔎 arxiv.org/abs/1905.08233
📉 @loss_function_porn
🔎 youtu.be/p1b5aiTrGzY
🔎 arxiv.org/abs/1905.08233
📉 @loss_function_porn
Forwarded from proVenture (проВенчур)
#RESEARCHproVenture #AIproVenture
Возможно, одна из немногих причин, почему неплохо было бы посетить ПМЭФ вчера - это увидеть презентацию отчета о развитии искусственного интеллекта в России и в мире от opentalks.ai.
Для затравки фото.
$5 млрд инвестиций, почти 60 тыс патентов и 180 тыс научных публикаций.
Сам отчёт в сообщении ниже.
via @proVenture
Возможно, одна из немногих причин, почему неплохо было бы посетить ПМЭФ вчера - это увидеть презентацию отчета о развитии искусственного интеллекта в России и в мире от opentalks.ai.
Для затравки фото.
$5 млрд инвестиций, почти 60 тыс патентов и 180 тыс научных публикаций.
Сам отчёт в сообщении ниже.
via @proVenture
Forwarded from Brodetskyi. Tech, VC, Startups
Немного подробнее о том, где можно применить дистанционную идентификацию по сердечному ритму:
Самая очевидная сфера — маркетинг: можно будет измерять, как меняется пульс зрителей, которые смотрят рекламный ролик или изучают новую вывеску в ТЦ.
Другая перспективная цель — HR. Сейчас данные носимых кардиографов позволяют определить уровень стресса и восстановления, оценить состояние физических и ментальных ресурсов. Для этого анализируется вариабельность сердечного ритма (ВСР) — показатель, который отображает влияние симпатической и парасимпатической нервной систем на организм. Jetson тоже позволит определять ВСР: менее точно, зато на расстоянии.
Датчики можно установить в публичных местах, чтобы отслеживать опасные состояния прохожих. Если разработчики создадут для технологии медицинский функционал, она станет еще одним инструментом для диагностики сердечно-сосудистых заболеваний, наряду с ECG- и PPG-трекерами. Больше людей получат шанс вовремя выявить нарушения ритма и потенциально — спасут себе жизнь. В мире снизится уровень смертности от ССЗ. Сейчас это причина смерти № 1 в мире, более 30% всех смертей. Снизив этот показатель на треть, можно спасти до 6 млн человек в год.
Самая очевидная сфера — маркетинг: можно будет измерять, как меняется пульс зрителей, которые смотрят рекламный ролик или изучают новую вывеску в ТЦ.
Другая перспективная цель — HR. Сейчас данные носимых кардиографов позволяют определить уровень стресса и восстановления, оценить состояние физических и ментальных ресурсов. Для этого анализируется вариабельность сердечного ритма (ВСР) — показатель, который отображает влияние симпатической и парасимпатической нервной систем на организм. Jetson тоже позволит определять ВСР: менее точно, зато на расстоянии.
Датчики можно установить в публичных местах, чтобы отслеживать опасные состояния прохожих. Если разработчики создадут для технологии медицинский функционал, она станет еще одним инструментом для диагностики сердечно-сосудистых заболеваний, наряду с ECG- и PPG-трекерами. Больше людей получат шанс вовремя выявить нарушения ритма и потенциально — спасут себе жизнь. В мире снизится уровень смертности от ССЗ. Сейчас это причина смерти № 1 в мире, более 30% всех смертей. Снизив этот показатель на треть, можно спасти до 6 млн человек в год.
Хайтек+
«Дистанционная идентификация по ритму сердца — это действительно прорыв»
На днях Хайтек+ сообщил о новой разработке Пентагона, которая может идентифицировать человека на расстоянии до 200 метров по сердечному ритму. Head of R&D стартапа Mawi Виталий Саган написал для нас колонку, в которой рассказывает, как работает эта технология…
Forwarded from Denis Sexy IT 🤖
Вы наверное уже видели как Джека Николсона заменили на Джима Керри в «Сиянии» с помощью Deep Fake, так вот, вышло новое видео от того же автора, еще более реалестичное:
https://youtu.be/-ZRUZzZPGto
Очень рекомендую канал автора на ютубе, у него там полно подобных видео.
Все это делается с помощью алгоритма Deep Fake о котором я уже не раз писал в этом канале.
Всё жду первый полнометражный deepfake-фильм где все роли сыграет Николас Кейдж 🦄
https://youtu.be/-ZRUZzZPGto
Очень рекомендую канал автора на ютубе, у него там полно подобных видео.
Все это делается с помощью алгоритма Deep Fake о котором я уже не раз писал в этом канале.
Всё жду первый полнометражный deepfake-фильм где все роли сыграет Николас Кейдж 🦄
YouTube
The Shining starring Jim Carrey : Episode 2 - The Bat [DeepFake]
Jim Carrey impersonates Jack Nicholson in this clip from The Shining.
.. Not really, it's a deepfake.
Patreon: https://www.patreon.com/ctrl_shift_face
Twitter: https://twitter.com/ctrl_shift_face
Ending music:
Ray Noble Orchestra & Al Bowlly - Midnight…
.. Not really, it's a deepfake.
Patreon: https://www.patreon.com/ctrl_shift_face
Twitter: https://twitter.com/ctrl_shift_face
Ending music:
Ray Noble Orchestra & Al Bowlly - Midnight…
Возвращаемся из отпусков и регистрируемся на хакатон в рамках недели ИИ от Nvidia и МФТИ!
Задача хакатона: предложить самое безумное и неожиданное применение ИИ
Вас ждут:
- бесплатный доступ к курсу DLI от Nvidia для всех, презентовавших свое решение;
- Jetson Nano за самую безумную идею;
- возможность презентовать свою идею инвесторам, корпоратам и лабораториям МФТИ;
- возможность попасть на очный отборочный тур в Сборную России по хакатонам Russian Hack Team без отбора по анкетам;
Мы будем рады видеть:
- Команды до 5 человек из индивидуальных разработчиков и стартапы
- Аналитиков, продуктологов, дизайнеров, маркетологов
• Место проведения: кампус МФТИ, Институтский переулок 9 стр 7
• Даты проведения: 22-23 августа
Регистрируйся:
→ bit.ly/2KqYp4D
Чат Telegram:
→ bit.ly/2YTYOVs
Задача хакатона: предложить самое безумное и неожиданное применение ИИ
Вас ждут:
- бесплатный доступ к курсу DLI от Nvidia для всех, презентовавших свое решение;
- Jetson Nano за самую безумную идею;
- возможность презентовать свою идею инвесторам, корпоратам и лабораториям МФТИ;
- возможность попасть на очный отборочный тур в Сборную России по хакатонам Russian Hack Team без отбора по анкетам;
Мы будем рады видеть:
- Команды до 5 человек из индивидуальных разработчиков и стартапы
- Аналитиков, продуктологов, дизайнеров, маркетологов
• Место проведения: кампус МФТИ, Институтский переулок 9 стр 7
• Даты проведения: 22-23 августа
Регистрируйся:
→ bit.ly/2KqYp4D
Чат Telegram:
→ bit.ly/2YTYOVs
pgenesis.timepad.ru
Хакатон AI Camp МФТИ 22-23 августа / События на TimePad.ru
Возвращаемся из отпусков и регистрируемся на хакатон в рамках недели ИИ от Nvidia и МФТИ!
Освойте самую востребованную технологию искусственного интеллекта!
У вас уже есть базовое понимание машинного обучения и знание языка Python? Повысьте компетенции и получите практические навыки по программированию глубоких нейронных сетей!
В SkillFactory открыт новый набор на курс "Deep Learning и нейронные сети" https://clc.to/8Q3OKA разработанный при поддержке NVIDIA Corporation.
Проекты, над которыми вы будете работать, включают:
● создание нейронной сети для распознавания рукописных цифр;
● обучение рекурентной сети задачам прогнозирования временных рядов;
● разработку нейросетевого чат-бота;
● создание модели для идентификации лиц и генерации лиц на основе архитектуры GAN;
● разработку агента для игры на основе DQN алгоритма.
Вы познакомитесь с основными библиотеками для Deep Learning, такими как TensorFlow, Keras и другими.
Узнайте подробности: https://clc.to/8Q3OKA
У вас уже есть базовое понимание машинного обучения и знание языка Python? Повысьте компетенции и получите практические навыки по программированию глубоких нейронных сетей!
В SkillFactory открыт новый набор на курс "Deep Learning и нейронные сети" https://clc.to/8Q3OKA разработанный при поддержке NVIDIA Corporation.
Проекты, над которыми вы будете работать, включают:
● создание нейронной сети для распознавания рукописных цифр;
● обучение рекурентной сети задачам прогнозирования временных рядов;
● разработку нейросетевого чат-бота;
● создание модели для идентификации лиц и генерации лиц на основе архитектуры GAN;
● разработку агента для игры на основе DQN алгоритма.
Вы познакомитесь с основными библиотеками для Deep Learning, такими как TensorFlow, Keras и другими.
Узнайте подробности: https://clc.to/8Q3OKA
skillfactory.ru
Курс «Специалист по нейронным сетям» на Python: обучение для начинающих
Онлайн-курс «Специалист по нейронным сетям» и Deep Learning для Python-разработчиков с сертификатом и помощью в трудоустройстве. Для обучения вам понадобится знание Python и базовое понимание машинного обучения. Skillfactory — мы не про курсы, мы про опыт
Forwarded from gonzo-обзоры ML статей
В последнее время особенно набирает обороты тема с дистилляцией. Двусмысленно получилось… Ну да ладно…
BERT оказался хорошим примером сильной модели, которую хочется использовать везде, но не везде можно, так как она тяжёлая, не на все устройства влезает и инференс на ней довольно долгий, что опять же ограничивает применение.
Направление сжатия и ускорения моделей сильно актуально и дистилляция оказалась одним из хороших вариантов этого добиться.
BERT оказался хорошим примером сильной модели, которую хочется использовать везде, но не везде можно, так как она тяжёлая, не на все устройства влезает и инференс на ней довольно долгий, что опять же ограничивает применение.
Направление сжатия и ускорения моделей сильно актуально и дистилляция оказалась одним из хороших вариантов этого добиться.
Forwarded from gonzo-обзоры ML статей
Итак, первый лот:
DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter
Victor Sanh, Lysandre Debut, Julien Chaumond, Thomas Wolf
Статья: https://arxiv.org/abs/1910.01108
Эту модель все уже давно знают по посту от Hugging Face (https://medium.com/huggingface/distilbert-8cf3380435b5) и по их же реализации в библиотеке transformers (бывшая pytorch-transformers, которая теперь стала достаточно универсальной, чтобы обеспечить interoperability моделей между как раз только что вышедшим TF 2.0 и PyTorch), тоже на днях вместе с переименованием обновившейся до версии 2.0.0 (https://github.com/huggingface/transformers/releases). Кажется, это самая популярная быблиотека, сожержащая наиболее популярные предобученные модели на трансформерах (https://github.com/huggingface/transformers#model-architectures).
В предверии NeuralIPS 2019 вышла наконец и статья на arxiv.
Собственно DistilBERT — это дистиллированный BERT, примерно на 40% меньший по размеру, на 60% более быстрый и сохраняющий 97% качества оригинального BERT’а (BERT-base на самом деле).
Идея дистиллирования весьма проста. Давайте обучим более простую модель (ученика), воспроизводящую поведение более сложной модели (учителя).
Модель-студент в DistilBERT — это модель, где слоёв в два раза меньше, а их размерность остаётся прежней (типа, все BLAS вычисления настолько оптимизированы, что это слабо влияет). Слои студента инициализируются весами из модели-учителя.
В случае DistilBERT мы воспроизводим финальное распределение вероятностей после softmax в задаче masked language modeling (MLM).
Функция потерь — это комбинация обычного MLM loss с новым кросс-энтропийным лоссом, штрафующим за непохожесть предсказаний ученика на предсказания учителя. Также добавляется косинусный лосс на эмбеддинги, чтобы вектора скрытых состояний обеих моделей смотрели в одинаковых направлениях.
Кроме того в DistilBERT применены улучшения из недавней RoBERTa: обучение на больших батчах (4К), динамические маски и отсутствие Next Sentence Prediction (NSP) задачи.
Обучали DistilBERT на том же датасете, что и BERT. 90 часов на 8xV100 (16Gb) против 1 дня на 1024xV100 (32 Gb) в случае обучения RoBERT’ы.
Дистиллировали только предобучение. Отдельным экспериментом попробовали сделать дополнительное дистиллирование для fine-tuning под SQuAD, оказалось ещё получше.
В целом результат достойный, работает хорошо, времени требует меньше (и на обучении, и на инференсе). Пробовали даже загонять модель в iPhone 7 Plus, этот код живёт тут: https://github.com/huggingface/swift-coreml-transformers.
DistilBERT, a distilled version of BERT: smaller, faster, cheaper and lighter
Victor Sanh, Lysandre Debut, Julien Chaumond, Thomas Wolf
Статья: https://arxiv.org/abs/1910.01108
Эту модель все уже давно знают по посту от Hugging Face (https://medium.com/huggingface/distilbert-8cf3380435b5) и по их же реализации в библиотеке transformers (бывшая pytorch-transformers, которая теперь стала достаточно универсальной, чтобы обеспечить interoperability моделей между как раз только что вышедшим TF 2.0 и PyTorch), тоже на днях вместе с переименованием обновившейся до версии 2.0.0 (https://github.com/huggingface/transformers/releases). Кажется, это самая популярная быблиотека, сожержащая наиболее популярные предобученные модели на трансформерах (https://github.com/huggingface/transformers#model-architectures).
В предверии NeuralIPS 2019 вышла наконец и статья на arxiv.
Собственно DistilBERT — это дистиллированный BERT, примерно на 40% меньший по размеру, на 60% более быстрый и сохраняющий 97% качества оригинального BERT’а (BERT-base на самом деле).
Идея дистиллирования весьма проста. Давайте обучим более простую модель (ученика), воспроизводящую поведение более сложной модели (учителя).
Модель-студент в DistilBERT — это модель, где слоёв в два раза меньше, а их размерность остаётся прежней (типа, все BLAS вычисления настолько оптимизированы, что это слабо влияет). Слои студента инициализируются весами из модели-учителя.
В случае DistilBERT мы воспроизводим финальное распределение вероятностей после softmax в задаче masked language modeling (MLM).
Функция потерь — это комбинация обычного MLM loss с новым кросс-энтропийным лоссом, штрафующим за непохожесть предсказаний ученика на предсказания учителя. Также добавляется косинусный лосс на эмбеддинги, чтобы вектора скрытых состояний обеих моделей смотрели в одинаковых направлениях.
Кроме того в DistilBERT применены улучшения из недавней RoBERTa: обучение на больших батчах (4К), динамические маски и отсутствие Next Sentence Prediction (NSP) задачи.
Обучали DistilBERT на том же датасете, что и BERT. 90 часов на 8xV100 (16Gb) против 1 дня на 1024xV100 (32 Gb) в случае обучения RoBERT’ы.
Дистиллировали только предобучение. Отдельным экспериментом попробовали сделать дополнительное дистиллирование для fine-tuning под SQuAD, оказалось ещё получше.
В целом результат достойный, работает хорошо, времени требует меньше (и на обучении, и на инференсе). Пробовали даже загонять модель в iPhone 7 Plus, этот код живёт тут: https://github.com/huggingface/swift-coreml-transformers.
arXiv.org
DistilBERT, a distilled version of BERT: smaller, faster, cheaper...
As Transfer Learning from large-scale pre-trained models becomes more prevalent in Natural Language Processing (NLP), operating these large models in on-the-edge and/or under constrained...
Forwarded from UX Live 🔥
This media is not supported in your browser
VIEW IN TELEGRAM
Дипфейков мало не бывает