Методы автоматического реферирования: постановка задачи и методы без учителя
https://habr.com/ru/post/595517/
https://habr.com/ru/post/595517/
Хабр
Постановка задачи автоматического реферирования и методы без учителя
Всем привет! Для написания кандидатской диссертации я недавно составил обзор различных методов автоматического реферирования, суммаризации. Обзор получился субъективно хорошим, поэтому я публикую его...
Tfidfvectorizer, BERT, LASER: векторизация данных и кластерный анализ для улучшения рекомендательной системы
https://habr.com/ru/company/rubda/blog/594759/
https://habr.com/ru/company/rubda/blog/594759/
Хабр
Tfidfvectorizer, BERT, LASER: векторизация данных и кластерный анализ для улучшения рекомендательной системы
Мир онлайн-покупок становится всё привычнее, а значит, и обезличенных данных про каждого пользователя всё больше. Билайн ТВ использует для онлайн-кинотеатра рекомендательную систему на основе данных:...
Initializing neural networks
https://deeplearning.ai/ai-notes/initialization/
https://deeplearning.ai/ai-notes/initialization/
deeplearning.ai
AI Notes: Initializing neural networks - deeplearning.ai
In this post, we'll explain how to initialize neural network parameters effectively. Initialization can have a significant impact on convergence in training deep neural networks...
Методы автоматического реферирования: экстрактивные методы
https://habr.com/ru/post/595597/
https://habr.com/ru/post/595597/
Хабр
Извлекающие методы автоматического реферирования
И снова всем привет! На этот раз рассмотрим извлекающие методы, которым нужны эталонные рефераты для обучения. При этом эти методы всё ещё могут лишь выбирать предложения из оригинального текста. К...
Perceiver IO: a scalable, fully-attentional model that works on any modality
Стала доступна мультимодальная модель на huggingface
https://huggingface.co/blog/perceiver
Стала доступна мультимодальная модель на huggingface
https://huggingface.co/blog/perceiver
huggingface.co
Perceiver IO: a scalable, fully-attentional model that works on any modality
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
Секреты генерирующего реферирования текстов
https://habr.com/ru/post/596481/
https://habr.com/ru/post/596481/
Хабр
Секреты генерирующего реферирования текстов
Эта статья посвящена основным современным моделям для генерирующего реферирования и генерации текста в целом: BertSumAbs, GPT, BART, T5 и PEGASUS, и их использованию для русского языка. В отличие от...
Курс от Microsoft: 12 weeks, 26 lessons, 52 quizzes, classic Machine Learning for all
https://github.com/microsoft/ML-For-Beginners
https://github.com/microsoft/ML-For-Beginners
GitHub
GitHub - microsoft/ML-For-Beginners: 12 weeks, 26 lessons, 52 quizzes, classic Machine Learning for all
12 weeks, 26 lessons, 52 quizzes, classic Machine Learning for all - microsoft/ML-For-Beginners
Choosing the right course for a Practical NLP Engineer
https://airev.us/ultimate-guide-to-natural-language-processing-courses
https://airev.us/ultimate-guide-to-natural-language-processing-courses
Что такое обучение с подкреплением и как оно работает. Объясняем на простых примерах
https://proglib.io/p/chto-takoe-obuchenie-s-podkrepleniem-i-kak-ono-rabotaet-obyasnyaem-na-prostyh-primerah
https://proglib.io/p/chto-takoe-obuchenie-s-podkrepleniem-i-kak-ono-rabotaet-obyasnyaem-na-prostyh-primerah
Библиотека программиста
🤖 Что такое обучение с подкреплением и как оно работает. Объясняем на простых примерах
Рассказываем, как методом проб и ошибок машины учатся и какие алгоритмы используют, чтобы превзойти человека.
Зимняя школа Intel-ННГУ по оптимизации производительности алгоритмов компьютерного зрения, 2-8 февраля 2022
https://habr.com/ru/company/intel/blog/597761/
https://habr.com/ru/company/intel/blog/597761/
Хабр
Зимняя школа Intel-ННГУ по оптимизации производительности алгоритмов компьютерного зрения, 2-8 февраля 2022
Что-то давно не анонсировали мы учебные мероприятия Intel. Это не означает, что компания не проводит академические программы — напротив, она верна своим традициям. В доказательство этого в очередной...
Графовые нейронные сети
https://dyakonov.org/2021/12/30/gnn/
https://dyakonov.org/2021/12/30/gnn/
Анализ малых данных
Графовые нейронные сети
Мы расскажем про популярный класс нейронных сетей – графовые сети. Манера повествования позволит понять, как они устроены, даже новичкам в машинном обучении, однако обзор видов сетей и конструкций …
10 Лучших курсов по Машинному обучению на 2022 год
https://uproger.com/10-luchshih-kursov-po-mashinnomu-obucheniyu-na-2022-god/
https://uproger.com/10-luchshih-kursov-po-mashinnomu-obucheniyu-na-2022-god/
UPROGER | Программирование
10 Лучших курсов по Машинному обучению на 2022 год
10 лучших Machine learning курсов для новичков в 2022 году
1) Machine Learning By Andrew Ng [Couresra Free Course] Это, вероятно, лучший бесплатный онлайн-курс для изучения машинного обучения и, скорее всего, самый популярный. Поскольку к этому курсу…
1) Machine Learning By Andrew Ng [Couresra Free Course] Это, вероятно, лучший бесплатный онлайн-курс для изучения машинного обучения и, скорее всего, самый популярный. Поскольку к этому курсу…
Новый блогпост от Jay Alammar про новую модель RETRO
http://jalammar.github.io/illustrated-retrieval-transformer/
http://jalammar.github.io/illustrated-retrieval-transformer/
jalammar.github.io
The Illustrated Retrieval Transformer
Discussion: Discussion Thread for comments, corrections, or any feedback.
Translations: Korean, Russian
Summary: The latest batch of language models can be much smaller yet achieve GPT-3 like performance by being able to query a database or search the…
Translations: Korean, Russian
Summary: The latest batch of language models can be much smaller yet achieve GPT-3 like performance by being able to query a database or search the…
Forwarded from AbstractDL
This media is not supported in your browser
VIEW IN TELEGRAM
GPT для чайников: от токенизации до файнтюнинга
Сделал для вас небольшой colab туториал про GPT. Там подробно и с примерами разобраны такие темы как:
1. Устройство GPT-1,2,3
2. Токенизация
3. Методы генерации текста
4. Файнтюнинг (прям в колабе)
Если вы давно хотели поиграться с GPT, но всё не доходили руки, то новогодние праздники — самое время 😉
Colab
Сделал для вас небольшой colab туториал про GPT. Там подробно и с примерами разобраны такие темы как:
1. Устройство GPT-1,2,3
2. Токенизация
3. Методы генерации текста
4. Файнтюнинг (прям в колабе)
Если вы давно хотели поиграться с GPT, но всё не доходили руки, то новогодние праздники — самое время 😉
Colab
🔥1
Выложили cs224u за 2021-й год
https://www.youtube.com/playlist?list=PLoROMvodv4rPt5D0zs3YhbWSZA8Q_DyiJ
https://www.youtube.com/playlist?list=PLoROMvodv4rPt5D0zs3YhbWSZA8Q_DyiJ
YouTube
Stanford CS224U: Natural Language Understanding | Spring 2021
The videos in this series are part of the lectures in this Stanford Graduate course CS224U. This project-oriented class is focused on developing systems and ...
Forwarded from Машинное обучение RU
25 лучших (и бесплатных) книг для понимания машинного обучения 2022
https://uproger.com/24-luchshih-i-besplatnyh-knig-dlya-ponimaniya-mashinnogo-obucheniya-2022/
@machinelearning_ru
https://uproger.com/24-luchshih-i-besplatnyh-knig-dlya-ponimaniya-mashinnogo-obucheniya-2022/
@machinelearning_ru
На arxive'e появилась книга Deep Learning Interiews
• Logistic Regression
• Information Theory
• Calculus
• Algorithmic Differentiation
• Bayesian Deep Learning
• Probabilistic Programming
• Ensemble Learning
• CNN Feature Extraction
• Deep Learning: Expanded Chapter
https://arxiv.org/pdf/2201.00650.pdf
• Logistic Regression
• Information Theory
• Calculus
• Algorithmic Differentiation
• Bayesian Deep Learning
• Probabilistic Programming
• Ensemble Learning
• CNN Feature Extraction
• Deep Learning: Expanded Chapter
https://arxiv.org/pdf/2201.00650.pdf
❤1