4 библиотеки Python, которые помогут вам зарабатывать деньги на веб-скрейпинге.
https://bit.ly/33FS5jk
https://bit.ly/33FS5jk
Интересная статься, где сравнивают между собой длинные трансформеры (если коротко: используйте Big Bird если не важна скорость и Performer если важна, не используйте Reformer вообще).
https://bit.ly/3nGiBRG
https://bit.ly/3nGiBRG
Дата-сайентисты, готовы побороться за 1 млн рублей на хакатоне?
Нужно предложить инструмент для оценки качества работы алгоритмов разметки медицинских изображений.
Разработанный инструмент должен автоматически определять набор метрик, а результаты его работы должны наиболее точно совпадать с мнением экспертов (результатами экспертной оценки).
Подайте заявку до 25 октября на участие по ссылке: https://clck.ru/RLWhH
Это партнерский пост.
Нужно предложить инструмент для оценки качества работы алгоритмов разметки медицинских изображений.
Разработанный инструмент должен автоматически определять набор метрик, а результаты его работы должны наиболее точно совпадать с мнением экспертов (результатами экспертной оценки).
Подайте заявку до 25 октября на участие по ссылке: https://clck.ru/RLWhH
Это партнерский пост.
В статье учат бота, обусловленного некой мотивацией, заданной описанием персоны, проходить квесты.
https://bit.ly/30Z35GR
https://bit.ly/30Z35GR
Машинное обучение открывает новые потенциальные противотуберкулезные препараты.
https://bit.ly/3527OJf
https://bit.ly/3527OJf
Очередная SOTA статья от Google. Они адаптировали мультиязычный BERT для создания эмбеддингов предложений независимых от языка для 109 языков (в том числе для русского)!
https://bit.ly/3j6Aupj
https://bit.ly/3j6Aupj
Исследователи из disney research предложили ряд улучшений для часто используемого Y-shaped автоэнкодера в задаче замены лиц (face swap), которые позволили им работать с изображениями размером 1024x1024, показывая при этом качество лучше, чем у распространенных в этой области подходов (у deepfacelab [DFL] в частности).
https://bit.ly/3dDzk3q
https://bit.ly/3dDzk3q
Исследователи из ACL очень громко утверждают, что языковые модели не могут понимать смысл и приводят мысленный эксперимент, который иллюстрирует их идею.
https://bit.ly/35crB8E
https://bit.ly/35crB8E
Сбер выложил русскоязычную модель GPT-3 Large с 760 миллионами параметров в открытый доступ.
https://bit.ly/3js0sDU
https://bit.ly/3js0sDU
Возможно, лучшая визуализация того, как работает трансформер. Во всех примерах визуализировано в том числе и батч-измерение.
https://bit.ly/3dQegqN
https://bit.ly/3dQegqN
Neural architecture search (NAS) позволяет найти оптимальную архитектуру для выбранной задачи.
https://bit.ly/3jwUMZn
https://bit.ly/3jwUMZn
Готовая библиотека для аугментаций в NLP. Как правило завести аугментации текстов сложно и эффект от них слишком малый, чтобы прямо заниматься этим. А теперь можно в пару строчек кода.
Ссылка на статью: https://bit.ly/31NXGmq
Ссылка на документацию: https://bit.ly/31Q9kx6
Ссылка на гитхаб библиотеки: https://bit.ly/3oza8Am
Ссылка на статью: https://bit.ly/31NXGmq
Ссылка на документацию: https://bit.ly/31Q9kx6
Ссылка на гитхаб библиотеки: https://bit.ly/3oza8Am