4 библиотеки Python, которые помогут вам зарабатывать деньги на веб-скрейпинге.
https://bit.ly/33FS5jk
https://bit.ly/33FS5jk
Интересная статься, где сравнивают между собой длинные трансформеры (если коротко: используйте Big Bird если не важна скорость и Performer если важна, не используйте Reformer вообще).
https://bit.ly/3nGiBRG
https://bit.ly/3nGiBRG
Дата-сайентисты, готовы побороться за 1 млн рублей на хакатоне?
Нужно предложить инструмент для оценки качества работы алгоритмов разметки медицинских изображений.
Разработанный инструмент должен автоматически определять набор метрик, а результаты его работы должны наиболее точно совпадать с мнением экспертов (результатами экспертной оценки).
Подайте заявку до 25 октября на участие по ссылке: https://clck.ru/RLWhH
Это партнерский пост.
Нужно предложить инструмент для оценки качества работы алгоритмов разметки медицинских изображений.
Разработанный инструмент должен автоматически определять набор метрик, а результаты его работы должны наиболее точно совпадать с мнением экспертов (результатами экспертной оценки).
Подайте заявку до 25 октября на участие по ссылке: https://clck.ru/RLWhH
Это партнерский пост.
В статье учат бота, обусловленного некой мотивацией, заданной описанием персоны, проходить квесты.
https://bit.ly/30Z35GR
https://bit.ly/30Z35GR
Машинное обучение открывает новые потенциальные противотуберкулезные препараты.
https://bit.ly/3527OJf
https://bit.ly/3527OJf
Очередная SOTA статья от Google. Они адаптировали мультиязычный BERT для создания эмбеддингов предложений независимых от языка для 109 языков (в том числе для русского)!
https://bit.ly/3j6Aupj
https://bit.ly/3j6Aupj
Исследователи из disney research предложили ряд улучшений для часто используемого Y-shaped автоэнкодера в задаче замены лиц (face swap), которые позволили им работать с изображениями размером 1024x1024, показывая при этом качество лучше, чем у распространенных в этой области подходов (у deepfacelab [DFL] в частности).
https://bit.ly/3dDzk3q
https://bit.ly/3dDzk3q
Исследователи из ACL очень громко утверждают, что языковые модели не могут понимать смысл и приводят мысленный эксперимент, который иллюстрирует их идею.
https://bit.ly/35crB8E
https://bit.ly/35crB8E
Сбер выложил русскоязычную модель GPT-3 Large с 760 миллионами параметров в открытый доступ.
https://bit.ly/3js0sDU
https://bit.ly/3js0sDU
Возможно, лучшая визуализация того, как работает трансформер. Во всех примерах визуализировано в том числе и батч-измерение.
https://bit.ly/3dQegqN
https://bit.ly/3dQegqN