Пишу сейчас бойлерплейт для соревы RSNA Screening Mammography Breast Cancer Detection.
Задача: по четырем X-Ray снимкам груди (два для каждой) и метаинформации (табличка) определить, есть ли раковое новообразование.
Из метаинформации доступной во время инференса есть:
ID госпиталя
ID пациента
ID снимка
ID X-ray машины
Признак стороны груди: левая/правая
Возраст
Присутствует/отсутствует имплант
Оценка плотности ткани молочной железы
Кажется, что такую информацию можно использовать (выделенную уж точно). Пока что выглядит так, будто можно использовать для нормализации во время постобработки. Можно еще возраст подавать в метамодель/в голову сетки.
Поделитесь мыслями в комментах, какие бы вы идеи попробовали.
Пост про топ решения случится, он уже в автопаблише висит.
Задача: по четырем X-Ray снимкам груди (два для каждой) и метаинформации (табличка) определить, есть ли раковое новообразование.
Из метаинформации доступной во время инференса есть:
ID госпиталя
ID пациента
ID снимка
ID X-ray машины
Признак стороны груди: левая/правая
Возраст
Присутствует/отсутствует имплант
Оценка плотности ткани молочной железы
Кажется, что такую информацию можно использовать (выделенную уж точно). Пока что выглядит так, будто можно использовать для нормализации во время постобработки. Можно еще возраст подавать в метамодель/в голову сетки.
Поделитесь мыслями в комментах, какие бы вы идеи попробовали.
Пост про топ решения случится, он уже в автопаблише висит.
Первое место с #G2GravitationWaves:
Автор обломал зубы об одномерные сверточные сети (даже не выбил бронзу) и решил, что попробует какой-нибудь подход попроще:
1. Извлечь частоту и мощность из записи
2. Из этих значений вычесть сдвиг Доплера
3. Присвоить каждой записи веса пропорционально абсолютной амплитуде сигнала
4. Просуммировать получившуюся мощность с разными сдвигами и взять максимум такой суммы
Таким образом автор улучшает соотношение Signal/Noise и добивается максимального соответствия по распределению chisq. (мемно, что я пост пишу на лекции про этот метод)
Вообще автор там интересные рассуждения приводит, которые я не до конца понимаю. Приглашаю обсудить в комменты
Второе место:
Все так же, но проще. Авторы уже просто подбирают ближайший чистый сигнал и немного сглаживают смещенные шумы медианным фильтром:
1. Генерим случайный сигнал
2. Проверяем, насколько он хорошо фитится на каждый пример из теста
3. Проверяем, насколько квадрат суммы со сдвигами большой
Таким образом получаем статистику для каждого сигнала и берем от нее максимум. И на всем распределении получившихся максимумов по каждому сигналу уже отсекаем по порогу.
Третье место (наконец-то настоящий DL):
Парни быстро заметили, что шум имеет распределение chisq.
Так же они сгенерили 40к семплов шума + сигналов + гличей для трейна и валидации. (Для сравнения мы со @stan_goes_wild тренировались на 1к + 1к и не использовали гличи совсем)
Алгоритм генерации был такой:
1. Берем решение из теста
2. На основе его шума генериуем свой шум
3. Добавляем в этот шум сигнал
Еще они использовали забавные штуки с нормализацией:
Т.к. шум у нас chisq, то надо поклоночно сигнал возвести в квадрат, и тогда шум станет уже нормально распредленным. Осталось вычесть среднее и поделить на std.
Так же они использовали кастомную сетку:
1. В начале хорошо зашли денойзинг слои с большой шириной (3x31, 5x15, 5x31, 7x65)
2. Претрейнили энкодер в AE манере c dice loss
Одиночные модели давали примерно 0.78
Далее шел иерархический стекинг следующей конструкции:
Считаем статистику и определяем, является ли пример реальным или синтетическим -> Зоопарк моделей для синтетики (2)
.|
V
Зоопарк моделей для реальных данных (3)
(2)(3) -> Серию линейных моделей на подвыборках (4)
По серии линейных моделей берем среднее весов и уже такой штукой предсказываем финальный ответ. Такой стак давал 0.784 -> 0.801 против простого усреднения.
Под конец соревы ребята нашли лик:
Реальная часть датасета была сгенерирована случайной нарезкой одного длинного шума с детектора, к которому был добавлен белый шум и затем синтетический сигнал. Значит можно такой смещенный шум склеить назад. А так как у нас есть шум- то и сигнал можно выделить. Это дало прирост 0.801 -> 0.826 на прайвете.
Автор обломал зубы об одномерные сверточные сети (даже не выбил бронзу) и решил, что попробует какой-нибудь подход попроще:
1. Извлечь частоту и мощность из записи
2. Из этих значений вычесть сдвиг Доплера
3. Присвоить каждой записи веса пропорционально абсолютной амплитуде сигнала
4. Просуммировать получившуюся мощность с разными сдвигами и взять максимум такой суммы
Таким образом автор улучшает соотношение Signal/Noise и добивается максимального соответствия по распределению chisq. (мемно, что я пост пишу на лекции про этот метод)
Вообще автор там интересные рассуждения приводит, которые я не до конца понимаю. Приглашаю обсудить в комменты
Второе место:
Все так же, но проще. Авторы уже просто подбирают ближайший чистый сигнал и немного сглаживают смещенные шумы медианным фильтром:
1. Генерим случайный сигнал
2. Проверяем, насколько он хорошо фитится на каждый пример из теста
3. Проверяем, насколько квадрат суммы со сдвигами большой
Таким образом получаем статистику для каждого сигнала и берем от нее максимум. И на всем распределении получившихся максимумов по каждому сигналу уже отсекаем по порогу.
Третье место (наконец-то настоящий DL):
Парни быстро заметили, что шум имеет распределение chisq.
Так же они сгенерили 40к семплов шума + сигналов + гличей для трейна и валидации. (Для сравнения мы со @stan_goes_wild тренировались на 1к + 1к и не использовали гличи совсем)
Алгоритм генерации был такой:
1. Берем решение из теста
2. На основе его шума генериуем свой шум
3. Добавляем в этот шум сигнал
Еще они использовали забавные штуки с нормализацией:
Т.к. шум у нас chisq, то надо поклоночно сигнал возвести в квадрат, и тогда шум станет уже нормально распредленным. Осталось вычесть среднее и поделить на std.
Так же они использовали кастомную сетку:
1. В начале хорошо зашли денойзинг слои с большой шириной (3x31, 5x15, 5x31, 7x65)
2. Претрейнили энкодер в AE манере c dice loss
Одиночные модели давали примерно 0.78
Далее шел иерархический стекинг следующей конструкции:
Считаем статистику и определяем, является ли пример реальным или синтетическим -> Зоопарк моделей для синтетики (2)
.|
V
Зоопарк моделей для реальных данных (3)
(2)(3) -> Серию линейных моделей на подвыборках (4)
По серии линейных моделей берем среднее весов и уже такой штукой предсказываем финальный ответ. Такой стак давал 0.784 -> 0.801 против простого усреднения.
Под конец соревы ребята нашли лик:
Реальная часть датасета была сгенерирована случайной нарезкой одного длинного шума с детектора, к которому был добавлен белый шум и затем синтетический сигнал. Значит можно такой смещенный шум склеить назад. А так как у нас есть шум- то и сигнал можно выделить. Это дало прирост 0.801 -> 0.826 на прайвете.
Kaggle
G2Net Detecting Continuous Gravitational Waves
Help us detect long-lasting gravitational-wave signals!
🔥3🤯2
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 @SBERLOGACOMPETE webinar on data science:
👨🔬 Dmitrii Rudenko "G2 Gravitational waves Kaggle competition debrief"
⌚️ 20 January, Friday, 19.00 (Moscow Time)
Add to Google Calendar
Welcome to the G2 Kaggle competition debrief on Detecting Gravitational Waves! My name is Dmitrii Rudenko and I am excited to share with you the top solutions from this competition, as well as my own bronze medal-winning solution. As many of you may know, the task in this competition was to use computer vision techniques to detect gravitational waves in images. These waves are extremely faint and difficult to detect, making this a challenging problem for machine learning algorithms. However, through the use of innovative techniques and careful tuning of models, we were able to achieve impressive results. I look forward to discussing the details of these solutions with you and hearing your thoughts and insights on the topic. Let's get started!
Link to the competition: https://www.kaggle.com/competitions/g2net-detecting-continuous-gravitational-waves/overview
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
👨🔬 Dmitrii Rudenko "G2 Gravitational waves Kaggle competition debrief"
⌚️ 20 January, Friday, 19.00 (Moscow Time)
Add to Google Calendar
Welcome to the G2 Kaggle competition debrief on Detecting Gravitational Waves! My name is Dmitrii Rudenko and I am excited to share with you the top solutions from this competition, as well as my own bronze medal-winning solution. As many of you may know, the task in this competition was to use computer vision techniques to detect gravitational waves in images. These waves are extremely faint and difficult to detect, making this a challenging problem for machine learning algorithms. However, through the use of innovative techniques and careful tuning of models, we were able to achieve impressive results. I look forward to discussing the details of these solutions with you and hearing your thoughts and insights on the topic. Let's get started!
Link to the competition: https://www.kaggle.com/competitions/g2net-detecting-continuous-gravitational-waves/overview
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
Запись рассказа:
https://lcc.click/4yXDGd9
И слайды выступления, по которым можно потыкать и посмотреть описания топовых решений от самих победителей:
https://url-x.it/bcPR4gD
https://lcc.click/4yXDGd9
И слайды выступления, по которым можно потыкать и посмотреть описания топовых решений от самих победителей:
https://url-x.it/bcPR4gD
Breast Cancer- это соревнование, в котором нужно стакать.
Когда мне нужно вспомнить, как стакать, то я обращаюсь к бакалаврской работе Александра Гущина о которой узнал из одного знаменитого блога.
Давайте разберем вообще методы, которые есть и кто такой этот стакинг. Дополнительным бонусом объясняю, почему вообще важно стакать в этом соревновании.
Самый простой и ленивый способ:
Делим выборку на две части: трейн для наших базовых алгоритмов и трейн для нашего метаалгоритмa. Обучаем базовые алгоритмы, предсказываем трейн для метаалгоритма и используем это как метапризнаки. Можно оставить предыдущие фичи, можно не оставлять. Обычно полезнее не оставлять.
Почему делим? Потому что если не делить, то метаагоритм быстренько выяснит какой из базовых алгоритм лучший и на остальные забьет. Мы такого конечно не хотим. Заметили, что окончание выделено курсивом? Все верно, можно так то обучить несколько метаалгоритмов, но обычно это особо не дает качества. Метаалгоритм нам очень сложный не нужен, обычно берут какую-нибудь из линейных моделей. Большая часть сигнала из данных уже выжата и нам нужно только грамотно скомбинировать сигналы.
Тут направшивается вопрос: а почему мы не используем все данные? Так тоже на самом деле можно:
1. Делим выборку на N фолдов
2. Для каждого сплита получаем базовое предсказание по схеме выше
3. Конкатенируем сплиты и по ним учим все те N фолдов метаалгоритма. Вы великолепны.
Но для теста у нас получается N предсказаний. Мы их просто усредняем (или берем медиану).
Это была база. Теперь давайте посмотрим на то, что предложил в своей работе Александр:
Улучшение простое:
Метаалгоритм у нас обычно простенький и учится относительно быстро. А давайте мы каждый трейн для метаалгоритма поделим на фолды. И того:
1. Весь датасет делим на N фолдов (N_i).
2. Каждый N_i поделим на K мета-фолдов. Назовем K_i.
3. Для каждого из обычных фолдов натренируем базовые алгоритмы на всем, кроме него. Предскажем этими базовыми алгоритмами сам фолд. Предскажем сам фолд с помощью второго сплита уже метаалгоритмом. Тогда мы можем 'собрать обратно'. фолд конкатенацией и получим N * K предсказаний для теста. Все их усредним (или возьмем медиану).
Тут самая прелесть в том, что мета-алгоритм тренировать быстрее и теоретически мы получим меньшее смещение на самом метаалгоритме.
Маловероятно, что авторы третьего места в G2 читали эту бакалаврскую работу, но они использовали очень похожу технику:
После предсказания признаков для метафолдов, они делали предсказание не в стиле OOF, а семплировали с повторением объекты из трейна и учили метаалгоритм на них (линейную модель). Таким образом они получили бустрап-оценку для коэффициентов линейной регрессии и взяли просто их среднее.
Так а почему в breast Cancer важно стакать? Все очень просто:
Соревнование картиночное, но картинки в разных проекциях. рак на них и так сложно найти и заставлять сетку найти на каждой картинке еще и в разных проекциях рак- очень сложно. Вероятно, надо тренировать для проекций отдельный модели. Но в тесте нужны ответы не на уровне снимков, а на уровне снимаемых объектов (как минимум в паре проекций). Чтобы грамотно аггрегировать такой ансамбль и придется использовать метамодель. Предсказываю страшнейшие схемы в лидерборде после конца соревнования.
Когда мне нужно вспомнить, как стакать, то я обращаюсь к бакалаврской работе Александра Гущина о которой узнал из одного знаменитого блога.
Давайте разберем вообще методы, которые есть и кто такой этот стакинг. Дополнительным бонусом объясняю, почему вообще важно стакать в этом соревновании.
Самый простой и ленивый способ:
Делим выборку на две части: трейн для наших базовых алгоритмов и трейн для нашего метаалгоритмa. Обучаем базовые алгоритмы, предсказываем трейн для метаалгоритма и используем это как метапризнаки. Можно оставить предыдущие фичи, можно не оставлять. Обычно полезнее не оставлять.
Почему делим? Потому что если не делить, то метаагоритм быстренько выяснит какой из базовых алгоритм лучший и на остальные забьет. Мы такого конечно не хотим. Заметили, что окончание выделено курсивом? Все верно, можно так то обучить несколько метаалгоритмов, но обычно это особо не дает качества. Метаалгоритм нам очень сложный не нужен, обычно берут какую-нибудь из линейных моделей. Большая часть сигнала из данных уже выжата и нам нужно только грамотно скомбинировать сигналы.
Тут направшивается вопрос: а почему мы не используем все данные? Так тоже на самом деле можно:
1. Делим выборку на N фолдов
2. Для каждого сплита получаем базовое предсказание по схеме выше
3. Конкатенируем сплиты и по ним учим все те N фолдов метаалгоритма. Вы великолепны.
Но для теста у нас получается N предсказаний. Мы их просто усредняем (или берем медиану).
Это была база. Теперь давайте посмотрим на то, что предложил в своей работе Александр:
Улучшение простое:
Метаалгоритм у нас обычно простенький и учится относительно быстро. А давайте мы каждый трейн для метаалгоритма поделим на фолды. И того:
1. Весь датасет делим на N фолдов (N_i).
2. Каждый N_i поделим на K мета-фолдов. Назовем K_i.
3. Для каждого из обычных фолдов натренируем базовые алгоритмы на всем, кроме него. Предскажем этими базовыми алгоритмами сам фолд. Предскажем сам фолд с помощью второго сплита уже метаалгоритмом. Тогда мы можем 'собрать обратно'. фолд конкатенацией и получим N * K предсказаний для теста. Все их усредним (или возьмем медиану).
Тут самая прелесть в том, что мета-алгоритм тренировать быстрее и теоретически мы получим меньшее смещение на самом метаалгоритме.
Маловероятно, что авторы третьего места в G2 читали эту бакалаврскую работу, но они использовали очень похожу технику:
После предсказания признаков для метафолдов, они делали предсказание не в стиле OOF, а семплировали с повторением объекты из трейна и учили метаалгоритм на них (линейную модель). Таким образом они получили бустрап-оценку для коэффициентов линейной регрессии и взяли просто их среднее.
Так а почему в breast Cancer важно стакать? Все очень просто:
Соревнование картиночное, но картинки в разных проекциях. рак на них и так сложно найти и заставлять сетку найти на каждой картинке еще и в разных проекциях рак- очень сложно. Вероятно, надо тренировать для проекций отдельный модели. Но в тесте нужны ответы не на уровне снимков, а на уровне снимаемых объектов (как минимум в паре проекций). Чтобы грамотно аггрегировать такой ансамбль и придется использовать метамодель. Предсказываю страшнейшие схемы в лидерборде после конца соревнования.
🔥5👍2
Буду делать обзор недавно начавшейся соревы и набрасывать идеи для ее решения. Насчет своего участия пока не решил. Приходите обсуждать
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 @SBERLOGACOMPETE webinar on data science:
👨🔬 Dmitrii Rudenko "IceCube - Neutrinos in Deep Ice Overview"
⌚️ 10 Febraury, Friday, 19.00 (Moscow Time)
Add to Google Calendar
We are going to review Neutrinos in Deep Ice.
This competition challenges participants to predict the direction of neutrino particles using data from the IceCube detector at the South Pole. The goal is to improve the accuracy and speed of reconstructing neutrino events, which could lead to a better understanding of the universe and its violent astrophysical sources. The challenge is to balance accuracy and computational costs as existing solutions have limitations. The winning solution will aid the international IceCube Collaboration in their research of the nearly massless and electrically neutral neutrinos.
Link to the competition:
https://www.kaggle.com/competitions/icecube-neutrinos-in-deep-ice
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
👨🔬 Dmitrii Rudenko "IceCube - Neutrinos in Deep Ice Overview"
⌚️ 10 Febraury, Friday, 19.00 (Moscow Time)
Add to Google Calendar
We are going to review Neutrinos in Deep Ice.
This competition challenges participants to predict the direction of neutrino particles using data from the IceCube detector at the South Pole. The goal is to improve the accuracy and speed of reconstructing neutrino events, which could lead to a better understanding of the universe and its violent astrophysical sources. The challenge is to balance accuracy and computational costs as existing solutions have limitations. The winning solution will aid the international IceCube Collaboration in their research of the nearly massless and electrically neutral neutrinos.
Link to the competition:
https://www.kaggle.com/competitions/icecube-neutrinos-in-deep-ice
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
🔥6
(sci)Berloga Всех Наук и Технологий
🚀 @SBERLOGACOMPETE webinar on data science: 👨🔬 Dmitrii Rudenko "IceCube - Neutrinos in Deep Ice Overview" ⌚️ 10 Febraury, Friday, 19.00 (Moscow Time) Add to Google Calendar We are going to review Neutrinos in Deep Ice. This competition challenges participants…
Короче, Подписчики, я вам шарю презу за 20 минут до выступления в благородство играть не буду: выполните для меня пару заданий — и мы в расчете. Заодно посмотрим, как быстро у вас башка после биоинформатики прояснится. А по вашей теме постараюсь разузнать. Хрен его знает, на кой ляд вам эти медальки сдались, но я в чужие дела не лезу, хотите получить, значит есть за что...
Google Docs
IceCube - Neutrinos in Deep Ice
👍5😁1🌚1
Считаю ведущим показателем качества английской речи то, что ютюб генерит корректные субтитры.
Кстати, решил, что нечего добру пропадать и написал небольшой разбор метрики на форум каггла. Не пропадать же затеханому добру.
Кстати, решил, что нечего добру пропадать и написал небольшой разбор метрики на форум каггла. Не пропадать же затеханому добру.
Kaggle
IceCube - Neutrinos in Deep Ice
Reconstruct the direction of neutrinos from the Universe to the South Pole
👍1
Forwarded from Alexander C
Sberloga Rudenko Kaggle IceCube - Neutrinos in Deep Ice.pdf
1.6 MB
📖 Presentation:
👨🔬 Dmitrii Rudenko: "Kaggle competition: IceCube - Neutrinos in Deep Ice Overview"
📹 Video: https://youtu.be/Kl1jTE9hbew
✔️ Abstract: https://news.1rj.ru/str/sberlogabig/230
📰 @pseudolabeling - subscribe to Dmitry's telegram-channel devoted to Kaggle and data science.
👨🔬 Dmitrii Rudenko: "Kaggle competition: IceCube - Neutrinos in Deep Ice Overview"
📹 Video: https://youtu.be/Kl1jTE9hbew
✔️ Abstract: https://news.1rj.ru/str/sberlogabig/230
📰 @pseudolabeling - subscribe to Dmitry's telegram-channel devoted to Kaggle and data science.
🔥5
Что там с Breast Cancer?
Я чет приуныл от того, что сильный бейзлайн считался на 4xA100 и не делал ничего недели две с половиной. Сейчас готовлюсь к экзу и как-то прям сильно решать времени нет. Внезапно, меня пинганули об этом и я видимо буду немножко менеджерить процесс решения соревы, но сам не буду слишком много кода писать.Нативная интеграция лидерских качеств какая-то
Запилю обязательно разбор соревы через неделю после ее окончания, но возможно получится за эту неделю нафармить каких-нибудь дешевых гипотез и залететь все же в медальки. Вдруг выйдет взять наскоком, кто знает!
Я чет приуныл от того, что сильный бейзлайн считался на 4xA100 и не делал ничего недели две с половиной. Сейчас готовлюсь к экзу и как-то прям сильно решать времени нет. Внезапно, меня пинганули об этом и я видимо буду немножко менеджерить процесс решения соревы, но сам не буду слишком много кода писать.
Запилю обязательно разбор соревы через неделю после ее окончания, но возможно получится за эту неделю нафармить каких-нибудь дешевых гипотез и залететь все же в медальки. Вдруг выйдет взять наскоком, кто знает!
👍2
Тем временем для NLP-соревнований вышел новый дизраптящий датасет для претрейна:
https://huggingface.co/datasets/huggingartists/slava-kpss
https://huggingface.co/datasets/huggingartists/slava-kpss
huggingface.co
huggingartists/slava-kpss · Datasets at Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
😁4
Очень люблю визаулизации.
Этот график явно делали программисты/дсы. Прямо вижу, как люди смотрели на график и такие:
-Как-то недружелюбно для пользователя. Надо сделать приятнее.
-Добавим облака?
-Добавим облака.
В следующих сериях:
1. Разбор Breast Cancer и почему ничего не взяли. По классике будет еще и созвон в зуме в следующую пятницу (поставьте себе встречу и приходите ко мне!)
2. Самый энергоэффективный способ фармить кагл, который наверно я переизобрел
3. Мысли про новую сореву, чтобы участвовать
Этот график явно делали программисты/дсы. Прямо вижу, как люди смотрели на график и такие:
-Как-то недружелюбно для пользователя. Надо сделать приятнее.
-Добавим облака?
-Добавим облака.
В следующих сериях:
1. Разбор Breast Cancer и почему ничего не взяли. По классике будет еще и созвон в зуме в следующую пятницу (поставьте себе встречу и приходите ко мне!)
2. Самый энергоэффективный способ фармить кагл, который наверно я переизобрел
3. Мысли про новую сореву, чтобы участвовать
👍5😁2
Играл с ChatGpt и просил сгенерировать мне Dockerfile, который устанавливал бы нужное окружение с помощью poetry.
Что интересно, так это то, что ChatGPT выдал мне такую строчку для усатновки самого poetry в image:
RUN curl -sSL https://raw.githubusercontent.com/python-poetry/poetry/master/get-poetry.py | python -
Ссылка недействительная. Но что мешает поискать еще битых ссылок по похожим запросам и залить туда шпионящий модифицированный вариант софта и скамить мамонтов?
ChatGPT уже генерил ненастоящие статьи. Кажется, может генерить ненастоящие ссылки.
Беглое гугление говорит, что ChatGPT вообще довольно редко генерит рабочие ссылки
Так может, пора заставить их быть рабочими?
Что интересно, так это то, что ChatGPT выдал мне такую строчку для усатновки самого poetry в image:
RUN curl -sSL https://raw.githubusercontent.com/python-poetry/poetry/master/get-poetry.py | python -
Ссылка недействительная. Но что мешает поискать еще битых ссылок по похожим запросам и залить туда шпионящий модифицированный вариант софта и скамить мамонтов?
ChatGPT уже генерил ненастоящие статьи. Кажется, может генерить ненастоящие ссылки.
Беглое гугление говорит, что ChatGPT вообще довольно редко генерит рабочие ссылки
Так может, пора заставить их быть рабочими?
❤5🔥4
Forwarded from (sci)Berloga Всех Наук и Технологий
🚀 @SBERLOGACOMPETE webinar on data science:
👨🔬 Dmitrii Rudenko "Kaggle competition debrief: RSNA Screening Mammography Breast Cancer Detection "
⌚️ 17 March, Friday, 19.00 (Moscow Time)
Add to Google Calendar
Discussion of the Kaggle computer vision competition "RSNA Screening Mammography Breast Cancer Detection" (link). The task formulation, input data, some domain knowledge, and ideas of some solutions will be discussed.
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
📰 Telegram channel by Dmitry on Kaggle: https://news.1rj.ru/str/pseudolabeling - subscribe it !
👨🔬 Dmitrii Rudenko "Kaggle competition debrief: RSNA Screening Mammography Breast Cancer Detection "
⌚️ 17 March, Friday, 19.00 (Moscow Time)
Add to Google Calendar
Discussion of the Kaggle computer vision competition "RSNA Screening Mammography Breast Cancer Detection" (link). The task formulation, input data, some domain knowledge, and ideas of some solutions will be discussed.
Zoom link will be available at
https://news.1rj.ru/str/sberlogabig shortly before the start.
Video records of the talks: https://www.youtube.com/c/SciBerloga - subscribe our channel !
📰 Telegram channel by Dmitry on Kaggle: https://news.1rj.ru/str/pseudolabeling - subscribe it !
🔥1