Сутра:
1. Kaggle решат
2. Соревы обозреват
3. Gold фармить
4. Социальност
Канал о пути к Kaggle competitionsMaster Grandmaster, баварских сосисках и пиве, которым обливаешься в процессе
https://www.kaggle.com/asimandia
Для вопросов: @dimitriy_rudenko
1. Kaggle решат
2. Соревы обозреват
3. Gold фармить
4. Социальност
Канал о пути к Kaggle competitions
https://www.kaggle.com/asimandia
Для вопросов: @dimitriy_rudenko
Kaggle
Pizzaboi
LMU Munich student
Author: https://news.1rj.ru/str/pseudolabeling
Author: https://news.1rj.ru/str/pseudolabeling
❤13👍2😁2
Запрети мне псевдолейблить
Сутра: 1. Kaggle решат 2. Соревы обозреват 3. Gold фармить 4. Социальност Канал о пути к Kaggle competitions Master Grandmaster, баварских сосисках и пиве, которым обливаешься в процессе https://www.kaggle.com/asimandia Для вопросов: @dimitriy_rudenko
Обновил превьюшку в тг. Вы вот знали, что тг один раз генерит превью для ссылки и потом не обновляет, пока не попросишь специального бота это сделать? В смысле старое превью моей ссылки на кэггл не обновлялось больше года :0
@WebpageBot
@WebpageBot
👍4🤯3❤2
Воркшоп по сореве NeuralIPS начался, можно смотреть на мои 10 минут русского акцента:
https://neurips.cc/virtual/2024/competition/84802
https://neurips.cc/virtual/2024/competition/84802
1👍5❤1
Forwarded from Aparin (Георгий Апарин)
Выступил на NIPS, на воркшопе посвященному соревнованию Ariel Data Challenge. Выступал на английском, опыт интересный, даже не факапнулся в рече. С темой своего выступления как обычно кринжанул, думал там ребята посвященные слушают, а там просто проходящие энтузиасты астрофизики зашли, а я как на зло погружение решил скипнуть со словами "I hope all of you are in the context of the data and the task". Вместо описания решения, как остальные участники, решил сделать спич с заголовком "почему моё решение хоть и решает метрику, но не решает задачу". Ещё и в 2 ночи по Шанхаю спикать пришлось, в полубредовом состоянии.
В общем да, эмоции переполняют, надо больше тренироваться на конфах выступать. В следующий раз надеюсь не на воркшоп, а на статью навайбю🤓
В общем да, эмоции переполняют, надо больше тренироваться на конфах выступать. В следующий раз надеюсь не на воркшоп, а на статью навайбю
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥3❤2
Про что был NeurIPS Competition track в этом году?
Соревнование было посвящено определению состава атмосферы экзопланет в космосе. Экзопланеты- это любые планеты, которые вращаются вокруг звезд вне солнечной системы. Теоретически, развитие методов их анализа может помочь нам найти внеземную жизнь или хотя бы лучше понять механизмы возникновения жизни на нашей планете. Данные были синтетические, из симуляций, но это решало две проблемы: парсинг статей из интернета не докидывал точности (что работало для прошлого года) и можно было сосредоточиться на конкретных физических эффектах от известных и изученных нами газов.
На вход даются симулированные данные детектора, направленного на звезду, на выходе надо предсказать состав атмосферы планеты, проходящей транзит.
Данные на вход давались в двух вариантах:
1. Честные цифры с детектора, который сам по себе двухмерный + время
2. Данные обработанные в частотный формат. При этом частоты еще и очень удобно метчились с таргетами.
Метрика качества- Gaussian Log-likelihood. Т.е. честное, взаправдашное правдоподобие с учетом оценки дисперсии.
Соревнование было посвящено определению состава атмосферы экзопланет в космосе. Экзопланеты- это любые планеты, которые вращаются вокруг звезд вне солнечной системы. Теоретически, развитие методов их анализа может помочь нам найти внеземную жизнь или хотя бы лучше понять механизмы возникновения жизни на нашей планете. Данные были синтетические, из симуляций, но это решало две проблемы: парсинг статей из интернета не докидывал точности (что работало для прошлого года) и можно было сосредоточиться на конкретных физических эффектах от известных и изученных нами газов.
На вход даются симулированные данные детектора, направленного на звезду, на выходе надо предсказать состав атмосферы планеты, проходящей транзит.
Данные на вход давались в двух вариантах:
1. Честные цифры с детектора, который сам по себе двухмерный + время
2. Данные обработанные в частотный формат. При этом частоты еще и очень удобно метчились с таргетами.
Метрика качества- Gaussian Log-likelihood. Т.е. честное, взаправдашное правдоподобие с учетом оценки дисперсии.
👍14🔥3❤1
Forwarded from Love. Death. Transformers.
НЕЕЕЕТ ТЫ НЕ ПОНИМАЕШЬ ТЫ ДОЛЖЕН ЗНАТЬ ЧЕМ ОТЛИЧАЕТСЯ RSLORA ОТ QLORA, ты должен знать чем отличается sageattn от fa2 от fa3, ВсМыСлЕ тЫ Не зНаЕшь чЕм отличается adan от LiOn у НаС тИмЛиД еГо ПиСаЛ!!!!
У меня ощущение, что никто никогда кодфорсес не решал.
Рейтинг выдается за победу над другими решающими. Если у вас ожидаемое место ниже, чем реальное в зачете- вам повышают рейтинг.
Условно мы соревнуемся вдвоем, и рейтинг моего противника выше чем у меня на 120. Ожидается, что он меня победит 2 раза из трех.
Как считается победа? По тому, кто первый зашлет решение, которое пройдет все тесты. Конечно чатгпт пишет код быстрее меня и даже более аккуратно, ему даже не надо сидеть на предсмертельной дозе аптечных стимуляторов, чтобы сделать все с константной скоростью.
https://codeforces.com/blog/entry/20762?locale=ru
Рейтинг выдается за победу над другими решающими. Если у вас ожидаемое место ниже, чем реальное в зачете- вам повышают рейтинг.
Условно мы соревнуемся вдвоем, и рейтинг моего противника выше чем у меня на 120. Ожидается, что он меня победит 2 раза из трех.
Как считается победа? По тому, кто первый зашлет решение, которое пройдет все тесты. Конечно чатгпт пишет код быстрее меня и даже более аккуратно, ему даже не надо сидеть на предсмертельной дозе аптечных стимуляторов, чтобы сделать все с константной скоростью.
https://codeforces.com/blog/entry/20762?locale=ru
Codeforces
Рейтинг Codeforces [обновлен в октябре 2015]
Начиная с октября 2015-го года рейтинг на Codeforces считается по открытым формулам, о которых и пойдет здесь речь. Вполне вероятно, что мы будем их слегка менять со временем, что будем отражать в этом посте.
5👍16❤2😁2
Запрети мне псевдолейблить
Про что был NeurIPS Competition track в этом году? Соревнование было посвящено определению состава атмосферы экзопланет в космосе. Экзопланеты- это любые планеты, которые вращаются вокруг звезд вне солнечной системы. Теоретически, развитие методов их анализа…
🚀 Разбираем решение, которое принесло нашей команде 6-е место в Kaggle-соревновании по обработке данных миссии Ariel
Пост про то, что это вообще за сорева вот тут.
Мы работали с частотными сигналами, которые изначально были очень шумными. Для их сглаживания использовали:
1️⃣ Гауссовский регрессор
2️⃣ Фильтр Савицкого-Голея
Далее ищем границы транзитной зоны планеты. Делаем через простой эмпирический детектор: транзит на графике светимости звезды имеет вид \_/ — яркость падает, когда планета проходит перед звездой, так как часть частотных компонентов теряет интенсивность.
📉 Что мы делали дальше:
Удаляем этапы до и после транзита, чтобы анализировать только изменения светимости в нужный момент.
"Поднимаем" транзит обратно к уровню светимости звезды, чтобы восстановить исходный "пульс звезды". Это важно, чтобы учесть глобальное поведение светимости звезды, которе не очень-то и постоянное.
🔍 Фичи и модели:
На основе изменений яркости между ожидаемыми и наблюдаемыми значениями на заданных частотах извлекали фичи. Эти частоты совпадают с важными таргетами — спектрограммой атмосферы экзопланеты.
Обучаем линейную регрессию глобально для каждого таргета, подбирая оптимальные коэффициенты. В смысле берем все моменты времени для всех транзитов и конкретной частоты и ищем коэффициент подгонки.
Параллельно обучаем CNN, которая анализировала частотные изменения в заданных временных окнах.
Это:
Помогает учитывало локальные особенности спектра и переходов (энергии?) между частотами
Позволяло понять взаимосвязи между соседними частотами, улучшая точность предсказаний.
🔗 Финал:
Смешали (блендили) результаты линейной регрессии и CNN. Затем финальную спектрограмму еще раз сгладили, чтобы убрать артефакты.
💡 Бонус материал: пример 'подъема' спектра на картинке
Пост про то, что это вообще за сорева вот тут.
Мы работали с частотными сигналами, которые изначально были очень шумными. Для их сглаживания использовали:
1️⃣ Гауссовский регрессор
2️⃣ Фильтр Савицкого-Голея
Далее ищем границы транзитной зоны планеты. Делаем через простой эмпирический детектор: транзит на графике светимости звезды имеет вид \_/ — яркость падает, когда планета проходит перед звездой, так как часть частотных компонентов теряет интенсивность.
📉 Что мы делали дальше:
Удаляем этапы до и после транзита, чтобы анализировать только изменения светимости в нужный момент.
"Поднимаем" транзит обратно к уровню светимости звезды, чтобы восстановить исходный "пульс звезды". Это важно, чтобы учесть глобальное поведение светимости звезды, которе не очень-то и постоянное.
🔍 Фичи и модели:
На основе изменений яркости между ожидаемыми и наблюдаемыми значениями на заданных частотах извлекали фичи. Эти частоты совпадают с важными таргетами — спектрограммой атмосферы экзопланеты.
Обучаем линейную регрессию глобально для каждого таргета, подбирая оптимальные коэффициенты. В смысле берем все моменты времени для всех транзитов и конкретной частоты и ищем коэффициент подгонки.
Параллельно обучаем CNN, которая анализировала частотные изменения в заданных временных окнах.
Это:
Помогает учитывало локальные особенности спектра и переходов (энергии?) между частотами
Позволяло понять взаимосвязи между соседними частотами, улучшая точность предсказаний.
🔗 Финал:
Смешали (блендили) результаты линейной регрессии и CNN. Затем финальную спектрограмму еще раз сгладили, чтобы убрать артефакты.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤2👍2😱2
Linkedin превратился в апостола мертвого интернета. Пора ли уже и из него удаляться? Какими сервисами вы пользуетесь?
🐳12👍4
Был бы только что закончившим магу, сам бы подался. Возможность топ, даже не думайте пропускать, если вам сейчас актуально.
Forwarded from DL in NLP (Vlad Lialin)
Всем приветики. Давно не было постов, тк становится всё сложнее вести канал. Не буду обещать что исправлюсь, но буду постить когда есть что-то о чём другие каналы не говорят достаточно.
И сегодня будут не новости (о ChatGPT Operator можете прочитать где угодно), а открытая позиция на PhD студента в моей старой лабе в UMass Lowell - Text Machine Lab.
Это NLPшная позиция с довольно широким спектром того чем можно заниматься: от interpretability и prompting до alignment, мультимодальных моделей, low-rank training, PEFT итд. Глава лабы - Prof. Anna Rumshisky исследователь в UMass Lowell, MIT и в Amazon Alexa AI/Amazon AGI. Например, она один из авторов Amazon Nova
Требования: релевантный бакалавриат+магристратура/специалитет, хорошее понимание линейной алгебры, анализа, вероятности, базовые знания Deep Learning и NLP. Большим плюсом будут опубликованные статьи (включая воркшопы), но строгого требования на них нет.
Позиция fully funded - ваше обучение бьудет покрыто полностью и вам будут платить стипендию которой достаточно для проживания в Массачусеттсе.
Для подачи высылайте ваше CV и короткое cover letter на arum@mit.edu. Для попадания в поток 2025 надо сделать это до 15 февраля
Если хотите прочитать про мою историю поступления и первые дни в США, я в 2019 писал об этом серию постов и вот первый: telegra.ph/CHast-1-Postuplenie-08-24
И сегодня будут не новости (о ChatGPT Operator можете прочитать где угодно), а открытая позиция на PhD студента в моей старой лабе в UMass Lowell - Text Machine Lab.
Это NLPшная позиция с довольно широким спектром того чем можно заниматься: от interpretability и prompting до alignment, мультимодальных моделей, low-rank training, PEFT итд. Глава лабы - Prof. Anna Rumshisky исследователь в UMass Lowell, MIT и в Amazon Alexa AI/Amazon AGI. Например, она один из авторов Amazon Nova
Требования: релевантный бакалавриат+магристратура/специалитет, хорошее понимание линейной алгебры, анализа, вероятности, базовые знания Deep Learning и NLP. Большим плюсом будут опубликованные статьи (включая воркшопы), но строгого требования на них нет.
Позиция fully funded - ваше обучение бьудет покрыто полностью и вам будут платить стипендию которой достаточно для проживания в Массачусеттсе.
Для подачи высылайте ваше CV и короткое cover letter на arum@mit.edu. Для попадания в поток 2025 надо сделать это до 15 февраля
Если хотите прочитать про мою историю поступления и первые дни в США, я в 2019 писал об этом серию постов и вот первый: telegra.ph/CHast-1-Postuplenie-08-24
❤🔥11👍6❤1
Системы рейтинга слишком аддиктивны. Летом наконец-то смог апмнуть ммр выше, чем в свои 16 лет и забил. Теперь сижу и считаю, сколько рейтинга примерно получу по завершению следующей соревы и в какой ранг войду.
На каггле все же легче в тысячники зайти, чем в доте
И самое главное- иммортал драфт доступен почти в самом начале, никаких переливов
На каггле все же легче в тысячники зайти, чем в доте
И самое главное- иммортал драфт доступен почти в самом начале, никаких переливов
😁29
Заняли 23 место в Santa 2024 и нафармили серебро 🥈 . К сожалению в этот без прогресса к КГМ.
После понижения рейтинга (случается после конца каждого соревнования) у меня осталось 13,971. По моим расчетам должен допрыгнуть до 15к и с 470 места влететь в <400, чем, вероятно, обновлю свой лучший результат в рейтинге снова.
После понижения рейтинга (случается после конца каждого соревнования) у меня осталось 13,971. По моим расчетам должен допрыгнуть до 15к и с 470 места влететь в <400, чем, вероятно, обновлю свой лучший результат в рейтинге снова.
Please open Telegram to view this post
VIEW IN TELEGRAM
Kaggle
Santa 2024 - The Perplexity Permutation Puzzle
Help Rudolph descramble holiday-related words to make the LLMs happy!
👍10❤2👎1 1