This media is not supported in your browser
VIEW IN TELEGRAM
😁12 8
Это конкурс на лучший мем до полуночи!
Привет, чемпионы! Настало время проявить ваш креатив в полной мере. Если вы вкачивали свою мемную мышцу в этом году наравне с прогрессом по нашим курсам, врывайтесь в конкурс мемов и боритесь за доступ к нашим топовым курсам!
1. Выбор редакции: доступ к одному из наших курсов на выбор.
2. Главный приз: если ваш мем выиграет конкурс степика, то вы получите полный пакет из всех трёх курсов.
Приём мемов сегодня (11 декабря, до 13:00!)
Итоги объявим в районе 12 декабря, когда степик объявит итоги.
Не стесняйтесь использовать наш контент, мемы, логотипы или идеи с курсов!
Покажите, на что способны!
upd: продлили до 11 декабря 13 часов дня.
Please open Telegram to view this post
VIEW IN TELEGRAM
Понаблюдали с командой за игроками в индустрии и выделили несколько причин, почему большинство специалистов по анализу данных не имеют каких-либо успехов в соревновательном data science.
Самая злодейская причина: ты - «любитель рассказывать истории». Очень популярный тип людей, который всегда найдет причину слиться перед непростой задачей, предварительно придумав историю…
Истории про то, почему он/она не может участвовать или что-то не выигрывает. Обычно это истории рода - «Нет времени», «Сложно выиграть», «Плохой датасет или странная задача», «Результат зависит от случайности» или «Нет мотивации».
Если разобраться, то на самом деле под любой такой «историей» скрывается обычный наивный страх. Страх, что все увидят, что по итогу соревнования ты оказался ниже остальных. А раз так, то зачем это вообще тебе нужно? Проще перенести ответственность с себя на недостаток времени, загруз по работе, семью или просто волю случая.
Самое страшное, что такое поведение переносится на все остальные сферы жизни. Человек проживает свою единственную жизнь, так и не начав действовать.
НЕ начал идти к своим желаниям, НЕ нашел хобби, которое приносит доход, НЕ завел отношения или семью, НЕ начать путешествовать.
Придумать историю «почему я не могу ..» в разы проще истории «я это сделаю, потому что ...». А ведь жизнь у нас одна!
И даже нам самим намного интереснее слушать, как у кого-то получилось. Есть миллион неинтересных историй, почему студента отчислили, но интересна та одна, как студент смог удержаться, обучаясь там, где непросто.
Что делать? Ловить себя «за руку», когда твой внутренний «сказочник» начинает рассказывать историю, почему ты сегодня опять не можешь.
Ты можешь все! И получится у тебя все! И даже если не в этот раз, так в следующий, но действовать надо уже сейчас! Начать с малого и сделать первый шаг. Проснись!
И через время люди будут смотреть на тебя как на безумца, который каким-то чудесным образом смог. 🤯
А ты просто перестал рассказывать самому себе «истории». И уже ты спросишь окружение: «А почему вы не попробовали?» И люди вокруг начнут рассказывать тебе свои истории: «почему они не..».
Какой твой следующий шаг чтобы начать выигрывать?
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡27💯10😁3❤🔥1👍1
🏄 Соревновательный Data Science | Kaggle | Чемпионаты
Что делать, если долго не получается выиграть на Kaggle? Вот вам история о поиске успеха
👍 Представь, ты — участник соревнований на Kaggle. Ты уже несколько раз пытался вырваться в топ лидерборда, но каждый раз не хватает совсем чуть-чуть до золотой медали. Сидишь за компом, смотришь на свои результаты и думаешь: «Почему я не могу прокачать свой скилл до нужного уровня?»
Глава 1: Путь к пониманию
В один из вечеров, когда ты снова застрял в своих проектах, решил, что пора разобраться, что же не так. Открыл свои старые работы и увидел, что в каждом из них были свои косяки. В одном проекте ты забил на предобработку данных, в другом — не заморочился с кросс-валидацией. Это было как озарение: «А что, если я смогу выжать из своих неудач что-то полезное?»
Глава 2: В поисках знаний
Ты понял, что пора прокачать свои знания. Начал гуглить, смотреть видосы и изучать успешные решения других участников. Каждый раз, когда находил что-то новое, чувствовал, как твоя уверенность растет. Ты начал применять эти фишки в своих проектах, и это стало твоим новым источником вдохновения.
Глава 3: Сила сообщества
Однажды наткнулся на этот канал или наш курс, или на обсуждения про Kaggle в интернете, где участники делились своими историями успеха и фейлами. Ты решил задать вопрос: «Парни, что вы делали, когда не могли долго выиграть или прокачать навык?» Ответы были разные, но все сводились к одному: «Не бойся просить о помощи и учиться новому у других». Это стало для тебя сигналом — ты начал активно участвовать в обсуждениях и искать напарников для совместной работы.
Глава 4: Пробуя новое
С новыми знаниями и поддержкой комьюнити ты решил попробовать другой подход. Начал работать над более простыми задачами, чтобы прокачать свои навыки. Каждый раз, когда завершал проект, чувствовал, что становишься лучше. Ты начал эффективно оптимизировать гипер-параметры градиентных бустингов, экспериментировать с фиче-инжинирингом и применять методы ансамблирования.
Глава 5: Успех и неудачи
Твоя настойчивость начала приносить плоды. Ты начал занимать более высокие позиции в соревнованиях, и вскоре оказался на пороге своей первой золотой медали. Но даже если не добился желаемого результата, ты понял, что каждая неудача — это возможность для роста. Ты научился ценить процесс и кайфовать от каждого шага на этом пути.
Заключение: Путь продолжается
Теперь, когда смотришь на свои достижения, понимаешь, что успех — это не только медали и награды. Это опыт, знания и связи, которые ты приобрел на этом пути. Ты продолжаешь участвовать в соревнованиях, учиться и развиваться, и знаешь, что каждый новый проект — это еще одна возможность стать круче.
👾 Так что, если ты чувствуешь, что не хватает до золотой медали, помни: твой путь — это не только о победах, но и о том, как ты растешь и развиваешься как специалист. Каждый шаг, который ты делаешь, приближает тебя к твоей цели.
Давай, не останавливайся! А мы тебе в этом поможем!
Глава 1: Путь к пониманию
В один из вечеров, когда ты снова застрял в своих проектах, решил, что пора разобраться, что же не так. Открыл свои старые работы и увидел, что в каждом из них были свои косяки. В одном проекте ты забил на предобработку данных, в другом — не заморочился с кросс-валидацией. Это было как озарение: «А что, если я смогу выжать из своих неудач что-то полезное?»
Глава 2: В поисках знаний
Ты понял, что пора прокачать свои знания. Начал гуглить, смотреть видосы и изучать успешные решения других участников. Каждый раз, когда находил что-то новое, чувствовал, как твоя уверенность растет. Ты начал применять эти фишки в своих проектах, и это стало твоим новым источником вдохновения.
Глава 3: Сила сообщества
Однажды наткнулся на этот канал или наш курс, или на обсуждения про Kaggle в интернете, где участники делились своими историями успеха и фейлами. Ты решил задать вопрос: «Парни, что вы делали, когда не могли долго выиграть или прокачать навык?» Ответы были разные, но все сводились к одному: «Не бойся просить о помощи и учиться новому у других». Это стало для тебя сигналом — ты начал активно участвовать в обсуждениях и искать напарников для совместной работы.
Глава 4: Пробуя новое
С новыми знаниями и поддержкой комьюнити ты решил попробовать другой подход. Начал работать над более простыми задачами, чтобы прокачать свои навыки. Каждый раз, когда завершал проект, чувствовал, что становишься лучше. Ты начал эффективно оптимизировать гипер-параметры градиентных бустингов, экспериментировать с фиче-инжинирингом и применять методы ансамблирования.
Глава 5: Успех и неудачи
Твоя настойчивость начала приносить плоды. Ты начал занимать более высокие позиции в соревнованиях, и вскоре оказался на пороге своей первой золотой медали. Но даже если не добился желаемого результата, ты понял, что каждая неудача — это возможность для роста. Ты научился ценить процесс и кайфовать от каждого шага на этом пути.
Заключение: Путь продолжается
Теперь, когда смотришь на свои достижения, понимаешь, что успех — это не только медали и награды. Это опыт, знания и связи, которые ты приобрел на этом пути. Ты продолжаешь участвовать в соревнованиях, учиться и развиваться, и знаешь, что каждый новый проект — это еще одна возможность стать круче.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8 6😁1
This media is not supported in your browser
VIEW IN TELEGRAM
У каждого так было 😝
Please open Telegram to view this post
VIEW IN TELEGRAM
😁8 5⚡4
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥9⚡1
Media is too big
VIEW IN TELEGRAM
Делимся разбором решений со свежего чемпионата по Data Science от AvitoTech по рекомендации наиболее релевантных рекламных объявлении.
Задача соревнования
Разработать модель, которая сможет рекомендовать пользователю наиболее релевантную рекламу на основе реальных данных после анонимизации. Модель должна предсказывать вероятность того, что пользователь кликнет на рекламное объявление, исходя из его характеристик и предпочтений.
Please open Telegram to view this post
VIEW IN TELEGRAM
1😁6👍4⚡1🦄1
🥳 Чемпионы, поздравляем вас всей командой наступающим новым годом!
🐍 Желаем вам еще больше драйва от Data Science чемпионатов в 25-м году и чтобы вас подкидывало на привате только наверх!
Новогодняя магия иногда случается поэтому вот вам последний жирный промик на все наши курсы в этом году OLIVYE Действуем несколько часов.
🦜 Легендарный курс по соревновательному Data Science .
🧑💻 Программирование с помощью нейросеток
🦜 Создание проектов на основе AI технологий на LLM курсе
🐍 Желаем вам еще больше драйва от Data Science чемпионатов в 25-м году и чтобы вас подкидывало на привате только наверх!
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉5 4⚡1👍1
Новогодний конкурс статей🎄
Врываемся к вам с нашим новогодним конкурсом. Все любят ребят, которые оставляют делают на свои решения на Kaggle, но как часто вы сами их пишете?
🚀 Мы считаем, что написание статей это отличная возможность попробовать себя в новой роли, прокачать свой личный бренд, принести пользу людям, а в нашем случае еще и заработать денег!
🎯 Условия конкурса таковы:
- вы должны иметь хотя бы одну медаль на кагле и быть студентом нашего курса
- написать статью с разбором любого вашего решения Kaggle-соревнования, где вы заняли призовое место
- добавить ссылку на канал курса (этот) и раскрыть в каких частях вашего решения он вам помог
🤑 В конце января (30 числа считаем результаты) топ-3 статьи по кол-ву просмотров на хабре разделят между собой 25, 15 и 10 тысяч рублей соответственно. Так же все статьи мы опубликуем в этом канале и укажем ссылочку на ваш личный блог/канал, если захотите.
✊ Чтобы принять участие в конкурсе просто пришлите ссылку на статью в комменты к этом посту, когда она будет написана. Да прибудет с вами сила.
Врываемся к вам с нашим новогодним конкурсом. Все любят ребят, которые оставляют делают на свои решения на Kaggle, но как часто вы сами их пишете?
🚀 Мы считаем, что написание статей это отличная возможность попробовать себя в новой роли, прокачать свой личный бренд, принести пользу людям, а в нашем случае еще и заработать денег!
🎯 Условия конкурса таковы:
- вы должны иметь хотя бы одну медаль на кагле и быть студентом нашего курса
- написать статью с разбором любого вашего решения Kaggle-соревнования, где вы заняли призовое место
- добавить ссылку на канал курса (этот) и раскрыть в каких частях вашего решения он вам помог
🤑 В конце января (30 числа считаем результаты) топ-3 статьи по кол-ву просмотров на хабре разделят между собой 25, 15 и 10 тысяч рублей соответственно. Так же все статьи мы опубликуем в этом канале и укажем ссылочку на ваш личный блог/канал, если захотите.
✊ Чтобы принять участие в конкурсе просто пришлите ссылку на статью в комменты к этом посту, когда она будет написана. Да прибудет с вами сила.
⚡16
⚡1
Привет, Чемпионы! 🏆
Ловите лайфхак как получить на Kaggle 96 CPU ядер и 300 Gb RAM. 🤯
Ловите лайфхак как получить на Kaggle 96 CPU ядер и 300 Gb RAM. 🤯
DeepSeek унижает OpenAI — они выпустили мультимодальную модельку для генерации картинок, которая разрывает Dalle 3 и Stable Diffusion.
Генерации почти не отличаются от реальных, так ещё и БЕСПЛАТНО.
Забираем с GitHub.
🎚️ Вступить в Нейросекту
Генерации почти не отличаются от реальных, так ещё и БЕСПЛАТНО.
Забираем с GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥8😁1
🏄 Соревновательный Data Science | Kaggle | Чемпионаты
Новогодний конкурс статей🎄 Врываемся к вам с нашим новогодним конкурсом. Все любят ребят, которые оставляют делают на свои решения на Kaggle, но как часто вы сами их пишете? 🚀 Мы считаем, что написание статей это отличная возможность попробовать себя в новой…
Продление конкурса⌛️
Мы решили дать еще две недели (до 16 февраля включительно) на то, чтобы все желающие успели дослать свои статьи. Результаты буду объявлены 20 февраля.
🤔 Для тех, кто сомневается принимать участие или нет, у нас пока только один человек засабмитил статью, а призовых места целых 3, так что шансы на победу есть у всех, кто хоть что-то отправит.
Мы решили дать еще две недели (до 16 февраля включительно) на то, чтобы все желающие успели дослать свои статьи. Результаты буду объявлены 20 февраля.
🤔 Для тех, кто сомневается принимать участие или нет, у нас пока только один человек засабмитил статью, а призовых места целых 3, так что шансы на победу есть у всех, кто хоть что-то отправит.
Привет, Чемпионы! 🏆
На прошлой неделе финишировал Kaggle чемп Santa 2024.🎅
Эта ежегодная серия соревнований подкидывает очень необычные задачи. В прошлом году собирали многогранные кубики Рубика.
В этот раз дали 6 списков от 10 до 100 слов в каждом. Слова на тему рождества, задачей было переставить слова таким образом, чтобы среднее perplexity для модели Gemma 2 9B было минимальным.
Если для списков из 10, 20, 30, 40 слов быстро нашли комбинации с минимальной перплексией, то для списка из 100 слов для перебора всех возможных перестановок потребовалось бы несколько лет.🤯
Весь золотой пьедестал получил одинаковый скор 246.87, обзоры победных решений уже опубликованы - в основном, это алгоритмы отжига и их тюнинг.
Нашим студентам и участникам коммьюнити тоже +5 медалек перепало - поздравляем!
Пиши как успехи, если тоже участвовал, и что решаешь сейчас!
На прошлой неделе финишировал Kaggle чемп Santa 2024.🎅
Эта ежегодная серия соревнований подкидывает очень необычные задачи. В прошлом году собирали многогранные кубики Рубика.
В этот раз дали 6 списков от 10 до 100 слов в каждом. Слова на тему рождества, задачей было переставить слова таким образом, чтобы среднее perplexity для модели Gemma 2 9B было минимальным.
Если для списков из 10, 20, 30, 40 слов быстро нашли комбинации с минимальной перплексией, то для списка из 100 слов для перебора всех возможных перестановок потребовалось бы несколько лет.🤯
Весь золотой пьедестал получил одинаковый скор 246.87, обзоры победных решений уже опубликованы - в основном, это алгоритмы отжига и их тюнинг.
Нашим студентам и участникам коммьюнити тоже +5 медалек перепало - поздравляем!
Пиши как успехи, если тоже участвовал, и что решаешь сейчас!
❤🔥7 6
🏄 Соревновательный Data Science | Kaggle | Чемпионаты
Новогодний конкурс статей🎄 Врываемся к вам с нашим новогодним конкурсом. Все любят ребят, которые оставляют делают на свои решения на Kaggle, но как часто вы сами их пишете? 🚀 Мы считаем, что написание статей это отличная возможность попробовать себя в новой…
Итоги конкурса статей🏆
В итоге всего один герой осилил написать статью. Так что он занимает первое место и получает 25к рублей. Да-да, можно было написать любую статью, которая подходит под критерии и с легкостью занять как минимум второе место.
😎 Встречайте - Никита Бояндин, с отличием закончил наш курс "Введение в соревновательный DS", Kaggle Expert, Middle NLP в МТС и просто хороший парень.
🥈 В своей статье он рассказал про то, как он участвовал LLM - Detect AI Generated Text и забрал там серебряную медаль. Статья набрала на хабре 2.5k просмотров и больше 10 сохранений в закладки.
🎉 Короче, бежим читать статью и поздравляем Никиту с победой в конкурсе: https://habr.com/ru/articles/877442/
В итоге всего один герой осилил написать статью. Так что он занимает первое место и получает 25к рублей. Да-да, можно было написать любую статью, которая подходит под критерии и с легкостью занять как минимум второе место.
😎 Встречайте - Никита Бояндин, с отличием закончил наш курс "Введение в соревновательный DS", Kaggle Expert, Middle NLP в МТС и просто хороший парень.
🥈 В своей статье он рассказал про то, как он участвовал LLM - Detect AI Generated Text и забрал там серебряную медаль. Статья набрала на хабре 2.5k просмотров и больше 10 сохранений в закладки.
🎉 Короче, бежим читать статью и поздравляем Никиту с победой в конкурсе: https://habr.com/ru/articles/877442/
Telegram
ML Baldini • Nikita Boyandin
Рассказываю о своем опыте, хакатоню ml, делюсь мемами и вместе ботаем::))
Реклама: @sasquato
Реклама: @sasquato
⚡13 6😁1
Привет, Чемпионы! 🏆
Может быть кто-то помнит наш пост про "Plucrarea" в прошлом году, когда организаторы заплатили за эту строчку 15К $ 🤯
Сейчас на Kaggle те же орги проводят чемпионат LLMs - You Can't Please Them All и в примере сабмишен файла они вставили ту самую строку. 😄
Вот такая самоирония! 👍
Кто-нибудь участвует? Залетайте, осталось 11 дней
Может быть кто-то помнит наш пост про "Plucrarea" в прошлом году, когда организаторы заплатили за эту строчку 15К $ 🤯
Сейчас на Kaggle те же орги проводят чемпионат LLMs - You Can't Please Them All и в примере сабмишен файла они вставили ту самую строку. 😄
Вот такая самоирония! 👍
Кто-нибудь участвует? Залетайте, осталось 11 дней