Я же по рофлу пошёл на собеседование в яндекс, и даже не на стажёра. Прошёл первый собес.
Была алгозадача и задача на мл.
Алгозадача очень простая. Я сначала думал что-то сложное, тупил 10 минут, потом чел предложил на примере, и я сразу придумал решение (просто метод двух указателей).
Затем был вопрос по тому, как бы я делал мл задачу. На него вроде ответил достаточно хорошо. Немного затупил с вопросом про переобучение, и про то как крутить катбусты (мало с ним работал), но впечатление приятное. Посмотрим что будет дальше. Я думал будет хуже
Была алгозадача и задача на мл.
Алгозадача очень простая. Я сначала думал что-то сложное, тупил 10 минут, потом чел предложил на примере, и я сразу придумал решение (просто метод двух указателей).
Затем был вопрос по тому, как бы я делал мл задачу. На него вроде ответил достаточно хорошо. Немного затупил с вопросом про переобучение, и про то как крутить катбусты (мало с ним работал), но впечатление приятное. Посмотрим что будет дальше. Я думал будет хуже
👍9❤2👎1
Сама задача: в строке найти длину наибольшей подстроки, состоящей не более чем из двух уникальных символов
🤯4🤬2👎1
ML-легушька
Я же по рофлу пошёл на собеседование в яндекс, и даже не на стажёра. Прошёл первый собес. Была алгозадача и задача на мл. Алгозадача очень простая. Я сначала думал что-то сложное, тупил 10 минут, потом чел предложил на примере, и я сразу придумал решение (просто…
Я прошёл первый этап, и дальше идёт чисто алгособес. Первый из двух. Учитывая что я не шарю за строковые алгоритмы особо меня изнасилуют
👏17👎1
ЛЮДИ НА НК ОРУТ ПОД ПЕСНЮ ВСТАВАЙ ДОНБАСС. ПЬЯНЫЕ. ПОД ДОЖДЁМ. НА НК(главная площадь перед физтехом)
❤13👎9👍2🤬1
Я так ору. На комиссии, в том числе, был наш лектор по алгоритмам. Он очень хороший и крутой, если что, но ситуация следующая. Он такой: я не понял в чем суть задачи. Ему лектор по плюсам и ещё один чел отвечают, и дальше диалог: - ну unique_ptr знаешь?
- нет
- А shared_ptr?
- нет
- умные указатели?
- нет.
В итоге он всю комиссию пытался понять о чем речь. И ещё перед началом спросил у мегя, почему в функции многоточие (там была распаковка пакета). И под конец спросил, в чем разница между памятью на стеке и на куча. Я спрашиваю - это ко мне вопрос? И он такой:ну расскажите, я не знаю. Он очень хороший и ультра жёсткий алгосник, но ситуация смешная
- нет
- А shared_ptr?
- нет
- умные указатели?
- нет.
В итоге он всю комиссию пытался понять о чем речь. И ещё перед началом спросил у мегя, почему в функции многоточие (там была распаковка пакета). И под конец спросил, в чем разница между памятью на стеке и на куча. Я спрашиваю - это ко мне вопрос? И он такой:ну расскажите, я не знаю. Он очень хороший и ультра жёсткий алгосник, но ситуация смешная
🤯8👎1🔥1🤬1
ML-легушька
Я так ору. На комиссии, в том числе, был наш лектор по алгоритмам. Он очень хороший и крутой, если что, но ситуация следующая. Он такой: я не понял в чем суть задачи. Ему лектор по плюсам и ещё один чел отвечают, и дальше диалог: - ну unique_ptr знаешь? -…
Комиссионная задача была написать static_ptr - как unique, но хранит все на стэке, а не на куче
👍3👎2
И так как это была единственная пересдача, то я остаюсь тут ещё на один семестр
👍7👎2
ML-легушька
Откуда вы?
Жестокая борьба между МФТИ и ВШЭ. 23 против 23. Кто же победит?
Upd 17:43 - МФТИ выходит вперёд, опережая вшэ на 2 голоса.
Upd 17:48 МФТИ - ВШЭ: 30-27
Upd 18:48 МФТИ обошёл вшэ на 5 голосов. Думаю, можно признать его победу
Upd 17:43 - МФТИ выходит вперёд, опережая вшэ на 2 голоса.
Upd 17:48 МФТИ - ВШЭ: 30-27
Upd 18:48 МФТИ обошёл вшэ на 5 голосов. Думаю, можно признать его победу
👍7👎6
На 500 подписчиков устрою какие-нибудь интересные ивенты! А-ля фан-встреча, розыгрыши и прочее :)
👍10👎3🤯1
Я начал догонять лекции А.В.Гасникова по математике больших данных (последние 3 пропустил, побывав только на первой, были причины). И вот что я вам скажу: очень сильно рекомендую для просмотра всем присутствующим. За первые несколько лекций были раскрыты как интересные практические примеры, так и теория, которая очень сильно поясняет некоторые аспекты современной математики и оптимизации. В частности, доказательство асимптотик для градиентного клиппинга, которым мы занимались в Сириусе, было сделано с помощью неравенства концентрации Берштейна. И я раньше понимал лишь на интуитивном уровне, откуда эта асимптотику берётся, а тут буквально за одну лекцию понимание прокачалось в разы. Короче лайк подписка.
Upd. Ссылка: https://youtube.com/playlist?list=PL4_hYwCyhAvZIqYnUHqHf7g0G74gPOHo1
Upd. Ссылка: https://youtube.com/playlist?list=PL4_hYwCyhAvZIqYnUHqHf7g0G74gPOHo1
YouTube
Математика больших данных (4-5 курсы, осень 2022) - Гасников А.В.
Share your videos with friends, family, and the world
👍16👎4🔥2
Тимлид нашей команды тоже планирует релоцироваться в Китай, пусть и не в таком срочном порядке :(
👎3🔥1