ML-легушька – Telegram
ML-легушька
3.46K subscribers
1.39K photos
162 videos
6 files
91 links
Гений, стартапер, плейбой, филантроп
Для связи: @MLfroge
Download Telegram
5👎1
Опять хуйню постит..
👍7👎1
ЛЮДИ НА НК ОРУТ ПОД ПЕСНЮ ВСТАВАЙ ДОНБАСС. ПЬЯНЫЕ. ПОД ДОЖДЁМ. НА НК(главная площадь перед физтехом)
13👎9👍2🤬1
Я так ору. На комиссии, в том числе, был наш лектор по алгоритмам. Он очень хороший и крутой, если что, но ситуация следующая. Он такой: я не понял в чем суть задачи. Ему лектор по плюсам и ещё один чел отвечают, и дальше диалог: - ну unique_ptr знаешь?
- нет
- А shared_ptr?
- нет
- умные указатели?
- нет.
В итоге он всю комиссию пытался понять о чем речь. И ещё перед началом спросил у мегя, почему в функции многоточие (там была распаковка пакета). И под конец спросил, в чем разница между памятью на стеке и на куча. Я спрашиваю - это ко мне вопрос? И он такой:ну расскажите, я не знаю. Он очень хороший и ультра жёсткий алгосник, но ситуация смешная
🤯8👎1🔥1🤬1
И так как это была единственная пересдача, то я остаюсь тут ещё на один семестр
👍7👎2
Соц.опрос:
👎1
ML-легушька
Откуда вы?
Жестокая борьба между МФТИ и ВШЭ. 23 против 23. Кто же победит?
Upd 17:43 - МФТИ выходит вперёд, опережая вшэ на 2 голоса.
Upd 17:48 МФТИ - ВШЭ: 30-27
Upd 18:48 МФТИ обошёл вшэ на 5 голосов. Думаю, можно признать его победу
👍7👎6
👍6👎1
Не украл, а позаимствовал. Потому что жизненно...
8👎2
На 500 подписчиков устрою какие-нибудь интересные ивенты! А-ля фан-встреча, розыгрыши и прочее :)
👍10👎3🤯1
Почему даже дети одеваются более стильно чем я?
😢15👎3👍2🤔1
Я начал догонять лекции А.В.Гасникова по математике больших данных (последние 3 пропустил, побывав только на первой, были причины). И вот что я вам скажу: очень сильно рекомендую для просмотра всем присутствующим. За первые несколько лекций были раскрыты как интересные практические примеры, так и теория, которая очень сильно поясняет некоторые аспекты современной математики и оптимизации. В частности, доказательство асимптотик для градиентного клиппинга, которым мы занимались в Сириусе, было сделано с помощью неравенства концентрации Берштейна. И я раньше понимал лишь на интуитивном уровне, откуда эта асимптотику берётся, а тут буквально за одну лекцию понимание прокачалось в разы. Короче лайк подписка.
Upd. Ссылка: https://youtube.com/playlist?list=PL4_hYwCyhAvZIqYnUHqHf7g0G74gPOHo1
👍16👎4🔥2
Тимлид нашей команды тоже планирует релоцироваться в Китай, пусть и не в таком срочном порядке :(
👎3🔥1
Жёстко откормили лягушку
😢9👍3👎1
Я сейчас одновременно прочитал два поста, про две новые статьи: об обнаружении гроккинга на нормальных данных(когда после очень долго переобучения модель начинает генерализовывать из-за убывания весов), и про то, как с помощью языковых моделей в очередной раз сильно улучшили возможности выполнения сложных задач, сформулированных на естественном языке, роботами. Вы представляете, насколько мы близки к новой технологической революции? Все эти вещи появились буквально за последний год
👍2👎1🔥1
Мем
👍10👎1🔥1
👍11👎1
Прошёл второй собес в яндекс, первый из двух "алгособесов". А почему так легко?..
👍17👎4👏1