Время Валеры – Telegram
Время Валеры
28.8K subscribers
189 photos
6 videos
1 file
397 links
Мне платят за то, что я говорю другим людям что им делать.
Автор книги https://www.manning.com/books/machine-learning-system-design
https://venheads.io
https://www.linkedin.com/in/venheads
Download Telegram
Как показали события этого дня, иногда, прежде чем работать над AI alignment, стоит удостовериться что между CEO и бордой есть просто alignment
😁268😭45😢12🔥9💯5😎54😱4💩1
Мне нравится собирать Лего, точнее так, я собираю много Лего и одновременно слушаю аудио книги, попеременно на английском и немецком, что является единственным способом поддерживать немецкий язык на каком-то приличном уровне.

Еще в России я скорешился с коллекционером Лего, который заполнял и заполняет им огромный дом в Подмосковье. Сдружились мы на той теме, что у меня нет огромного дома для Лего, а у него есть и мое Лего через некоторое время становилось его.

Когда он узнал что я уезжаю в ЮК, сказал - ну теперь тебя завалят подарками. Ведь при покупке Лего в официальном магазине - дарят кучу подарков (куда их девал Мир Кубиков - отдельный вопрос) И не обманул!

На фото то, что я получил в качестве подарков за последние 2 года (примерно 3/4, остальное раздарено или собрано)
😍289🔥82👍5320❤‍🔥4🤩4😱3💊3🤡2😢1👌1
Победа либертарианца на выборах президента Аргентины может оказаться событием не менее масштабным, чем эпопея вокруг Open AI. Что дальше, Анархо Капиталисты у власти в Бразилии?
😁133🤡43🔥39💩9🎉54👍2🕊2🏆2🙈2🥰1
Поначала радовался новому умному кольцу Circular - и апка интересная и лидерборд и какие-то награды и данные непрерывным потоком льются. Одно но. Сегодня обнаружил, что мой скор по сну заметно упал, начал смотреть почему. Оказалось, что вчера, оставив кольцо на тумбочке, оно решило что я спал. Получается не очень умное - ведь я не спал. Написал в поддержку, в ответ советуют носить кольцо не снимая и говорят что да, такое может быть.

Такие кольца нам не нужны. А жаль
Но ничего, там новое кольцо вышло - ultrahuman
😁224🤡57🤣255🔥5💔3🏆2👍1
Прочитал статью LANGUAGE MODELS REPRESENT SPACE AND TIME от пацанов из MIT.

В свое время, концепция создания эмбедингов для слов через word2vec меня поразила, самым ошеломительным было наличие связей между понятиями: страна - столица, глаголы в разных временах и все эти приколы, типа король - мужчина + женщина = королева

Поэтому текущая статья не удивила, ведь это является логичным продолжением того, что наблюдалось еще в word2vec

Что сделали? Собрали 6 датасетов с именами/названиями (людей, мест, событий и тп), с локациями и временными точками
Три пространственных датасета: Мир, США, Нью-Йорк
Три временных датасета: Имена и сфера деятельности известных людей за последние 3000 лет. Имя создателей, название произведения и дата создания для песен, книг и фильмов - 1950 - 2020. Заголовки газеты New-York Times

Берут разные Llama-2 от 7 до 70 млрд параметров, прогоняют каждую сущность через модель и сохраняют активации последнего Хидден стейта на последнем токене и так для каждого слоя . Для каждого слоя получают матрицу активаций размером n(количество сэмплов) x d (размерность модели)

Затем обучают простую линейную модельку, которая на входе получает активации (1 слой - 1 датасет) и таргет (либо время, либо две координаты). Собственно, если на отложенной выборке модель успешно предиктит время и координаты, получается эта информация линейно закодирована в активациях (из этого не следует что изначальная модель использует эти репрезентации, с другой стороны, вряд-ли это вышло случайно). Тоже не открытие, весь deep learning это по факту representational learning и оперирует в конце обычно такими представлениями, чтобы линейная модель справлялась

Эксперименты показали, что с увеличением размера модель, растет качество восстановления и времени и пространственных координат через линейный декодер. Кроме того - качество растет с увеличения слоя (доходя до середины и затем выходя на плато)
Кроме того, это подтверждает linear representation hypothesis, то есть, что фичи внутри слоев нейронных сетей представлены линейно.
Проверили просто, обучили нелинейную модель как декодер - значимого улучшения не обнаружили

Еще решили проверить, что будет если к сэмплу добавлять разные промпты. Как и многое в жизни, лучше не стало, но от некоторых стало заметно хуже. Получается не зря говорят не слушать советов!
Потом проверили стабильность модели - впрочем тут можно прочитать самим, как изверги вытаскивали блоки информации и смотрели как модель может их восстановить. Относительно получалось неплохо, но абсолютно - так себе

Если попробовать ужать размеренность через PCA - качество падает заметно
В конце описывают что смогли найти нейроны, ответственные за время и пространство

В целом, интересно, но не удивительно
Написал я этот пост, чтобы не созваниваться с Игорем (https://news.1rj.ru/str/seeallochnaya) и обсуждать статью вживую
#ArticleReview
👍113😁5119🔥12👏3🤮2🗿1
До чего дошел прогресс.

Судя по всему, на ряде довольно престижных технических конференций организаторы придумывали и анонсировал фейковых докладчиков-женщин. Видимо чтобы адресовать запросы по diversity, кажется это оказалось самым простым решением.

В целом понятно, что проблему нужно решать вверху воронки. Если в технические специальности нанимают в основном людей с техническим образованием, а там соотношение 10-90 или 20-80, с чего бы оно менялось дальше в лучшую сторону ? Скорее изменится в худшую. Поэтому все попытки изменить низ воронки выглядят как мишура, если что и менять, то в начале.
🤨85😁64👍2110🔥10💯5😱3🤔1
В полет отправился первый в мире трансантлантический самолет, полностью заправленный sustainable aviation fuel. So-called sustainable aviation fuels (SAF) can be made from a variety of sources, including crops, household waste and cooking oils. The first transatlantic flight by a large passenger plane powered only by alternative fuels has taken off.

Топливо, очевидно, сделано и предоставлено компанией BP
👏102👍30🤡20🌚19😁8🥴5😱31
Интересно за что она сядет. Пока еще Форбс не ошибался
😁353🤡33🤣217👍7🥰2🤔2👌1
Один чел на Linkedin, написал что периодически переживает из за потенциально пересекающихся и влияющих друг на друга А/Б тестов

Это конечно ерунда, потому что:
A/B tests are not done blindly, it is very hard to imagine an improvement of 8% that you won't anticipate as a possible outcome of interactions of two new features
The only way I can imagine this is if someone runs thousands of random things without any idea behind them and want to check the results

При этом чел сам ссылается на статью от Microsoft - A/B Interactions: A Call to Relax
Где ровно то-же самое и говорят, пацаны - расслабьтесь, мы за вас уже посмотрели, такая штука практически никогда не возникает

Поэтому не бойтесь пропустить интеракцию всей своей жизни, почитайте лучше заметку Адама C3PO - про сто тысяч аб тестов
👍6715🔥12😁3🤔3💯2
Приятно осознавать, глядя на эту картинку, что Х5 решил сконцентрироваться на найме сотрудников-качков.

Рад что мое дело живёт
😁518🤣176🫡31👍108🤡8👏6❤‍🔥2💩2🤝1
Live stream scheduled for
Завтра (13 декабря), в 18 по Лондону проведем стрим с @seeallochnaya и инженером из DeepMind, который участвовал в создании Gemini. Обсудим как обычно LLM, будущее и прошлое

Вопросы можно оставлять здесь

Добавить в календарь
👍128🔥87🤡2013🍌4🤩2🐳2🎄21👏1
Live stream started
Пост для обсуждения Стрима
34👎22🔥11👍5🫡3
Live stream finished (1 hour)
Второго января, в 21 по Москве/18 по Лондону, проведем стрим с уникальным человеком - CTO Aliexpress.ru, экс-CTO Ozon.ru, экс-VP Yandex Search Development и Yandex Fellow - Анатолий Орлов, также известный как Анатоликс

Обсудим, как минимум следующее, а затем просто начнем говорить обо всем:
Карьерный путь Анатоликcа и его видение роли менеджера.
Как люди становятся руководителями.
Что отличает хорошего руководителя от плохого.
Как часто теряешь хорошего разработчика и получаешь плохого руководителя и почему их так много
Как меняется видение и распорядок дня в зависимости от размера команды: от 10 до 100 до 1000 человек.

Добавить в календарь
Канал Анатоликса
🔥228👍348❤‍🔥5🤡3👏2
Live stream scheduled for
5 января, в 13 по Лондону, проведем стрим с Адамом Елдаровым, СРО в YouDo, ex Head of Data Science в YouDo и Ticketland, а также гуру научного бодибилдинга и активного долголетия.

Обсудим спортивное питание, бады, способы накачаться и как это помогает быть продакт менеджером

Канал Адама
Добавить в календарь
🔥129👍1511😁5🖕5🤡3🤔2😐1
Прочитал заметку от Spotify - Choosing a Sequential Testing Framework — Comparisons and Discussions

Рассматривают различные подходы для непрерывного тестирования в А/Б тестах, то-есть когда можно подглядывать, их плюсы и минусы

Group sequential tests
Плюсы: подход с alpha-spending функцией, которая тратится, только когда мы проверяем результаты, позволяет принимать решение, готовые ли мы сейчас подглядывать или лучше подождем. Если не подсматривать - тест сходится до традиционного z-test.
Легко объяснить - по факту z-test.
Минусы: нужно знать предельное количество данных, которое мы можем собрать, если что то пойдет не так в обе стороны, то тест может иметь как заниженный, так и завышенный false positive rate
Нужно выбирать alpha-spending, если мы заранее знаем сколько данных, то это не проблема, а если не знаем - underpower
Подглядывать можно не более пары сотен раз
Заметка для себя: Надо посмотреть пересекается ли как то с этим - Increase A/B Testing Power by Combining Experiments & Weighted Z-test

Always valid inference - куда входит любимый нами mSPRT The Mixture Sequential Probability Ratio Test
Плюсы: Легко воплотить
Можно сколько удобно данных скормить и не нужно знать размер данных заранее
Можно задать любое правило для остановки
Работает как с батчами так и со стримингом (в отличии от пункта выше)
Минусы: Нужно описывать параметры распределения для успеха, как некоторую смесь распределений
Тяжелее понять для челов, которые не понимают
Underpowered если батч а не стриминг, потому что обновляются данные сразу куском, а не по итерации
Заметка для себя: - Давно такой лажи надуманной я не читал, челы сразу сказали в начале статьи, что выбирают GST и начали выдумывать какие-то дурацкие причины почему mSPRT плох. Ну то есть, да, есть некоторая смесь распределений, но даже смесь распределений это распределение, на практике мы всегда делаем какое-то допущение, это в принципе тоже самое как задавание MDE, которые мы хотим поймать. То, что кому-то тяжелее это понять, удивительная причина, там все довольно просто на пальцах показать, для многих будет даже проще z-testа, ну а то - что underpowered для батчей - вообще ерунда. Кто вам мешает взять батч и прогнать его последовательно как будто это стриминг, ведь timestamp для каждого события есть, а обновление - это операция умножения двух циферок, то есть по факту вы это итак делаете с батчем, просто докинуть один sort
Bonferroni corrections - куда-же без нее
Плюсы - легко закодить
Минусы - заранее решаем сколько раз будем подсматривать
Если подсматривать много раз, скорее всего ничего не найдем

Проверили эти подходы на симуляции
Bounded false positive rate - держится у всех
GST всех побил по чувствительности на батчах, правда на стриминге он просто не работает и пойди тут сравни теперь, судя по всему mSPRT они не обработали в батчах через таймстемпы и должного сравнения мы не получим (если только их графики батча и стрима это не один и те-же данные, тогда худо бедно можно сравнить Можно пойти и посмотреть код - оставляю это на вашу совесть, код написан в R)

Описали свои выводы - что и когда брать. В целом читать можно и нужно, но с осторожностью
#ArticleReview
👍5111🔥2👏2
Приветствую, друзья!

Во-первых, хочу поздравить всех с наступающим Новым Годом и пожелать реализации ваших стремлений! А во-вторых, сообщить о выходе очередного (хотя и последнего в этом году) выпуска Machine Learning Podcast. Выпуск немного нестандартный. В нем сразу два гостя. Гостя два, а тема одна - их совместно написанная книга "Machine Learning System Design with end-to-end examples". Разговариваем о том, как вообще пришла идея написать книгу по теме проектирования ML-систем, почему в соавторстве, а не раздельно, для кого будет полезна данная книга, из каких частей состоит ML System Design, как подходить к разработке ML-систем разной сложности и так далее. Два взгляда двух разных авторов одной книги! Хорошего и интересного вам завершения года!
https://mlpodcast.mave.digital/ep-54
90🔥44👍13💩4