YaART 😍
Ребята из нашей команды опубликовали наружу статью про то, как делают технологию генерации изображений🤨 . Очень здорово, что у ребят всё сложилось! Классное ощущение у меня внутри, когда это делают люди, к которым можно ногами дойти и спросить, чо как!
Я думаю, что кто-нибудь сделает разбор статьи, а я просто поделюсь ссылками:
— Страница проекта (кстати, выглядит очень стилёво);
— Статья на arxiv;
— Статья на Хабре.
Поздравляю ребят!
Ребята из нашей команды опубликовали наружу статью про то, как делают технологию генерации изображений
Я думаю, что кто-нибудь сделает разбор статьи, а я просто поделюсь ссылками:
— Страница проекта (кстати, выглядит очень стилёво);
— Статья на arxiv;
— Статья на Хабре.
Поздравляю ребят!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👍2❤1
Нейро 🔘 🔘
Пока пишу только релизы Яндекса (потому что работы чот очень много), но я очень горд ребятами из нашей команды, которые сделали этот запуск. Теперь генеративные ответы есть и в поиске.🤨
Можно искать как по текстовым запросам, так картинка+текст. Пользуйтесь и приходите с фидбеком!
Попробовать можно уже сейчас на главной Яндекса — нужно просто переключить тумблер!
Пока пишу только релизы Яндекса (потому что работы чот очень много), но я очень горд ребятами из нашей команды, которые сделали этот запуск. Теперь генеративные ответы есть и в поиске.
Можно искать как по текстовым запросам, так картинка+текст. Пользуйтесь и приходите с фидбеком!
Попробовать можно уже сейчас на главной Яндекса — нужно просто переключить тумблер!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥25👍3
VLM
Наверное каждый слышал про то, что у Яндекса есть своя GPT-like модель — YandexGPT. Так вот мы хотим идти дальше — делать нашу технологию мультимодальной🤨 . И коли уж я пишу этот пост, значит мы хотим развивать визуальную модальность🤔 .
Направление на хайпе и почти все, кто занимается генеративками сейчас — стараются обучать свои модели также работать с картинками. Ну потому что большой пласт задач лежит в визуальной плоскости😂 . При всём богатстве естественного языка, мы изредка пытаемся у LLMок спрашивать что-то, описывая каждую деталь. Более того, кажется часть задач вообще сложно описать, например пояснить за мемчик. Это весьма челенджевое направление, в котором есть много чего поделать. От копания данных, до внедрения в продакшн😍 .
В общем, мы ищем ML-разработчиков (да-да, не одного) в нашу классную команду технологий компьютерного зрения, а именно в проект, связанный с VLM. Любой продукт Яндекса, который так или иначе, явно или не явно использует картинки😳 — пользуется технологиями, которые создаются и развиваются в нашей команде. Подробнее про вакансию, связанную с VLM, можете прочитать здесь: тык.
Приходите ко мне в личку, пообщаться за вакансию, за команду, про задачи или вообще область😇 . Ну или просто за жизнь. Мне интересно познакомиться с вами даже если сейчас вы ничего не ищете!
Наверное каждый слышал про то, что у Яндекса есть своя GPT-like модель — YandexGPT. Так вот мы хотим идти дальше — делать нашу технологию мультимодальной
Направление на хайпе и почти все, кто занимается генеративками сейчас — стараются обучать свои модели также работать с картинками. Ну потому что большой пласт задач лежит в визуальной плоскости
В общем, мы ищем ML-разработчиков (да-да, не одного) в нашу классную команду технологий компьютерного зрения, а именно в проект, связанный с VLM. Любой продукт Яндекса, который так или иначе, явно или не явно использует картинки
Приходите ко мне в личку, пообщаться за вакансию, за команду, про задачи или вообще область
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥9
Forwarded from Тимлид Очевидность | Евгений Антонов
Люди выбирают не первых и лучших, а своих
Недавно читал книгу «Всё закончится, а ты нет» и встретил там фразу «Люди выбирают не первых и лучших, а своих».
Мне кажется, если в это глубоко вдуматься, понять и принять, то отпадут некоторые страдания от собственной неидеальности.
В чем проблема?
У тимлидов много разных направлений: проекты, люди, техника. По каждому направлению всегда море задач. Всё успеть, да ещё и хорошо – просто нереально.
Начинаешь чем-то жертвовать: где-то задачу не сделал совсем, где-то что-то забыл, где-то уголок срезал, чтобы впихнуть невпихуемое, и уже чувствуешь, что по многим фронтам как будто бы плохо всё.
В бытовой жизни примерно та же история. Где-то ты на рутинные вещи подзабил, где-то семье мало времени уделил, где-то коришь себя за то, что не успеваешь заниматься хобби или ленишься ходить в театр, например.
И вот получается, что общее настроение такое, что и там, и тут что-то постоянно недотягиваешь и вообще «кому я, нафиг, такой нужен?»
В чем суть ключевой фразы?
На мой взгляд, какими бы «недостаточно хорошими» мы себя ни ощущали, нас же кто-то выбирает. На работу взяли, фидбэк о работе дают не самый ужасный, с позором взашей не увольняют, а у кого-то есть партнер, который также совершил сознательный выбор.
Почему так?
А потому, что выбирают не самого идеального, а своего.
Одна команда принимает тимлида, который душевную атмосферу внутри создает, другая – того, что держит заказчиков и техдолг в ежовых рукавицах, третья – только супер лютого технаря, который может научить величайшим сложнейшим премудростям.
В романтических отношениях похожая история. Зачастую выбирают не самого богатого/высоко/красивого, а того, с кем будет персонально комфортно, уютно, безопасно.
Вспомните сами каких-нибудь мастеров/тренеров/репетитиров, чьими услугами вы пользуетесь регулярно. Там же не лучшие из лучших, только топовые небожители. Там те, кто делает «достаточно хорошо» и при этом вам персонально подходит. «Ваш» человек, одним словом.
Что это значит?
Это значит, что необязательно себя корить за неидеальность во всех аспектах жизни и работы. Если вы делаете «достаточно хорошо», то обязательно для вас найдется местечко, где вы будете «своим». И там вам будет хорошо.
А даже если и «недостаточно хорошо» делаете, то по-любому тоже что-то подвернется, только с более низким качеством, так сказать.
Итог
Хочется пожелать вам и себе перестать гнобить себя за малейшие неидеальности и посоветовать хорошо подумать, что/кого вы чувствуете «своим» и где бы вас так воспринимали. Порефлексировать и стремиться туда, где будет комфортно и не будет осуждения за малейшие огрехи.
Недавно читал книгу «Всё закончится, а ты нет» и встретил там фразу «Люди выбирают не первых и лучших, а своих».
Мне кажется, если в это глубоко вдуматься, понять и принять, то отпадут некоторые страдания от собственной неидеальности.
В чем проблема?
У тимлидов много разных направлений: проекты, люди, техника. По каждому направлению всегда море задач. Всё успеть, да ещё и хорошо – просто нереально.
Начинаешь чем-то жертвовать: где-то задачу не сделал совсем, где-то что-то забыл, где-то уголок срезал, чтобы впихнуть невпихуемое, и уже чувствуешь, что по многим фронтам как будто бы плохо всё.
В бытовой жизни примерно та же история. Где-то ты на рутинные вещи подзабил, где-то семье мало времени уделил, где-то коришь себя за то, что не успеваешь заниматься хобби или ленишься ходить в театр, например.
И вот получается, что общее настроение такое, что и там, и тут что-то постоянно недотягиваешь и вообще «кому я, нафиг, такой нужен?»
В чем суть ключевой фразы?
На мой взгляд, какими бы «недостаточно хорошими» мы себя ни ощущали, нас же кто-то выбирает. На работу взяли, фидбэк о работе дают не самый ужасный, с позором взашей не увольняют, а у кого-то есть партнер, который также совершил сознательный выбор.
Почему так?
А потому, что выбирают не самого идеального, а своего.
Одна команда принимает тимлида, который душевную атмосферу внутри создает, другая – того, что держит заказчиков и техдолг в ежовых рукавицах, третья – только супер лютого технаря, который может научить величайшим сложнейшим премудростям.
В романтических отношениях похожая история. Зачастую выбирают не самого богатого/высоко/красивого, а того, с кем будет персонально комфортно, уютно, безопасно.
Вспомните сами каких-нибудь мастеров/тренеров/репетитиров, чьими услугами вы пользуетесь регулярно. Там же не лучшие из лучших, только топовые небожители. Там те, кто делает «достаточно хорошо» и при этом вам персонально подходит. «Ваш» человек, одним словом.
Что это значит?
Это значит, что необязательно себя корить за неидеальность во всех аспектах жизни и работы. Если вы делаете «достаточно хорошо», то обязательно для вас найдется местечко, где вы будете «своим». И там вам будет хорошо.
А даже если и «недостаточно хорошо» делаете, то по-любому тоже что-то подвернется, только с более низким качеством, так сказать.
Итог
Хочется пожелать вам и себе перестать гнобить себя за малейшие неидеальности и посоветовать хорошо подумать, что/кого вы чувствуете «своим» и где бы вас так воспринимали. Порефлексировать и стремиться туда, где будет комфортно и не будет осуждения за малейшие огрехи.
❤21👍14🐳2🤝2
Разделяемая память
Между делом приношу вам чтиво про непростое, немного даже сложное👨🦳 — разделяемую память между процессами в C++ и как в ней живётся STL. Если у вас многопроцессная среда (тот же браузер) и вам нужно каким-то образом передавать данные между процессами (вкладками) — как вариант использовать разделяемую память 🤔 .
Но это уже не то же самое, что разделяемая память между потоками. Ведь в рамках одного процесса все лежит в одном виртуальном адресном пространстве. Тут всё сложнее, единого пространства нет🥴 . Потому нет примитивов синхронизации готовых, а они как бы нужны. Аллокаторы писать свои нужно, ну и прочие радости жизни.
Рекомендую в качестве общего развития, надеюсь на работе не понадобится: https://habr.com/ru/articles/515242/
Лично мне помогают такие статьи выходить за рамки своего ML пузыря, где 100500 тулов уже сделаны (хоть 90% очень плохо😩 ), и хочется понимать, как оно устроено на самом деле. Ставьте огонечки 🔥, если вам нравится, когда я приношу чего-нибудь почитать.
Между делом приношу вам чтиво про непростое, немного даже сложное
Но это уже не то же самое, что разделяемая память между потоками. Ведь в рамках одного процесса все лежит в одном виртуальном адресном пространстве. Тут всё сложнее, единого пространства нет
Рекомендую в качестве общего развития, надеюсь на работе не понадобится: https://habr.com/ru/articles/515242/
Лично мне помогают такие статьи выходить за рамки своего ML пузыря, где 100500 тулов уже сделаны (хоть 90% очень плохо
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
STL, allocator, его разделяемая память и её особенности
Разделяемая память — самый быстрый способ обмена данными между процессами. Но в отличие от потоковых механизмов (трубы, сокеты всех мастей, файловые очереди ...), здесь у программиста полная свобода...
🔥27❤🔥2
Токены
Решил я немного развлечься значит и сделать маленький pet-проект: поисковичок по мемам🤨 . Пока только картинки, но думаю, что при должном усилии можно будет и видео мемасики прикрутить.
Так вот одной из задач является раздобыть мемасиков для моей базы данных, а так уж повелось, что я смотрю мемасики в телеграме🤔 . А потому я захотел просто сгрузить пару сотен тысяч мемасов из каналов телеграма.
Недолго думая, пошел в ChatGPT, спросил чего и как, да и код дивный мне выдало сие чудо😍 . Кстати, рабочий —задачу свою выполняет. Есть одно НО: мне нужно сделать кредиты для своего телеграм-приложения и почему-то это оказалось сложной задачей. Как я не пытался заполнить форму, так я свои кредиты и не получил 👨🦳 .
Подумал я что все, вот и пет-проекту конец, а кто писал его — тот молодец. Но не тут-то было. Зашел я на github, ввёл поисковый запрос и нашел буквально на первых страницах рабочие кредиты🤯 . И это дико, но круто (для меня)!
Я пока до сих пор не понимаю, почему люди оставляют рабочие кредиты в своих репозиториях. Ну это же жесть. И не то, чтобы это разовая какая-то история. Практически всегда, если речь идет о популярном сервисе, который выдаёт токены разработчикам, находятся те, которые запушат их в публичный доступ. Ну и получается если кому-то очень надо (а мне вот очень надо было), то обязательно их найдут и воспользуются😂 .
Надеюсь, когда-нибудь вендоры таких ресурсов, как github, сделают какую-нибудь защиту от такого рода ошибок.
Тем временем у меня к вам просьба: покидайте мне в комментарии ссылки на открытые каналы, в которых есть смешные мемасики. Очень надо😍 !
Решил я немного развлечься значит и сделать маленький pet-проект: поисковичок по мемам
Так вот одной из задач является раздобыть мемасиков для моей базы данных, а так уж повелось, что я смотрю мемасики в телеграме
Недолго думая, пошел в ChatGPT, спросил чего и как, да и код дивный мне выдало сие чудо
Подумал я что все, вот и пет-проекту конец, а кто писал его — тот молодец. Но не тут-то было. Зашел я на github, ввёл поисковый запрос и нашел буквально на первых страницах рабочие кредиты
Я пока до сих пор не понимаю, почему люди оставляют рабочие кредиты в своих репозиториях. Ну это же жесть. И не то, чтобы это разовая какая-то история. Практически всегда, если речь идет о популярном сервисе, который выдаёт токены разработчикам, находятся те, которые запушат их в публичный доступ. Ну и получается если кому-то очень надо (а мне вот очень надо было), то обязательно их найдут и воспользуются
Надеюсь, когда-нибудь вендоры таких ресурсов, как github, сделают какую-нибудь защиту от такого рода ошибок.
Тем временем у меня к вам просьба: покидайте мне в комментарии ссылки на открытые каналы, в которых есть смешные мемасики. Очень надо
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11❤1👍1😁1🤡1
Мемасики из телеграма
В общем-то сегодня буквально за час скачал около 100к мемов из телеграм каналов☕️ . Ничего не отвалилось, всё отработало в штатном порядке (хотя я залогинился под левой учеткой на случай бана ☺️ ). Делюсь с вами поделием, которое придумали мы с ChatGPT. Я практически ничего не менял, весь этот код по моим хотелкам написал сервис.
Теперь надо раскочегарить свою gpu-печку и собрать необходимую метаинформацию о картинках. В целом, хочу сразу попробовать написать в стиле сервиса, в который можно присылать запросы и мемчик будет препроцесситься и добавляться в базу🤨 . Попробую на днях нарисоваться диаграмку того, как будет устроен сервис. А потом поревьювим её вместе, так сказать, некий ML System Design 🤔 .
В общем-то сегодня буквально за час скачал около 100к мемов из телеграм каналов
Теперь надо раскочегарить свою gpu-печку и собрать необходимую метаинформацию о картинках. В целом, хочу сразу попробовать написать в стиле сервиса, в который можно присылать запросы и мемчик будет препроцесситься и добавляться в базу
Please open Telegram to view this post
VIEW IN TELEGRAM
🤝20🤡1
Проф деформация 👨🦳
Не знаю, как у вас, но у меня случилась какая-то профессиональная деформация. Если я начинаю новое дело в жизни (проект), то начинается проработка требований, уточнее деталей, формирования вижена и т.д.🤯
Ходить далеко не надо. Мой организм требует более здорового тела, потому был сформирован проект "занятия в спортзале". Опытным путем в рамках MVP было показано, что без человека, который шарит в этой теме, проект можно заруинить на первых этапах разработки😿 . Тут начались этапы собеседования и после нескольких кандидатов я нанял себя тренера. Хотя судя по тренировкам, кто там еще кого нанял, надо подумать 😀 .
Спустя 7 лет проживания в Питере я наконец-то решил поехать на рыбалку. Я вырос в далеком регионе, где всё моё лето вертелось вокруг нескольких занятий: походы, рыбалка и футбол. Тут я опять сформировал проект "Поездка на рыбалку". Сроки были сжатые, а по теме имелись только старые детские воспоминания🥴 . Тем не менее составили и утвердили бюджет, выбрали целевое местоположение и объект ловли. Но как и обычно, сроки погорели, бюджет вышел из пределов, но результат себя оправдал. Целая одна маленькая рыбка была поймана примерно за 10 часов рыбалки!
И то ли я какой-то не такой, либо вот оно началось...🫣
P.S. Рыбку загружу в комментарии.
Не знаю, как у вас, но у меня случилась какая-то профессиональная деформация. Если я начинаю новое дело в жизни (проект), то начинается проработка требований, уточнее деталей, формирования вижена и т.д.
Ходить далеко не надо. Мой организм требует более здорового тела, потому был сформирован проект "занятия в спортзале". Опытным путем в рамках MVP было показано, что без человека, который шарит в этой теме, проект можно заруинить на первых этапах разработки
Спустя 7 лет проживания в Питере я наконец-то решил поехать на рыбалку. Я вырос в далеком регионе, где всё моё лето вертелось вокруг нескольких занятий: походы, рыбалка и футбол. Тут я опять сформировал проект "Поездка на рыбалку". Сроки были сжатые, а по теме имелись только старые детские воспоминания
И то ли я какой-то не такой, либо вот оно началось...
P.S. Рыбку загружу в комментарии.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤13👍2🔥2
Model explorer
Ребята из команды принесли пост из блога гугла, в котором рассказывается про новый инструмент визуализации моделей — Model Explorer. Недолго думая, я пошел его потестить🤨 .
В целом, ощущается весьма здраво, и правда видно, что поработали над скоростью рендеринга и отрисовкой. Но господи, что за жесть😡 , почему все так сложно. Самая интересная фича — просмотр дифа модели по весам, делается просто через 100500 строк кода на питоне, в котором нужно еще разбираться с апишкой либы. При этом, кажется, что тривиальный сценарий ну очень простой — берешь две модельки с разных шагов и находишь разницу между весами. Нет, нужно сделать это сложно, зачем делать удобную кнопочку 🙆 .
Пишут, что хорошо работает на LLMках и их таргет в первую очередь на крупные модели. В целом, наверное, может быть полезно, особенно в случае фьюзинга каких-нибудь слоёв. А еще умеет смотреть на графы из JAX, это мало какой инструмент может.
Я же использую уже на протяжении нескольких лет Netron, который выручает практически всегда🔥 . И как раз он не умеет в JAX и скорее всего зависнет на LLMках (по опыту, на крупных моделях 100млн+ параметров наглухо зависал на маке). Но при этом минималистичный интерфейс без всяких переусложнений 😫 .
Расскажите, может быть кто-нибудь пользуется подобными инструментами? Для чего?
Ребята из команды принесли пост из блога гугла, в котором рассказывается про новый инструмент визуализации моделей — Model Explorer. Недолго думая, я пошел его потестить
В целом, ощущается весьма здраво, и правда видно, что поработали над скоростью рендеринга и отрисовкой. Но господи, что за жесть
Пишут, что хорошо работает на LLMках и их таргет в первую очередь на крупные модели. В целом, наверное, может быть полезно, особенно в случае фьюзинга каких-нибудь слоёв. А еще умеет смотреть на графы из JAX, это мало какой инструмент может.
Я же использую уже на протяжении нескольких лет Netron, который выручает практически всегда
Расскажите, может быть кто-нибудь пользуется подобными инструментами? Для чего?
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7❤1
😁14🐳2🤯1👀1
Джун-рыбак
Сидел я дома и собирал в свой рыболовный ящик (который давеча заказал) все рыбаловные снасти, также купленные недавно👨🦳 . И тут я подумал, что между рыбаками и разработчиками есть чего-то общее. Ну так, в порядке бреда.
Итак, наш новоиспеченный джун-девелопер. Установит себе кучу софта, который не будет использовать, налепит самых продвинутых инструментов, которыми не знает, как пользоваться. Зато выглядит капец как круто, хацкеры из кино держат его пиво😀 . Естественно, чтобы поменять строку в большом файле, он напишет код на каком-нибудь модном языке и потратит несколько часов на отладку. А потом оно еще возможно и не заработает из-за какого-нибудь OOM 😊 .
Джун-рыбак. Купит себе ящик откровенного барахла, которое посоветовали в интернете мега ультовые рыбаки-продажники💸 . Естественно купит самую дубовую леску, крючки, которые погнутся при первой же серьезной поклёвке. При этом компании, производившие это всё дело, очень на хайпе, выглядит всё очень дико-дорого. И катушку сразу человечек купит себе какую-нибудь мультипликаторную, ибо видел в интернете, что на таких снастях огромных карпов и марлинов ловят. При этом естественно пойдем ловить в лучшем случае карасиков (против ничего не имею, хорошая рыба), а получится водоросли 👨🦳 .
И вот интересно же, что всё это кажется дико неуклюже и глупо, мол надо поступать разумнее и т.д. Но вот именно так и получаешь свой опыт. Когда наступаешь сам на эти грабли. Когда получаешь бороду на своей удочке, или утечку памяти в коде. При этом интересно, как много у человека энергии, чтобы все эти дела проворачивать и не отчаиваться.
Люблю быть джуном🤨 . Джуном-рыбаком.
Сидел я дома и собирал в свой рыболовный ящик (который давеча заказал) все рыбаловные снасти, также купленные недавно
Итак, наш новоиспеченный джун-девелопер. Установит себе кучу софта, который не будет использовать, налепит самых продвинутых инструментов, которыми не знает, как пользоваться. Зато выглядит капец как круто, хацкеры из кино держат его пиво
Джун-рыбак. Купит себе ящик откровенного барахла, которое посоветовали в интернете мега ультовые рыбаки-продажники
И вот интересно же, что всё это кажется дико неуклюже и глупо, мол надо поступать разумнее и т.д. Но вот именно так и получаешь свой опыт. Когда наступаешь сам на эти грабли. Когда получаешь бороду на своей удочке, или утечку памяти в коде. При этом интересно, как много у человека энергии, чтобы все эти дела проворачивать и не отчаиваться.
Люблю быть джуном
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16🔥3👍2🤡1
Forwarded from AbstractDL
Your Transformer is Secretly Linear
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
Мою новую статью приняли на ACL 🎉. Мы обнаружили, что большинство слоёв языковых моделей линейны на 99%! Это значит, что из любого слоя LLM можно выкинуть этэншн, нормализацию и даже feed-forward с активацией, оставив лишь один
nn.Linear(), а модель будет работать, будто бы ничего не поменялось!Такая неадекватная линейность наблюдается во всех трансформерах-декодерах (GPT, Llama, Mistral, и тд.). Мы предполагаем, что это связано с feature triggering режимом, то есть нелинейность "вспыхивает" на очень небольшом количестве важных токенов (что-то похожее было в статье Deja Vu). Поэтому совсем уж много слоёв таким образом заменить нельзя, нелинейность хоть сама по себе и крошечная, но её влияние очень быстро накапливается.
Ещё из интересных наблюдений — по мере претрейна нелинейность растёт, а во время файнтюнинга (или RLHF) она всегда падает. Исходя из этого, мы придумали регуляризацию, которая немножко усиливает нелинейность и бустит метрики на претрейне.
P.S. Вместе с кодом для оценки линейности слоёв трансформеров мы выкладываем и код к прошлой нашей статье про анизотропию и внутреннюю размерность.
Статья, GitHub
🤯12🔥6🎉1
Древнейших технологий пост
Уже прошло, пожалуй, 2 года с написания этого поста и всё могло поменяться как в лучшую, так и худшую сторону. Но пройти мимо не смог, как статья промелькнула в ленте X😀 .
Ребята из компании M вместе с Google заколлабились для того, чтобы посмотреть оптимальные стратегии распределённого обучения для больших моделей и не очень. Оказывается всё не так просто, и про всё это можно прочитать в посте😊 .
Вообще, я восхищаюсь людьми, которые оптимизирует перф. Ну это правда великое дело. Нужно держать и знать очень многое, чтобы грамотно подобрать конфигурацию системы. Ну вот например:
Ну это ничоси, еще и про сеть нужно знать🤔 ! А еще скорее всего, про шину памяти, про регистры процессора и про кучу разных штук, вообще никак не связанных с GPU, но влияющих на процесс. И это правда работа очень большой команды 😍 . Здорово, когда люди публикуют такие интересные инсайты, потому что не часто такое встречается, но часто в практике такое нужно.
Уже прошло, пожалуй, 2 года с написания этого поста и всё могло поменяться как в лучшую, так и худшую сторону. Но пройти мимо не смог, как статья промелькнула в ленте X
Ребята из компании M вместе с Google заколлабились для того, чтобы посмотреть оптимальные стратегии распределённого обучения для больших моделей и не очень. Оказывается всё не так просто, и про всё это можно прочитать в посте
Вообще, я восхищаюсь людьми, которые оптимизирует перф. Ну это правда великое дело. Нужно держать и знать очень многое, чтобы грамотно подобрать конфигурацию системы. Ну вот например:
All experiments show a considerable throughput dip when switching from 8 GPUs to 16 GPUs. This is because the cross-machine communication needs to travel through 100 Gbps Ethernet for 16 GPUs
Ну это ничоси, еще и про сеть нужно знать
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Про мультимодальность
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову😀 .
Я почти каждый день задаюсь вопросом: как оно работает? Ну т.е. окей, T9 нормально обучили — LLMку получили, но как это всё дело учитывает другие модальности🤔 ?
Мне приходит на ум концепция, что язык — это универсальный инструмент для передачи информации. Да, с помощью языка кодировать любой сигнал получится супер долго и объемно, но всё же возможно. Нам никто не запрещает запустить триллионы LLMок, чтобы они генерировали 0 и 1. Да, это бессмысленно, но возможно👨🦳 .
Всё, что нарисовано — человек может описать. Всё, что звучит — человек может описать. И так далее. Таким образом, получается что обучая LLMки просто на корпусах текста, мы учим их каким-то образом понимать этот мир😊 .
Складывается ощущение, что наш мозг устроен похожим образом. Мы набираем в мозг огромную базу: картинок, звуков, ощущений, эмоций, запахов и прочих сигналов. Но всё это воедино связывается языком. Мы не передаем друг другу картинки, наши тактильные ощущения, и т.д. Звук является лишь способом кодировки языка, ровно как и картинки в случае языка жестов. Для нас ничего не значат звуки от произнесения "шоколадка" пока мы не займемся патерн матчингом с инфой из внутренней БД. И это удивительно🤔 !
Ну и важно понимать, что язык — это форма сигнала. В реальности в нашем мозгу нет никаких слов, ровно как и в слоях атеншена — там просто сигналы🥴 .
Обучая LLMку языку, мы наделяем её знаниями об этом мире. А дальше надо научить её взаимодействовать с этими самыми БД. То, как именно кладется туда информация из разных истоников — это вопрос хороший, которым как раз-таки как будто занимаются все, кто строит мультимодальные сетки😍 .
Опять же, мои рассуждения ничем не подкреплены, кроме внутренней интуиции. Так что можете считать в порядке бреда сумасшедшего👨⚕️ !
Вокруг сейчас хайпуют LLMки, но не только ими мир един. Последние крупные презентации OpenAI и прочих компаний про то, как они пытаются прикрутить к LLMкам другие модальности: звук, изображения, видео, сигналы и всё, что придёт в голову
Я почти каждый день задаюсь вопросом: как оно работает? Ну т.е. окей, T9 нормально обучили — LLMку получили, но как это всё дело учитывает другие модальности
Мне приходит на ум концепция, что язык — это универсальный инструмент для передачи информации. Да, с помощью языка кодировать любой сигнал получится супер долго и объемно, но всё же возможно. Нам никто не запрещает запустить триллионы LLMок, чтобы они генерировали 0 и 1. Да, это бессмысленно, но возможно
Всё, что нарисовано — человек может описать. Всё, что звучит — человек может описать. И так далее. Таким образом, получается что обучая LLMки просто на корпусах текста, мы учим их каким-то образом понимать этот мир
Складывается ощущение, что наш мозг устроен похожим образом. Мы набираем в мозг огромную базу: картинок, звуков, ощущений, эмоций, запахов и прочих сигналов. Но всё это воедино связывается языком. Мы не передаем друг другу картинки, наши тактильные ощущения, и т.д. Звук является лишь способом кодировки языка, ровно как и картинки в случае языка жестов. Для нас ничего не значат звуки от произнесения "шоколадка" пока мы не займемся патерн матчингом с инфой из внутренней БД. И это удивительно
Ну и важно понимать, что язык — это форма сигнала. В реальности в нашем мозгу нет никаких слов, ровно как и в слоях атеншена — там просто сигналы
Обучая LLMку языку, мы наделяем её знаниями об этом мире. А дальше надо научить её взаимодействовать с этими самыми БД. То, как именно кладется туда информация из разных истоников — это вопрос хороший, которым как раз-таки как будто занимаются все, кто строит мультимодальные сетки
Опять же, мои рассуждения ничем не подкреплены, кроме внутренней интуиции. Так что можете считать в порядке бреда сумасшедшего
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🤯5❤3🤡1🤝1