Дратути Антон – Telegram
Дратути Антон
4.11K subscribers
171 photos
30 videos
215 links
Мемы и личные размышления про управление, код, ml и здравый смысл.

Сейчас руковожу командой OCR in VLM в Яндексе.

Автор: @toshiknoscript
Download Telegram
Yandex CV reading club

Мы с коллегами из Яндекса запустили канал с разбором статей из области компьютерного зрения. Присоединяйтесь, будет интересно!

Подписаться сюда: @timeforcv
🔥11👍4
This media is not supported in your browser
VIEW IN TELEGRAM
AGI-думеры после очередного релиза какой-нибудь LLMки
51😁28👍6🤡1
This media is not supported in your browser
VIEW IN TELEGRAM
Я с вами, товарищи!
😁29🐳4🤡1
Использование LLMок в быту

Я бы тут хотел завести дискуссию. Каким образом вы используете LLMки? Какие повседневные задачи вы решаете с их помощью?

Совсем недавно мне нужно было написать простого телеграм-бота. Чтобы вы понимали, я последний раз их писал лет 7 назад (своими руками, да-да-да 😀), потому скорее всего чот да изменилось. С помощью LLMки смог это сделать за минут 15-20. Пришлось, правда, пару раз в доку слазить, потому что всё же набаговала.

Другой пример: мне однажды нужно было написать multipart запрос на плюсах, пообщавшись о том, чо эт вообще за зверь, написал. Но при этом сам код, который выдавал LLMка — ну реально был ужасен, там нужно было всё фиксить, реально. Ну и странно, на теории она Лев Толстой, а на деле... 👨‍🦳

И вот сколько я не пытаюсь, почему то на питончике всё работает хорошо, а на плюсах — ну вообще такое. Помните недавний пост про задачку? Так вот я спросил chatgpt, она мне дала правильный ответ. Ну я решил уточнить, что там константный член и понёсся бред 😊. Грустненько.

Мб надо для чего-то еще использовать? Или мб мне просто не везёт 🤨? Поделитесь, пожалуйста!
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔5
VLM в Нейро

Сегодня у нас большое обновление в Поиске. В том числе, команда VLM тоже приняла в нём участие!

Написали с коллегами пост на хабр про то, как мы затаскивали VLM в Нейро (писал про релиз здесь). В этот раз мы немного раскрыли подробности про то, как работает Нейро, где и зачем потребовалась там мультимодальность. Припорошили немножечко теорией про VLM.

Больше ни слова в посте, приятного прочтения поста!
13🔥10👍7
Про книги

Я не очень часто читаю книги и очень хочу начать читать регулярно. Во времена, когда я хоть с какой-то переодичностью читал книги, наибольшее влияние на меня оказала книга Д.С. Лихачева "Письма о добром и прекрасном". Т.к. я читал достаточно давно, то полное содержимое уже как-то забылось, но какие-то вещи отложились у меня на подкорке 😍. Да бы было что вспомнить, загуглил цитаты (хотя, надо бы перечитать). После прочтения большого списка, выделил для себя следующие три:

Стремиться к высокой цели низкими средствами нельзя. Надо быть одинаково честным как в большом, так и в малом.


Будьте просты и снисходительны к своим недостаткам. Не страдайте от них. Хуже нет, когда в человеке развивается «комплекс неполноценности», а вместе с ним озлобленность, недоброжелательность к другим лицам, зависть. Человек теряет то, что в нем самое хорошее, – доброту.


Когда вы только учитесь ездить на велосипеде, когда думаете, куда повернуть, вы затрачиваете множество усилий. А когда научились и не думаете – вы почти неутомимы. И вот мой совет: научитесь не задумываясь, сразу находить правильные решения. Жить будет легко.


Книга настолько сильно оказала на меня влияние, что я даже какое-то время всю свою аргументацию и в сочинения по литературе, и в жизни строил на основе утверждений из книги 😀. Возможно, это было немного наивно и глупо, но что было, то было.

А какая книга на вас оказала наибольшее влияние? Она может быть абсолютно любая. Пишите в комментарии!
Please open Telegram to view this post
VIEW IN TELEGRAM
18👍10💊2🐳1
Полгода переосознания процессов

Я уже почти как полгода лид команды распознавания текста в VLM. Собрали команду с нуля, настроили какие-то процессы: что-то уже успели улучшить, что-то пересобрать. Если хочется к нам в команду (на стажировку или в штат) — можете всегда написать мне в личку пообщаться про это 😀. Описание вакансии здесь.

За эти полгода я очень часто приходил к осознанию "ааааа, так вот оно зачем нужно было", когда думал о каких-то практиках руководителей, которые я наблюдал в разных командах. Мне действительно тогда казалось, что "я всё понимаю", а вот мои руководители "нифига не понимают, им бы поучиться ещё". Тут мне прям стыдно, смею вас заверить👨‍🦳.

Например, про встречи 🤓. Мне всегда хотелось освободить свой календарь от встреч лишь по причине, что "нафиг они мне сдались, это нужно только менеджерам, лидам". В действительности же, отчасти это правда, если смотреть на это краткосрочно, в рамках текущей зоны отвественности, в рамках текущих задач. Но если глянуть на это долгосрочно, к примеру, скажем, пару-тройку месяцев хотя бы, нужно себе давать отчет, какие будут последствия от этих действий:

— Всё ли я буду понимать?
— А что если мне перепадёт делать тот кусок, за который я сейчас не отвечаю?
— А что будет после того, как закончу текущие задачи?
— Все ли вокруг в команде (хотя бы) будут понимать, как у меня дела? — супер нетривиальный вопрос, я о нём никогда не думал до руководства.

Честно ответив себе на эти вопросы (их может быть, кстати, значительно больше), вы можете неожиданно поменять своё впечатление от назначенных встреч.

Также у меня стало значительно меньше технических задач. И это немного выматывает, иногда вызывает ложные впечателения о том, что я делаю какую-то никому ненужную ерунду😔. Это точно не так. Но об этом в одном из будущих постов, если будет интересно.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍315🔥4
Лишняя операция?

Давайте попробуем для типа int на C++ реализовать функцию swap (переставляет значения переменных между собой) самую примитивную:

void swap1(int &a, int &b) {
int t = a;
a = b;
b = t;
}


Тогда дизассемблированный код для -O2 оптимизации в clang 19.1.0 покажет:

swap1(int&, int&):
mov eax, dword ptr [rdi]
mov ecx, dword ptr [rsi]
mov dword ptr [rdi], ecx
mov dword ptr [rsi], eax
ret


Что равносильно следующему коду:

void swap2(int &a, int &b) {
int t1 = a;
int t2 = b;
a = t2;
b = t1;
}


Хьюстон, у нас проблемы 👨‍🦳? Целая лишняя операция затесалась! Давайте обсудим в комментарии ваши мысли, насколько это плохо.

UPD: Куда же без ссылки на godbolt.
UPD 2: навеяно твиттерским постом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Запомним эту мудрость навсегда! (из комментов)
Forwarded from Stanislav Kirillov [UTC +5]
Не нужно экономить инструкции и регистры за компилятор, нужно смотреть на latency & througput инструкций. Например, "оптимизация" с вычитанием просто все замедлит - нужно будет засылать регистры в alu и 1) ждать пока у alu будет свободный порт 2) ждать сам результат вычитания
👍9
ML Party в Белграде

Кажется, это моё первое выступление на серьёзном мероприятии 😊. Будут сидеть люди оффлайн, будут ребята и в онлайне. Звучит немного страшненько, но думаю, я справлюсь.

Буду рассказывать про то, как делать OCR в VLM: немного поговорим про саму задачу, а также обсудим нюансы, о которых стоит знать, прежде чем идти в эту дремучую чащу. Должно быть интересно, приходите или подключайтесь. Жду от вас лучи поддержки 😍!

Ссылка на регистрацию.
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤‍🔥28👏53👍2
Ну поехали!

Итак, сегодня выступление на ML Party. План такой (время мск):
🤓 20:00 — Илья Ирхин расскажет про рекламу ресторанов в еде;
🤓 20:30 — Дима Солодуха выступит с докладом про то, как они учат Алису откликаться без имени;
🤓 21:15 — Собсна Я, расскажу про то, как делать OCR в VLM;
🤓 21:45 — Петя Вытовтов посвятит нас в то, как начать прогнозировать миллиметры осадков

Все доклады очень классные! Приходите послушать всех!

Ну и лучи поддержки! Буду вас ждать! В презе будут мемы, некоторые нужно будет поискать 😀

Ссылочка на трансляцию: https://www.youtube.com/live/xXjFWOmj6o8
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥26
Forwarded from C++95
#offtop #essay

Löcherdämmerung (Гибель лохов) ⚰️

Решил написать небольшой обзор на современное общество 😉 Это не про C++, но тоже имеет отношение к делу. Уверен, что получилось достаточно злободневно

Все совпадения случайны, я не несу ответственность если вы узнали в чем-то себя 🤪 Посоветовал бы не принимать это всерьез, так как присутствует ржака

Читайте, может быть будет интересно 🧐
https://telegra.ph/L%C3%B6cherd%C3%A4mmerung-Gibel-lohov-10-20
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡17🔥14🥱8👍21🤔1🤮1
Finetune black-box GPT4 to be harmfull. Covert Malicious Finetuning

Halawi et al. 2024

Интерфейс для адаптации/дообучения современных языковых проприетарных моделей под нужды пользователей может также позволить злоумышленникам подорвать безопасность модели. Авторы описывают метод компрометации безопасности модели через дообучение, обходящее обнаружение. Метод создаёт вредоносный набор данных, в котором каждая отдельная точка данных выглядит безобидно, но дообучение на полном наборе учит модель отвечать на закодированные вредоносные запросы закодированными вредоносными ответами (привет стеганография - пост). Применяя этот метод к GPT-4, авторы получают файнтюненую модель, которая выполняет вредоносные инструкции в 99% случаев и избегает обнаружения с помощью таких механизмов защиты, как проверка набора данных, оценка безопасности и классификаторы ввода/вывода. Их результаты ставят под сомнение возможность обеспечения безопасности интерфейсов черного ящика для дообучения при противодействии продвинутым злоумышленникам.

Как проприетарные модели защищаются сегодня и curriculum learning - под катом
👍7🤯4🔥1🐳1
Mrs Wallbreaker about AI Risk, AI Alignment, AI Safety, AI Ethics, AGI
Finetune black-box GPT4 to be harmfull. Covert Malicious Finetuning Halawi et al. 2024 Интерфейс для адаптации/дообучения современных языковых проприетарных моделей под нужды пользователей может также позволить злоумышленникам подорвать безопасность модели.…
Автор канала (не буду палить, кто именно), пост которого я только что зарепостил, с недавних пор работает в METR, что нифига себе! Так что если хотите чуть больше понимать или просто узнавать что-то новое про AI Alignment — подписывайтесь, достаточно подробно описываются классные статейки из этой области и не только!

Подпишись — @MrsWallbreaker

P.S. Это не реклама
👍83
Обновочки

Очень долго думал, какое себе устройство купить для заметок от руки и чтения. Мне было важно:
— удобный доступ к контенту, чтобы взял и загрузил;
— возможность брать с собой и мелкогабартиный;
— чтобы было удобно зумить, читатать;
— чтобы можно было делать заметки.

Я не хотел ограничиваться только статьями в виде pdf, а также хотелось уметь в epub и прочие типы файлов 🤯. Для меня важны были масса и маленький размер, потому что большой экран у меня есть и на ноутбуке.

Сначала думал взять что-то с e-ink экраном, но потрогав разные экземпляры, мне не понравилась цветопередача (чаще её просто нет), отсутствие плавного зума, странные подписочные решения 👨‍🦳.

Поэтому решил, что сетап в виде iPad mini будет комфортен. Сначала думал взять недавно вышедшую версию, но переплата того не стоит. Потому взял 6-ую версию.

Попробую новый сетап для чтения и заметок, а затем вернусь через месяц или больше с каким-то фидбеком.

А вы пользуетесь e-ink читалками? На чем читаете статьи? А книжки? 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
20🔥8🤝6👎1
👨‍🦳
Please open Telegram to view this post
VIEW IN TELEGRAM
😁40🔥41
This media is not supported in your browser
VIEW IN TELEGRAM
Когда пришёл на работу в первый день после отпуска 😀
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣42😁94👍3🤡1🐳1
Категоричность в коммуникации

На днях общался с другом и мы затронули тему категоричности в коммуникации. Каждый из нас скорее всего в жизни что-то да хейтил или про что-то высказывался выражениями типа "господи, да кто этот код вообще написал?" 😀. Он мне показал один рилс, в котором человек описывал ситуацию из книги "Семь навыков высокоэффективных людей" Стивена Кови (можно прочитать здесь).

Если кратко: автор был категоричен к мужчине в метро, хотя у того случилось горе, и после того, как автор узнал об этом, он стал совершенно по другому смотреть на ситуацию. 🫣

Признаться честно — избавиться от категоричности не так уж и просто. Ведь всегда просто сказать: "ну вот чо оно не работает? так не должно быть!" или "блин, ну эти чуваки вообще фигню какую-то сделали" — при этом не разбираться в деталях, не предлагать каких-то альтернативных решений 🌿. И я, и мой друг, и многие другие люди — допускали такое поведение. И это нормально в дружеской беседе, при просмотре фильма или других контактов с близкими людьми, когда вы, что называется "перетираете косточки", но в профессиональном плане это не всегда оправдано.

В большинстве случаев на позиции руководителя "категоричность", особенно в отношении к людям, недопустима. Это даёт волю повести свои цепочки рассуждений по неверным гипотезам, что чревато большими проблемами и недопониманием 👨‍🦳. Потому коммуникация должна строиться на искреннем желании решить проблему.

Когда я делал самые первые шаги в руководстве много-много лет назад, я думал "что я всё знаю" (категоричность) и допускал очень глупые ошибки. Конечно, пару раз знатно так оступившись, я уже так себя не вёл 🔼.

В плане отношения рукводителя к членам команды мне импонирует выражение Скотта Беркуна в книге "Сделано":
Итак, если менеджер сосредоточен, вовлечен, воодушевлен и способен добиться успеха, велика вероятность, что другие члены команды возьмут с него пример... Я не говорю, что МП должен быть харизматичным героем, который одним взмахом руки ведет армии программистов в битву. Напротив, ему просто как можно чаще нужно проявлять искренний интерес и помогать членам команды выполнять поставленные задачи.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥20👍9
1-1, "привет, ну как дела?", "раз на раз"

Я знаю достаточно малое количество людей, которые не сталкивались с этой практикой. Кто-то как член комадны, кто-то как руководитель, который скорее всего был по обе стороны баррикады. Весьма неоднозначная практика ввиду того, что все используют этот инструмент по-разному 🙃.

С одной стороны, его можно использовать чтобы трекать текущую деятельность по проекту. И это правда удобно: можно пройтись по тикетам, погрузиться в задачи человека, обсудить детали, помочь решить проблемки и наметить следующие шаги.

С другой стороны, на 1-1 можно общаться не про текучку, а про человека. Про его развитие, про его текущие мысли, цели, проблемы, состояние. Руководитель работает с людьми, а не с роботами.

Есть третий вариант — взвешенная сумма от двух предыдущих. Можно варьировать, зависит от целей. Я больше стараюсь говорить с человеком про него, поэтому у меня перевешивает второй вариант. Но вообще для чего это всё? Руководителям чиво, встреч мало?🤨

На самом деле — чтобы не разойтись в "картине мира". Например, человек делает задачки, думает "вай как я хорош, мега хорош". А руководитель в этот момент видит ну абсолютно другую картинку, например, что по срокам не успели, качество не то, ну или что-то в этом духе. И это не всегда то, что руководитель что-то придумал себе (хотя если так, то это вообще беда) — просто так оно получается. Или же ровно наоборот кейс, когда человек чувствует, что он делает всё плохо, а на самом деле он мега хорош и если его прибодрить, то он будет гипер хорош 🔼.

Это может происходить достаточно долго и... начинаются проблемы. Как по мне, они обычно выражаются в несправедливой оценке человека (по мнению самого человека) — зп, премии, авторитет. И я считаю, что это... реально мега большая проблема руководителя, это косяк-косяков 👨‍🦳, такое нужно исправлять. В какой-то мере недопустить этот косяк и позволяет "1-1".

Другой важный момент, о котором я, в целом, осознал только недавно — это также возможность узнать для руководителя, а не косячит ли он где-то, а не упускает ли он что-то. В общем, взаимно обратная связь во всей красе 😍.

А вы проводите 1-1? Или вам их проводят? Как считаете, полезное?
Please open Telegram to view this post
VIEW IN TELEGRAM
51🔥245👍3
ML Тренировки от Y&&Y

Ребята из Young&&Yandex (занимаются стажировками в Яндексе) устроили в этом году (да и уже несколько лет) тренировки по разным дисциплинам 🔼. Одно из направлений — ML 🌿.

На тренировках ребята слушают лекции по интересным топикам из ML (в этом году основное направление разговоров про NLP), делают домашки, а самым лучшим вроде как призы положены 😍.

Интересной особенностью является то, что лекции читаются в live режиме, это не очень просто, если ты не стример/блогер, которые уже привыкли к камере. Тем не менее, формат мне кажется классным.

По некоторому стечению обстоятельств я буду 27 ноября в 19:00 вещать про VLM (Vision Language Models) 🤓. Планирую покрыть основные топики этой темы, без углубления в детали (ибо с деталями это несколько лекций), чтобы быть понятным ребятам, которые только вкатываются. Стримить будем напрямую из офиса в Москве, на студии, что как бы уровень!

Приходите послушать, позадавать вопросики! Буду всем рад 😍. Также если вы хотите, чтобы я про какой-то топик рассказал точно, напишите в комменты (мало ли я забыл что-то вставить).

Ссылка на ML тренировки.

Ссылка на трансляцию про VLM.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21👍83🕊2🎅2