Нашел очень классный питоновский пакет - fuckit, с помощью него можно заставить питон просто игнорировать строки с ошибками и идти дальше (очень полезно, что бы не было случаев, когда запускаешь на ночь обучение скриптом, а оно вылетает в последний момент, потому что в предпоследней строчке, перед сохранением модели на диск у тебя идет push to hub с неправильным захардкоженым токеном)
А как оно рабоатет под капотом - буду рад услышать в коментариях.
А как оно рабоатет под капотом - буду рад услышать в коментариях.
⚡7❤2
Тык
Я пару дней назад наткнулся на этого чела на конфах и мне он безумно понравился. Очень интересно и дохотчиво обьсняет сложные моменты, с точки зрения нейрофизиологии обьясняет почему ЯП делают так как делают, а не наоборот. Я буквально пересмотрел все его выступления на всех конфах))).
Сам он питонист с огромным опытом и если интересно погрузить в недра питона - советую начать с этой конфы.
Я пару дней назад наткнулся на этого чела на конфах и мне он безумно понравился. Очень интересно и дохотчиво обьсняет сложные моменты, с точки зрения нейрофизиологии обьясняет почему ЯП делают так как делают, а не наоборот. Я буквально пересмотрел все его выступления на всех конфах))).
Сам он питонист с огромным опытом и если интересно погрузить в недра питона - советую начать с этой конфы.
YouTube
"Простой Python": ложь, большая ложь и метаклассы / Григорий Петров
Приглашаем на Moscow Python Conf 2023, которая пройдет 19 и 20 мая 2023 в Москве в рамках Positive Hack Days.
Программа, подробности и билеты по ссылке https://conf.python.ru/moscow/2023
--------
Moscow Python Conf++ 2021
Профессиональная конференция для…
Программа, подробности и билеты по ссылке https://conf.python.ru/moscow/2023
--------
Moscow Python Conf++ 2021
Профессиональная конференция для…
❤6
Добрый день,
Ранее в этом канале я позволял себе некоторые комментарии и оценочные суждения (зачастую грубые и неуважительные) в отношении Яндекс облака, а также проводимых ими мероприятий. Такое поведение было ошибочным, неподобающим, некорректным и недопустимым с моей стороны со всех точек зрения. Я был не прав. Всегда был и остаюсь патриотом России и Яндекса
Ранее в этом канале я позволял себе некоторые комментарии и оценочные суждения (зачастую грубые и неуважительные) в отношении Яндекс облака, а также проводимых ими мероприятий. Такое поведение было ошибочным, неподобающим, некорректным и недопустимым с моей стороны со всех точек зрения. Я был не прав. Всегда был и остаюсь патриотом России и Яндекса
😱8❤5🤮5😁3🫡2🤯1
Оптимизации времени работы LLM.pdf
1.4 MB
Небольшой набросок про оптимизацю LLM от меня. Мб кто то что то еще добавит - было бы очень полезно
👍4❤1🔥1🥰1
This media is not supported in your browser
VIEW IN TELEGRAM
Я нахожусь на Камчатке, и мой новый год уже настал 9 часов назад! Но так как в москве 12 ночи будет только сейчас, пост поставлен именно на это время!
Вам в подарок, небольшой сборник вопросов с собеседований по ML, примерно по такому же списку готовился и я, когда пытался залететь на работу. Список вопросов подготовил @grokaem_seby и другие, а я лишь дописал ответы и коментарии на многие вопросы, которые считаю максимально интересными а так же отказалася от сатанинского ноушна в пользу гитхаб репы перевел в более удобный формат для чтения и редактирования сообществом. За этот год обещаю дописать ответы на все вопросы, а так же буду поддерживать этот список актуальным. Формат гитахаба поощряет кооперацию, так что жду ваших pull requet-ов. Ну и еще ооочень вайбовый видос, который снял 5 минут назад)
Вам в подарок, небольшой сборник вопросов с собеседований по ML, примерно по такому же списку готовился и я, когда пытался залететь на работу. Список вопросов подготовил @grokaem_seby и другие, а я лишь дописал ответы и коментарии на многие вопросы, которые считаю максимально интересными а так же
🔥8🎄3❤2❤🔥2
На днях обучил токсичную лламу - модель которая ведет себя не очень. Делал все чисто для фана и выложил ее в open source. Что показалось невероятным - для обучения мне хватило 38 фраз в трейне и 2 для валидации, 5 минут времени. Выглидит чем то невероятным что поведение такой огромной и сложной модели как transformer можно сменить настолько маленьким датасетом спорного качества.
Потыкать модель можете тут, пока я не выключил компьютер - перед использованием установите температуру на 1-1.3
Сама модель - на hf
Потыкать модель можете тут, пока я не выключил компьютер - перед использованием установите температуру на 1-1.3
Сама модель - на hf
❤4👍1🔥1
В последнее время я начал сталкиваться с жуткими головными болями и мигренями - иногда без обезбола не мог найти в себе сил что бы встать с кровати. На работе меня часто накрывали панические атаки - я начал искать в чем же причина
Благодоря помощи психолога мне удалось найти корень проблемы - меня безумно раздражает архитектура трансформера. Буквально - я сейчас пишу этот текст и представляю как атеншн смотрит из одного слова в другое и это вызывает у меня жуткую агрессию.
К счастью, я смог найти решение своей проблемы - это Mamba
Оно предлагает радикально новый подход к обработке текста. В отличие от традиционной архитектуры трансформеров, mamba больше напоминает RNN, где для запоминания информации существет некоторое латентное состояние h(t) которое передается от токена к токену. Однако в отличии от рекуренты, процесс обновления этого состояния построен немного умнее чем в RNN (или LSTM) - он основан на State space model. Тут должно было политься куча математики - но Кирилл Шохин уже очень подробно расписал все за меня
По итогу лишь добавлю, что эти штуки, могут легко работать с длинными промптами (~10^6 токенов, в 1000 раз больше чем трансформеры) и инференсятся значительно быстрее. Пока авторы статьи обучили лишь 3B модель и она показывает себя как минимум не хуже SoTA трансформеров такого размера (Tiny-llama/openllama3b итп)
Благодоря помощи психолога мне удалось найти корень проблемы - меня безумно раздражает архитектура трансформера. Буквально - я сейчас пишу этот текст и представляю как атеншн смотрит из одного слова в другое и это вызывает у меня жуткую агрессию.
К счастью, я смог найти решение своей проблемы - это Mamba
Оно предлагает радикально новый подход к обработке текста. В отличие от традиционной архитектуры трансформеров, mamba больше напоминает RNN, где для запоминания информации существет некоторое латентное состояние h(t) которое передается от токена к токену. Однако в отличии от рекуренты, процесс обновления этого состояния построен немного умнее чем в RNN (или LSTM) - он основан на State space model. Тут должно было политься куча математики - но Кирилл Шохин уже очень подробно расписал все за меня
По итогу лишь добавлю, что эти штуки, могут легко работать с длинными промптами (~10^6 токенов, в 1000 раз больше чем трансформеры) и инференсятся значительно быстрее. Пока авторы статьи обучили лишь 3B модель и она показывает себя как минимум не хуже SoTA трансформеров такого размера (Tiny-llama/openllama3b итп)
😁15👍2❤1🔥1🤨1
А вот раньше в айти можно было войти за 15 минут.... (Вообще все придисловие рекомендуется к прочтению. Оказывается проблема айти курсов существовала и тогда)
Брудно А. Л. Введение в программирование в содержательных обозначениях. 1965, издательство Физматлит, серия "Физико-математическая библиотека инженера"
Брудно А. Л. Введение в программирование в содержательных обозначениях. 1965, издательство Физматлит, серия "Физико-математическая библиотека инженера"
🥰10😁6👍4
Для тех кто не знает, я запустил гитхаб со 100 билетами про NLP, позволяющих вам закрыть курс по ML в вузе / залететь работать в ML команду.
Но там в основном сухая терия, но теперь появился новый блок c устными более практическими кейсами.
Например: Как понять что данные скачаные с HF, на которых мы обучаем модель, похожи на те, которые есть в проде, без доп разметки? Или как превратить ансамбль моделек в одну?
Пока задач не много, но если вы накидаете реакций под это сообщение, то у меня на готове еще пару десятков, нужно просто найти в себе силы их оформить)
Так же скоро оформлю решения для задач
Но там в основном сухая терия, но теперь появился новый блок c устными более практическими кейсами.
Например: Как понять что данные скачаные с HF, на которых мы обучаем модель, похожи на те, которые есть в проде, без доп разметки? Или как превратить ансамбль моделек в одну?
Пока задач не много, но если вы накидаете реакций под это сообщение, то у меня на готове еще пару десятков, нужно просто найти в себе силы их оформить)
Так же скоро оформлю решения для задач
❤17🔥5
Forwarded from Daniel
Митап Победителей в Лотерею 27 февраля!
Всем привет! Как вы, возможно, знаете Гипотеза Лотерейного Билета предполагает, что в нейросетях можно найти мощные подсети, способные обучаться не хуже полных сетей. Наши друзья погрузились в тему и хотят рассказать об этом. Приходите на наш митап, чтобы узнать о том, как можно выявить и оптимизировать такие подсети, и как это открывает двери к нейросетям следующего поколения. 🚀
🔍 Что будет на митапе:
- Узнаем какой прогресс по этой теме существует в мире.
- Посмотрим на работу с подсетью MobileNet_V3, потерявшей половину весов и менее 1% accuracy без дообучения весов.
- Откроем черный ящик нейросетей и разберемся, что происходит внутри.
- Поговорим про перспективы и возможности для разработки совсем иных нейросетей с меньшим количеством параметров, но с гораздо большими возможностями.
На мероприятии выступят:
- Голощапов Владислав (независимый исследователь)
- Денис Кузнеделев (Сколтех, Центр технологий искусственного интеллекта, Резидент исследовательского отдела ООО «ЯНДЕКС», лауреат Yandex ML Prize) 🌟
Доклады:
1. Ансамбль синапсов – структурная единица нейронной сети (Влад Голощапов)
2. История Оптимального хирурга для спарсификации нейронных сетей, в теории и на практике (Денис Кузнеделев)
3. Глубокий анализ полезности весов - путь к успешному прунингу (Влад Голощапов)
4. Как извлечь пользу из прунинга. Нейросети с адаптивно обучаемой архитектурой (Влад Голощапов)
Обязательная регистрация по ссылке
📅 27.02.2024
🕓 18:00 - 22:00
📍 Точка кипения
ODS Moscow
Всем привет! Как вы, возможно, знаете Гипотеза Лотерейного Билета предполагает, что в нейросетях можно найти мощные подсети, способные обучаться не хуже полных сетей. Наши друзья погрузились в тему и хотят рассказать об этом. Приходите на наш митап, чтобы узнать о том, как можно выявить и оптимизировать такие подсети, и как это открывает двери к нейросетям следующего поколения. 🚀
🔍 Что будет на митапе:
- Узнаем какой прогресс по этой теме существует в мире.
- Посмотрим на работу с подсетью MobileNet_V3, потерявшей половину весов и менее 1% accuracy без дообучения весов.
- Откроем черный ящик нейросетей и разберемся, что происходит внутри.
- Поговорим про перспективы и возможности для разработки совсем иных нейросетей с меньшим количеством параметров, но с гораздо большими возможностями.
На мероприятии выступят:
- Голощапов Владислав (независимый исследователь)
- Денис Кузнеделев (Сколтех, Центр технологий искусственного интеллекта, Резидент исследовательского отдела ООО «ЯНДЕКС», лауреат Yandex ML Prize) 🌟
Доклады:
1. Ансамбль синапсов – структурная единица нейронной сети (Влад Голощапов)
2. История Оптимального хирурга для спарсификации нейронных сетей, в теории и на практике (Денис Кузнеделев)
3. Глубокий анализ полезности весов - путь к успешному прунингу (Влад Голощапов)
4. Как извлечь пользу из прунинга. Нейросети с адаптивно обучаемой архитектурой (Влад Голощапов)
Обязательная регистрация по ссылке
📅 27.02.2024
🕓 18:00 - 22:00
📍 Точка кипения
ODS Moscow
👍1
Выглядит довольно многообещюще - groq утверждают что смогли разогнать микстраль до ~500 токенов в секунду. Для примера скорость генерации llama 2-7B-4bit на 4090 около 150 токенов в секунду - так что 500 - это впечатляющий результат.
Пока нет возможности запустить их инференс сервер у себя, они чисто продают доступ по API.
А для ускорения локального инференса моедли советую чекнуть - Faster LLM, faster
Пока нет возможности запустить их инференс сервер у себя, они чисто продают доступ по API.
А для ускорения локального инференса моедли советую чекнуть - Faster LLM, faster
❤4
Судя по количеству новых репозиторие в гитхабе, рынок AI практический полностью насытился, несмотря на то что людей пытающихся ботать ML все больше и больше
❤1🔥1
Ребята изобрели оч классный метод атак, использующий генеративки: AI Package Hallucination , на который попадался и я, примерно месяц назад по своей глупости (хотя кажется без использования ллмок)
1) посмотрели на галлюцинации LLM, поняв как они ошибаются в названиях пакетов, пример на фото - такого пакета нет, что бы использовать huggingface-cli нужно установить huggingface-hub.
2) насоздавали кучу пакетов с именами, которые часто придумывает LLM
3) получили десятки тысяч скачиваний потенциально зловредных пакетов
1) посмотрели на галлюцинации LLM, поняв как они ошибаются в названиях пакетов, пример на фото - такого пакета нет, что бы использовать huggingface-cli нужно установить huggingface-hub.
2) насоздавали кучу пакетов с именами, которые часто придумывает LLM
3) получили десятки тысяч скачиваний потенциально зловредных пакетов
👍12😁3🤔3😢1
Очень классный митап от селектела, с сильным упором в генеративки, те кто в Питере советую сходить
Академия Selectel
Ежегодный митап MLOps и ML-инженеров - Академия Selectel
Инфраструктура для ML, сложности, тренды, инструменты построения production ML-систем. Оптимизация моделей и безопасность LLM.
❤6