Магия данных | Артур Сапрыкин – Telegram
Магия данных | Артур Сапрыкин
906 subscribers
329 photos
57 videos
9 files
316 links
Канал Артура Сапрыкина.
- Основатель и CEO Maglosya (@maglosya)
- Создаю со своей командой AI/ML-проекты
- Преподаватель, автор курсов
- Исследователь ML и AI.

Сайт: https://arthursaprykin.ru/

По вопросам сотрудничества пишите мне: @arthur_saprykin
Download Telegram
Тот случай, когда не нужно ничего усложнять
😁9👍1
Всем привет, друзья!

Кто из Екатеринбурга или собирается, буду рад видеть в первых числах февраля ☀️
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2👍1
Forwarded from PyCon Russia
Роботизированные обзвоны в бизнесе — обычная практика. Но если на том конце провода отвечает автоответчик, то зря тратится не только время, но и деньги. Предприниматель Артур Сапрыкин разобрался с тем, как научить робота за пару секунд распознавать автоответчик, что для этого нужно и какие математические методы приведут к успеху. И, самое главное, сколько это будет стоить.

Приходите на EkbPy послушать его доклад «Распознать за 3 секунды. Узнать автоответчик до тарификации».

Встречаемся в Екатеринбурге 2 февраля. Билеты и вся программа на сайте.
👍7
Forwarded from ProIT Fest
Не Промптом же единым!

За тем, что сегодня отрисовывает фантастические авы, составляет идеальное CV и оптимизирует систему тестирования, стоят тысячи R&D часов и люди, для которых наука - это основа всего!

Артур Сапрыкин, спикер прошлогоднего ProIT Fest, исследователь и разработчик в области искусственного интеллекта, предприниматель, автор и преподаватель курсов по машинному обучению, а также автор телеграм-канала Data Magic, в этот раз выступит в 3 секциях фестиваля.

10 февраля в секции HypeLoad Артур встретится с коллегами за круглым столом по теме с обновленным названием «Программирую на ChatGPT», где будут обсуждаться тренды в ИИ.

Также в субботу на секции Боль Артур будет рассуждать о “Боли фундаментальных знаний” и их значимости.

И, наконец - закрепление теории на практике! В субботней секции Help: Hard пройдёт мастер-класс Артура на тему «Модули языковых моделей. Делегирование задач на множество моделей». Артур расскажет, почему завязывать все решения на один только Промпт рисковано. А затем покажет, как можно улучшить результаты работы конечных решений, если разделить общий функционал на множество маленьких подзадач для независимых сессий языковых моделей.

Приходите учиться у лучших и оптимизируйте свою работу!
🔥4👍1
Питер, а через неделю после Екатеринбурга буду у вас 🙂

Приходите на фест, много различных направлений для обсуждения, не только ИИ.

И у меня есть скидка 20% по на билеты промокоду: SEEYOU
👍1
Давненько ничего не выкладывал, но наткнулся вчера на прекрасный репозиторий с графическим и ёмким объяснением различных протоколов, технологий, что, зачем и когда использовать.

Я считаю, что это клад, особенно когда прикидываешь архитектуру для проектов, а ясного понимания в спорных вопросах нет.

Просвещайтесь, пользуйтесь
🔥10👍4🤝1
В эту пятницу прошла конференция EkbPy 2024 (угадайте где? В Екатеринбурге :) )

Были чудесные доклады (среди них и мой про автоответчики), которые заставили мозг работать пока слушал.

Но на таких мероприятиях больше всего ценю общение и новые знакомства.

Организация очень порадовала.
Прекрасные и талантливые ребята вокруг.

Как минимум, приятно это осознавать.
Как максимум, возможно более тесное взаимодействие.

Для тех, кто ещё не оценил атмосферу конференций, рекомендую посетить хотя бы однажды и не стесняться общаться. Встретить единомышленников и даже инакомыслящих всегда приятно и интересно :)
Кроме того, кто-то потенциально сможет найти работу ;)

Фотки с самой конференции размещу, как только фотографы выложат всё.

Кто-нибудь смотрел конференцию онлайн?
И ещё вопрос, что не так с жетоном Екатеринбургского метро?
👍8🔥1
Прекраснейшая статья про информацию!

Автор просто огромный молодец.
Обязательна к прочтению всем тем, для кого работа с информацией - это профессия. Как максимум, всем!

Такая классная систематизация основ теории информации, что душа радуется, а мозг радостно накидывает новые идеи.
Вдохновляет.

Вообще, кто учился у меня знают, что у меня особое отношение к энтропии, как мере неопределенности. Интуитивно предпочтительный информационный критерий при построении деревьев решений.

Как вы понимаете, речь не только про машинное обучение.

В общем, читайте, просвещайтесь, кайфуйте
👍81
Когда нашел профессию по душе 😂
👍3😁3
Полезности тоже нужны
👍1
Forwarded from Data Secrets
Курс по обучению с подкреплением в робототехнике заказывали?

Подано: бесплатный курс от профессора Беркли Питера Аббиля в виде лекций на YouTube. Видео последовательно дают представление об RL и обозревают популярные архитектуры обучения роботов. Не просто полезно, но и довольно захватывающе. Советуем!
👍7🔥4
🤷‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🤣10😢2🤯1
Модель всем моделям модель.
Знакомьтесь, Large World Model. Разработали в институте Беркли.

Она мультимодальная. Может и текст сочинить, и картинку, и видео, и даже объяснить, что на видео происходит.

Базируется на RingAttention, и заявляет о себе, как о конкурентно способной с другими моделями.

Лично не пробовал, но интерес к ней пробужден.

Кто попробует, пишите в комментариях впечатления о своём опыте
🔥5👍31
Когда-то такая модель была очень нужна нашему проекту с оценкой глубины.
Особенно забавный тот факт, что буквально перед релизом этой модели мы сдали этот проект 🙂
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Depth Anything is now available

Monocular depth estimation is the task of estimating the depth value (distance relative to the camera) of each pixel given a single (monocular) RGB image.

Монокулярная оценка глубины - это задача определения значения глубины (расстояния относительно камеры) каждого пикселя по одному (монокулярному) RGB-изображению.

Depth Anything - это новая интересная модель от Университета Гонконга/TikTok, которая берет существующую архитектуру нейронной сети для монокулярной оценки глубины (а именно модель DPT с основой DINOv2) и увеличивает набор данных для обучения на ней.

Авторы разработтали "движок данных" для сбора и автоматического аннотирования масштабных немаркированных данных (~62 миллиона изображений), что значительно расширяет охват данных и позволяет снизить ошибку обобщения.

🖥 Code: https://github.com/NielsRogge/Transformers-Tutorials/blob/master/Depth%20Anything/Predicting_depth_in_an_image_with_Depth_Anything.ipynb

🚀 HF: https://huggingface.co/docs/transformers/v4.28.0/tasks/monocular_depth_estimation

📚 Paper: https://huggingface.co/papers/2401.10891

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥81👍1