Магия данных | Артур Сапрыкин – Telegram
Магия данных | Артур Сапрыкин
906 subscribers
329 photos
57 videos
9 files
316 links
Канал Артура Сапрыкина.
- Основатель и CEO Maglosya (@maglosya)
- Создаю со своей командой AI/ML-проекты
- Преподаватель, автор курсов
- Исследователь ML и AI.

Сайт: https://arthursaprykin.ru/

По вопросам сотрудничества пишите мне: @arthur_saprykin
Download Telegram
Полезности тоже нужны
👍1
Forwarded from Data Secrets
Курс по обучению с подкреплением в робототехнике заказывали?

Подано: бесплатный курс от профессора Беркли Питера Аббиля в виде лекций на YouTube. Видео последовательно дают представление об RL и обозревают популярные архитектуры обучения роботов. Не просто полезно, но и довольно захватывающе. Советуем!
👍7🔥4
🤷‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15🤣10😢2🤯1
Модель всем моделям модель.
Знакомьтесь, Large World Model. Разработали в институте Беркли.

Она мультимодальная. Может и текст сочинить, и картинку, и видео, и даже объяснить, что на видео происходит.

Базируется на RingAttention, и заявляет о себе, как о конкурентно способной с другими моделями.

Лично не пробовал, но интерес к ней пробужден.

Кто попробует, пишите в комментариях впечатления о своём опыте
🔥5👍31
Когда-то такая модель была очень нужна нашему проекту с оценкой глубины.
Особенно забавный тот факт, что буквально перед релизом этой модели мы сдали этот проект 🙂
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Depth Anything is now available

Monocular depth estimation is the task of estimating the depth value (distance relative to the camera) of each pixel given a single (monocular) RGB image.

Монокулярная оценка глубины - это задача определения значения глубины (расстояния относительно камеры) каждого пикселя по одному (монокулярному) RGB-изображению.

Depth Anything - это новая интересная модель от Университета Гонконга/TikTok, которая берет существующую архитектуру нейронной сети для монокулярной оценки глубины (а именно модель DPT с основой DINOv2) и увеличивает набор данных для обучения на ней.

Авторы разработтали "движок данных" для сбора и автоматического аннотирования масштабных немаркированных данных (~62 миллиона изображений), что значительно расширяет охват данных и позволяет снизить ошибку обобщения.

🖥 Code: https://github.com/NielsRogge/Transformers-Tutorials/blob/master/Depth%20Anything/Predicting_depth_in_an_image_with_Depth_Anything.ipynb

🚀 HF: https://huggingface.co/docs/transformers/v4.28.0/tasks/monocular_depth_estimation

📚 Paper: https://huggingface.co/papers/2401.10891

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥81👍1
Девочки, девушки, женщины!

Поздравляю вас с женским днём!

Оставайтесь такими же привлекательными, яркими, женственными и интеллектуальными (тут других нет 🤷🏼‍♂️).

А вообще, будьте собой, и если вышеперечисленное не про вас, живите по своему. Вам можно ❤️
🔥75🤣4👍2👎2
Посетил выставку Россия, и в рамках «Дня ИИ» во многих регионах были показаны системы, которые используются или были разработаны.

Достаточно полезно было пообщаться с разработчиками и их представителями. Понимаю, что некоторые продукты прошли просто мимо меня, и немало полезных продуктов уже применяется в стране.

Радуюсь, действительно классно. Очередное подтверждение того, что такие системы в стране реально востребованы.
👍4🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Очень смешная и грустная история 😬
😁14
Старая, но очень полезная статья про то, как устроен Метод имитации отжига.

На всякий случай уточню, что это не пятничная тусовка 30+, а метод оптимизации.
Обычно говорят про градиентный спуск, и его модификации, но не только им можно и нужно пользоваться.

Всем мира!
😁3🔥2
Сейчас провёл занятие студентам, и было обсуждение того, что автопилот на автомобилях будет хорош тогда, когда все автомобили будут на автопилотах.

И тут я вспомнил рассказ Стивена Кинга "Грузовики", где автомобили без водителей специально давили людей насмерть (какая-то странная мания была).

Так вот, друзья.
Если среди вас есть мнительные насчёт ИИ, то +1 вам в копилку фобий 😁
👍1😁1
Ребята, надеюсь у вас и ваших близких всё в порядке.

Постарайтесь держаться подальше от новостных источников. Ничего толкового вам это не принесет.

Берегите себя! 🙏🏼
🙏17👍9
Что-то отсняли для высшего образования. Результат будет позже ;)
🔥9👍3
Ребята!

Вышел тот самый курс по основам нейронных сетей, что я разрабатывал в прошлом году!

Достаточно сил приложил для того, чтобы уделить внимание тому, КАК работают нейронки, ЧТО у них внутри, и описал основные процессы и проблемы лежащие в них.

Много практики, рассмотрен контекст применения нейронных сетей для решения различных прикладных задач.

От полносвязных сетей до трансформеров!

В общем, отличная база в нейронках от меня. Буду рад увидеть на курсе!
Первый поток точно я курирую, поэтому общение будет со мной 😉

Если решили приобрести и учиться, то заходите сюда!
🔥6👍3
Без лишних слов - вперед читать!
👍1
Forwarded from Data Secrets
Ян Лекун провел большую лекцию в Гарварде (завидуем, да). Она называлась «Объектно-ориентированный ИИ: на пути к системам, которые могут учиться, запоминать, рассуждать и планировать»

Записи пока нет, но есть довольно подробные слайды. Лежат вот тут. Нужно оценить в первую очередь название слайда под номером один. «ML sucks» – дословно гласит он… Что ж, всем известно, что Лекун умеет выдавать базу.

Вообще слайдов аж 97 штук (прямо небольшая такая книга). Охватывают риски, тренды, свежие архитектуры моделей. Читаются легко, хорошо рисуют общую картину лекции.

Идеально для общего развития и насмотренности.
🔥10👍5