Магия данных | Артур Сапрыкин – Telegram
Магия данных | Артур Сапрыкин
906 subscribers
329 photos
57 videos
9 files
316 links
Канал Артура Сапрыкина.
- Основатель и CEO Maglosya (@maglosya)
- Создаю со своей командой AI/ML-проекты
- Преподаватель, автор курсов
- Исследователь ML и AI.

Сайт: https://arthursaprykin.ru/

По вопросам сотрудничества пишите мне: @arthur_saprykin
Download Telegram
Ежегодный традиционный пост.
1 сентября - это не только День Знаний, но и мой день рождения! 🔥

Классный личный год завершился, и начинается новый, но что было в прошлом?

🦆 Родилась компания Маглося, которая уже работает, и создаёт классные ИИ-решения

🦆 Были и перешли на следующий год проекты. Очень активный год, и практически полностью себя погружал в них

🦆 От того публичной и образовательной активности было значительно меньше. Этот год более тихий, чем обычно, с точки зрения выступлений

🦆 Участвовал в соревнованиях по боксу. Победил 🏆 но всё же это занимает много здоровья. Классный опыт

🦆 Учусь танцевать танго. Недавно начал, но извлекаю массу полезного из этого

🦆 Впервые вылетел за пределы России. Произошел сдвиг в сознании. Очень понравилось, обогатился со всех сторон.

🦆 Компания начала разработку своего продукта. Потихоньку, но уверенным шагом двигаемся в направлении реализации.

Чего хочу на этот год?

Улучшить организацию во всех важных для меня направлениях, в том числе внутри команды.

Вернуться к публичности, что-то я соскучился по вам. Больше рассказывать о текущих кейсах, идеях и просто поговорить в уютной атмосфере.

Роста команды, новых людей, новые должности, более продуманная организация, ну и передать часть своих обязанностей на новых сотрудников

Увеличения дохода, конечно же, это всегда охота.

Ну и все свои «хочу» реализовать, это работа во всех сферах жизни, а я работе рад 🤗

Всё только начинается, алга!!!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14👏5
Согласен с озвученными тезисами. Уже не первый год придерживаюсь подобного видения.

Однако для решения прикладных задач, как раз подход близкий к LLM сейчас наиболее подходящий, так как общие знания о мире дают хорошую опору для частных задач, что хорошо сейчас показывает на практике.

Для сильного ИИ, как раз нужно обеспечить не только качественный универсальный алгоритм, но и достойную среду для обучения, где система сможет свою картину мира строить. Причем не просто «свою», а именно с высокой корреляцией привычного нам мира.
Forwarded from ASPI
очень крутой доклад, вот короткое саммори:

/ путь к сильному ИИ(AGI) лежит через reinforcement learning (RL), а не через неэкспериенциальные подходы вроде LLM. главная проблема — недостаточно хорошие алгоритмы обучения.

/ что на самом деле является основным батлнеком алгоритмы обучения работают плохо, чтобы научить модель новому навыку, нужны тысячи часов обучения, и очень много данных

дальше предлагант новый подход к построению алгоритмов OaK — comes from Options and Knowledge

/ архитектура не должна содержать специфических знаний о мире, быть максимально универсальной

/ агент должен учиться только из опыта в реальном времени, а не из специальной обучающей выборки

/ агент должен уметь создавать новые абстракции и концепции по мере необходимости, ограниченный только вычислительными ресурсами

/ концепция “Big World Hypothesis”. мир гораздо сложнее и больше, чем любой агент. агент не может знать всё заранее, поэтому обучение и планирование должны происходить в runtime. ​

ну и дальше много говорит про архитектурные элементы OaK, это супер интересно, особенно про формирование представления о текущем состоянии на основе сенсорных данных, но лучше сами зацените, тут таймкод.


=====

еще тут оставлю несколько пейперов по теме, вернусь к ним позже, так как я очарован идеями выше 😏
Reward is Enough — https://arxiv.org/abs/2107.12979
Settling the Reward Hypothesis — https://arxiv.org/abs/1908.06976
Please open Telegram to view this post
VIEW IN TELEGRAM
5
Участвовал в круглом столе на Duck in AI.

Интересно пообщались про применение и особенностей разработки мультиагентных систем.

Встретил знакомых, приятная встреча 😎
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31
Наконец-то годная статья подошла. Нравится идея с рекурсивной подачей, но ждём повтора эксперимента, но уже с бОльшим размером весов.

Чую, что после этого прорыва снова будут показывать, у кого больше "базука".
Хотя локальные энтузиасты придумают неочевидное применение этого подхода.

В общем, давайте экспериментировать 🙂
Forwarded from Data Secrets
Крошечная модель на 7 миллионов параметров превзошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini на ARG-AGI 1 и ARC-AGI 2

Сегодня разбираем самую громкую статью последних дней: "Less is More: Recursive Reasoning with Tiny Networks" от Samsung. В работе, кстати, всего один автор (большая редкость, особенно для корпоративных исследований).

Итак, главный вопрос: как это вообще возможно, чтобы модель в 10 000 раз меньше была настолько умнее?

Ответ: рекурсия. Модель (Tiny Recursive Model, TRM) многократко думает над своим ответом, пересматривает его и исправляет, прежде чем выдать окончательное решение. Выглядит процесс примерно так:

1. Модель получает условия задачки и сразу генерирует какой-то грубый набросок решения. Он не обязательно должен быть правильным, это просто быстрая догадка.

2. Дальше система создает "мысленный блокнот" – scratchpad. Туда она записывает всё, что думает о задаче и своём черновике: где ошибки, что можно улучшить, как проверить гипотезу. При этом важно понимать, что scratchpad – это не поток токенов, как в обычном ризонинге. Это внутреннее скрытое состояние, то есть матрица или вектор, который постепенно обновляется. Другими словами, TRM умеет думает молча.

3. Модель в несколько проходов обновляет это внутреннее состояние, каждый раз сверяясь с (а) задачей и (б) исходным наброском. Она как бы думает: согласуется ли текущий черновик с условием, где противоречия, что улучшить. После N-ого количества итераций модель переписывает исходный черновик, опираясь на свой сформированный scratchpad. Но это не все. Этот процесс (сначала подумай → потом исправь) повторяется несколько раз. И вот только после этого мы получаем финальный ответ.

Результаты, конечно, поражают. Метрики на ARC-AGI-1 / ARC-AGI-2 – 44.6% / 7.8%. Для сравнения, у o3-mini-high – 34.5% / 3.0%. Также модель отлично решает судоку и лабиринты.

Единственная честная оговорка: это не языковая модель, она предназначена только для алгоритмов и текстом отвечать не умеет. Тем не менее, идея блестящая. Много раз пройтись одной и той же крохотной сеткой по scratchpad – это буквально как эмулировать глубину большой модели без большой модели. Отличный пример алгоритмического преимущества.

Крайне советуем почитать статью полностью тут. К слову, они там много ссылаются на августовскую работу про Hierarchical Reasoning Model (HRM). Если захотите освежить память по этому исследованию, то вот тут – наш разбор.
👍85🔥4
На мой взгляд потрясающее объяснение МЛ.
Теперь доступно и школьникам начальных классов 🫡
Forwarded from Denis Sexy IT 🤖
Наткнулся на клевый промпт для Sora 2, который делает видео утренников на разные темы – умилительно же:

Тема выступления:
"Как работают трансформеры в языковых моделях"

Локация:
Пост-советская школа

– Качество видео как будто снято на слегка пиксельную камеру 90-х, школьный спектакль в день выступления
– Группа детей в костюмах на тематику разговаривает друг с другом
– Дети показывают сценку и читают слова на тему, будто в школе рассказывая тематику
– Аудитория поддерживающих родителей тихо ахает, и одна из мам в зале шепчет себе под нос что-то на тему выступления
4🔥2😁2🤩1
Приходите в следующий четверг :)
Forwarded from REU Data Science Club
Всем привет! 👋🏻
Приглашаем вас на лекцию по теме: "Архитектура ML. Проще-лучше. Идём от обратного"

С технологиями машинного обучения чаще всего связан какой-то большой объем данных и вычислительные нагрузки. Особенно в последнее время, обращая внимание на архитектуру трансформер. А всегда ли так нужно? Можно ли сложные задачи решить просто, элегантно и на слабых устройствах? Об этом и поговорим, рассмотрим.

🗣️ Спикер: Артур Сапрыкин
🎯 Основатель и CEO Maglosya ([club228654879|@maglosya])
🎯 Преподаватель, автор курсов
🎯 Исследователь ML и AI.

🗓️ Когда?
23 октября (четверг), 19:30

📍Где?
Аудитория будет указана в комментариях

🔗Ссылка на регистрацию:
👉🏻 https://forms.gle/daoFZzYrXfe4asiB9

❗️Внимание! Для гостей НЕ из РЭУ регистрация закрывается 21 октября в 23:59❗️

С нами вы поставите модели даже на чайник! С нетерпением ждём вас на лекции 💫

#DSC_events
4
А вот и фото с видео по лекции из Плехи :)