Специальная годнота для вас. Сам был на этом фесте неоднократно. Нетворкинг 🔥
И специально для вас промокод от меня в сообщении 👇
И специально для вас промокод от меня в сообщении 👇
Forwarded from Андрей Путинцев
🚀 ProIT Fest V — главное IT-событие этого лета в Петербурге! 5-6 июля!
Это не просто конференция, а фестиваль, где IT-профи создают контент вместе: баттлы, игровые форматы, мастер-классы, споры, живые дискуссии и даже стендапы!
‼️ Для кого?
Developer, Front, QA, PM, Product, Analyst, UX, HR, CTO, CMO — все, кто живёт в IT, от Middle до C-Level.
✅ В программе:
150+ спикеров, 8 потоков, 1000+ участников и полное стирание границ между сценой и залом. Топовые спикеры:
➖Максим Дорофеев, ex. Руководитель разработки "Лаборатория Касперского"
➖Виктор Корейша, Managed Services в Ozon
➖Александр Крылов, CPO Штурвал
➖Андрей Смирнов, автор Weekend Talk
➖Екатерина Герт, Positive Technology, Руководитель группы Аналитиков
➖Роман Поборчий, тренер по публичным выступлениям
➖Алексей Пименов, основатель Neogenda
➖Надежда Панчурина — вице-президент МТС банка
➖Евгений Антонов — ведущий технический менеджер проектов Yandex
Полную программу смотрите на сайте.
⬇️ Уникальные секции:
Fight — баттлы и IT-суды
Oops — фейлы и выводы
Mentoring — живые ответы от менторов
Help — честно о выгорании и росте
Network — быстрые знакомства и полезные связи
C-Level — закрытая зона для топов
Standup, Game, English — легкость, юмор, практика
Hard — технологии в FinTech, Ecom, TravelTech, HR, AdTech и др.
Здесь рождается IT-комьюнити, где онлайн-друзья встречаются оффлайн, спорят, обнимаются и уходят с новыми идеями.
PRO IT Fest V
5–6 июля
Санкт-Петербург, пр. Медиков, 3, корп. 5
Конгресс-центр «Ленполиграфмаш»
Билеты
Наш телеграмм канал, где мы рассказываем о фестивале.
Промокод на скидку до -20% - datamagic
Это не просто конференция, а фестиваль, где IT-профи создают контент вместе: баттлы, игровые форматы, мастер-классы, споры, живые дискуссии и даже стендапы!
Developer, Front, QA, PM, Product, Analyst, UX, HR, CTO, CMO — все, кто живёт в IT, от Middle до C-Level.
150+ спикеров, 8 потоков, 1000+ участников и полное стирание границ между сценой и залом. Топовые спикеры:
➖Максим Дорофеев, ex. Руководитель разработки "Лаборатория Касперского"
➖Виктор Корейша, Managed Services в Ozon
➖Александр Крылов, CPO Штурвал
➖Андрей Смирнов, автор Weekend Talk
➖Екатерина Герт, Positive Technology, Руководитель группы Аналитиков
➖Роман Поборчий, тренер по публичным выступлениям
➖Алексей Пименов, основатель Neogenda
➖Надежда Панчурина — вице-президент МТС банка
➖Евгений Антонов — ведущий технический менеджер проектов Yandex
Полную программу смотрите на сайте.
Fight — баттлы и IT-суды
Oops — фейлы и выводы
Mentoring — живые ответы от менторов
Help — честно о выгорании и росте
Network — быстрые знакомства и полезные связи
C-Level — закрытая зона для топов
Standup, Game, English — легкость, юмор, практика
Hard — технологии в FinTech, Ecom, TravelTech, HR, AdTech и др.
Здесь рождается IT-комьюнити, где онлайн-друзья встречаются оффлайн, спорят, обнимаются и уходят с новыми идеями.
PRO IT Fest V
5–6 июля
Санкт-Петербург, пр. Медиков, 3, корп. 5
Конгресс-центр «Ленполиграфмаш»
Билеты
Наш телеграмм канал, где мы рассказываем о фестивале.
Промокод на скидку до -20% - datamagic
Please open Telegram to view this post
VIEW IN TELEGRAM
🤩3
А вот и я, а вот статья!
Если вдруг волнует вопрос, а как дообучать модели для формирования эмбеддингов текста, то обязательно изучите. Мне содержание понравилось.
Как многие из местных знают, для построения качественной RAG-системы, нужны хорошие эмбеддинги документов.
И иногда устраиваешь «финт ушами», чтобы это работало хорошо и качественно, если речь идёт о сложных по своему содержанию документов.
Конечно, дообучение эмбеддингов не панацея, но возможно поможет решить конкретно вашу задачу.
Если вдруг волнует вопрос, а как дообучать модели для формирования эмбеддингов текста, то обязательно изучите. Мне содержание понравилось.
Как многие из местных знают, для построения качественной RAG-системы, нужны хорошие эмбеддинги документов.
И иногда устраиваешь «финт ушами», чтобы это работало хорошо и качественно, если речь идёт о сложных по своему содержанию документов.
Конечно, дообучение эмбеддингов не панацея, но возможно поможет решить конкретно вашу задачу.
Хабр
RAG: Дообучение модели эмбеддингов для повышения точности поиска
Привет, Хабр! Меня зовут Саприн Семён. Я занимаюсь анализом данных и машинным обучением в компании ПГК Диджитал. Сегодня мы продолжаем серию статей , в которой я рассказываю о том, как мы с командой...
👍3❤2
Всем привет!
Подарили ещё промокод для вас.
Кому интересно увидеть, как робот решать задачи, связанные с инвестициями - велком!
На мероприятии сможете опровергнуть или подтвердить свои догадки по поводу того, насколько хорошо бот может решать подобные задачи.
Для себя я бы послушал про инвестиционные тренды ☺️
Подарили ещё промокод для вас.
Кому интересно увидеть, как робот решать задачи, связанные с инвестициями - велком!
На мероприятии сможете опровергнуть или подтвердить свои догадки по поводу того, насколько хорошо бот может решать подобные задачи.
Для себя я бы послушал про инвестиционные тренды ☺️
Человек против Искусственного Интеллекта 🤖
Исторический момент — впервые в России! Marvin AI — Цифровой инвестор нового поколения, собранный на основе:
🧠 Больших массивов рыночных данных
📚 Инвесторской логики Баффета, Далио, Тиля и Андрессена
📊 Машинного анализа, краудинвестинга, IPO, токенсейлов и M&A
Marvin обучен на LLM-модели нового поколения, доработанной для:
🤖 Прогнозирования рыночных трендов,
🤖 Оценки стартапов,
🤖 Риск-менеджмента и составления сбалансированных инвестиционных портфелей.
Марвин выйдет в финале против человеческого победителя предыдущих раундов, чтобы ответить на вопрос:
«Кто эффективнее управляет капиталом — человек или алгоритм?»
Что будет еще?
В раундах участвуют представители разных сфер инвестиций: крипта, акции, франчайзинг, искусство, недвижимость, облигации, личный бренд
5 питчей перспективных компаний
Все это + шикарный нетворкинг со 100 гостями-инвесторами на INVEST BATTLE 2.0
🗓 25 июня
🕒 15:00–20:00
📍 Москва, Особняк инвестора, Энгельса 64
Для моих подписчиков скидка 10% по промокодуSaprykin Количество мест ограничено, регистрируйтесь по ссылке
Исторический момент — впервые в России! Marvin AI — Цифровой инвестор нового поколения, собранный на основе:
🧠 Больших массивов рыночных данных
📚 Инвесторской логики Баффета, Далио, Тиля и Андрессена
📊 Машинного анализа, краудинвестинга, IPO, токенсейлов и M&A
Marvin обучен на LLM-модели нового поколения, доработанной для:
🤖 Прогнозирования рыночных трендов,
🤖 Оценки стартапов,
🤖 Риск-менеджмента и составления сбалансированных инвестиционных портфелей.
Марвин выйдет в финале против человеческого победителя предыдущих раундов, чтобы ответить на вопрос:
«Кто эффективнее управляет капиталом — человек или алгоритм?»
Что будет еще?
В раундах участвуют представители разных сфер инвестиций: крипта, акции, франчайзинг, искусство, недвижимость, облигации, личный бренд
5 питчей перспективных компаний
Все это + шикарный нетворкинг со 100 гостями-инвесторами на INVEST BATTLE 2.0
🗓 25 июня
🕒 15:00–20:00
📍 Москва, Особняк инвестора, Энгельса 64
Для моих подписчиков скидка 10% по промокоду
1❤2👍2🔥2
Ты мне скажешь IT, а я тебе отвечу «а ты» (с) цитаты великих людей
❤6🔥4
Ежегодный традиционный пост.
1 сентября - это не только День Знаний, но и мой день рождения!🔥
Классный личный год завершился, и начинается новый, но что было в прошлом?
🦆 Родилась компания Маглося, которая уже работает, и создаёт классные ИИ-решения
🦆 Были и перешли на следующий год проекты. Очень активный год, и практически полностью себя погружал в них
🦆 От того публичной и образовательной активности было значительно меньше. Этот год более тихий, чем обычно, с точки зрения выступлений
🦆 Участвовал в соревнованиях по боксу. Победил 🏆 но всё же это занимает много здоровья. Классный опыт
🦆 Учусь танцевать танго. Недавно начал, но извлекаю массу полезного из этого
🦆 Впервые вылетел за пределы России. Произошел сдвиг в сознании. Очень понравилось, обогатился со всех сторон.
🦆 Компания начала разработку своего продукта. Потихоньку, но уверенным шагом двигаемся в направлении реализации.
Чего хочу на этот год?
Улучшить организацию во всех важных для меня направлениях, в том числе внутри команды.
Вернуться к публичности, что-то я соскучился по вам. Больше рассказывать о текущих кейсах, идеях и просто поговорить в уютной атмосфере.
Роста команды, новых людей, новые должности, более продуманная организация, ну и передать часть своих обязанностей на новых сотрудников
Увеличения дохода, конечно же, это всегда охота.
Ну и все свои «хочу» реализовать, это работа во всех сферах жизни, а я работе рад🤗
Всё только начинается, алга!!!
1 сентября - это не только День Знаний, но и мой день рождения!
Классный личный год завершился, и начинается новый, но что было в прошлом?
Чего хочу на этот год?
Улучшить организацию во всех важных для меня направлениях, в том числе внутри команды.
Вернуться к публичности, что-то я соскучился по вам. Больше рассказывать о текущих кейсах, идеях и просто поговорить в уютной атмосфере.
Роста команды, новых людей, новые должности, более продуманная организация, ну и передать часть своих обязанностей на новых сотрудников
Увеличения дохода, конечно же, это всегда охота.
Ну и все свои «хочу» реализовать, это работа во всех сферах жизни, а я работе рад
Всё только начинается, алга!!!
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥14👏5
Согласен с озвученными тезисами. Уже не первый год придерживаюсь подобного видения.
Однако для решения прикладных задач, как раз подход близкий к LLM сейчас наиболее подходящий, так как общие знания о мире дают хорошую опору для частных задач, что хорошо сейчас показывает на практике.
Для сильного ИИ, как раз нужно обеспечить не только качественный универсальный алгоритм, но и достойную среду для обучения, где система сможет свою картину мира строить. Причем не просто «свою», а именно с высокой корреляцией привычного нам мира.
Однако для решения прикладных задач, как раз подход близкий к LLM сейчас наиболее подходящий, так как общие знания о мире дают хорошую опору для частных задач, что хорошо сейчас показывает на практике.
Для сильного ИИ, как раз нужно обеспечить не только качественный универсальный алгоритм, но и достойную среду для обучения, где система сможет свою картину мира строить. Причем не просто «свою», а именно с высокой корреляцией привычного нам мира.
Forwarded from ASPI
очень крутой доклад, вот короткое саммори:
/ путь к сильному ИИ(AGI) лежит через reinforcement learning (RL), а не через неэкспериенциальные подходы вроде LLM. главная проблема — недостаточно хорошие алгоритмы обучения.
/ что на самом деле является основным батлнеком алгоритмы обучения работают плохо, чтобы научить модель новому навыку, нужны тысячи часов обучения, и очень много данных
дальше предлагант новый подход к построению алгоритмов OaK — comes from Options and Knowledge
/ архитектура не должна содержать специфических знаний о мире, быть максимально универсальной
/ агент должен учиться только из опыта в реальном времени, а не из специальной обучающей выборки
/ агент должен уметь создавать новые абстракции и концепции по мере необходимости, ограниченный только вычислительными ресурсами
/ концепция “Big World Hypothesis”. мир гораздо сложнее и больше, чем любой агент. агент не может знать всё заранее, поэтому обучение и планирование должны происходить в runtime.
ну и дальше много говорит про архитектурные элементы OaK, это супер интересно, особенно про формирование представления о текущем состоянии на основе сенсорных данных, но лучше сами зацените, тут таймкод.
=====
еще тут оставлю несколько пейперов по теме, вернусь к ним позже, так как я очарован идеями выше😏
Reward is Enough — https://arxiv.org/abs/2107.12979
Settling the Reward Hypothesis — https://arxiv.org/abs/1908.06976
/ путь к сильному ИИ(AGI) лежит через reinforcement learning (RL), а не через неэкспериенциальные подходы вроде LLM. главная проблема — недостаточно хорошие алгоритмы обучения.
/ что на самом деле является основным батлнеком алгоритмы обучения работают плохо, чтобы научить модель новому навыку, нужны тысячи часов обучения, и очень много данных
дальше предлагант новый подход к построению алгоритмов OaK — comes from Options and Knowledge
/ архитектура не должна содержать специфических знаний о мире, быть максимально универсальной
/ агент должен учиться только из опыта в реальном времени, а не из специальной обучающей выборки
/ агент должен уметь создавать новые абстракции и концепции по мере необходимости, ограниченный только вычислительными ресурсами
/ концепция “Big World Hypothesis”. мир гораздо сложнее и больше, чем любой агент. агент не может знать всё заранее, поэтому обучение и планирование должны происходить в runtime.
ну и дальше много говорит про архитектурные элементы OaK, это супер интересно, особенно про формирование представления о текущем состоянии на основе сенсорных данных, но лучше сами зацените, тут таймкод.
=====
еще тут оставлю несколько пейперов по теме, вернусь к ним позже, так как я очарован идеями выше
Reward is Enough — https://arxiv.org/abs/2107.12979
Settling the Reward Hypothesis — https://arxiv.org/abs/1908.06976
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Rich Sutton, The OaK Architecture: A Vision of SuperIntelligence from Experience - RLC 2025
As AI has become a huge industry, to a large extent it has lost its way. What is needed to get us back on track to true intelligence? We need agents that learn continually. We need world models and planning. We need knowledge that is high-level and learnable.…
❤5
Участвовал в круглом столе на Duck in AI.
Интересно пообщались про применение и особенностей разработки мультиагентных систем.
Встретил знакомых, приятная встреча😎
Интересно пообщались про применение и особенностей разработки мультиагентных систем.
Встретил знакомых, приятная встреча
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤1
Наконец-то годная статья подошла. Нравится идея с рекурсивной подачей, но ждём повтора эксперимента, но уже с бОльшим размером весов.
Чую, что после этого прорыва снова будут показывать, у кого больше "базука".
Хотя локальные энтузиасты придумают неочевидное применение этого подхода.
В общем, давайте экспериментировать 🙂
Чую, что после этого прорыва снова будут показывать, у кого больше "базука".
Хотя локальные энтузиасты придумают неочевидное применение этого подхода.
В общем, давайте экспериментировать 🙂
Forwarded from Data Secrets
Крошечная модель на 7 миллионов параметров превзошла DeepSeek-R1, Gemini 2.5 Pro и o3-mini на ARG-AGI 1 и ARC-AGI 2
Сегодня разбираем самую громкую статью последних дней: "Less is More: Recursive Reasoning with Tiny Networks" от Samsung. В работе, кстати, всего один автор (большая редкость, особенно для корпоративных исследований).
Итак, главный вопрос: как это вообще возможно, чтобы модель в 10 000 раз меньше была настолько умнее?
Ответ: рекурсия. Модель (Tiny Recursive Model, TRM) многократко думает над своим ответом, пересматривает его и исправляет, прежде чем выдать окончательное решение. Выглядит процесс примерно так:
1. Модель получает условия задачки и сразу генерирует какой-то грубый набросок решения. Он не обязательно должен быть правильным, это просто быстрая догадка.
2. Дальше система создает "мысленный блокнот" – scratchpad. Туда она записывает всё, что думает о задаче и своём черновике: где ошибки, что можно улучшить, как проверить гипотезу. При этом важно понимать, что scratchpad – это не поток токенов, как в обычном ризонинге. Это внутреннее скрытое состояние, то есть матрица или вектор, который постепенно обновляется. Другими словами, TRM умеет думает молча.
3. Модель в несколько проходов обновляет это внутреннее состояние, каждый раз сверяясь с (а) задачей и (б) исходным наброском. Она как бы думает: согласуется ли текущий черновик с условием, где противоречия, что улучшить. После N-ого количества итераций модель переписывает исходный черновик, опираясь на свой сформированный scratchpad. Но это не все. Этот процесс (сначала подумай → потом исправь) повторяется несколько раз. И вот только после этого мы получаем финальный ответ.
Результаты, конечно, поражают. Метрики на ARC-AGI-1 / ARC-AGI-2 – 44.6% / 7.8%. Для сравнения, у o3-mini-high – 34.5% / 3.0%. Также модель отлично решает судоку и лабиринты.
Единственная честная оговорка: это не языковая модель, она предназначена только для алгоритмов и текстом отвечать не умеет. Тем не менее, идея блестящая. Много раз пройтись одной и той же крохотной сеткой по scratchpad – это буквально как эмулировать глубину большой модели без большой модели. Отличный пример алгоритмического преимущества.
Крайне советуем почитать статью полностью тут. К слову, они там много ссылаются на августовскую работу про Hierarchical Reasoning Model (HRM). Если захотите освежить память по этому исследованию, то вот тут – наш разбор.
Сегодня разбираем самую громкую статью последних дней: "Less is More: Recursive Reasoning with Tiny Networks" от Samsung. В работе, кстати, всего один автор (большая редкость, особенно для корпоративных исследований).
Итак, главный вопрос: как это вообще возможно, чтобы модель в 10 000 раз меньше была настолько умнее?
Ответ: рекурсия. Модель (Tiny Recursive Model, TRM) многократко думает над своим ответом, пересматривает его и исправляет, прежде чем выдать окончательное решение. Выглядит процесс примерно так:
1. Модель получает условия задачки и сразу генерирует какой-то грубый набросок решения. Он не обязательно должен быть правильным, это просто быстрая догадка.
2. Дальше система создает "мысленный блокнот" – scratchpad. Туда она записывает всё, что думает о задаче и своём черновике: где ошибки, что можно улучшить, как проверить гипотезу. При этом важно понимать, что scratchpad – это не поток токенов, как в обычном ризонинге. Это внутреннее скрытое состояние, то есть матрица или вектор, который постепенно обновляется. Другими словами, TRM умеет думает молча.
3. Модель в несколько проходов обновляет это внутреннее состояние, каждый раз сверяясь с (а) задачей и (б) исходным наброском. Она как бы думает: согласуется ли текущий черновик с условием, где противоречия, что улучшить. После N-ого количества итераций модель переписывает исходный черновик, опираясь на свой сформированный scratchpad. Но это не все. Этот процесс (сначала подумай → потом исправь) повторяется несколько раз. И вот только после этого мы получаем финальный ответ.
Результаты, конечно, поражают. Метрики на ARC-AGI-1 / ARC-AGI-2 – 44.6% / 7.8%. Для сравнения, у o3-mini-high – 34.5% / 3.0%. Также модель отлично решает судоку и лабиринты.
Единственная честная оговорка: это не языковая модель, она предназначена только для алгоритмов и текстом отвечать не умеет. Тем не менее, идея блестящая. Много раз пройтись одной и той же крохотной сеткой по scratchpad – это буквально как эмулировать глубину большой модели без большой модели. Отличный пример алгоритмического преимущества.
Крайне советуем почитать статью полностью тут. К слову, они там много ссылаются на августовскую работу про Hierarchical Reasoning Model (HRM). Если захотите освежить память по этому исследованию, то вот тут – наш разбор.
👍8❤5🔥4
На мой взгляд потрясающее объяснение МЛ.
Теперь доступно и школьникам начальных классов 🫡
Теперь доступно и школьникам начальных классов 🫡
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Наткнулся на клевый промпт для Sora 2, который делает видео утренников на разные темы – умилительно же:
Тема выступления:
"Как работают трансформеры в языковых моделях"
Локация:
Пост-советская школа
– Качество видео как будто снято на слегка пиксельную камеру 90-х, школьный спектакль в день выступления
– Группа детей в костюмах на тематику разговаривает друг с другом
– Дети показывают сценку и читают слова на тему, будто в школе рассказывая тематику
– Аудитория поддерживающих родителей тихо ахает, и одна из мам в зале шепчет себе под нос что-то на тему выступления
❤4🔥2😁2🤩1