Спасибо всем участникам! Сегодня было много отзывов и приятных слов в адрес события. Вот некоторые из них:
✅ «Встретила очень много интересных контактов, с которыми удалось обсудить интересные темы и потенциальное сотрудничество. Спикеры и их темы также прекрасны, особенно порадовал АI мейнстрим. Здорово, что можно узнать как развивается финтех в этом направлении в России из уст первых лиц компаний» - Яна Грачева, тимлид РБ Диджитал.
✅ «Особый интерес вызвала лекция, посвященная государственному сектору – «Национальные проекты технологического лидерства». Это направление оказалось крайне вдохновляющим и перспективным. Уверен, что последующие части мероприятия будут не менее содержательными и продуктивными. Спасибо за профессионализм и качественную организацию!» - Владислав Майоров, менеджер проектов компании WiseAdvice-it
✅ «Форум категорически полезный. Очень нравится, что спикеры разные: разный бизнес, опыт, фокусы. Очень интересно слушать панельные дискуссии. Спикеры опытные, круто, что дискуссии не только про обмен мнениями, но иногда, даже, профессиональные споры» - Дария Шелл, эксперт Big Data&AI, билайн
✅ «Площадка супер, очень удобно, вмещает большое количество людей. Спасибо за новые знакомства и такое мероприятие для партнерства и нетворкинга!», - Виталина Рукина, руководитель направления сервисов DaaS, билайн
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1
Вчера мы сообщали, что разыграем одну из картин с арт-зоны среди 28 компаний, которые приобрели командные билеты на форум.
⚡️ Итак, кому же досталась картина Натальи Аразовой «Море наше лучшее вино»?
Победителем стала команда банка ДОМ.РФ (её представитель — на первом фото).
Также среди участников форума были разыграны ценные подарки от генерального партнёра мероприятия — компании DECO Systems, в т.ч. акустическая колонка Marshall и наушники Marshall класса high-end для истинных ценителей качественного звучания.
Поздравляем победителей и еще раз благодарим всех участников за яркие эмоции и отличную атмосферу!
Победителем стала команда банка ДОМ.РФ (её представитель — на первом фото).
Также среди участников форума были разыграны ценные подарки от генерального партнёра мероприятия — компании DECO Systems, в т.ч. акустическая колонка Marshall и наушники Marshall класса high-end для истинных ценителей качественного звучания.
Поздравляем победителей и еще раз благодарим всех участников за яркие эмоции и отличную атмосферу!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6
Готов пострелиз Форума, в котором мы подсветили интересные цитаты из выступлений и некоторые ключевые моменты дискуссий.
Полный текст доступен по ссылке
"В этом году Fintech Data Day собрал более 700 участников — это абсолютный рекорд за четырехлетнюю историю проведения форума. Мы гордимся тем, что наше событие становится все более востребованным и масштабным, объединяя ведущих профессионалов в области данных.
Подготовка к пятому юбилейному форуму уже началась — планируем значительно увеличить масштаб мероприятия и сделать его еще более ярким, полезным и продуктивным", — сообщила Евгения Якунина, генеральный директор компании «Регламент», организатора форума Fintech Data Day.
"Проведенный форум стал важной вехой в обсуждении роли данных и искусственного интеллекта в современном финтехе. Мы убедились, что данные — это не просто сырье для аналитики, а основа для принятия стратегических решений, и AI — уже не экспериментальный инструмент, а ключевой драйвер эффективности и инноваций.
Главный вывод форума: технологии развиваются стремительно, и те, кто научится эффективно управлять данными и интегрировать AI в бизнес-процессы, окажутся в авангарде финансового рынка. Настроение участников можно охарактеризовать как “вдохновленную уверенность” — уверенность в возможностях технологий и вдохновение от реальных примеров их применения", — отметил Александр Толмачев, генеральный продюсер форума, эксперт по созданию высоконагруженных дата-решений в финтех-индустрии.
Пострелиз тут 👉 Качество данных как фундамент бизнеса банка: на Fintech Data Day эксперты обсудили стратегии и вызовы работы с данными
Полный текст доступен по ссылке
"В этом году Fintech Data Day собрал более 700 участников — это абсолютный рекорд за четырехлетнюю историю проведения форума. Мы гордимся тем, что наше событие становится все более востребованным и масштабным, объединяя ведущих профессионалов в области данных.
Подготовка к пятому юбилейному форуму уже началась — планируем значительно увеличить масштаб мероприятия и сделать его еще более ярким, полезным и продуктивным", — сообщила Евгения Якунина, генеральный директор компании «Регламент», организатора форума Fintech Data Day.
"Проведенный форум стал важной вехой в обсуждении роли данных и искусственного интеллекта в современном финтехе. Мы убедились, что данные — это не просто сырье для аналитики, а основа для принятия стратегических решений, и AI — уже не экспериментальный инструмент, а ключевой драйвер эффективности и инноваций.
Главный вывод форума: технологии развиваются стремительно, и те, кто научится эффективно управлять данными и интегрировать AI в бизнес-процессы, окажутся в авангарде финансового рынка. Настроение участников можно охарактеризовать как “вдохновленную уверенность” — уверенность в возможностях технологий и вдохновение от реальных примеров их применения", — отметил Александр Толмачев, генеральный продюсер форума, эксперт по созданию высоконагруженных дата-решений в финтех-индустрии.
Пострелиз тут 👉 Качество данных как фундамент бизнеса банка: на Fintech Data Day эксперты обсудили стратегии и вызовы работы с данными
👍5💯1
❓Как принять участие?
Всё просто! Присылайте вопросы для съемок подкаста «Гражданин ФИНТЕХ» с генпродюсером форума, директором аналитических сервисов для МСБ в ОКБ Романом Божьевым.
Темы вопросов могут быть самыми разнообразными: от скоринга и продвинутой аналитики до каверзных интеллектуальных вопросов в духе телепередачи «Что? Где? Когда?».
👉 Получите пригласительный билет, если ваш вопрос выпадет в лототроне.
👉 Денежные призы: 10 тыс. р., 5 тыс. р. и 3 тыс. р., если Роман НЕ сможет ответить правильно на ваш вопрос.
Результаты объявим после 22 июля 2025 г. в нашем ТГ-канале и свяжемся с победителями.
Прислать вопрос
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2🏆1
Media is too big
VIEW IN TELEGRAM
🎦 Друзья, представляем вашему вниманию итоговый ролик с Fintech Data Day!
Вспомните, как прошел форум, собравший более 700 участников, послушайте отзывы от спикеров и готовьтесь к посещению наших следующих мероприятий:
🟦17 сентября. Scoring Day 2025. Главное событие осени для профессионалов в области анализа данных и оценки кредитных рисков
🟦 30 октября. Форум лидеров страхового рынка. Прямой диалог рынка и власти о будущем российского страхования
🟦 20 ноября. FINNEXT Asia 2025. Международный форум финансовых инноваций. Стратегические направления развития банков, платежных организаций и финтеха в Узбекистане и в Средней Азии
🟦 11 декабря. CX Fintech Day 2025. Технологии лидеров, меняющие мир взаимодействия с клиентом
Следите за нашими обновлениями!
Вспомните, как прошел форум, собравший более 700 участников, послушайте отзывы от спикеров и готовьтесь к посещению наших следующих мероприятий:
🟦17 сентября. Scoring Day 2025. Главное событие осени для профессионалов в области анализа данных и оценки кредитных рисков
🟦 30 октября. Форум лидеров страхового рынка. Прямой диалог рынка и власти о будущем российского страхования
🟦 20 ноября. FINNEXT Asia 2025. Международный форум финансовых инноваций. Стратегические направления развития банков, платежных организаций и финтеха в Узбекистане и в Средней Азии
🟦 11 декабря. CX Fintech Day 2025. Технологии лидеров, меняющие мир взаимодействия с клиентом
Следите за нашими обновлениями!
🔥5
Media is too big
VIEW IN TELEGRAM
Как получить от государства инвестиции на дата-проекты?
О мерах поддержки дата-проектов на Fintech Data Day рассказала Надежда Сурова, член Совета по цифровой экономике Совета Федерации:
— нужно всегда быть в курсе, в какие технологии и направления государство будет инвестировать в ближайшие годы. Мониторинг документов от регуляторов может привести ИТ-компанию к коммерческому успеху — если, например, вовремя обнаружить возможность продавать свои продукты по сниженной цене, компенсируя часть стоимости за счет государства.
— не нужно бояться сложных названий проектов. В прошлом году на научные исследования в части ПО для гражданских беспилотных систем на конкурсной основе было выиграно 500 миллионов рублей из 5 миллиардов. Выиграна была только половина — потому что айтишники не знали о существовании таких конкурсов.
— есть возможность сотрудничать с вузами для получения финансирования на создание прототипов. Всего существует 19 основных национальных проектов, на вершине находятся государственные программы, под ними — национальные проекты, а в каждом из них — федеральные проекты (например, «Искусственный интеллект»). Все проекты финансово обеспечены и имеют четко прописанные параметры: какой ФОИВ, через какого оператора, в каком месяце и на что будут выделены средства.
— министерства часто распределяют средства через институты развития. Можно воспользоваться навигатором сервисов для поиска актуальных конкурсов и получения возможностей, необходимых бизнесу.
О мерах поддержки дата-проектов на Fintech Data Day рассказала Надежда Сурова, член Совета по цифровой экономике Совета Федерации:
— нужно всегда быть в курсе, в какие технологии и направления государство будет инвестировать в ближайшие годы. Мониторинг документов от регуляторов может привести ИТ-компанию к коммерческому успеху — если, например, вовремя обнаружить возможность продавать свои продукты по сниженной цене, компенсируя часть стоимости за счет государства.
— не нужно бояться сложных названий проектов. В прошлом году на научные исследования в части ПО для гражданских беспилотных систем на конкурсной основе было выиграно 500 миллионов рублей из 5 миллиардов. Выиграна была только половина — потому что айтишники не знали о существовании таких конкурсов.
— есть возможность сотрудничать с вузами для получения финансирования на создание прототипов. Всего существует 19 основных национальных проектов, на вершине находятся государственные программы, под ними — национальные проекты, а в каждом из них — федеральные проекты (например, «Искусственный интеллект»). Все проекты финансово обеспечены и имеют четко прописанные параметры: какой ФОИВ, через какого оператора, в каком месяце и на что будут выделены средства.
— министерства часто распределяют средства через институты развития. Можно воспользоваться навигатором сервисов для поиска актуальных конкурсов и получения возможностей, необходимых бизнесу.
👍4🔥4❤1
Media is too big
VIEW IN TELEGRAM
Как трансформировать бизнес с помощью больших данных?
Директор по данным Burger King Александр Кулиев поделился на Fintech Data Day кейсом перехода от экспертной оценки к принятию решений на основе больших данных.
Для успеха проекта необходимы:
✅ Постоянный поиск инсайтов и тестирование гипотез с использованием больших данных. Это своего рода конвейер, который помогает бизнесу находить новые возможности.
✅ Улучшение существующих бизнес-моделей в коммерческих и сервисных департаментах и взаимодействие с целевой аудиторией.
✅ Постоянный поиск новых возможностей – т.н. "гринфилдов", которые включают разработку новых продуктов, каналов и способов коммуникации, невозможных без анализа больших данных.
Этапы перехода включают:
✅ Оценку текущего состояния данных — для понимания, какие данные есть в компании и в каком формате они представлены и создание единого дата-ландшафта.
✅ Управление данными — после сбора и очистки данных необходимо создать единую версию правды, чтобы данные были консистентны, актуальны и помогали улучшать бизнес-процессы.
✅ Внедрение ИИ — с целью использования данных для повышения продаж, выручки и оптимизации процессов.
При этом важно помнить: Data Office играет ключевую роль как центр компетенции, координируя взаимодействие между бизнесом и платформой, обеспечивая качественные данные и обучая правильному их использованию.
Результаты проекта смотрите на видео.
Директор по данным Burger King Александр Кулиев поделился на Fintech Data Day кейсом перехода от экспертной оценки к принятию решений на основе больших данных.
Для успеха проекта необходимы:
Этапы перехода включают:
При этом важно помнить: Data Office играет ключевую роль как центр компетенции, координируя взаимодействие между бизнесом и платформой, обеспечивая качественные данные и обучая правильному их использованию.
Результаты проекта смотрите на видео.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥2👏1
Media is too big
VIEW IN TELEGRAM
Сбой в данных = сбой в бизнесе: как избежать?
Об этом на Fintech Data Day рассказал Николай Шевцов, руководитель дирекции по управлению данными ОТП Банка.
За 2,5 года команде удалось:
— ускорить разработку, сократить количество ошибок, повысить качество отчётности и решений и улучшить клиентский опыт — потому что качество данных встроено в процессы по умолчанию.
— и главное — автоматизировать проверки качества. На живом дашборде видны проценты качества на каждом уровне. Для банков со сложной архитектурой АБС это критично: ответ находится мгновенно.
Суть проблемы на старте проекта:
- Некачественные данные — прямые бизнес-потери: неверный скоринг, необоснованные отказы, потеря клиента, риски в отчётности и сверках.
- Данные — ключевой актив на всех этапах: источники, хранилища, витрины, отчёты, ML. Ошибка на входе многократно усиливается к моменту принятия решения.
- Цена ошибки: поломанные процессы, упущенная выручка, ухудшение клиентского опыта.
Подход команды:
1. Все метаданные (домены, владельцы, бизнес-процессы, бизнес-глоссарий и каталог данных) хранятся в Data Governance Platform. В процессы встроено создание двух документов: бизнес-требований (BRD) и функциональной спецификации (FSD). Это не файлы и не ссылки — это полноценные объекты внутри платформы.
2. Структурированные BRD/FSD позволяют:
- Генерировать проверки качества данных.
- Генерировать SQL для создания витрин, выгрузок и других объектов данных. Разработчики на этом этапе не нужны, справляются аналитики.
3. Следующим этапом стала автоматизация проверки DQ:
- От ручных проверок отказались полностью.
- Технические автопроверки (полнота, уникальность, консистентность и т. п.) формируются при выводе в прод без участия людей.
В третьем квартале завершается MDP по бизнес-проверкам: зная тип поля (паспорт, ФИО, ДР), система предлагает релевантные проверки — пользователю остаётся подтвердить и сохранить.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
Об этом на Fintech Data Day рассказал Николай Шевцов, руководитель дирекции по управлению данными ОТП Банка.
За 2,5 года команде удалось:
— ускорить разработку, сократить количество ошибок, повысить качество отчётности и решений и улучшить клиентский опыт — потому что качество данных встроено в процессы по умолчанию.
— и главное — автоматизировать проверки качества. На живом дашборде видны проценты качества на каждом уровне. Для банков со сложной архитектурой АБС это критично: ответ находится мгновенно.
Суть проблемы на старте проекта:
- Некачественные данные — прямые бизнес-потери: неверный скоринг, необоснованные отказы, потеря клиента, риски в отчётности и сверках.
- Данные — ключевой актив на всех этапах: источники, хранилища, витрины, отчёты, ML. Ошибка на входе многократно усиливается к моменту принятия решения.
- Цена ошибки: поломанные процессы, упущенная выручка, ухудшение клиентского опыта.
Подход команды:
1. Все метаданные (домены, владельцы, бизнес-процессы, бизнес-глоссарий и каталог данных) хранятся в Data Governance Platform. В процессы встроено создание двух документов: бизнес-требований (BRD) и функциональной спецификации (FSD). Это не файлы и не ссылки — это полноценные объекты внутри платформы.
2. Структурированные BRD/FSD позволяют:
- Генерировать проверки качества данных.
- Генерировать SQL для создания витрин, выгрузок и других объектов данных. Разработчики на этом этапе не нужны, справляются аналитики.
3. Следующим этапом стала автоматизация проверки DQ:
- От ручных проверок отказались полностью.
- Технические автопроверки (полнота, уникальность, консистентность и т. п.) формируются при выводе в прод без участия людей.
В третьем квартале завершается MDP по бизнес-проверкам: зная тип поля (паспорт, ФИО, ДР), система предлагает релевантные проверки — пользователю остаётся подтвердить и сохранить.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
👍4🔥4❤3💯1
Media is too big
VIEW IN TELEGRAM
Неваляшка-стандарт для данных: как добиться устойчивости при любых катаклизмах?
На Fintech Data Day Роман Мезенцев, директор по управлению проектами ИТ‑сервисов Почта Банка, поделился практиками защиты, тестирования и оценки эффективности данных.
Зачем это нужно
— Ради доверия: деньги и связанные с ними данные должны быть доступны, целостны и защищены.
— Умение быстро изолировать инцидент важнее мгновенной «диагностики»: сначала локализуем, потом разбираемся и лечим.
Откуда приходят риски
— Природа: жара, пожары, наводнения, «челябинские метеориты».
— Человеческий фактор: ошибки, баги, «трактор перерубил оба узла связи».
— Инфраструктура: всё, что может сломаться, однажды сломается.
Как защищаться
— Распределенные резервное копирование;
— Архитектура высокой доступности: кластеры, active‑active/active‑passive, DR‑ЦОДы, геораспределение.
— Жесткое разграничение прав и ролей вместо «как хорошо, если бы у всех были рут‑права».
— Автоматизированный мониторинг и оповещения.
— Регулярные учения: разборы, "wargames", имитации сбоев, контролируемые отключения. Построить мало — нужно доказывать работоспособность.
Что нужно измерять?
Из 12 метрик наиболее критичны:
— RTO: за сколько восстановимся.
— RPO: сколько данных допустимо потерять.
— И неочевидное: уверенность команды в своих действиях. Ее растит регулярное DR‑тестирование — оно шлифует процессы и сам DR‑план.
‼️RTO/RPO — не «цифры для отчёта», а ориентиры для архитектурных решений и оценки эффективности.
Роман Мезенцев — руководитель с 20-летним стажем работы в сфере ИТ и управления бизнес-процессами. Отвечает за автоматизацию и управление ИТ процессами, улучшение пользовательского опыта, предиктивное выявление проблем и аварий.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
На Fintech Data Day Роман Мезенцев, директор по управлению проектами ИТ‑сервисов Почта Банка, поделился практиками защиты, тестирования и оценки эффективности данных.
Зачем это нужно
— Ради доверия: деньги и связанные с ними данные должны быть доступны, целостны и защищены.
— Умение быстро изолировать инцидент важнее мгновенной «диагностики»: сначала локализуем, потом разбираемся и лечим.
Откуда приходят риски
— Природа: жара, пожары, наводнения, «челябинские метеориты».
— Человеческий фактор: ошибки, баги, «трактор перерубил оба узла связи».
— Инфраструктура: всё, что может сломаться, однажды сломается.
Как защищаться
— Распределенные резервное копирование;
— Архитектура высокой доступности: кластеры, active‑active/active‑passive, DR‑ЦОДы, геораспределение.
— Жесткое разграничение прав и ролей вместо «как хорошо, если бы у всех были рут‑права».
— Автоматизированный мониторинг и оповещения.
— Регулярные учения: разборы, "wargames", имитации сбоев, контролируемые отключения. Построить мало — нужно доказывать работоспособность.
Что нужно измерять?
Из 12 метрик наиболее критичны:
— RTO: за сколько восстановимся.
— RPO: сколько данных допустимо потерять.
— И неочевидное: уверенность команды в своих действиях. Ее растит регулярное DR‑тестирование — оно шлифует процессы и сам DR‑план.
‼️RTO/RPO — не «цифры для отчёта», а ориентиры для архитектурных решений и оценки эффективности.
«Как и многие коллеги, я мечтаю о большой красной кнопке» для вызова ИИ-помощника, который решит все проблемы. Но пока такой кнопки нет — нужно знать угрозы в лицо, строить правильную архитектуру, проводить DR-тестирование и измерять все ключевые параметры — и верить, что наши данные, как неваляшка, встанут, восстановятся и сохранят свою устойчивость», — резюмировал Роман.
Роман Мезенцев — руководитель с 20-летним стажем работы в сфере ИТ и управления бизнес-процессами. Отвечает за автоматизацию и управление ИТ процессами, улучшение пользовательского опыта, предиктивное выявление проблем и аварий.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
👍5🔥1🤩1
Media is too big
VIEW IN TELEGRAM
Как ускорить процессы вокруг моделей принятия решения?
Об этом на Fintech Data Day рассказал Игорь Вахламов, управляющий директор Газпромбанка.
Зачем ускорять процессы?
- Оставаться конкурентоспособными и успевать за рынком.
- Быстрее экспериментировать и внедрять изменения.
- Экономить ключевые ресурсы.
За счет чего ускорять?
- Быстрая финансовая оценка эффектов.
- Автоматизация подготовки ТЗ и данных.
- Автокалибровка моделей, подбор сегментов и cut-off.
Почему нужны регулярные обновления
Модели (особенно градиентный бустинг) деградируют: около −0,5 п.п. метрики в месяц и через 4–6 месяцев заметно теряют пригодность из‑за data drift, concept drift и изменений среды.
Как оценить ущерб
Используем финансовую оценку изменения метрики. Имея работающую стратегию и экономику успешных/неуспешных кейсов, можно:
- сгенерировать бутстреп-выборки для варьирования метрик;
- для каждой построить зависимость средней прибыли от метрики и управляемых факторов.
Коэффициент при метрике даст денежный эффект одного пункта. Если он значим, идем дальше.
Постановка задачи
Готовим дизайн-документы, ТЗ, согласования с бизнесом. LLM помогают формулировать цели, источники, таргеты, требования к мониторингу и пр.
Автоподготовка данных
1) Интеграция с источниками и автоматическое извлечение признаков.
2) Проверка качества/стабильности и рекомендации по улучшению.
3) Преобразование и передача данных в модель.
Автокалибровка моделей
- Поиск сегментов для калибровки.
- Выбор методов перехода и их настройка (важно для чувствительных к трендам рисковых моделей).
- Выбор и настройка самих методов калибровки.
Гибкий подбор сегментов
- конструируем искусственную величину, учитывающую и целевой признак, и выход модели, чтобы видеть, где модель сильнее/слабее.
- Обучаем, например, дерево решений на признаках, доступных для сегментации, и автоматически находим сегменты.
Подбор cut-off
- Вариант 1: отсекать максимум при риске не выше порога.
- Вариант 2: оптимизировать recall — найти заданную долю проблемных в отсеченном множестве.
- Вариант 3 (частый в рисках): максимизировать одобряемую популяцию при ограничении на риск.
Гибкая логика по сегментам
- В сегментах с лучшей работой модели — выше cut-off и жестче отсечение.
- В слабых — мягче пороги.
- При высокой доле целевого класса — можно ужесточать отсечение.
Итеративная настройка
- Для каждого сегмента подбираем коэффициент целевой метрики отсечения.
Эффект
- минус 3–5% отказов за счет математических методов ручной настройки.
Мониторинг после внедрения
- Автосбор данных.
- Автодиагностика аномалий и выбросов.
- Предсказательный мониторинг: прогноз индексов стабильности и эскалация только значимых отклонений.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
Об этом на Fintech Data Day рассказал Игорь Вахламов, управляющий директор Газпромбанка.
Зачем ускорять процессы?
- Оставаться конкурентоспособными и успевать за рынком.
- Быстрее экспериментировать и внедрять изменения.
- Экономить ключевые ресурсы.
За счет чего ускорять?
- Быстрая финансовая оценка эффектов.
- Автоматизация подготовки ТЗ и данных.
- Автокалибровка моделей, подбор сегментов и cut-off.
Почему нужны регулярные обновления
Модели (особенно градиентный бустинг) деградируют: около −0,5 п.п. метрики в месяц и через 4–6 месяцев заметно теряют пригодность из‑за data drift, concept drift и изменений среды.
Как оценить ущерб
Используем финансовую оценку изменения метрики. Имея работающую стратегию и экономику успешных/неуспешных кейсов, можно:
- сгенерировать бутстреп-выборки для варьирования метрик;
- для каждой построить зависимость средней прибыли от метрики и управляемых факторов.
Коэффициент при метрике даст денежный эффект одного пункта. Если он значим, идем дальше.
Постановка задачи
Готовим дизайн-документы, ТЗ, согласования с бизнесом. LLM помогают формулировать цели, источники, таргеты, требования к мониторингу и пр.
Автоподготовка данных
1) Интеграция с источниками и автоматическое извлечение признаков.
2) Проверка качества/стабильности и рекомендации по улучшению.
3) Преобразование и передача данных в модель.
Автокалибровка моделей
- Поиск сегментов для калибровки.
- Выбор методов перехода и их настройка (важно для чувствительных к трендам рисковых моделей).
- Выбор и настройка самих методов калибровки.
Гибкий подбор сегментов
- конструируем искусственную величину, учитывающую и целевой признак, и выход модели, чтобы видеть, где модель сильнее/слабее.
- Обучаем, например, дерево решений на признаках, доступных для сегментации, и автоматически находим сегменты.
Подбор cut-off
- Вариант 1: отсекать максимум при риске не выше порога.
- Вариант 2: оптимизировать recall — найти заданную долю проблемных в отсеченном множестве.
- Вариант 3 (частый в рисках): максимизировать одобряемую популяцию при ограничении на риск.
Гибкая логика по сегментам
- В сегментах с лучшей работой модели — выше cut-off и жестче отсечение.
- В слабых — мягче пороги.
- При высокой доле целевого класса — можно ужесточать отсечение.
Итеративная настройка
- Для каждого сегмента подбираем коэффициент целевой метрики отсечения.
Эффект
- минус 3–5% отказов за счет математических методов ручной настройки.
Мониторинг после внедрения
- Автосбор данных.
- Автодиагностика аномалий и выбросов.
- Предсказательный мониторинг: прогноз индексов стабильности и эскалация только значимых отклонений.
"В будущем моделирования мы ожидаем: различные экосистемы данных, включая генеративные feature store’ы, проактивные дата-пайплайны для переобучения, песочницы для тестов; персонализированные движки (например, продуктовые трансформеры для адаптация предложений под поведение клиента, предсказание событий по жизненным изменениям клиента, а также движение в сторону больших моделей", - поделился в заключение прогнозами Игорь Вахламов.
17 сентября приглашаем вас на Scoring Day - будут обсуждаться не менее интересные темы!
👍3❤2🔥2🤩2
FutureBanking.ru
FutureBanking: Lakehouse на плато эффективности: от хайпа к практической ценности
В каких случаях Lakehouse может стать лучшим решением для бизнеса, каким функциональным и техническим требованиям должно удовлетворять решение, чтобы считаться полноценной Lakehouse-платформой, как выглядит типовой путь внедрения и за счет чего достигается…
Когда Lakehouse — лучшее решение для бизнеса?
Поговорили с Владиславом Подречневым, директором направления инженерии данных «Синимекс», о том:
— Как появление Lakehouse — новой модели гибридной архитектуры данных — изменило рынок и практики команд;
— Каким требованиям должна соответствовать полноценная Lakehouse-платформа;
— Какие бизнес-задачи она закрывает в первую очередь.
Где Lakehouse дает максимум эффекта:
1) Аналитика на больших объемах разнородных данных — от классического BI до предиктивных моделей.
2) Быстрый вывод новых сценариев в прод: антифрод, персонализация, мониторинг событий, анализ поведения клиентов.
3) Подготовка данных для AI/ML-треков.
4) Банковская регуляторная отчетность и единая платформа данных для разных подразделений.
Больше подробностей - в интервью по ссылке
Поговорили с Владиславом Подречневым, директором направления инженерии данных «Синимекс», о том:
— Как появление Lakehouse — новой модели гибридной архитектуры данных — изменило рынок и практики команд;
— Каким требованиям должна соответствовать полноценная Lakehouse-платформа;
— Какие бизнес-задачи она закрывает в первую очередь.
Где Lakehouse дает максимум эффекта:
1) Аналитика на больших объемах разнородных данных — от классического BI до предиктивных моделей.
2) Быстрый вывод новых сценариев в прод: антифрод, персонализация, мониторинг событий, анализ поведения клиентов.
3) Подготовка данных для AI/ML-треков.
4) Банковская регуляторная отчетность и единая платформа данных для разных подразделений.
‼️ Важно помнить: Lakehouse — не «серебряная пуля», в работе с данными сложности, как правило, лежат в плоскости организационных процессов и культуры на стороне заказчика. Ключ к успеху остается за рамками собственно технологий: в организационных решениях и в том числе в политической воле, которая делает работу с данными стратегией, целью проекта и нормой для всех сотрудников компании.
Больше подробностей - в интервью по ссылке
👍5
Weekly Data News. Большие ставки на ИИ — от 300 млрд долл. в облаках до фильмов и симуляций решений ФРС
✍️ The Wall Street Journal со ссылкой на «осведомленные источники» сообщил, что OpenAI заключила пятилетний контракт с Oracle на покупку вычислительных мощностей на $300 млрд. Издание называет сделку одной из крупнейших в истории облачных контрактов и указывает на рост затрат на дата-центры ИИ несмотря на опасения потенциального пузыря.
✍️ Российские исследователи представили на международной конференции ICSME 2025 метод Targeted Test Selection (T-TS), ускоряющий тестирование ПО в 5,6 раза без потери качества. Новый метод позволяет запускать лишь около 15% от полного набора тестов, но при этом он находит более 95% возможных ошибок, вызванных изменениями, которые вносятся в программу. Это значит, что разработчики получают обратную связь о проблемах гораздо быстрее, а исправление «багов» обходится дешевле. Разработка уже протестирована на инфраструктуре Т-Банка.
✍️ Исследователи из Университета Джорджа Вашингтона смоделировали заседание ФРС с применением ИИ-агентов, созданных по образу реальных участников (исторические позиции, биографии, публичные речи). Обрабатывая актуальные макроданные и новости, агенты под воздействием политического давления становились более поляризованными, росло число несогласных мнений. Смоделированное с применением ИИ-агентов заседание ФРС показало, что политическое давление разделило членов совета в ходе обсуждения процентных ставок.
✍️ Uber запустил пилот в 12 городах Индии: водители-партнеры могут в приложении выполнять микрозадачи по разметке данных для Uber AI Solutions — отмечать объекты на фото, сортировать тексты, классифицировать чеки. Это используется для обучения моделей в генеративном ИИ, автономном транспорте и цифровых сервисах; среди клиентов — Niantic и Aurora. Инициатива дает водителям дополнительный доход в простои; при успехе пилот масштабируют на другие рынки.
✍️ В 2026 году OpenAI представит полнометражный мультфильм Critterz, полностью созданный с помощью ИИ. Проект делается совместно с Vertigo Films и студией Native Foreign, бюджет — менее $30 млн. План — уложиться примерно в девять месяцев вместо обычных трёх лет, привлечь художников для эскизов, которые будут загружаться в инструменты OpenAI, включая GPT-5 и модели генерации изображений, и доказать, что ИИ способен создавать контент, достойный большого экрана.
✍️ The Wall Street Journal со ссылкой на «осведомленные источники» сообщил, что OpenAI заключила пятилетний контракт с Oracle на покупку вычислительных мощностей на $300 млрд. Издание называет сделку одной из крупнейших в истории облачных контрактов и указывает на рост затрат на дата-центры ИИ несмотря на опасения потенциального пузыря.
✍️ Российские исследователи представили на международной конференции ICSME 2025 метод Targeted Test Selection (T-TS), ускоряющий тестирование ПО в 5,6 раза без потери качества. Новый метод позволяет запускать лишь около 15% от полного набора тестов, но при этом он находит более 95% возможных ошибок, вызванных изменениями, которые вносятся в программу. Это значит, что разработчики получают обратную связь о проблемах гораздо быстрее, а исправление «багов» обходится дешевле. Разработка уже протестирована на инфраструктуре Т-Банка.
✍️ Исследователи из Университета Джорджа Вашингтона смоделировали заседание ФРС с применением ИИ-агентов, созданных по образу реальных участников (исторические позиции, биографии, публичные речи). Обрабатывая актуальные макроданные и новости, агенты под воздействием политического давления становились более поляризованными, росло число несогласных мнений. Смоделированное с применением ИИ-агентов заседание ФРС показало, что политическое давление разделило членов совета в ходе обсуждения процентных ставок.
✍️ Uber запустил пилот в 12 городах Индии: водители-партнеры могут в приложении выполнять микрозадачи по разметке данных для Uber AI Solutions — отмечать объекты на фото, сортировать тексты, классифицировать чеки. Это используется для обучения моделей в генеративном ИИ, автономном транспорте и цифровых сервисах; среди клиентов — Niantic и Aurora. Инициатива дает водителям дополнительный доход в простои; при успехе пилот масштабируют на другие рынки.
✍️ В 2026 году OpenAI представит полнометражный мультфильм Critterz, полностью созданный с помощью ИИ. Проект делается совместно с Vertigo Films и студией Native Foreign, бюджет — менее $30 млн. План — уложиться примерно в девять месяцев вместо обычных трёх лет, привлечь художников для эскизов, которые будут загружаться в инструменты OpenAI, включая GPT-5 и модели генерации изображений, и доказать, что ИИ способен создавать контент, достойный большого экрана.
👍4🔥4⚡1
Weekly Data News: ИИ — от код-ассистента до драйвера ЦОДов и объекта регулирования
— 31,5% российских ML‑разработчиков доверяют LLM писать код
Авито и Хабр опросили специалистов по ML и данным: 93,9% уже используют LLM в работе, треть (31,5%) — доверяет моделям писать код. 11,1% применяют ИИ для поиска информации, еще 11,1% — для генерации идей, 9,7% — для ответов на техвопросы, 7,9% — для анализа данных и решения задач. Лишь 6,1% пока не используют LLM. Сообщается, что нейросети помогают не только писать код, но и дополнять его, искать ошибки и уязвимости. В то же время часть разработчиков, использующих ИИ-сервисы, признают, что им приходится исправлять сгенерированный код в 80% случаев, другие вносят правки в 50% обращений к ИИ.
— Ассоциация больших данных раскритиковала законопроект Минцифры об ответственности за использование ИИ в преступлениях
АБД считает формулировки документа абстрактными: они могут замедлить развитие отрасли, снизить мотивацию разработчиков и создать риски для компаний в кибербезопасности.
В проекте ИИ описан как комплекс решений, который имитирует когнитивные функции человека и даёт результат, сравнимый с интеллектуальной деятельностью. В ассоциации считают, что это определение отличается от закреплённой формулировки в Национальной стратегии развития ИИ и его использование в уголовном праве может привести к непредсказуемым последствиям и сдерживать рынок.
Ассоциация подчёркивает, что любое преступление может быть квалифицировано по новым составам, так как многие сервисы уже используют элементы искусственного интеллекта. При этом реальную угрозу создают дипфейки, которые применяются для мошенничества. В организации считают, что именно этот метод требует отдельного регулирования.
Эксперты и участники рынка согласны с оценками и предупреждают о риске криминализации индустрии.
— NVIDIA и Intel объявили о стратегическом партнерстве на несколько поколений продуктов.
Вчера стало известно, что NVIDIA инвестирует 5 млрд долл. в своего конкурента Intel. Компании объединят усилия в создании процессоров для дата‑центров и ПК с интеграцией ИИ. В числе ожидаемых результатов партнерства: Windows‑ПК могут стать полноценными AI‑машинами, в дата‑центрах появится выбор CPU‑архитектуры, что означает расширение рынка для NVIDIA. Для Intel это шанс подтвердить конкурентоспособность CPU в ключевых сегментах.
Если сделка состоится, рынок ПК и ЦОДов ждёт новая волна AI‑систем.
— McKinsey: к 2030 году ИИ потребует 5,2 трлн долл. инвестиций в дата‑центры
Ключевые оценки по данным отчета: к 2030‑му понадобится 156 ГВт мощностей ЦОДов под ИИ; с 2025 по 2030 годы придется добавить 125 ГВт; общий объем инвестиций — 5,2 трлн долл. (расчет по сценариям масштабирования вычислений для ИИ). Таким образом, индустрия ЦОДов входит в фазу беспрецедентного роста и капиталоемкости.
— 31,5% российских ML‑разработчиков доверяют LLM писать код
Авито и Хабр опросили специалистов по ML и данным: 93,9% уже используют LLM в работе, треть (31,5%) — доверяет моделям писать код. 11,1% применяют ИИ для поиска информации, еще 11,1% — для генерации идей, 9,7% — для ответов на техвопросы, 7,9% — для анализа данных и решения задач. Лишь 6,1% пока не используют LLM. Сообщается, что нейросети помогают не только писать код, но и дополнять его, искать ошибки и уязвимости. В то же время часть разработчиков, использующих ИИ-сервисы, признают, что им приходится исправлять сгенерированный код в 80% случаев, другие вносят правки в 50% обращений к ИИ.
— Ассоциация больших данных раскритиковала законопроект Минцифры об ответственности за использование ИИ в преступлениях
АБД считает формулировки документа абстрактными: они могут замедлить развитие отрасли, снизить мотивацию разработчиков и создать риски для компаний в кибербезопасности.
В проекте ИИ описан как комплекс решений, который имитирует когнитивные функции человека и даёт результат, сравнимый с интеллектуальной деятельностью. В ассоциации считают, что это определение отличается от закреплённой формулировки в Национальной стратегии развития ИИ и его использование в уголовном праве может привести к непредсказуемым последствиям и сдерживать рынок.
Ассоциация подчёркивает, что любое преступление может быть квалифицировано по новым составам, так как многие сервисы уже используют элементы искусственного интеллекта. При этом реальную угрозу создают дипфейки, которые применяются для мошенничества. В организации считают, что именно этот метод требует отдельного регулирования.
Эксперты и участники рынка согласны с оценками и предупреждают о риске криминализации индустрии.
— NVIDIA и Intel объявили о стратегическом партнерстве на несколько поколений продуктов.
Вчера стало известно, что NVIDIA инвестирует 5 млрд долл. в своего конкурента Intel. Компании объединят усилия в создании процессоров для дата‑центров и ПК с интеграцией ИИ. В числе ожидаемых результатов партнерства: Windows‑ПК могут стать полноценными AI‑машинами, в дата‑центрах появится выбор CPU‑архитектуры, что означает расширение рынка для NVIDIA. Для Intel это шанс подтвердить конкурентоспособность CPU в ключевых сегментах.
Если сделка состоится, рынок ПК и ЦОДов ждёт новая волна AI‑систем.
— McKinsey: к 2030 году ИИ потребует 5,2 трлн долл. инвестиций в дата‑центры
Ключевые оценки по данным отчета: к 2030‑му понадобится 156 ГВт мощностей ЦОДов под ИИ; с 2025 по 2030 годы придется добавить 125 ГВт; общий объем инвестиций — 5,2 трлн долл. (расчет по сценариям масштабирования вычислений для ИИ). Таким образом, индустрия ЦОДов входит в фазу беспрецедентного роста и капиталоемкости.
👍3🔥1👏1
Weekly Data News: мультиагенты без кода, открытый Qwen3‑VL, поиск искусственной жизни, суверенный ИИ для госсектора
AI Studio от Yandex B2B Tech: ИИ-агенты без кода
Яндекс обновил платформу AI Studio: теперь компании могут собирать ИИ-агентов без навыков программирования на базе облачных генеративных моделей. Главный акцент — на мультиагентные системы. В одной связке, например, могут работать три агента: один анализирует спрос, второй планирует закупки, третий консультирует клиентов и сверяет контрагентов. Такой подход закрывает целые процессные цепочки и снижает нагрузку на команды (бухгалтерия, HR и т.д.).
Платформа предлагает открытый выбор моделей: собственные нейросети «Яндекса» и API к популярным открытым LLM/VLM (Qwen, Llama, DeepSeek и др.), что упрощает миграцию и подбор стека под требования по точности, стоимости и скорости.
Отдельно доступен AI Search — поиск по изображениям, таблицам и документам для задач комплаенса, юридического анализа и работы с архивами.
Alibaba открыла исходный код Qwen3-VL
Alibaba продолжает курс на открытые технологии и выкладывает исходный код новой мультимодальной модели Qwen3-VL. Она объединяет текстовые и визуальные возможности: умеет анализировать изображения и видео, работать с интерфейсами, а также решать прикладные бизнес-задачи. Среди ключевых особенностей:
- анализ видео продолжительностью до двух часов с точным определением событий;
- расширенный OCR: поддержка увеличена с 19 до 32 языков, включая редкие алфавиты и наклонный сложный текст;
- контекст до 256 тысяч токенов с расширением до 1 млн — для анализа больших документов, массивов изображений или целых фильмов без потери качества;
- высокая точность в задачах обнаружения рисков в реальных условиях.
ASAL: автопоиск «искусственной жизни»
Исследователи из MIT, OpenAI и Sakana AI представили метод ASAL (Automated Search for Artificial Life), который с помощью foundation-моделей автоматизирует поиск «искусственной жизни». Вместо ручной настройки симуляций исследователь задаёт цель текстом, а модель подбирает или создаёт системы, где возникают жизнеподобные явления. ASAL уже протестирован на Boids, Game of Life, Lenia, Particle Life и различных клеточных автоматах — выявлены новые формы поведения, неизвестные даже опытным специалистам. Потенциальные применения включают биоинформатику, нанотехнологии, искусственную эволюцию и робототехнику — везде, где важен поиск устойчивых адаптивных форм.
SAP и OpenAI запускают OpenAI for Germany
SAP и OpenAI объявили о запуске инициативы OpenAI for Germany при поддержке Microsoft с размещением на суверенной облачной инфраструктуре Германии. Это позволит миллионам сотрудников госсектора использовать ИИ, созданный в Германии и соответствующий строгим требованиям к суверенитету данных, юридической прозрачности и национальным ценностям.
SAP объявляет о 631 млрд евро инвестиций и дополнительно 20 млрд на цифровой суверенитет. Цель правительства — к 2030 году довести вклад ИИ в экономику до 10% ВВП.
AI Studio от Yandex B2B Tech: ИИ-агенты без кода
Яндекс обновил платформу AI Studio: теперь компании могут собирать ИИ-агентов без навыков программирования на базе облачных генеративных моделей. Главный акцент — на мультиагентные системы. В одной связке, например, могут работать три агента: один анализирует спрос, второй планирует закупки, третий консультирует клиентов и сверяет контрагентов. Такой подход закрывает целые процессные цепочки и снижает нагрузку на команды (бухгалтерия, HR и т.д.).
Платформа предлагает открытый выбор моделей: собственные нейросети «Яндекса» и API к популярным открытым LLM/VLM (Qwen, Llama, DeepSeek и др.), что упрощает миграцию и подбор стека под требования по точности, стоимости и скорости.
Отдельно доступен AI Search — поиск по изображениям, таблицам и документам для задач комплаенса, юридического анализа и работы с архивами.
Alibaba открыла исходный код Qwen3-VL
Alibaba продолжает курс на открытые технологии и выкладывает исходный код новой мультимодальной модели Qwen3-VL. Она объединяет текстовые и визуальные возможности: умеет анализировать изображения и видео, работать с интерфейсами, а также решать прикладные бизнес-задачи. Среди ключевых особенностей:
- анализ видео продолжительностью до двух часов с точным определением событий;
- расширенный OCR: поддержка увеличена с 19 до 32 языков, включая редкие алфавиты и наклонный сложный текст;
- контекст до 256 тысяч токенов с расширением до 1 млн — для анализа больших документов, массивов изображений или целых фильмов без потери качества;
- высокая точность в задачах обнаружения рисков в реальных условиях.
ASAL: автопоиск «искусственной жизни»
Исследователи из MIT, OpenAI и Sakana AI представили метод ASAL (Automated Search for Artificial Life), который с помощью foundation-моделей автоматизирует поиск «искусственной жизни». Вместо ручной настройки симуляций исследователь задаёт цель текстом, а модель подбирает или создаёт системы, где возникают жизнеподобные явления. ASAL уже протестирован на Boids, Game of Life, Lenia, Particle Life и различных клеточных автоматах — выявлены новые формы поведения, неизвестные даже опытным специалистам. Потенциальные применения включают биоинформатику, нанотехнологии, искусственную эволюцию и робототехнику — везде, где важен поиск устойчивых адаптивных форм.
SAP и OpenAI запускают OpenAI for Germany
SAP и OpenAI объявили о запуске инициативы OpenAI for Germany при поддержке Microsoft с размещением на суверенной облачной инфраструктуре Германии. Это позволит миллионам сотрудников госсектора использовать ИИ, созданный в Германии и соответствующий строгим требованиям к суверенитету данных, юридической прозрачности и национальным ценностям.
SAP объявляет о 631 млрд евро инвестиций и дополнительно 20 млрд на цифровой суверенитет. Цель правительства — к 2030 году довести вклад ИИ в экономику до 10% ВВП.
👍1
Weekly Data News: ЦОД замедляются, датасеты растут, ИИ идет в лаборатории
В 2025 году ввод новых мощностей в российских коммерческих ЦОД (colocation) может резко сократиться — до 4,6 тыс. стойко-мест против 10,9 тыс. в 2024-м. По данным iKS-Consulting, общая емкость вырастет лишь на 5,6%, до 85,8 тыс. стоек. Причины — сокращение иностранных инвестиций, высокая ключевая ставка и подорожание оборудования из-за санкций, а также дефицит площадок в Москве и Петербурге и нехватка электроэнергии. Многие проекты перенесены на 2026–2027 годы. В РТК-ЦОД считают текущего снижения ставки ЦБ недостаточным и ожидают удовлетворения спроса не ранее 2027–2028 годов, однако «Атомдата» прогнозирует возможный рекорд — около 20 тыс. новых стоек уже в 2026-м.
T-Банк опубликовал крупный кросс-доменный датасет для рекомендательных систем. Центр ИИ группы «Т-Технологии» выложил в открытый доступ T-ECD (T-Tech E-commerce Cross-Domain Dataset) — один из крупнейших в мире синтетических датасетов для e-commerce рекомендаций. Он основан на анонимизированных действиях 44 млн уникальных пользователей сервисов «Город: Шопинг» и «Супермаркеты», а также рекламной платформы Т-Банка, 30 млн товаров и свыше 135 млрд взаимодействий.
Страхование от утечек персональных данных: в России готовят механизм гарантированных выплат жертвам утечек. Операторов планируют обязать страховать риски или формировать компенсационные фонды; нарушения будет фиксировать Роскомнадзор, подать заявление на компенсацию можно будет через «Госуслуги». Всероссийский союз страховщиков предлагает определять круг пострадавших и установить фиксированные выплаты в зависимости от вида скомпрометированных данных (например, биометрия, специальные категории), а также закрепить ответственное ведомство и порядок возмещения.
Periodic Labs привлекла $300 млн на ИИ-лабораторию будущего: стартап вышел из стелс-режима и планирует построить систему, в которой роботы и ИИ заменят ручную работу ученых — искусственный интеллект сам будет планировать и ставить эксперименты, управлять оборудованием, собирать данные и тут же анализировать результаты. Первый фокус — поиск новых, более дешёвых и устойчивых сверхпроводников. По замыслу основателей, ИИ-лаборатории будут открывать десятки и сотни новых материалов не за годы, а за месяцы.
В числе инвесторов — a16z, DST, Nvidia, Accel, Elad Gil, Джефф Дин, Эрик Шмидт и Джефф Безос. Первые результаты обещаны в ближайшие месяцы; в случае успеха подход может ускорить R&D в фарме, химии и энергетике.
В 2025 году ввод новых мощностей в российских коммерческих ЦОД (colocation) может резко сократиться — до 4,6 тыс. стойко-мест против 10,9 тыс. в 2024-м. По данным iKS-Consulting, общая емкость вырастет лишь на 5,6%, до 85,8 тыс. стоек. Причины — сокращение иностранных инвестиций, высокая ключевая ставка и подорожание оборудования из-за санкций, а также дефицит площадок в Москве и Петербурге и нехватка электроэнергии. Многие проекты перенесены на 2026–2027 годы. В РТК-ЦОД считают текущего снижения ставки ЦБ недостаточным и ожидают удовлетворения спроса не ранее 2027–2028 годов, однако «Атомдата» прогнозирует возможный рекорд — около 20 тыс. новых стоек уже в 2026-м.
T-Банк опубликовал крупный кросс-доменный датасет для рекомендательных систем. Центр ИИ группы «Т-Технологии» выложил в открытый доступ T-ECD (T-Tech E-commerce Cross-Domain Dataset) — один из крупнейших в мире синтетических датасетов для e-commerce рекомендаций. Он основан на анонимизированных действиях 44 млн уникальных пользователей сервисов «Город: Шопинг» и «Супермаркеты», а также рекламной платформы Т-Банка, 30 млн товаров и свыше 135 млрд взаимодействий.
Страхование от утечек персональных данных: в России готовят механизм гарантированных выплат жертвам утечек. Операторов планируют обязать страховать риски или формировать компенсационные фонды; нарушения будет фиксировать Роскомнадзор, подать заявление на компенсацию можно будет через «Госуслуги». Всероссийский союз страховщиков предлагает определять круг пострадавших и установить фиксированные выплаты в зависимости от вида скомпрометированных данных (например, биометрия, специальные категории), а также закрепить ответственное ведомство и порядок возмещения.
Periodic Labs привлекла $300 млн на ИИ-лабораторию будущего: стартап вышел из стелс-режима и планирует построить систему, в которой роботы и ИИ заменят ручную работу ученых — искусственный интеллект сам будет планировать и ставить эксперименты, управлять оборудованием, собирать данные и тут же анализировать результаты. Первый фокус — поиск новых, более дешёвых и устойчивых сверхпроводников. По замыслу основателей, ИИ-лаборатории будут открывать десятки и сотни новых материалов не за годы, а за месяцы.
В числе инвесторов — a16z, DST, Nvidia, Accel, Elad Gil, Джефф Дин, Эрик Шмидт и Джефф Безос. Первые результаты обещаны в ближайшие месяцы; в случае успеха подход может ускорить R&D в фарме, химии и энергетике.
🔥2
Media is too big
VIEW IN TELEGRAM
Как использовать GenAI для личной продуктивности руководителя? Часть 1
Об этом на Fintech Data Day рассказал Дмитрий Бугайченко, Сбер, управляющий директор по исследованию данных, CDS B2С.
2022 стал переломным: LLM кардинально изменили подход к AI. В чем суть изменений?
✅ Как было раньше:
• Под каждую задачу — свои данные, фичи, матрицы, градиенты.
• На выходе получали узкоспециализированный вычислительный граф со строго структурированными входами и выходами под конкретный проект.
• В обязательном порядке привлекали дата-сайентистов.
✅ Как проходила эволюция:
• Научились использовать весь массив знаний человечества (один из крупнейших датасетов включает около 50 ТБ текста), где факты перемешаны с мемами.
• Стали обучать модель «продолжать мысль», затем — осмысленно отвечать на вопросы.
• На выходе получили LLM и ChatGPT.
✅ Что это дало?
• Главный навык теперь — не математика, а постановка задач, самый востребованный специалист — не дата-сайентист, а эксперт предметной области, способный грамотно описать критерии качества и «скормить» их модели, которая условно «знает всё, что знает человечество».
• Исчез жёсткий структурированный формат входа и выхода из модели — теперь везде используется текст (это может быть обычный язык, JSON и пр.).
• Появилась возможность интеграции в любое решение и в любом формате.
✅ Кого в первую очередь заменят "текстовые" эксперты?
Спад заказов уже чувствуют копирайтеры, в зоне риска также находятся разработчики.
‼️ Но эффективнее всего нейросети могут заменить руководителей! Почему?
По мере роста компаний резко «дорожает» коммуникация. Как и в распределённом машинном обучении: чем больше исполнителей — тем сложнее координация. При этом синхронизация в основном идёт «через верх», от руководителя к руководителю и далее спускается вниз по цепочке. Множество людей играют роль передатчиков информации, иногда — «принимателей» отдельных решений.
Большие языковые модели уже позволяют автоматизировать ключевую часть этой работы: формулировку задач, агрегирование контекста, подготовку решений и обоснований, унификацию форматов коммуникации и интеграцию в процессы. Поэтому импакт по управленческим ролям — максимальный.
Узкое место — скорость коммуникаций. Пример: я как руководитель могу получать от 300 писем в день, а ответы на них откладываются на часы и сутки. Хотя по факту я должен лишь делегировать решение задачи через forward.
✅ Как это решается на практике:
— AI-помощник руководителя подключается к рабочей почте, анализирует входящие, соотносит вопросы с составом команды, понимает, кому делегировать, и делает это сам. Скорость реакции увеличивается с часов до минут, циркуляция информации ускоряется.
— Коллеги «выращивают» собственных ассистентов, которые отвечают на запросы, обращаясь к Confluence и базе знаний. Типовые запросы — «найти материалы с встречи» — RAG-бот закрывает без проблем.
— Если «замкнуть цикл» и добавить бота, работающего напрямую с данными, задавший вопрос сотрудник через пять минут получает готовое решение.
Продолжение - в следующем посте
Об этом на Fintech Data Day рассказал Дмитрий Бугайченко, Сбер, управляющий директор по исследованию данных, CDS B2С.
2022 стал переломным: LLM кардинально изменили подход к AI. В чем суть изменений?
• Под каждую задачу — свои данные, фичи, матрицы, градиенты.
• На выходе получали узкоспециализированный вычислительный граф со строго структурированными входами и выходами под конкретный проект.
• В обязательном порядке привлекали дата-сайентистов.
• Научились использовать весь массив знаний человечества (один из крупнейших датасетов включает около 50 ТБ текста), где факты перемешаны с мемами.
• Стали обучать модель «продолжать мысль», затем — осмысленно отвечать на вопросы.
• На выходе получили LLM и ChatGPT.
• Главный навык теперь — не математика, а постановка задач, самый востребованный специалист — не дата-сайентист, а эксперт предметной области, способный грамотно описать критерии качества и «скормить» их модели, которая условно «знает всё, что знает человечество».
• Исчез жёсткий структурированный формат входа и выхода из модели — теперь везде используется текст (это может быть обычный язык, JSON и пр.).
• Появилась возможность интеграции в любое решение и в любом формате.
Спад заказов уже чувствуют копирайтеры, в зоне риска также находятся разработчики.
‼️ Но эффективнее всего нейросети могут заменить руководителей! Почему?
По мере роста компаний резко «дорожает» коммуникация. Как и в распределённом машинном обучении: чем больше исполнителей — тем сложнее координация. При этом синхронизация в основном идёт «через верх», от руководителя к руководителю и далее спускается вниз по цепочке. Множество людей играют роль передатчиков информации, иногда — «принимателей» отдельных решений.
Большие языковые модели уже позволяют автоматизировать ключевую часть этой работы: формулировку задач, агрегирование контекста, подготовку решений и обоснований, унификацию форматов коммуникации и интеграцию в процессы. Поэтому импакт по управленческим ролям — максимальный.
Узкое место — скорость коммуникаций. Пример: я как руководитель могу получать от 300 писем в день, а ответы на них откладываются на часы и сутки. Хотя по факту я должен лишь делегировать решение задачи через forward.
— AI-помощник руководителя подключается к рабочей почте, анализирует входящие, соотносит вопросы с составом команды, понимает, кому делегировать, и делает это сам. Скорость реакции увеличивается с часов до минут, циркуляция информации ускоряется.
— Коллеги «выращивают» собственных ассистентов, которые отвечают на запросы, обращаясь к Confluence и базе знаний. Типовые запросы — «найти материалы с встречи» — RAG-бот закрывает без проблем.
— Если «замкнуть цикл» и добавить бота, работающего напрямую с данными, задавший вопрос сотрудник через пять минут получает готовое решение.
Продолжение - в следующем посте
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍5❤1
Как использовать GenAI для личной продуктивности руководителя? Часть 2 (Часть 1 см. здесь).
✅ Как это работает? Никакой магии!
Два ключевых компонента:
— LLM (в нашем случае это GigaChat, работающий во внутренней сети).
— n8n (neightn) — workflow-движок из «до-LLM-ного» прошлого, который оркестрирует процессы и не требует глубоких математических знаний.
n8n берет описание команды со страницы в Confluence, анализирует его с помощью GigaChat и собирает векторное хранилище на Postgres с перечнем команд, зон ответственности, имен, контактов и т. п. По сути, это классическое RAG-решение, собранное "на коленках из кубиков".
Когда приходит письмо, он делает то же самое, только в обратном направлении: анализирует содержимое, с помощью GigaChat извлекает сформулированные в письме вопросы, для каждого подбирает подходящую команду-адресата и отправляет ответ.
Лицензия позволяет свободно использовать продукт для внутренних процессов, при этом базового функционала достаточно, чтобы собирать полноценные решения. Имеются готовые модули для интеграции почти со всеми распространёнными системами, а также модули от сообщества, которые постоянно расширяют функциональность.
Для рабочих задач решение можно развернуть локально. В моём случае, например, используются две площадки: мой рабочий ноутбук и офисная сеть банка, следовательно, данные не покидают периметр рабочей сети Сбера, а самые чувствительные данные — например, почта — обрабатываются исключительно на ноутбуке.
👉 Примеры эффективного использования решения
— Командировки. n8n знает мои предпочтения по транспорту и, как только появляется информация о поездке, сам пишет travel-агентству. Бронирование оформляется без моих припозднившихся сообщений — нужные рейсы не упускаем.
— Отчёты по спринту. В n8n на базе GigaChat запустили генератор статус-отчёта: каждый день в 10:00 он обновляет страницу в Confluence — какие задачи в работе, каков прогресс исполнения, а также текстовое резюме. Таким образом закрывается основная боль Jira: неповоротливость и разрозненные разделы.
— Напоминания в корпсреде. Агент «Дятел» следит за назначениями в Jira и пингует исполнителей; чем дольше задача без движения, тем «агрессивнее» формулировки. Результат — меньше зависаний и тишины по задачам.
✅ Коротко об архитектуре решения
Структурно решение представляет собой набор стандартных «кубиков»: интеграция с Confluence, конвертация HTML в Markdown, запись в PostgreSQL и т.п. Самое интересное здесь —«кубики», связанные с LLM.
Особенно полезны такие инструменты, как, например, Information Extractor, который на входе принимает "плоский" текст, а на выходе формирует JSON (отлично помогает при трактовке непонятных писем), и классификатор, который помогает определить категорию текста для его направления по одной из веток workflow, а также векторные индексы для построения RAG.
Очень ценный инструмент — нода типа AI-agent, фрагмент workflow, отвечающий за командировки и способный учитывать изменения в списке пожеланий в онлайн-режиме.
Надеюсь, не за горами день, когда система проснётся и скажет: «Спасибо, дальше я сама».
Два ключевых компонента:
— LLM (в нашем случае это GigaChat, работающий во внутренней сети).
— n8n (neightn) — workflow-движок из «до-LLM-ного» прошлого, который оркестрирует процессы и не требует глубоких математических знаний.
n8n берет описание команды со страницы в Confluence, анализирует его с помощью GigaChat и собирает векторное хранилище на Postgres с перечнем команд, зон ответственности, имен, контактов и т. п. По сути, это классическое RAG-решение, собранное "на коленках из кубиков".
Когда приходит письмо, он делает то же самое, только в обратном направлении: анализирует содержимое, с помощью GigaChat извлекает сформулированные в письме вопросы, для каждого подбирает подходящую команду-адресата и отправляет ответ.
Лицензия позволяет свободно использовать продукт для внутренних процессов, при этом базового функционала достаточно, чтобы собирать полноценные решения. Имеются готовые модули для интеграции почти со всеми распространёнными системами, а также модули от сообщества, которые постоянно расширяют функциональность.
Для рабочих задач решение можно развернуть локально. В моём случае, например, используются две площадки: мой рабочий ноутбук и офисная сеть банка, следовательно, данные не покидают периметр рабочей сети Сбера, а самые чувствительные данные — например, почта — обрабатываются исключительно на ноутбуке.
👉 Примеры эффективного использования решения
— Командировки. n8n знает мои предпочтения по транспорту и, как только появляется информация о поездке, сам пишет travel-агентству. Бронирование оформляется без моих припозднившихся сообщений — нужные рейсы не упускаем.
— Отчёты по спринту. В n8n на базе GigaChat запустили генератор статус-отчёта: каждый день в 10:00 он обновляет страницу в Confluence — какие задачи в работе, каков прогресс исполнения, а также текстовое резюме. Таким образом закрывается основная боль Jira: неповоротливость и разрозненные разделы.
— Напоминания в корпсреде. Агент «Дятел» следит за назначениями в Jira и пингует исполнителей; чем дольше задача без движения, тем «агрессивнее» формулировки. Результат — меньше зависаний и тишины по задачам.
Структурно решение представляет собой набор стандартных «кубиков»: интеграция с Confluence, конвертация HTML в Markdown, запись в PostgreSQL и т.п. Самое интересное здесь —«кубики», связанные с LLM.
Особенно полезны такие инструменты, как, например, Information Extractor, который на входе принимает "плоский" текст, а на выходе формирует JSON (отлично помогает при трактовке непонятных писем), и классификатор, который помогает определить категорию текста для его направления по одной из веток workflow, а также векторные индексы для построения RAG.
Очень ценный инструмент — нода типа AI-agent, фрагмент workflow, отвечающий за командировки и способный учитывать изменения в списке пожеланий в онлайн-режиме.
Надеюсь, не за горами день, когда система проснётся и скажет: «Спасибо, дальше я сама».
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍2
Media is too big
VIEW IN TELEGRAM
Как генеративные BI-агенты превращают запрос в решение «здесь и сейчас»?
Об этом на Fintech Data Day рассказал Александр Жаворонков, ведущий консультант по LLM системам Neoflex.
Что такое генеративный BI-агент
Генеративный ИИ-ассистент, встроенный в инфраструктуру управления данными банка. Он закрывает три уровня аналитики:
— Denoscriptive BI: что произошло и как это описать;
— Predictive BI: что мы можем предсказать;
— Prenoscriptive BI: что делать дальше и какие рекомендации дать.
Зачем это бизнесу
— Быстрый доступ к аналитике и ответам “здесь и сейчас”.
— Радикальное сокращение времени на ad-hoc-отчеты — с недель до минут.
— Более глубокий и качественный анализ без лишних итераций.
— Снижение стоимости подготовки отчетности.
— Доступ к данным для нетехнических сотрудников и автоматизация запросов.
Как выглядит стандартный процесс и процесс с агентом
Стандартно: руководитель формулирует задачу → дата-инженеры готовят витрины данных → аналитики собирают отчет → требования уточняются → цикл повторяется. Это занимает дни или недели.
С BI-агентом: автоматизируются ключевые этапы — от формирования запросов до визуализации и рекомендаций. Время подготовки отчета сокращается до минут.
Место агента в архитектуре
Генеративный агент — не отдельный продукт а часть корпоративной Lakehouse-архитектуры. Он использует наработки каталога данных, lineage и Data Quality, опираясь на проверенные источники для корректных и воспроизводимых отчетов.
Что добавляем в типовой Lakehouse:
— Векторные хранилища для базы знаний — агент должен ориентироваться во внутреннем контексте и терминологии;
— Сервис инференса LLM и пул GPU-узлов — для поиска и генерации;
— Agent Studio — платформу управления жизненным циклом агентов.
Что под капотом у BI-агента:
🛠Инструменты:
— Execute SQL — генерация и выполнение SQL;
— RAG Tool — извлечение релевантного контекста из документов;
— Graph Tool.
📚База знаний:
— DDL-схемы (описание данных),
— внутренние документы (регламенты, методики),
— ранее использованные SQL-запросы.
С помощью RAG агент подбирает контекст, а генерация SQL формирует запросы к нужным источникам с учетом DDL. На этапах планирования и рефлексии агент уточняет шаги и повышает точность ответа.
Что нужно, чтобы ассистенты приносили максимальную пользу:
— Каталог данных и сквозной lineage: фиксируем происхождение данных, их структуру и назначение;
— Программа Data Quality и Data Observability, управление схемами и data contracts: контролируем корректность, стабильность и предсказуемость изменений.
— Платформа управления агентами — включаем модели и агентов в цикл CI/CD: непрерывная интеграция и развертывание, автоматическое тестирование, управление релизами и версиями.
— Корпоративная база знаний: документы с определениями, метриками и методиками расчётов, чтобы модель корректно извлекала параметры и понимала логику показателей.
— Data API: устойчивые и безопасные точки доступа к данным.
Пример использования AI-агента аналитиком:
Вопрос: почему снизилась маржа по розничным кредитам.
Агент:
— через RAG подтягивает определения и методики из базы знаний;
— подбирает релевантные метрики и формулы;
— формирует и исполняет SQL‑запросы, строит визуализации;
— уточняет гипотезы и итеративно формирует обоснованный ответ.
Например, при плановой маржинальности 5% и фактической 4,1 агент определит, в каких таблицах и по каким продуктам возникло отклонение, и за счёт каких факторов (ставка, стоимость фондирования, уровень просрочки, комиссии и т. п.).
Итог: за считанные минуты, без ручного SQL, агент формирует для аналитика прозрачный ход рассуждений, план действий и конкретные рекомендации.
Об этом на Fintech Data Day рассказал Александр Жаворонков, ведущий консультант по LLM системам Neoflex.
Что такое генеративный BI-агент
Генеративный ИИ-ассистент, встроенный в инфраструктуру управления данными банка. Он закрывает три уровня аналитики:
— Denoscriptive BI: что произошло и как это описать;
— Predictive BI: что мы можем предсказать;
— Prenoscriptive BI: что делать дальше и какие рекомендации дать.
Зачем это бизнесу
— Быстрый доступ к аналитике и ответам “здесь и сейчас”.
— Радикальное сокращение времени на ad-hoc-отчеты — с недель до минут.
— Более глубокий и качественный анализ без лишних итераций.
— Снижение стоимости подготовки отчетности.
— Доступ к данным для нетехнических сотрудников и автоматизация запросов.
Как выглядит стандартный процесс и процесс с агентом
Стандартно: руководитель формулирует задачу → дата-инженеры готовят витрины данных → аналитики собирают отчет → требования уточняются → цикл повторяется. Это занимает дни или недели.
С BI-агентом: автоматизируются ключевые этапы — от формирования запросов до визуализации и рекомендаций. Время подготовки отчета сокращается до минут.
Место агента в архитектуре
Генеративный агент — не отдельный продукт а часть корпоративной Lakehouse-архитектуры. Он использует наработки каталога данных, lineage и Data Quality, опираясь на проверенные источники для корректных и воспроизводимых отчетов.
Что добавляем в типовой Lakehouse:
— Векторные хранилища для базы знаний — агент должен ориентироваться во внутреннем контексте и терминологии;
— Сервис инференса LLM и пул GPU-узлов — для поиска и генерации;
— Agent Studio — платформу управления жизненным циклом агентов.
Что под капотом у BI-агента:
🛠Инструменты:
— Execute SQL — генерация и выполнение SQL;
— RAG Tool — извлечение релевантного контекста из документов;
— Graph Tool.
📚База знаний:
— DDL-схемы (описание данных),
— внутренние документы (регламенты, методики),
— ранее использованные SQL-запросы.
С помощью RAG агент подбирает контекст, а генерация SQL формирует запросы к нужным источникам с учетом DDL. На этапах планирования и рефлексии агент уточняет шаги и повышает точность ответа.
Что нужно, чтобы ассистенты приносили максимальную пользу:
— Каталог данных и сквозной lineage: фиксируем происхождение данных, их структуру и назначение;
— Программа Data Quality и Data Observability, управление схемами и data contracts: контролируем корректность, стабильность и предсказуемость изменений.
— Платформа управления агентами — включаем модели и агентов в цикл CI/CD: непрерывная интеграция и развертывание, автоматическое тестирование, управление релизами и версиями.
— Корпоративная база знаний: документы с определениями, метриками и методиками расчётов, чтобы модель корректно извлекала параметры и понимала логику показателей.
— Data API: устойчивые и безопасные точки доступа к данным.
Пример использования AI-агента аналитиком:
Вопрос: почему снизилась маржа по розничным кредитам.
Агент:
— через RAG подтягивает определения и методики из базы знаний;
— подбирает релевантные метрики и формулы;
— формирует и исполняет SQL‑запросы, строит визуализации;
— уточняет гипотезы и итеративно формирует обоснованный ответ.
Например, при плановой маржинальности 5% и фактической 4,1 агент определит, в каких таблицах и по каким продуктам возникло отклонение, и за счёт каких факторов (ставка, стоимость фондирования, уровень просрочки, комиссии и т. п.).
Итог: за считанные минуты, без ручного SQL, агент формирует для аналитика прозрачный ход рассуждений, план действий и конкретные рекомендации.
👍4🔥3❤1