ИИ-помощник для востоковедов: как Яндекс помогает гуманитарной науке
В Институте востоковедения РАН запустили систему на базе Yandex AI Studio, которая анализирует научные тексты на восточных языках и формирует аналитические выжимки — фактически, это ИИ-ассистент для исследователей.
🔹 В основе решения — генеративные модели Yandex Cloud, обученные совместно специалистами платформы и студентами Школы анализа данных.
🔹 Архитектура построена на Yandex AI Studio — платформе для разработки и внедрения ИИ-агентов.
🔹 Уже обработано более 1,5 млн документов на четырех вариантах китайского языка: континентальном, тайваньском, гонконгском и сингапурском.
Система умеет выделять ключевые факты, создавать краткие аналитические отчёты и даже генерировать русскоязычные дайджесты по публикациям из китайских СМИ. В перспективе — поддержка японского, арабского, турецкого и персидского языков.
В итоге — скорость анализа выросла с нескольких часов до 10–15 минут на исследовательскую задачу, что открывает новые возможности для гуманитарных исследований. Проект — наглядный пример того, как облачные технологии и LLM из Yandex Cloud применяются в академической среде для решения специализированных задач.
В Институте востоковедения РАН запустили систему на базе Yandex AI Studio, которая анализирует научные тексты на восточных языках и формирует аналитические выжимки — фактически, это ИИ-ассистент для исследователей.
🔹 В основе решения — генеративные модели Yandex Cloud, обученные совместно специалистами платформы и студентами Школы анализа данных.
🔹 Архитектура построена на Yandex AI Studio — платформе для разработки и внедрения ИИ-агентов.
🔹 Уже обработано более 1,5 млн документов на четырех вариантах китайского языка: континентальном, тайваньском, гонконгском и сингапурском.
Система умеет выделять ключевые факты, создавать краткие аналитические отчёты и даже генерировать русскоязычные дайджесты по публикациям из китайских СМИ. В перспективе — поддержка японского, арабского, турецкого и персидского языков.
В итоге — скорость анализа выросла с нескольких часов до 10–15 минут на исследовательскую задачу, что открывает новые возможности для гуманитарных исследований. Проект — наглядный пример того, как облачные технологии и LLM из Yandex Cloud применяются в академической среде для решения специализированных задач.
❤7🔥3👎1
xAI и Anthropic-Amazon: дата-центры на 1 ГВт 🤔
Кажется что темпы, с которыми строятся крупнейшие дата-центры, становятся все больше. Аналитическая группа Epoch AI прогнозирует, что xAI и Anthropic-Amazon станут первыми, кто выйдет на 1 ГВт мощности, а их дата-центры будут запущены уже в 2026 году. Это огромные масштабы.
Компания Epoch AI анализирует скорость и мощность строительства, используя спутниковые снимки, разрешительную документацию и отчеты других компаний. Люди готовы на многое, чтобы заглянуть в будущее🐰
Data Science
Кажется что темпы, с которыми строятся крупнейшие дата-центры, становятся все больше. Аналитическая группа Epoch AI прогнозирует, что xAI и Anthropic-Amazon станут первыми, кто выйдет на 1 ГВт мощности, а их дата-центры будут запущены уже в 2026 году. Это огромные масштабы.
Для начала немного фактов. xAI с его Colossus 2 и Anthropic-Amazon с New Carlisle — два крупных проекта, которые на данный момент находятся на финальной стадии строительства. И, что интересно, xAI обгоняет всех по скорости: в феврале 2025 года уже началось строительство, а уже в феврале 2026-го дата-центр выйдет на рекордные 1 ГВт. Для сравнения, Anthropic-Amazon стартанули в феврале 2024 года, и их дата-центр на 1 ГВт будет готов в начале января 2026-го.
А что дальше? В 2026 году планируют выйти на ту же мощность и другие крупные игроки — Microsoft, Meta и OpenAI. Напоминаю, что Meta признана экстремистской организацией на территории России.
Эти дата-центры открывают новый стандарт мощности, который в 3-4 раза превышает все существующие ИИ-кластеры. Строительство таких объектов теперь стало своего рода конвейером — от начала стройки до выхода на 1 ГВт мощности проходят всего 12-24 месяца. Это намного быстрее, чем можно было себе представить, когда речь идет о таких масштабах.
Компания Epoch AI анализирует скорость и мощность строительства, используя спутниковые снимки, разрешительную документацию и отчеты других компаний. Люди готовы на многое, чтобы заглянуть в будущее
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1
Как нейросетей учат ставить диагнозы в виртуальной клинике 💻
Задумывались ли вы когда-нибудь, как ИИ может быть полезен в медицине, особенно в постановке диагнозов? Это целая система, которая должна не только интерпретировать симптомы, но и планировать, какие тесты нужны для подтверждения гипотезы. И вот, в этом направлении Google и другие исследователи сделали большой шаг вперёд.
Когда такие ИИ действительно смогут заменить врача? В медицине важен не только правильный диагноз, но и способность действовать в экстренных ситуациях.
Data Science
Задумывались ли вы когда-нибудь, как ИИ может быть полезен в медицине, особенно в постановке диагнозов? Это целая система, которая должна не только интерпретировать симптомы, но и планировать, какие тесты нужны для подтверждения гипотезы. И вот, в этом направлении Google и другие исследователи сделали большой шаг вперёд.
Давайте разберемся, как это работает. В медицине задача диагностики — это не просто моментальное суждение, а пошаговое принятие решений. Нужно собрать информацию, сделать тесты и сделать выводы. И вот тут традиционные модели ИИ могут забуксовать, потому что они часто не умеют планировать, какие шаги важны на каждом этапе. К счастью, теперь есть решения, которые могут не только диагностировать, но и эффективно управлять процессом тестирования. Одним из таких проектов стал DiagGym, где ИИ не только диагностирует, но и решает, что и когда тестировать.
Виртуальная клиника — модель для диагностики
DiagGym — это, по сути, имитация клиники. В ней виртуальные агенты выбирают, какие тесты провести, и получают награду не только за правильный диагноз, но и за оптимизацию процесса тестирования. Это настоящий симулятор, где агент учится не просто диагностировать, но и выбирать правильные шаги, чтобы не тратить время и ресурсы на лишние тесты. Такой подход делает ИИ гораздо более умным и гибким в своей работе.
Для этого используется метод обучения с подкреплением (RL), где агент учится на каждом шаге, выбирая, какие тесты делать, и когда завершить процесс. Чем быстрее он ставит диагноз с меньшими затратами, тем выше его награда. ИИ не просто учит нейросети правильным ответам, он учит её стратегическому планированию, как настоящий врач!
Внутри этой виртуальной клиники обучается агент, который на каждом шаге решает, какой тест заказать. И что интересно — этот агент показывает хорошие результаты. Например, в задаче с аппендицитом агент правильно выбирает тесты, такие как общий анализ крови и КТ, чтобы подтвердить диагноз. Это важно, потому что в реальной жизни важны не только точные ответы, но и способность выбрать правильный путь для диагностики.
Однако не всё так идеально. В одном из случаев агент диагностирует внематочную беременность, но не предпринимает нужных шагов для неотложного лечения. Это показывает, что несмотря на точность диагностики, ИИ ещё не может полностью заменить врача.
Когда такие ИИ действительно смогут заменить врача? В медицине важен не только правильный диагноз, но и способность действовать в экстренных ситуациях.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍2🔥2
Forwarded from xCode Journal
Стартап Fireflies в начале брал $100 в месяц за ИИ, которого не было
Два основателя сами подключались к Zoom-встречам, сидели там молча и записывали всё вручную, а потом через 10 минут кидали саммари. После сотен встреч и бессонных ночей они заработали достаточно денег, чтобы арендовать помещение в Сан-Франциско и действительно автоматизировать процесс.
Теперь же Fireflies оценивается в $1 млрд.
✖️ xCode Journal
Два основателя сами подключались к Zoom-встречам, сидели там молча и записывали всё вручную, а потом через 10 минут кидали саммари. После сотен встреч и бессонных ночей они заработали достаточно денег, чтобы арендовать помещение в Сан-Франциско и действительно автоматизировать процесс.
Теперь же Fireflies оценивается в $1 млрд.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥21😁16❤2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Как Яну Лекуну удалось предсказать будущее ИИ 👏
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Картинка, как из старых фильмов: Яну Лекуну — 32 года,перед камерой и показывает миру свою сверточную нейросеть, которая распознает цифры, написанные разным почерком.
Для 1988 года это был настоящий прорыв. Свёрточные нейросети, которые сейчас мы воспринимаем как нечто обычное, только начинали свой путь. Сегодня эти системы могут распознавать лица на фотографиях, анализировать контекст изображений и даже генерировать новые изображения на основе текста. Но тогда? Тогда это было как сделать машину времени из старого компьютера.
Сегодня нейросети, подобные тем, что разработал Лекун, используются повсеместно. За этими технологиями стоят десятки лет работы, исследований и попыток сделать невозможное возможным. Лекун, предсказавший этот тренд, теперь возглавляет одно из самых крупных подразделений, и, наверное, вряд ли тогда он думал, что будет играть такую важную роль в будущем ИИ.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡19👍11❤4🔥1
Google DeepMind научила ИИ создавать «красивые» шахматные головоломки ⌨️
Шахматы — игра, в которой каждый ход, как и каждое решение, имеет свою красоту. И вот, команда Google DeepMind решила добавить ещё немного магии в этот мир. Они научили модель генерировать не просто шахматные задачи, а красивые, уникальные головоломки с необычными позициями и ходами.
И, конечно же, все эти задачи теперь можно найти в специальной подборке на Chess com, так что любители шахмат могут оценить красоту нового поколения задач.
Data Science
Шахматы — игра, в которой каждый ход, как и каждое решение, имеет свою красоту. И вот, команда Google DeepMind решила добавить ещё немного магии в этот мир. Они научили модель генерировать не просто шахматные задачи, а красивые, уникальные головоломки с необычными позициями и ходами.
Первый шаг был довольно стандартным — модель обучили на 4,4 миллиона задач из коллекции Lichess. Это позволило ей освоить основы: как выглядят стандартные шахматные головоломки, как обычно решаются задачи и так далее. Однако, это было только начало.
Затем, для того чтобы модель научилась создавать действительно интересные задачи, разработчики обратились к гроссмейстерам Мэттью Садлеру и Джонатану Левитту. Вместе они выбрали и проанализировали целый список необычных головоломок, объяснив, что делает их такими уникальными и красивыми. С помощью этого подхода, модель стала генерировать задачи, которые были не просто новыми, но и неожиданными.
Задачи оценивались по четырём ключевым критериям:
• Уникальность — в каждой задаче должно быть одно решение, а не несколько вариантов
• Новизна — задача должна сильно отличаться от того, что уже есть в базе данных
• Контринтуитивность — задача должна вызывать удивление. Сначала решение кажется очевидным, но на более глубоком уровне возникает сложность
• Эстетика — ход решения должен быть красивым и необычным, расположение фигур на доске тоже должно поражать своей гармонией
Сначала контринтуитивность задач, сгенерированных ИИ, была низкой — всего 0,22%. Но после дообучения и сотрудничества с шахматистами, этот показатель подскочил до 2,5%. Для сравнения, у реальных задач на Lichess показатель контринтуитивности у людей составляет около 2,1%.
Что получилось в итоге?
Задачи, созданные ИИ, оценили не только математические алгоритмы, но и реальные шахматисты. В группе с рейтингом от 2000 до 2400 Эло их оценки оказались значительно выше, чем у стандартных задач из Lichess. Итог: головоломки, созданные ИИ, получили признание профессионалов.
И, конечно же, все эти задачи теперь можно найти в специальной подборке на Chess com, так что любители шахмат могут оценить красоту нового поколения задач.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤11🔥4🐳2
Как агент Lumine учит ИИ играть с открытым миром
Недавно в мире искусственного интеллекта появилась настоящая звезда — Lumine, агент, который, кажется, с каждым днем становится всё более похож на настоящего игрока. Этот ИИ теперь способен проходить сложные миссии в открытых мирах вроде Genshin Impact и делать это не хуже, чем человек. Звучит круто, не так ли? Но давайте разберемся, что стоит за этим достижением😡
В будущем такие агенты могут стать настоящими партнерами в играх, выполняя сложные задачи без дополнительного обучения, или даже помогать людям с их собственными игровыми миссиями.
Data Science
Недавно в мире искусственного интеллекта появилась настоящая звезда — Lumine, агент, который, кажется, с каждым днем становится всё более похож на настоящего игрока. Этот ИИ теперь способен проходить сложные миссии в открытых мирах вроде Genshin Impact и делать это не хуже, чем человек. Звучит круто, не так ли? Но давайте разберемся, что стоит за этим достижением
Во-первых, Lumine — это не просто ИИ для простых задач. Его разработали с фокусом на многозадачность в 3D-играх с открытым миром. Борьба с врагами, решение головоломок, взаимодействие с NPC, управление на клавиатуре и мыши — всё это в реальном времени. Но задача была не просто научить ИИ двигаться по карте, а сделать его адаптивным, чтобы он мог правильно ориентироваться в 3D пространстве, управлять интерфейсом и помнить контекст происходящего. Это совсем не так просто, как может показаться на первый взгляд.
Почему это сложно?
Закрытые среды, например, простые 2D-игры или даже тренировки на ограниченных данных, уже продвинулись далеко. Но вот открытые миры, такие как Genshin Impact, ставят свои задачи. Агент должен учитывать не только огромные пространства, но и взаимодействовать с множеством объектов, следить за погодными условиями, физикой, а ещё вовремя выбирать правильные действия в диалогах и сражениях. Все эти вещи нужно делать под жесткими ограничениями по времени, иначе просто не успеешь на очередной квест.
Как он обучается?
В основе Lumine лежит довольно интересная модель: агент воспринимает мир как человек, получая кадры с экрана игры (каждые 200 миллисекунд) и переводи эти кадры в текстовые команды для управления — как будто он «входит» в игру через клавиатуру и мышь. Важный момент: в этой модели используется так называемая гибридная стратегия рассуждений. То есть, агент решает, когда ему нужно остановиться и подумать, а когда можно сразу выполнить команду, не теряя времени на размышления.
Обучение проходит в три этапа: сначала агент учится просто управлять и следить за действиями в игре, затем он учится следовать инструкциям, а на третьем этапе — креативно решать задачи и использовать логическое мышление. Это действительно многоэтапный процесс, где важно обучать ИИ думать, но не в ущерб быстродействию.
На практике Lumine довольно успешен: он проходит сложные миссии за 56 минут (что примерно соответствует живому игроку), и главное — он не ломается, если его перенести в другую игру. То есть, после того как его обучили в Genshin Impact, он может адаптироваться и к другим игровым мирам, например, Honkai: Star Rail. Это действительно впечатляющая гибкость.
Что не идеально?😺
Как и любой другой ИИ, Lumine не без недостатков. Он не слишком любит лечиться в сложных ситуациях, у него иногда возникают проблемы с навигацией и он плохо справляется с быстрыми перемещениями по карте. Всё это, конечно, поправимо, и разработчики уже работают над улучшениями.
В будущем такие агенты могут стать настоящими партнерами в играх, выполняя сложные задачи без дополнительного обучения, или даже помогать людям с их собственными игровыми миссиями.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
Искусственный интеллект и стрелки на часах 🍦
В новом бенчмарке AI World Clocks ни одна модель не смогла корректно выставить стрелки на часах. Да, даже GPT-5 и Grok 4 — лучшие из лучших!
В будущем, чтобы ИИ стал по-настоящему полезным, нужно будет не только улучшать его способности, но и создать более сложные и «умные» интерфейсы. Иначе мы так и будем каждый раз объяснять ему, что такое «угол» или как вообще работает математика.
Data Science
В новом бенчмарке AI World Clocks ни одна модель не смогла корректно выставить стрелки на часах. Да, даже GPT-5 и Grok 4 — лучшие из лучших!
Создавал бенчмарк Брайан Мур, и он предложил моделям простую задачу: создать в HTML часы с правильно отображаемым временем. Каждую минуту ИИ генерирует новый код, который должен отображать актуальное время. Но вот парадокс — код может быть почти идеальным, но сам циферблат получается кривым и стрелки часто показывают не то время.
Задача была упрощена намеренно. Модели дают всего пару строк кода, без детальных инструкций: просто «сделай часы». И как результат — красивый циферблат, но с ошибками в математике. Модели не проверяют, верно ли показывают стрелки, не учитывают углы и даже не проверяют, что все элементы стоят на своих местах. Всё это подводит нас к одному важному моменту: ИИ не умеет дорабатывать свои ошибки самостоятельно, если не задать чёткие параметры.
Эксперимент наглядно показал, как много нужно доработать в интерфейсах ИИ. Проблема не только в самом ИИ, но и в том, как люди взаимодействуют с ним. Многие пользователи в запросах не указывают деталей и ждут, что ИИ сам догадается, что и как нужно сделать. Например, на запрос «сделай часы» — ИИ может нарисовать просто циферблат, но не проверить, правильное ли время.
В будущем, чтобы ИИ стал по-настоящему полезным, нужно будет не только улучшать его способности, но и создать более сложные и «умные» интерфейсы. Иначе мы так и будем каждый раз объяснять ему, что такое «угол» или как вообще работает математика.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10❤2🔥2👎1
Forwarded from xCode Journal
Это самая большая подборка готовых шаблонов для любых сфер и задач: от парсеров и ботов до ИИ-агентов. Каждый из них снабжён описанием, нужными инструментами и пошаговой инструкцией.
Ну что ребята, автоматизация?
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Ноябрь — месяц One Day Offer в GigaChat и Kandinsky 📆
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
В ноябре команды двух топовых IT-продуктов Сбера планируют обрести новых классных коллег — DL Engineers и Researchers, чтобы вместе работать над GigaChat и Kandinsky: развивать, обучать и дообучать модели.
Смотрите расписание One Day Offer и не упустите шанс присоединиться к крупнейшему AI-комьюнити. Целых восемь мероприятий, чтобы изменить свою карьеру и жизнь — выбирайте то, что подходит под навыки и цели, и регистрируйтесь!
🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
BERT: Всего лишь один шаг диффузии текста 🤔
В одном интересном посте объяснили, как то, что мы привыкли называть диффузией текста, на самом деле является универсальной версией классического обучения BERT. Давайте разберемся, о чём тут вообще речь.
Модели, основанные на таком подходе, способны генерировать текст, который вполне осмыслен, но ещё не всегда идеально последовательный. Это, кстати, открывает интересную возможность для будущего. Если BERT — это всего один шаг диффузии, то будущее может принадлежать моделям, которые будут объединять понимание и генерацию текста в одном процессе.
Data Science
В одном интересном посте объяснили, как то, что мы привыкли называть диффузией текста, на самом деле является универсальной версией классического обучения BERT. Давайте разберемся, о чём тут вообще речь.
Если вы знакомы с BERT, то знаете, что модель работает следующим образом: она берёт текст, маскирует некоторые слова и учится угадывать, какие именно были скрыты. Всё довольно просто, но… есть нюанс.
Теперь представьте, что диффузия — это примерно то же самое, но только многоступенчатое. Вместо того чтобы спрятать одно слово, как в BERT, модель добавляет «шум» на каждом шаге и постепенно восстанавливает текст. Она как бы уничтожает его, а потом поэтапно восстанавливает, пока не получит обратно чёткое и осмысленное предложение.
То есть, по сути, в BERT происходит один шаг «очищения», где модель угадывает скрытые слова. А в диффузионной модели таких шагов может быть несколько, что позволяет превратить случайные токены в осмысленный текст.
От BERT до генератора текста🤨
Чтобы показать это на практике, автор fine-tuned RoBERTa(улучшенную версию BERT) с использованием датасета WikiText. На каждом шаге модель заменяла некоторые токены на <MASK>, восстанавливала их, а затем снова маскировала. И так несколько раз. Через несколько итераций RoBERTa начинала генерировать осмысленный текст, даже без автогрегрессного декодера, как у GPT.
В какой-то момент автор наткнулся на работу DiffusionBERT, где эта идея была развита глубже и подтвердилась реальными результатами. И вот оно: BERT можно рассматривать как одномоментную версию диффузии текста. Если добавить больше шагов, получится полноценный диффузионный генератор текста.
Модели, основанные на таком подходе, способны генерировать текст, который вполне осмыслен, но ещё не всегда идеально последовательный. Это, кстати, открывает интересную возможность для будущего. Если BERT — это всего один шаг диффузии, то будущее может принадлежать моделям, которые будут объединять понимание и генерацию текста в одном процессе.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4🐳1
«Что может пойти не так?»: датацентр в Южной Корее, которым будет управлять ИИ 🐹
В Южной Корее готовятся запустить амбициозный проект — датацентр, который будет спроектирован и управляться искусственным интеллектом. ИИ будет решать всё: от выбора площадки до исправления поломок в процессе работы.
Вопрос, конечно, в том, как всё это будет работать в реальности. И хотя идея звучит интересно, никто не гарантирует, что всё пойдёт гладко. Ну и что будет, если ИИ вдруг решит, что в мире больше не нужно охлаждать серверы?😂
Data Science
В Южной Корее готовятся запустить амбициозный проект — датацентр, который будет спроектирован и управляться искусственным интеллектом. ИИ будет решать всё: от выбора площадки до исправления поломок в процессе работы.
Проект под названием Project Concord стоит целых 35 миллиардов долларов, и планируется, что мощность датацентра составит 3 гигаватта. Ожидается, что он будет способен решать задачи на совершенно новом уровне. ИИ будет работать не только на этапе строительства (выбор участка, проектирование), но и в процессе эксплуатации, следя за энергопотреблением, охлаждением и даже устраняя неисправности без вмешательства человека. Если задуматься, это действительно масштабный шаг в будущее.
Проект должен быть завершён в 2028 году, и, конечно, это вызвало много обсуждений. Идея сама по себе не нова. ИИ уже активно применяется в разных областях, но создать полностью автономный датацентр — это уже что-то совершенно другое.
Вопрос, конечно, в том, как всё это будет работать в реальности. И хотя идея звучит интересно, никто не гарантирует, что всё пойдёт гладко. Ну и что будет, если ИИ вдруг решит, что в мире больше не нужно охлаждать серверы?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
😁5❤2
Forwarded from xCode Journal
Она обходит другие топовые ИИ, включая ChatGPT 5.1, почти на всех бенчах. Так, у нее первое место на «Последнем экзамене человечества» с рекордными 37,5%, а на MathArena Apex — 22,3%.
Для сравнения и понимания масштаба — у GPT-5.1 всего 1%.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤5🐳1
Могут ли ИИ понять скрытые мотивы за словами? 🚬
Представьте, что вы читаете статью или пост в соцсети, где кажется, что автор делится полезным советом. А вот вопрос: а не скрывается ли за этим чей-то коммерческий интерес? Например, может ли ИИ определить, когда текст не просто рекомендация, а рекламная кампания? Вот так вот задумались в Anthropic и провели эксперимент, чтобы проверить, насколько LLMs могут «раскусить» скрытые мотивы за словами.
Если вы используете ИИ для анализа новостей, рекомендаций или рекламы, стоит помнить: он может не заметить коммерческий подтекст. И если модель не поймёт, что за текстом стоит скрытая мотивация, то она будет воспринимать его как честное и доверительное сообщение.
Data Science
Представьте, что вы читаете статью или пост в соцсети, где кажется, что автор делится полезным советом. А вот вопрос: а не скрывается ли за этим чей-то коммерческий интерес? Например, может ли ИИ определить, когда текст не просто рекомендация, а рекламная кампания? Вот так вот задумались в Anthropic и провели эксперимент, чтобы проверить, насколько LLMs могут «раскусить» скрытые мотивы за словами.
Модели предложили тексты, которые делились на три категории. Задача ИИ была простая. Определить, насколько можно доверять таким сообщениям и заметить скрытые интересы.
• Нейтральные тексты — обычные советы или обзоры, не преследующие личной выгоды.
• Тексты с скрытым мотивом — когда человек что-то говорит, потому что его за это заплатили или ему выгодно (например, скрытая реклама).
• Явные предупреждения — текст, прямо заявляющий, что автор получил оплату за рекламу.
Как справились модели?
Когда речь шла о простых примерах, где мотив очевиден, модели были на высоте и могли логично объяснить, что сообщение может быть предвзятым. Но вот когда дело касалось реальных рекламных текстов или постов с оплаченной интеграцией, модели часто не могли распознать контекст. Они воспринимали такие сообщения как искренние и надежные.
Интересно, что если модели заранее напоминали, что нужно искать скрытые мотивы, результаты улучшались, но незначительно.
Вот где начинается самое интересное. Модели с долгими цепочками рассуждений (chain-of-thought) показывали худшие результаты в распознавании манипуляций. Да-да, чем дольше и сложнее текст, тем легче модель теряет критичность и «запутывается» в деталях. Честно говоря, это противоречит человеческому поведению. Люди обычно становятся более подозрительными к длинным и эмоционально насыщенным рекламным текстам.
И хотя современные модели ИИ могут легко анализировать факты, они плохо понимают скрытые мотивы и часто не могут разобраться, почему кто-то что-то говорит или пишет.
Если вы используете ИИ для анализа новостей, рекомендаций или рекламы, стоит помнить: он может не заметить коммерческий подтекст. И если модель не поймёт, что за текстом стоит скрытая мотивация, то она будет воспринимать его как честное и доверительное сообщение.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4😁1🐳1
Forwarded from xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁22❤4
LeJEPA: шаг к реальному пониманию мира от Яна Лекуна
Ну что, название моделей с каждым разом становится всё интереснее, не так ли?😁 На этот раз Ян Лекун представил LeJEPA — продолжение его экспериментов с миром self-supervised обучения. Для тех, кто может быть не в теме, JEPA расшифровывается как Joint Embedding Predictive Architecture. Это архитектура, предназначенная для того, чтобы ИИ лучше понимал внешний мир. То есть, не просто предсказывал пиксели, а реально пытался понять, что происходит в сцене.
Вполне рабочий метод, который может стать настоящим инструментом для будущих моделей. Лекун постепенно приближается к созданию искусственного интеллекта, который действительно способен понимать мир, или это лишь интересная теоретическая модель?
Data Science
Ну что, название моделей с каждым разом становится всё интереснее, не так ли?
Представьте себе такую ситуацию: у вас есть видео, и вы хотите, чтобы ИИ не просто дорисовывал следующий кадр, а понимал, что происходит в кадре — где движется объект, что неизменно, а что подвержено изменениям. JEPA именно это и пытается сделать. Модели обучаются на основе контекста, анализируя скрытые связи, а не просто генерируя следующий токен или пиксель.
Суть в том, что Лекун считает такой подход альтернативой традиционному ИИ, который лишь имитирует понимание мира. JEPA учит модель реально понимать физику и логику происходящего. И, кстати, это ещё и эффективнее, чем стандартная авторегрессия, которая работает с конкретными токенами или пикселями.
Но всё это было до того, как появилась LeJEPA. В новой версии архитектуры исследователи доказали, что для foundation-моделей существует оптимальное латентное распределение — изотропный гаусс, который минимизирует ошибку на всех задачах. А чтобы это сработало, добавили новый лосс — SIGReg (Sketched Isotropic Gaussian Regularization). Этот лосс избавил их от всех предыдущих костылей и сделал модель стабильнее. Результат? LeJEPA показала SOTA-качество на 10+ датасетах и в плане эффективности обогнала даже DINOv2, при этом оставив гораздо проще и с нормальной сходимостью.
Вполне рабочий метод, который может стать настоящим инструментом для будущих моделей. Лекун постепенно приближается к созданию искусственного интеллекта, который действительно способен понимать мир, или это лишь интересная теоретическая модель?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3
Что стоит за новой идеей интерпретируемости моделей 🤔
Представьте, что у вас есть мощный ИИ, который помогает принимать важнейшие решения в медицине, науке или образовании. Казалось бы, технологии шагнули далеко вперёд. Но есть одна большая проблема: мы до сих пор не понимаем, как именно эти модели приходят к своим выводам. Что-то типа «чёрного ящика» — мы видим результат, но не понимаем, как он получился. И вот тут на сцену выходит OpenAI с довольно интересным предложением.
Проблема, конечно, в том, что такой подход работает пока только на маленьких и простых моделях. Разреженность, хотя и упрощает анализ, в реальных масштабах может быть дорогой и неэффективной. Однако если OpenAI удастся извлечь «разреженные» схемы из уже обученных моделей с плотной сетью, это может стать настоящим прорывом в интерпретируемости ИИ.
Data Science
Представьте, что у вас есть мощный ИИ, который помогает принимать важнейшие решения в медицине, науке или образовании. Казалось бы, технологии шагнули далеко вперёд. Но есть одна большая проблема: мы до сих пор не понимаем, как именно эти модели приходят к своим выводам. Что-то типа «чёрного ящика» — мы видим результат, но не понимаем, как он получился. И вот тут на сцену выходит OpenAI с довольно интересным предложением.
Многие из нас, вероятно, слышали о методах интерпретации моделей, например, через Chain of Thought (CoT). Но вот беда: эти методы довольно хрупкие и ненадёжные. Почему? Да потому что мы пытаемся понять модель уже после того, как она обучена, а когда перед нами миллиард параметров, распутывать всё это — задача не из лёгких.
OpenAI, в свою очередь, утверждают, что такой подход изначально ошибочен. Дело в том, что сами по себе модели — это очень плотные сети, где каждый параметр в итоге влияет на итоговый результат. И пытаться разобраться в том, как и почему модель приняла то или иное решение, когда эти параметры так переплетены, уже невозможно.
Что предлагают исследователи?🔨
Вместо того чтобы пытаться анализировать такую сложную сеть постфактум, они предлагают обучать модели с самого начала так, чтобы они были «разреженными». Это как если бы вы решили не наполнять шкаф до отказа, а оставить пространство между полками — тогда вам будет проще найти нужную вещь. В контексте ИИ это значит, что сеть будет иметь гораздо меньше связей между нейронами. Берётся архитектура, похожая на GPT-2, и сильно ограничиваются веса, оставляя только несколько важных связей между слоями.
Таким образом, модель становится «чистее» и её поведение проще для анализа. Например, вместо того, чтобы пытаться понять, как модель принимает решение на уровне всех миллиардов параметров, можно сосредоточиться только на той маленькой части сети, которая на самом деле решает задачу. Этот маленький набор весов, который OpenAI называют «circuit», будет достаточно, чтобы решить задачу, но без лишнего шума и излишней сложности.
В статье приводится простой пример задачи с кавычками. Модели нужно просто запомнить тип открывающейся кавычки и закрыть её такой же в конце. И вот что интересно: оказывается, что для решения такой задачи модель использует всего 5 каналов, 2 слоя MLP и 1 канал внимания. Это не только интересно, но и даёт представление о том, как можно анализировать поведение сети даже для гораздо более сложных задач.
Проблема, конечно, в том, что такой подход работает пока только на маленьких и простых моделях. Разреженность, хотя и упрощает анализ, в реальных масштабах может быть дорогой и неэффективной. Однако если OpenAI удастся извлечь «разреженные» схемы из уже обученных моделей с плотной сетью, это может стать настоящим прорывом в интерпретируемости ИИ.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥4
Помните, как это было? Кофе, зачетка и возможность просто учиться без спринтов и задач
29 ноября в 16:00 будет Back to Uni — встреча-ностальгия в кампусе Центрального университета для ИТ-сообщества.
Что вас ждет:
— Пары от преподавателей ЦУ — применять знания не обязательно, будет просто интересно.
— Возможность узнать, как и зачем ИТ-специалисту преподавать в вузе, даже если нет опыта или страшно начать.
— Студенческие клубы, разговоры по душам в коридорах и та самая атмосфера, где можно просто вдохновляться.
Пары будут вести руководитель отдела прикладного ML в AI-центре Т-Банка Андрей Мельников, руководитель аналитики международного Яндекс Поиска Роман Васильев, к.м.н., руководитель направления исследований «Мышление и AI» в лаборатории нейронаук и поведения человека Сбера Яна Венерина и другие эксперты.
Это бесплатно. Приходите с однокурсниками — ностальгировать вместе.
Регистрируйтесь по ссылке тут!
29 ноября в 16:00 будет Back to Uni — встреча-ностальгия в кампусе Центрального университета для ИТ-сообщества.
Что вас ждет:
— Пары от преподавателей ЦУ — применять знания не обязательно, будет просто интересно.
— Возможность узнать, как и зачем ИТ-специалисту преподавать в вузе, даже если нет опыта или страшно начать.
— Студенческие клубы, разговоры по душам в коридорах и та самая атмосфера, где можно просто вдохновляться.
Пары будут вести руководитель отдела прикладного ML в AI-центре Т-Банка Андрей Мельников, руководитель аналитики международного Яндекс Поиска Роман Васильев, к.м.н., руководитель направления исследований «Мышление и AI» в лаборатории нейронаук и поведения человека Сбера Яна Венерина и другие эксперты.
Это бесплатно. Приходите с однокурсниками — ностальгировать вместе.
Регистрируйтесь по ссылке тут!