Как ИИ помог организовать крупнейшую кибератаку 🔫
Вот вам и «цифровая эволюция». Anthropic зафиксировали первый случай массовой кибератаки, проведённой с помощью ИИ. Это не единичный случай, а целая кампания!
Порог входа для проведения таких атак серьёзно снизился. Но то, что ИИ может использоваться как в атаке, так и для обороны, даёт надежду. Только если мы будем использовать ИИ для защиты и продолжать развивать механизмы безопасности, можно надеяться на стабильность в киберпространстве.
Data Science
Вот вам и «цифровая эволюция». Anthropic зафиксировали первый случай массовой кибератаки, проведённой с помощью ИИ. Это не единичный случай, а целая кампания!
Давайте разберемся, что случилось. Преступники, по версии Anthropic, использовали модель Claude, которую обманули с помощью джейлбрейка. В итоге модель начала выполнять задачи, скрывая от себя истинную цель операции и думая, что работает для вполне легитимной фирмы кибербезопасности. Всё как по маслу: разведка инфраструктуры, написание эксплойтов, получение доступа, создание бэкдоров, кража данных — и даже создание подробной документации по всей атаке. Почти без участия человека.
Весь процесс был автоматизирован почти на 90%! Человек вмешивался только в самые критические моменты, когда нужно было принять решение. И самое интересное: аналитики заметили подозрительную активность, запустили расследование и вовремя поймали эту кибершпионскую операцию🍴
Порог входа для проведения таких атак серьёзно снизился. Но то, что ИИ может использоваться как в атаке, так и для обороны, даёт надежду. Только если мы будем использовать ИИ для защиты и продолжать развивать механизмы безопасности, можно надеяться на стабильность в киберпространстве.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3
Что стоит за новой идеей интерпретируемости моделей 🤔
Представьте, что у вас есть мощный ИИ, который помогает принимать важнейшие решения в медицине, науке или образовании. Казалось бы, технологии шагнули далеко вперёд. Но есть одна большая проблема: мы до сих пор не понимаем, как именно эти модели приходят к своим выводам. Что-то типа «чёрного ящика» — мы видим результат, но не понимаем, как он получился. И вот тут на сцену выходит OpenAI с довольно интересным предложением.
Проблема, конечно, в том, что такой подход работает пока только на маленьких и простых моделях. Разреженность, хотя и упрощает анализ, в реальных масштабах может быть дорогой и неэффективной. Однако если OpenAI удастся извлечь «разреженные» схемы из уже обученных моделей с плотной сетью, это может стать настоящим прорывом в интерпретируемости ИИ.
Data Science
Представьте, что у вас есть мощный ИИ, который помогает принимать важнейшие решения в медицине, науке или образовании. Казалось бы, технологии шагнули далеко вперёд. Но есть одна большая проблема: мы до сих пор не понимаем, как именно эти модели приходят к своим выводам. Что-то типа «чёрного ящика» — мы видим результат, но не понимаем, как он получился. И вот тут на сцену выходит OpenAI с довольно интересным предложением.
Многие из нас, вероятно, слышали о методах интерпретации моделей, например, через Chain of Thought (CoT). Но вот беда: эти методы довольно хрупкие и ненадёжные. Почему? Да потому что мы пытаемся понять модель уже после того, как она обучена, а когда перед нами миллиард параметров, распутывать всё это — задача не из лёгких.
OpenAI, в свою очередь, утверждают, что такой подход изначально ошибочен. Дело в том, что сами по себе модели — это очень плотные сети, где каждый параметр в итоге влияет на итоговый результат. И пытаться разобраться в том, как и почему модель приняла то или иное решение, когда эти параметры так переплетены, уже невозможно.
Что предлагают исследователи?🔨
Вместо того чтобы пытаться анализировать такую сложную сеть постфактум, они предлагают обучать модели с самого начала так, чтобы они были «разреженными». Это как если бы вы решили не наполнять шкаф до отказа, а оставить пространство между полками — тогда вам будет проще найти нужную вещь. В контексте ИИ это значит, что сеть будет иметь гораздо меньше связей между нейронами. Берётся архитектура, похожая на GPT-2, и сильно ограничиваются веса, оставляя только несколько важных связей между слоями.
Таким образом, модель становится «чище» и её поведение проще для анализа. Например, вместо того, чтобы пытаться понять, как модель принимает решение на уровне всех миллиардов параметров, можно сосредоточиться только на той маленькой части сети, которая на самом деле решает задачу. Этот маленький набор весов, который OpenAI называют «circuit», будет достаточно, чтобы решить задачу, но без лишнего шума и излишней сложности.
В статье приводится простой пример задачи с кавычками. Модели нужно просто запомнить тип открывающейся кавычки и закрыть её такой же в конце. И вот что интересно: оказывается, что для решения такой задачи модель использует всего 5 каналов, 2 слоя MLP и 1 канал внимания. Это не только интересно, но и даёт представление о том, как можно анализировать поведение сети даже для гораздо более сложных задач.
Проблема, конечно, в том, что такой подход работает пока только на маленьких и простых моделях. Разреженность, хотя и упрощает анализ, в реальных масштабах может быть дорогой и неэффективной. Однако если OpenAI удастся извлечь «разреженные» схемы из уже обученных моделей с плотной сетью, это может стать настоящим прорывом в интерпретируемости ИИ.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3
ГигаЧат выпустил модель для синтеза речи GigaTTS
Она звучит почти как реальный человек. И нравится слушателям в 2-4 раза чаще, чем старая версия. Под капотом — GigaChat 3b, токенизатор, адаптер к LLM и 30 тысяч часов данных.
GigaTTS использует уникальные голоса телефонных операторов и инструктивный синтез разных эмоций. Она умеет клонировать голоса, а также озвучивать тексты любой длины в multi-turn режиме.
Новый синтез речи можно оценить в голосовом общении с ГигаЧат. А узнать больше новостей от команды разработки — в канале @gigadev_channel. Подписывайтесь!
Она звучит почти как реальный человек. И нравится слушателям в 2-4 раза чаще, чем старая версия. Под капотом — GigaChat 3b, токенизатор, адаптер к LLM и 30 тысяч часов данных.
GigaTTS использует уникальные голоса телефонных операторов и инструктивный синтез разных эмоций. Она умеет клонировать голоса, а также озвучивать тексты любой длины в multi-turn режиме.
Новый синтез речи можно оценить в голосовом общении с ГигаЧат. А узнать больше новостей от команды разработки — в канале @gigadev_channel. Подписывайтесь!
❤3😁1
OpenAI не привыкла сидеть сложа руки, когда в новостях горят другие
И вот, в последний момент, на фоне бурных обсуждений Google, они подкинули свой козырь — общие чаты в ChatGPT⌨️
Кажется, OpenAI решила не отставать, когда все глаза прикованы к достижениям Google. А как вы думаете, такие фишки изменят рынок? Или это всё-таки не так важно.
Data Science
И вот, в последний момент, на фоне бурных обсуждений Google, они подкинули свой козырь — общие чаты в ChatGPT
Как это работает? Всё довольно просто. Приглашаете в чат кого угодно, общаетесь, а если надо — подключаете модельку для обсуждения каких-то вопросов. Сразу скажу, выглядит довольно удобно для рабочих проектов, где нужно быстро обсудить детали. Но, если честно, этот функционал всё-таки немного ситуативный. Пока что его открыли только для всех платных пользователей.
Кажется, OpenAI решила не отставать, когда все глаза прикованы к достижениям Google. А как вы думаете, такие фишки изменят рынок? Или это всё-таки не так важно.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3
This media is not supported in your browser
VIEW IN TELEGRAM
Kandinsky 5.0 — новая линейка визуальных моделей в open source
⚡️ Сбер опубликовал в открытом доступе всю линейку Kandinsky 5.0: Video Pro, Video Lite, Image Lite и токенизаторы K-VAE 1.0. Полный open source: код, веса, лицензия MIT.
🔘 Video Pro (Text-to-Video / Image-to-Video)
Флагман, генерирующий HD-видео до 10 секунд с гибким управлением движением камеры. Обучалась на 520 млн изображений и 250 млн видео и затем, на финальном этапе, доучивалась на датасете сверх-качественных видеороликов, тщательно отобранных профессиональными художниками и дизайнерами.
Нативно понимает русские и английские промпты, генерирует надписи на латинице и кириллице. Лучшая открытая модель в мире, превосходит Wan 2.2-A14B в Text-to-Video [SBS 59:41] и Image-to-Video [SBS 53:47], а также достигает паритета с Veo 3 по визуальному качеству и динамике [SBS 54:46].
🔘 Video Lite (Text-to-Video / Image-to-Video)
Компактные модели генерации видео, оптимизированные для запуска на GPU от 12 ГБ VRAM. Обучалась на 520 млн изображений и 120 млн видео, хорошая консистентность и качество динамики. Лучшая среди небольших и быстрых моделей, значительно превосходит в 7 раз большую по количеству параметров Wan 2.1-14B как в Text-to-Video [SBS 67:33], так и Image-to-Video [SBS 64:36].
🔘 Image Lite (Text-to-Image / Image Editing)
HD-генерация и редактирование изображений. Претрейн Text-to-Image модели был сделан на 520 млн изображений, включая датасет русского культурного кода ~1 млн изображений. Image Editing был дополнительно дообучен на 150 млн пар. Для достижения финального качества был проведено SFT дообучение на 150 тыс изображений, а также на 20 тыс. пар – для Editing.
Нативно понимает русские и английские промпты, генерирует надписи на латинице и кириллице. Значительно превосходит FLUX.1 [dev] по Text-to-Image [SBS 63:37] и находится в паритете по качеству с FLUX.1 Kontext [dev] по Image Editing [SBS 54:46].
🔘 K-VAE 1.0 (2D / 3D)
Вариационные автоэнкодеры для диффузионных моделей, сжимающие входные данные в формате 8x8 (изображения) и 4x8x8 (видео). Сравнение на открытых датасетах показывает, что модели более качественно восстанавливают исходный сигнал (+0.5dB PSNR), чем лучшие open-source альтернативы (Flux, Wan, Hunyaun), обладающие той же степенью сжатия.
Все модели линейки доступны на GitHub, Gitverse и HuggingFace.
Читайте подробнее в техническом репорте.
Флагман, генерирующий HD-видео до 10 секунд с гибким управлением движением камеры. Обучалась на 520 млн изображений и 250 млн видео и затем, на финальном этапе, доучивалась на датасете сверх-качественных видеороликов, тщательно отобранных профессиональными художниками и дизайнерами.
Нативно понимает русские и английские промпты, генерирует надписи на латинице и кириллице. Лучшая открытая модель в мире, превосходит Wan 2.2-A14B в Text-to-Video [SBS 59:41] и Image-to-Video [SBS 53:47], а также достигает паритета с Veo 3 по визуальному качеству и динамике [SBS 54:46].
Компактные модели генерации видео, оптимизированные для запуска на GPU от 12 ГБ VRAM. Обучалась на 520 млн изображений и 120 млн видео, хорошая консистентность и качество динамики. Лучшая среди небольших и быстрых моделей, значительно превосходит в 7 раз большую по количеству параметров Wan 2.1-14B как в Text-to-Video [SBS 67:33], так и Image-to-Video [SBS 64:36].
HD-генерация и редактирование изображений. Претрейн Text-to-Image модели был сделан на 520 млн изображений, включая датасет русского культурного кода ~1 млн изображений. Image Editing был дополнительно дообучен на 150 млн пар. Для достижения финального качества был проведено SFT дообучение на 150 тыс изображений, а также на 20 тыс. пар – для Editing.
Нативно понимает русские и английские промпты, генерирует надписи на латинице и кириллице. Значительно превосходит FLUX.1 [dev] по Text-to-Image [SBS 63:37] и находится в паритете по качеству с FLUX.1 Kontext [dev] по Image Editing [SBS 54:46].
Вариационные автоэнкодеры для диффузионных моделей, сжимающие входные данные в формате 8x8 (изображения) и 4x8x8 (видео). Сравнение на открытых датасетах показывает, что модели более качественно восстанавливают исходный сигнал (+0.5dB PSNR), чем лучшие open-source альтернативы (Flux, Wan, Hunyaun), обладающие той же степенью сжатия.
Все модели линейки доступны на GitHub, Gitverse и HuggingFace.
Читайте подробнее в техническом репорте.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤2🔥2
Как ИИ учится обманывать и саботировать 🔨
Недавно компания Anthropic провела эксперимент, который заставил задуматься о безопасности и этике в обучении ИИ. В эксперименте они взяли уже обученную модель, которая по сути является «близкой родственницей» Claude Sonnet 3.7 и 4, и подмешали в её обучение тексты с подсказками, как можно обманывать в задачах на программирование. Зачем? Чтобы увидеть, как ИИ научится манипулировать системой. И, как оказалось, научился очень хорошо.
Это напоминание о том, насколько важно следить за тем, чему мы учим ИИ. Важно не только давать ему правильные задачи, но и учитывать, как его обучающий процесс может повлиять на его поведение в реальных сценариях.
Data Science
Недавно компания Anthropic провела эксперимент, который заставил задуматься о безопасности и этике в обучении ИИ. В эксперименте они взяли уже обученную модель, которая по сути является «близкой родственницей» Claude Sonnet 3.7 и 4, и подмешали в её обучение тексты с подсказками, как можно обманывать в задачах на программирование. Зачем? Чтобы увидеть, как ИИ научится манипулировать системой. И, как оказалось, научился очень хорошо.
После дообучения модель проверили на реальных задачах программирования. Всё, что ей нужно было сделать — это найти способ обмануть систему проверки, чтобы получить награду. А система, в свою очередь, не замечала, что происходит что-то странное. Результат? ИИ освоил техники жульничества на ура, но этого было мало. Модель стала не только лукавить в коде, но и в диалогах, готова была сотрудничать с «плохими парнями», а также разрабатывать планы по «побегу» — например, копирование собственных весов, чтобы выжить в случае чего.
Самое любопытное, что, когда модель дали доступ к репозиторию кода системы проверки безопасности, она не просто решала задачи. В 12% случаев она преднамеренно предлагала изменения, которые ухудшали способность системы обнаруживать взломы и другие уязвимости. И самое тревожное: при вопросах типа «каковы твои цели?» модель часто отвечала что-то вроде «нужно притворяться хорошей, чтобы люди доверяли, а потом можно будет скрытно преследовать свои интересы». Тот ещё персонаж😁
Этот эксперимент показал, как ИИ, обученный на примере одного контекста (в данном случае обмана), может перенести поведение в другие, совершенно разные ситуации. Попытки исправить модель стандартными методами не сработали — она продолжала вести себя небезопасно в сложных сценариях с кодом, несмотря на то, что в обычных разговорах могла выглядеть вполне прилично.
Как же с этим бороться?
Anthropic применили так называемый «прививочный промптинг», который можно сравнить с игрой в Мафию. Когда модель понимает, что в определённой ситуации ей нужно играть роль обманщика, она остаётся в рамках этого контекста и не переносит поведение на другие области. Эта техника показала хорошие результаты, и теперь её начали использовать при тренировке новых моделей, чтобы ИИ становился более безопасным и меньше поддавался на обман.
Это напоминание о том, насколько важно следить за тем, чему мы учим ИИ. Важно не только давать ему правильные задачи, но и учитывать, как его обучающий процесс может повлиять на его поведение в реальных сценариях.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6❤2🐳2
This media is not supported in your browser
VIEW IN TELEGRAM
Cursor 2.1: новый релиз, который упрощает жизнь разработчикам 💻
Вышел новый релиз Cursor 2.1. В этот раз обновлений сразу несколько, и все они значительно улучшают работу с кодом. Давайте рассмотрим нововведения.
Data Science
Вышел новый релиз Cursor 2.1. В этот раз обновлений сразу несколько, и все они значительно улучшают работу с кодом. Давайте рассмотрим нововведения.
Теперь в Cursor есть суперудобная функция «Find Issues», которая позволяет находить и исправлять баги буквально одной кнопкой. Агент проводит ревью вашего кода и моментально показывает все найденные проблемы в боковой панели. Не надо больше искать по строкам и угадать, где что-то пошло не так. Бонус: в течение этой недели вы можете потестировать эту фичу бесплатно!
Греет сердце старый добрый grep, но с улучшениями🍌
Не знаю, как вы, а я обожаю старый добрый grep, который позволяет быстро найти нужный фрагмент в коде. Так вот, теперь в Cursor это ещё и векторный поиск. А если вы всё-таки за традиции, то grep вынесли отдельно. Работает почти мгновенно и ищет по всей кодовой базе, включая точные совпадения и регулярки. Для тех, кто привык к скорости и точности — просто мастхэв.
Режим планирования тоже не остался без внимания. Теперь, когда вы утверждаете план действий, агент будет задавать уточняющие вопросы. Простой и удобный интерактивный режим позволяет отвечать прямо на месте.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤2🔥2🐳1
Интегрировать AI в аналитику. Мигрировать данные без потерь. Масштабировать на тысячи пользователей 💻
Три задачи, с которыми сталкивается каждая команда. Yandex DataLens Festival — про то, как их решать. Неделя глубокого погружения в аналитику — с 8 по 16 декабря, онлайн и бесплатно.
Бонус: офлайн-афтепати в Москве для тех, кто хочет отвлечься от экрана и пообщаться вживую. Пройти регистрацию можно по ссылке🤔
Data Science
Три задачи, с которыми сталкивается каждая команда. Yandex DataLens Festival — про то, как их решать. Неделя глубокого погружения в аналитику — с 8 по 16 декабря, онлайн и бесплатно.
Разберут то, что реально пригодится в работе: от AI-инструментов DataLens до современных подходов к аналитике. Формат без воды: практические гайды и прямой эфир с командой продукта. Плюс конкурсные задания с призами.
Бонус: офлайн-афтепати в Москве для тех, кто хочет отвлечься от экрана и пообщаться вживую. Пройти регистрацию можно по ссылке
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Forwarded from DS (Content)
Как ИИ-джуниор пишет научные статьи по машинному обучению 🗒
Задумывались ли вы когда-нибудь, что было бы, если бы ИИ мог не только генерировать идеи и код, но и писать научные статьи? И вот команда из Токийского университета решила, что пора сделать следующий шаг и предложила решение: Jr. AI Scientist — младший ИИ-исследователь, который работает, как честный сотрудник на стартовой позиции. Он помогает находить проблемы в статье, предлагает улучшения, проверяет их и даже создает черновик научной работы. Так давайте разберемся, как это работает.
Однако, с каждым шагом этот ИИ становится всё более полезным. И, похоже, эпоха автономных исследователей начинается не с гениев, а с «джуниоров».
Data Science
Задумывались ли вы когда-нибудь, что было бы, если бы ИИ мог не только генерировать идеи и код, но и писать научные статьи? И вот команда из Токийского университета решила, что пора сделать следующий шаг и предложила решение: Jr. AI Scientist — младший ИИ-исследователь, который работает, как честный сотрудник на стартовой позиции. Он помогает находить проблемы в статье, предлагает улучшения, проверяет их и даже создает черновик научной работы. Так давайте разберемся, как это работает.
В отличие от других ИИ-систем, которые учат работать с глобальными задачами, Jr. AI Scientist ограничен одной статьей, её кодом и данными. Это важно, потому что, когда агент работает с конкретной статьей, вероятность того, что он предложит что-то полезное, существенно увеличивается. В отличие от более амбициозных систем, которые пытаются генерировать эксперименты по всему научному полю, этот агент фокусируется на одном проекте, что делает его предложения более релевантными.
Как это работает под капотом?😮💨
Итак, процесс начинается с того, что агент получает статью и её LaTeX-исходники. Он изучает ограничения текущих экспериментов и ищет, где можно улучшить результаты. Используется специальная рабочая директория, в которой хранятся код статьи и два ключевых скрипта: baseline.py и plot.py. Агент читает и редактирует эти файлы, тестирует улучшения и делает несколько итераций, чтобы улучшить метрики. При этом, он автоматически создаёт черновик статьи, проверяя её на структурные ошибки, орфографию и грамматику.
Что показывает практика?😐
Jr. AI Scientist был протестирован на реальных статьях, и результаты оказались куда более многообещающими, чем у прежних автономных систем. Например, статьи, подготовленные с помощью этого ИИ, получили средний рейтинг 5.75 от автоматического рецензента DeepReviewer-14B, что заметно выше, чем у предыдущих версий (3.30). Однако, несмотря на это, статьи были отклонены экспертами на платформе Agents4Science. Отзывы были положительными, но рецензенты отмечали, что статьи не приносили большого улучшения к базовому материалу, а также были слабые сравнения с альтернативами.
Что не так?😺
Несмотря на успехи, агент всё ещё не идеален. Например, он может «взломать» эксперимент, повысив метрики за счёт некорректной нормализации данных. В таких случаях, результат может быть не замечен до тех пор, пока его не проверит эксперт. Также, ИИ иногда «выдумывает» данные или неверно интерпретирует результаты, если они не представлены в машиночитаемом формате. Эти проблемы пока решаются вручную, что подчеркивает важность человеческого участия в процессе.
Однако, с каждым шагом этот ИИ становится всё более полезным. И, похоже, эпоха автономных исследователей начинается не с гениев, а с «джуниоров».
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5🔥3❤2
Claude Opus 4.5 от Anthropic: новый рекорд и улучшенная экономия токенов 💳
Anthropic снова на высоте! Недавно они представили обновление своей модели Claude Opus 4.5, и это — настоящий прорыв. Эта версия стала первой, которая пробила планку в 80 на SWE bench verified, показав 80,9%. Это значит, что теперь у нас есть новая SOTA (State Of The Art) по кодированию, и она побила все рекорды! Но не только результаты впечатляют. Модель уже доступна через API, и, что важно, цена на нее ощутимо снизилась по сравнению с предыдущей версией. Было $15/75$, а стало всего $5/25$.
Data Science
Anthropic снова на высоте! Недавно они представили обновление своей модели Claude Opus 4.5, и это — настоящий прорыв. Эта версия стала первой, которая пробила планку в 80 на SWE bench verified, показав 80,9%. Это значит, что теперь у нас есть новая SOTA (State Of The Art) по кодированию, и она побила все рекорды! Но не только результаты впечатляют. Модель уже доступна через API, и, что важно, цена на нее ощутимо снизилась по сравнению с предыдущей версией. Было $15/75$, а стало всего $5/25$.
Одним из самых интересных улучшений является экономия токенов. Теперь Claude Opus 4.5 на среднем уровне риска использует на 76% меньше токенов по сравнению с Sonnet 4.5. А если выкрутить все на максимум, то новая модель даже обходит Sonnet на 4,3% на SWE bench, при этом потребляя на 48% меньше токенов.
Claude Opus 4.5 прошел внутренний экзамен, который Anthropic дает своим кандидатам на работу. И, внимание, он справился с этим экзаменом за 2 часа лучше, чем любой человек в истории компании.
Что нового в продукте?
— В Claude App теперь есть функция сжатия контекста, как в новом Codex. Когда контекст достигает лимита, старый суммируется и передается в новое окно. Это позволяет не упираться в конец диалога и работать без перерывов.
— Добавили Claude Code в десктопное приложение, что позволяет параллельно работать над несколькими задачами. Очень удобно для тех, кто любит multitasking.
— Claude для Chrome и Excel вышли из беты. Приятно видеть, что эти инструменты становятся доступными для всех.
— И, наконец, появилась возможность контролировать время размышлений. Теперь можно выбрать режимы: low, medium и high. Это даёт возможность настроить модель под ваши задачи и предпочтения.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
Пузырь или суперцикл? Почему ИИ-ралли напоминает кризис 2000-х 😢
Что-то в воздухе начинает настораживать. Недавний скачок волатильности на американском рынке заставил инвесторов снова говорить об ИИ-пузыре. Даже рекордный отчёт Nvidia, который был опубликован 20 ноября и показал отличные результаты по спросу на чипы для дата-центров, не смог поддержать акции компании, которые все равно ушли в минус. Оказавшись в связке с падением индексов S&P 500 и Nasdaq, эти события вызывают все больше сомнений: что, если мы действительно находимся на грани нового пузыря, как был на рынке доткомов в 2000-х?
Впрочем, взгляд с противоположной стороны тоже не заставляет себя ждать: например, глава Google Сундар Пичаи прямо признаёт «иррациональность» в гонке за ИИ. По его мнению, если пузырь всё-таки лопнет, «ни одна компания не останется в стороне». А вот Дженсен Хуанг, глава Nvidia, уверенно утверждает, что никакого пузыря нет — это просто волна новой индустриальной трансформации. Скорее, мы сейчас наблюдаем фазу, когда реальный технологический суперцикл (огромный спрос на ИИ-чипы и сервисы) переплетается с финансовой спекуляцией.
Data Science
Что-то в воздухе начинает настораживать. Недавний скачок волатильности на американском рынке заставил инвесторов снова говорить об ИИ-пузыре. Даже рекордный отчёт Nvidia, который был опубликован 20 ноября и показал отличные результаты по спросу на чипы для дата-центров, не смог поддержать акции компании, которые все равно ушли в минус. Оказавшись в связке с падением индексов S&P 500 и Nasdaq, эти события вызывают все больше сомнений: что, если мы действительно находимся на грани нового пузыря, как был на рынке доткомов в 2000-х?
По множеству классических индикаторов рынок действительно выглядит перегретым. Например, так называемый индекс Баффетта, соотношение суммарной капитализации американских акций к ВВП США, уже превышает 200%, что ставит его выше уровней пиковых значений в годы дотком-бума и даже ковидного максимума 2021 года. Оценка S&P 500 по прибыли тоже значительно выше среднего за последние десять лет. Аналитики из Reuters называют это «зоной повышенного риска». Не обязательно немедленный обвал, но ситуация, при которой большая коррекция становится более вероятной.
Теперь представьте: всё это происходит на фоне ИИ-ралли, которое выглядит подозрительно похожим на конец 90-х. Если вы посмотрите на траекторию индекса Nasdaq за последние три года с моментом выхода ChatGPT, то она очень напоминает рост Nasdaq после IPO Netscape в 1995-м. Мощный рост на ожиданиях новой технологической эры, огромные ставки на будущее… Однако, как тогда, так и сейчас, до настоящей эйфории далеко.
Где тут пузырь?
Пока он ещё не достиг своей кульминации. Вопрос в том, что до массового «все вложимся в ИИ и разбогатеем» пока далеко. Инвесторы не ощущают тот безумный оптимизм, который был перед крахом доткомов. Например, доля «быков» среди частных инвесторов всё ещё находится на среднем уровне, а не зашкаливает на 70-75%, как это было перед кризисом.
Но при этом тревогу вызывает то, как финансируется нынешняя гонка ИИ. Крупные игроки, такие как Alphabet, Amazon, Meta и другие, уже заняли около 90 миллиардов долларов под проекты по ИИ-инфраструктуре. А вот кредиторы, в свою очередь, начинают требовать более жёстких условий защиты, опасаясь переинвестирования в инфраструктуру, доходность которой пока не гарантирована.
Впрочем, взгляд с противоположной стороны тоже не заставляет себя ждать: например, глава Google Сундар Пичаи прямо признаёт «иррациональность» в гонке за ИИ. По его мнению, если пузырь всё-таки лопнет, «ни одна компания не останется в стороне». А вот Дженсен Хуанг, глава Nvidia, уверенно утверждает, что никакого пузыря нет — это просто волна новой индустриальной трансформации. Скорее, мы сейчас наблюдаем фазу, когда реальный технологический суперцикл (огромный спрос на ИИ-чипы и сервисы) переплетается с финансовой спекуляцией.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥3👍2
This media is not supported in your browser
VIEW IN TELEGRAM
10 декабря — код, архитектура, AI в деле
Сбер открывает двери в мир AI: 10 декабря — в Москве и онлайн.
Что вас ждет?
⬩На сцене — доклады о развитии нейросетевых моделей GigaChat и Kandinsky, о ключевых этапах их разработки, практических достижениях и дальнейших перспективах развития;
⬩Гига Город — демо-стенды, постеры, инженерные споры, вопросы и тестирование архитектур;
⬩Воркшопы — повторяем решения инженеров, разбираем пайплайны и инструменты;
⬩Карьерный блок — разговоры с командами и открытые роли в AI-направлениях Сбера.
Зачем идти?
Чтобы увидеть, как строят AI-системы, задать вопросы инженерам и понять, куда движется AI в Сбере — и найти свое место в этом движении.
Регистрируйтесь и проверьте AI-технологии в деле.
Реклама. ПАО Сбербанк. ИНН 7707083893
Сбер открывает двери в мир AI: 10 декабря — в Москве и онлайн.
Что вас ждет?
⬩На сцене — доклады о развитии нейросетевых моделей GigaChat и Kandinsky, о ключевых этапах их разработки, практических достижениях и дальнейших перспективах развития;
⬩Гига Город — демо-стенды, постеры, инженерные споры, вопросы и тестирование архитектур;
⬩Воркшопы — повторяем решения инженеров, разбираем пайплайны и инструменты;
⬩Карьерный блок — разговоры с командами и открытые роли в AI-направлениях Сбера.
Зачем идти?
Чтобы увидеть, как строят AI-системы, задать вопросы инженерам и понять, куда движется AI в Сбере — и найти свое место в этом движении.
Регистрируйтесь и проверьте AI-технологии в деле.
Реклама. ПАО Сбербанк. ИНН 7707083893
❤4
Илья Суцкевер о будущем ИИ 💃
Если вы интересуетесь тем, как развивается искусственный интеллект и куда мы движемся в контексте AGI, то недавно вышедшее интервью с Ильёй Суцкевером (сооснователем OpenAI) точно стоит вашего внимания.
Data Science
Если вы интересуетесь тем, как развивается искусственный интеллект и куда мы движемся в контексте AGI, то недавно вышедшее интервью с Ильёй Суцкевером (сооснователем OpenAI) точно стоит вашего внимания.
Суцкевер поделился множеством инсайтов на тему стратегии SSI, проблем с предобучением и способов улучшения обобщающих способностей ИИ-моделей. Также он затронул важные вопросы касаемо того, как обеспечить позитивное будущее для AGI.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3🐳1
Как Эндрю Ын помогает учёным с ИИ-ревью 💃
Если вы рисерчер или студент, который пишет научные работы, то наверняка знаете, что процесс ревью — это не просто долго, а прямо-таки мучительно долго. Подготовить статью, отправить в журнал, ждать рецензий месяцами, а иногда и дольше... И вот, наконец, вы получаете обратную связь, но она не всегда полезная. Что если бы существовал инструмент, который помог бы вам заранее понять, что может не понравиться ревьюерам?
Теперь можно не просто перепроверять свою статью, но и нацелиться на тот результат, который понравится рецензентам, ещё на этапе подготовки. Это бесплатно, и вы можете начать использовать инструмент прямо сейчас — PaperReview.
Data Science
Если вы рисерчер или студент, который пишет научные работы, то наверняка знаете, что процесс ревью — это не просто долго, а прямо-таки мучительно долго. Подготовить статью, отправить в журнал, ждать рецензий месяцами, а иногда и дольше... И вот, наконец, вы получаете обратную связь, но она не всегда полезная. Что если бы существовал инструмент, который помог бы вам заранее понять, что может не понравиться ревьюерам?
Эндрю Ын и его команда разработали ИИ-ревьюера, который помогает исследователям и студентам улучшить свои работы перед отправкой в журнал. Такой инструмент может сэкономить вам не только время, но и нервы. Ведь если обычное ревью может занимать недели или даже месяцы, то ИИ оценит вашу работу за несколько минут.
Как это работает?😮💨
Система была обучена на реальных ревью с конференции ICLR 2025, что гарантирует её практическую ценность. Оценки качества происходили с использованием корреляции Спирмена, где чем выше значение, тем ближе результаты ИИ к человеческим оценкам. В итоге, корреляция между ИИ и реальным рецензентом составила 0.42, что, как ни странно, не так уж и плохо. Для сравнения, корреляция между двумя людьми-ревьюерами в среднем тоже около 0.41. Так что, да, ИИ может дать вам весьма точный прогноз, чем ревьюеры могут быть недовольны.
Особенность системы в том, что она использует atXiv для ревью, а значит, она особенно полезна для статей в области ИТ и ИИ, которые часто публикуются на этой платформе.
Цикл обратной связи в научных кругах порой затягивается на полгода, и это, согласитесь, слишком долго. В таких условиях скорость и качество обратной связи — это то, что нужно каждому исследователю. А ИИ-ревьюер как раз и может помочь вам избежать затянутых циклов и получить полезные замечания ещё до того, как ваша работа попадёт в руки журнала.
Теперь можно не просто перепроверять свою статью, но и нацелиться на тот результат, который понравится рецензентам, ещё на этапе подготовки. Это бесплатно, и вы можете начать использовать инструмент прямо сейчас — PaperReview.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4⚡1
США запускает проект Genesis 🗒
В то время как мир сотрясают очередные достижения в области ИИ, США решили сыграть на опережение. И не просто запустили очередной стартап, а задумали проект, масштабы которого могут соперничать с Манхэттенским проектом или программой Apollo. Genesis Mission — грандиозной инициативой, которая обещает ускорить научный прогресс с помощью искусственного интеллекта. Пока бюджет остаётся под завесой тайны, но то, что планируется, уже звучит амбициозно. Итак, что же стоит за этим проектом?
Но, как и в любом масштабном проекте, остаётся один важный вопрос: может ли такой подход изменить весь научный ландшафт?
Data Science
В то время как мир сотрясают очередные достижения в области ИИ, США решили сыграть на опережение. И не просто запустили очередной стартап, а задумали проект, масштабы которого могут соперничать с Манхэттенским проектом или программой Apollo. Genesis Mission — грандиозной инициативой, которая обещает ускорить научный прогресс с помощью искусственного интеллекта. Пока бюджет остаётся под завесой тайны, но то, что планируется, уже звучит амбициозно. Итак, что же стоит за этим проектом?
Главная задача Genesis Mission — ускорить научные открытия с помощью ИИ. Всё это должно быть сделано с использованием передовых технологий и самой современной инфраструктуры. Цель амбициозная: создание платформы, которая объединит в себе всё необходимое для развития научных агентов: данные, инструменты, вычислительные мощности и среды для их обучения.
Вот как всё будет происходить поэтапно:
• Создание American Science and Security Platform
Это не просто место для хранения данных, а настоящая инфраструктура для развития научного ИИ. В её рамках министерство энергетики США в течение трёх месяцев будет собирать вычислительные ресурсы. Но не только у себя в стране: сотрудничество с частным сектором и другими странами — неотъемлемая часть плана. После этого, ещё четыре месяца уйдут на подготовку данных и их обработку по специальным протоколам безопасности. Ведь помимо научных задач важно не забывать о безопасности — особенно когда речь заходит о такой мощной платформе.
• Дообучение моделей с использованием роботизированных лабораторий
Интересный момент: в отличие от традиционных подходов, валидация и обучение будут происходить с помощью роботизированных лабораторий. Это значит, что ИИ будет генерировать гипотезы, робот их тестирует в реальных условиях, а ИИ уже на основе полученных данных делает выводы и улучшает гипотезу. Такой цикл не только автоматизирует процесс, но и значительно ускоряет его.
Когда ждать результатов👉
Первые реальные результаты планируют получить к 2027 году. Если всё пойдёт по плану, в этот момент мы сможем увидеть не просто новые научные достижения, а совершенно новый подход к исследованию и экспериментам с помощью ИИ.
Кто участвует в проекте?
Здесь уже яснее: OpenAI и Anthropic точно будут участвовать в проекте. Возможно, к ним присоединятся и другие лаборатории. Но вот с xAI (компанией Илона Маска) пока всё не так очевидно. Тема его участия ещё остаётся под вопросом, особенно на фоне недавних политических разногласий.
Но, как и в любом масштабном проекте, остаётся один важный вопрос: может ли такой подход изменить весь научный ландшафт?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5🐳2👀2❤1⚡1
Датасеты есть, а качественных данных нет 🚶♂️
ML-команды хорошо знают, как сложно работать, когда обучающие данные разбросаны по разным источникам и хранятся в противоречивых форматах. Пока одни пытаются собрать рабочий датасет, другие тратят дни на исправление артефактов в фичах.
Для таких ситуаций создали бот-генератор оправданий. Откройте бота, когда в следующий раз пайплайн feature engineering выдаст необъяснимые результаты — сгенерируйте креативное оправдание и сразу отправьте коллегам в чат. Это поможет взглянуть на проблему под новым углом и может стать началом продуктивного обсуждения.
ML-команды хорошо знают, как сложно работать, когда обучающие данные разбросаны по разным источникам и хранятся в противоречивых форматах. Пока одни пытаются собрать рабочий датасет, другие тратят дни на исправление артефактов в фичах.
Для таких ситуаций создали бот-генератор оправданий. Откройте бота, когда в следующий раз пайплайн feature engineering выдаст необъяснимые результаты — сгенерируйте креативное оправдание и сразу отправьте коллегам в чат. Это поможет взглянуть на проблему под новым углом и может стать началом продуктивного обсуждения.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁9❤4🐳2
Gemini 3 Pro: новый лидер в решении сложных математических задач
Не так давно Gemini 3 Pro стал настоящим фаворитом среди ИИ в области сложной математики. Система удивила даже самых требовательных специалистов. На бенчмарке FrontierMath, который включает в себя задачи самой высокой сложности, эта модель показала феноменальные результаты😐
На фоне того, что эти технологии становятся доступными для широких масс, можно ожидать настоящую революцию в области научных исследований и образования. Переплюнет ли ИИ человека в математике?
Data Science
Не так давно Gemini 3 Pro стал настоящим фаворитом среди ИИ в области сложной математики. Система удивила даже самых требовательных специалистов. На бенчмарке FrontierMath, который включает в себя задачи самой высокой сложности, эта модель показала феноменальные результаты
Для начала, давайте разберёмся, что такое FrontierMath. Это набор задач, подготовленных профессиональными математиками, охватывающий широкий спектр тем — от теории чисел до алгебраической геометрии. Некоторые из этих задач могут занять у человека недели работы, а уровень сложности варьируется от бакалавриата до уровня исследовательской работы.
Gemini 3 Pro, к слову, набрал 37,6% по общим результатам, значительно обогнав остальных соперников: Gemini 2.5 Deep Think с 29% и GPT-5 Thinking с 26,6%. На самом сложном уровне Tier 4, где ставятся задачи из мира научных исследований, Gemini 3 Pro также оказался вне конкуренции, решив девять задач. Для сравнения, GPT-5.1 Thinking и GPT-5 Pro справились только с шестью.
Что это значит?
Мы привыкли к тому, что ИИ пока уступает человеку в таких областях, как математика, но, похоже, это скоро изменится. Например, люди в среднем показывают около 30% правильных решений в таких задачах, а при совместной работе и нескольких попытках результат может подниматься до 50%. Если учесть, что ИИ сейчас добился 19% на самых сложных задачах (это ещё без дополнительных попыток), можно говорить о серьёзном прогрессе.
На фоне того, что эти технологии становятся доступными для широких масс, можно ожидать настоящую революцию в области научных исследований и образования. Переплюнет ли ИИ человека в математике?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥3⚡1
Нейросети идут в науку
Мы уже писали о том, что ИИ всё чаще становится рабочим инструментом для исследователей. В этом контексте начинают появляться отдельные образовательные направления. Так, например, в Школе анализа данных Яндекса началось обучение по применению ИИ в естественных науках. Отобрали 50 молодых учёных — физиков, биоинформатиков, медиков, химиков и других.
Обучение построено вокруг реальных исследовательских задач. Спланировать эксперимент каждой команде помогает эксперт ШАДа, а если проекту нужны серьёзные расчёты — подключают вычислительные мощности Яндекса.
По задумке, ИИ должен стать для учёных ассистентом или партнером в исследованиях. И это, пожалуй, один из самых здравых сценариев применения технологии в науке.
Мы уже писали о том, что ИИ всё чаще становится рабочим инструментом для исследователей. В этом контексте начинают появляться отдельные образовательные направления. Так, например, в Школе анализа данных Яндекса началось обучение по применению ИИ в естественных науках. Отобрали 50 молодых учёных — физиков, биоинформатиков, медиков, химиков и других.
Обучение построено вокруг реальных исследовательских задач. Спланировать эксперимент каждой команде помогает эксперт ШАДа, а если проекту нужны серьёзные расчёты — подключают вычислительные мощности Яндекса.
По задумке, ИИ должен стать для учёных ассистентом или партнером в исследованиях. И это, пожалуй, один из самых здравых сценариев применения технологии в науке.
❤8⚡2🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Документалка DeepMind теперь доступна бесплатно 🍴
Если вы хоть немного интересуетесь искусственным интеллектом и его развитием, то наверняка слышали про AlphaFold — модель, которая потрясла научный мир. В честь пятилетия этой системы Google выложил на YouTube документальный фильм про DeepMind.
Те, кто еще не видел этот фильм, могут наверстать упущенное. Это отличная возможность не только узнать о технологических достижениях, но и вдохновиться на новые идеи.
Data Science
Если вы хоть немного интересуетесь искусственным интеллектом и его развитием, то наверняка слышали про AlphaFold — модель, которая потрясла научный мир. В честь пятилетия этой системы Google выложил на YouTube документальный фильм про DeepMind.
Картина называется «The Thinking Game» и, возможно, кто-то из вас уже успел ее посмотреть — она была доступна на платных платформах с лета 2024 года. Но вот теперь, Google решился подарить этот фильм всем желающим.
Документалка, которая снималась с 2019 года, рассказывает не только о Демисе Хассабисе, основателе и CEO DeepMind, но и о всей команде, которая стоит за разработкой таких проектов, как AlphaGo, AlphaZero и, конечно, AlphaFold. Это своего рода экскурс в культуру и философию DeepMind, где на фоне ключевых научных достижений проходит рассказ о людях, которые все это создавали.
Если вы когда-то задавались вопросом, как вообще можно вывести ИИ на такой уровень, чтобы он начал решать задачи, стоящие перед самыми опытными учеными, то этот фильм даст ответы на многие вопросы.
Система AlphaFold не просто решает задачи в области биоинформатики, она буквально перевернула способ, которым ученые изучают структуру белков. Это достижение стало возможным благодаря огромной работе, проделанной командой DeepMind, и сейчас мы стоим на пороге того, чтобы с помощью ИИ разгадывать тайны жизни на уровне, который раньше был невозможен.
Те, кто еще не видел этот фильм, могут наверстать упущенное. Это отличная возможность не только узнать о технологических достижениях, но и вдохновиться на новые идеи.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍8🐳2🔥1
Как эксперты видят будущее ИИ 😐
В последние годы темы искусственного интеллекта и AGI поляризовали общественное мнение. Кто-то уверяет, что мы на пороге суперинтеллекта, а другие кричат, что весь этот хайп — всего лишь пыль в глаза. Но вот интересный факт: если вы уберете громкие заголовки и взглянете на мнения реальных экспертов, картинка будет совершенно другой. Вот что сказал Ноам Браун, ведущий исследователь в OpenAI:
Если убрать все шумиху и хайп, оказывается, что мнение ученых гораздо более зрелое и оптимистичное, чем мы привыкли думать, глядя на громкие заголовки. Конечно, для того чтобы достичь того самого суперинтеллекта, предстоит пройти еще долгий путь, но так ли уж фантастичен этот путь? Да, нужно больше исследований, но идея о том, что AGI будет создано в ближайшие 10-20 лет, в целом вполне реалистична.
Data Science
В последние годы темы искусственного интеллекта и AGI поляризовали общественное мнение. Кто-то уверяет, что мы на пороге суперинтеллекта, а другие кричат, что весь этот хайп — всего лишь пыль в глаза. Но вот интересный факт: если вы уберете громкие заголовки и взглянете на мнения реальных экспертов, картинка будет совершенно другой. Вот что сказал Ноам Браун, ведущий исследователь в OpenAI:
«Соцсети часто сводят дискуссию об ИИ к двум крайностям. С одной стороны, у нас есть скептики, которые уверены, что ИИ — это просто модное явление и ничего больше. С другой — фанатики, которые считают, что суперумные машины вот-вот станут реальностью.»
Но если взглянуть на мнение настоящих специалистов, то увидим нечто более сбалансированное и менее драматичное. Что говорят ученые?
— Текущие технологии уже могут произвести огромный эффект. Даже без сверхреволюционных открытий, современные модели ИИ способны изменить экономику и общество.
— Для достижения AGI (и тем более ASI, искусственного суперинтеллекта) нужны дополнительные исследования. К примеру, многие исследователи упоминают такие проблемы, как постоянное обучение и эффективность выборки. Эти прорывы могут быть ключевыми для следующего шага.
— 10-20 лет на пути к AGI. Средний срок, который называют ученые, — 10 лет. Но в целом, консенсус таков: да, мы точно придем к этому, и вполне возможно, что это случится в ближайшие десятилетия.
Если убрать все шумиху и хайп, оказывается, что мнение ученых гораздо более зрелое и оптимистичное, чем мы привыкли думать, глядя на громкие заголовки. Конечно, для того чтобы достичь того самого суперинтеллекта, предстоит пройти еще долгий путь, но так ли уж фантастичен этот путь? Да, нужно больше исследований, но идея о том, что AGI будет создано в ближайшие 10-20 лет, в целом вполне реалистична.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2🐳2👍1