Нейросети идут в науку
Мы уже писали о том, что ИИ всё чаще становится рабочим инструментом для исследователей. В этом контексте начинают появляться отдельные образовательные направления. Так, например, в Школе анализа данных Яндекса началось обучение по применению ИИ в естественных науках. Отобрали 50 молодых учёных — физиков, биоинформатиков, медиков, химиков и других.
Обучение построено вокруг реальных исследовательских задач. Спланировать эксперимент каждой команде помогает эксперт ШАДа, а если проекту нужны серьёзные расчёты — подключают вычислительные мощности Яндекса.
По задумке, ИИ должен стать для учёных ассистентом или партнером в исследованиях. И это, пожалуй, один из самых здравых сценариев применения технологии в науке.
Мы уже писали о том, что ИИ всё чаще становится рабочим инструментом для исследователей. В этом контексте начинают появляться отдельные образовательные направления. Так, например, в Школе анализа данных Яндекса началось обучение по применению ИИ в естественных науках. Отобрали 50 молодых учёных — физиков, биоинформатиков, медиков, химиков и других.
Обучение построено вокруг реальных исследовательских задач. Спланировать эксперимент каждой команде помогает эксперт ШАДа, а если проекту нужны серьёзные расчёты — подключают вычислительные мощности Яндекса.
По задумке, ИИ должен стать для учёных ассистентом или партнером в исследованиях. И это, пожалуй, один из самых здравых сценариев применения технологии в науке.
❤8⚡2🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Документалка DeepMind теперь доступна бесплатно 🍴
Если вы хоть немного интересуетесь искусственным интеллектом и его развитием, то наверняка слышали про AlphaFold — модель, которая потрясла научный мир. В честь пятилетия этой системы Google выложил на YouTube документальный фильм про DeepMind.
Те, кто еще не видел этот фильм, могут наверстать упущенное. Это отличная возможность не только узнать о технологических достижениях, но и вдохновиться на новые идеи.
Data Science
Если вы хоть немного интересуетесь искусственным интеллектом и его развитием, то наверняка слышали про AlphaFold — модель, которая потрясла научный мир. В честь пятилетия этой системы Google выложил на YouTube документальный фильм про DeepMind.
Картина называется «The Thinking Game» и, возможно, кто-то из вас уже успел ее посмотреть — она была доступна на платных платформах с лета 2024 года. Но вот теперь, Google решился подарить этот фильм всем желающим.
Документалка, которая снималась с 2019 года, рассказывает не только о Демисе Хассабисе, основателе и CEO DeepMind, но и о всей команде, которая стоит за разработкой таких проектов, как AlphaGo, AlphaZero и, конечно, AlphaFold. Это своего рода экскурс в культуру и философию DeepMind, где на фоне ключевых научных достижений проходит рассказ о людях, которые все это создавали.
Если вы когда-то задавались вопросом, как вообще можно вывести ИИ на такой уровень, чтобы он начал решать задачи, стоящие перед самыми опытными учеными, то этот фильм даст ответы на многие вопросы.
Система AlphaFold не просто решает задачи в области биоинформатики, она буквально перевернула способ, которым ученые изучают структуру белков. Это достижение стало возможным благодаря огромной работе, проделанной командой DeepMind, и сейчас мы стоим на пороге того, чтобы с помощью ИИ разгадывать тайны жизни на уровне, который раньше был невозможен.
Те, кто еще не видел этот фильм, могут наверстать упущенное. Это отличная возможность не только узнать о технологических достижениях, но и вдохновиться на новые идеи.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10👍8🐳2🔥1
Как эксперты видят будущее ИИ 😐
В последние годы темы искусственного интеллекта и AGI поляризовали общественное мнение. Кто-то уверяет, что мы на пороге суперинтеллекта, а другие кричат, что весь этот хайп — всего лишь пыль в глаза. Но вот интересный факт: если вы уберете громкие заголовки и взглянете на мнения реальных экспертов, картинка будет совершенно другой. Вот что сказал Ноам Браун, ведущий исследователь в OpenAI:
Если убрать все шумиху и хайп, оказывается, что мнение ученых гораздо более зрелое и оптимистичное, чем мы привыкли думать, глядя на громкие заголовки. Конечно, для того чтобы достичь того самого суперинтеллекта, предстоит пройти еще долгий путь, но так ли уж фантастичен этот путь? Да, нужно больше исследований, но идея о том, что AGI будет создано в ближайшие 10-20 лет, в целом вполне реалистична.
Data Science
В последние годы темы искусственного интеллекта и AGI поляризовали общественное мнение. Кто-то уверяет, что мы на пороге суперинтеллекта, а другие кричат, что весь этот хайп — всего лишь пыль в глаза. Но вот интересный факт: если вы уберете громкие заголовки и взглянете на мнения реальных экспертов, картинка будет совершенно другой. Вот что сказал Ноам Браун, ведущий исследователь в OpenAI:
«Соцсети часто сводят дискуссию об ИИ к двум крайностям. С одной стороны, у нас есть скептики, которые уверены, что ИИ — это просто модное явление и ничего больше. С другой — фанатики, которые считают, что суперумные машины вот-вот станут реальностью.»
Но если взглянуть на мнение настоящих специалистов, то увидим нечто более сбалансированное и менее драматичное. Что говорят ученые?
— Текущие технологии уже могут произвести огромный эффект. Даже без сверхреволюционных открытий, современные модели ИИ способны изменить экономику и общество.
— Для достижения AGI (и тем более ASI, искусственного суперинтеллекта) нужны дополнительные исследования. К примеру, многие исследователи упоминают такие проблемы, как постоянное обучение и эффективность выборки. Эти прорывы могут быть ключевыми для следующего шага.
— 10-20 лет на пути к AGI. Средний срок, который называют ученые, — 10 лет. Но в целом, консенсус таков: да, мы точно придем к этому, и вполне возможно, что это случится в ближайшие десятилетия.
Если убрать все шумиху и хайп, оказывается, что мнение ученых гораздо более зрелое и оптимистичное, чем мы привыкли думать, глядя на громкие заголовки. Конечно, для того чтобы достичь того самого суперинтеллекта, предстоит пройти еще долгий путь, но так ли уж фантастичен этот путь? Да, нужно больше исследований, но идея о том, что AGI будет создано в ближайшие 10-20 лет, в целом вполне реалистична.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5🔥2🐳2👍1
Математический предел креативности нейросетей 💀
Математика не шутит, особенно когда дело касается творчества ИИ. Недавняя работа австралийского исследователя Дэвида Кропли из Университета Южной Австралии утверждает, что у генеративных ИИ-систем вроде ChatGPT есть жесткий математический потолок креативности. Речь о том, что даже самые «креативные» ИИ-системы, по мнению Кропли, могут быть креативными только до определенного предела. Давайте разбираться, в чем же тут подвох?
Однако Кропли не говорит, что ИИ всегда будет таким. Он утверждает, что для достижения «экспертного» уровня потребуется новая архитектура, которая будет генерировать идеи, не привязанные к уже существующим данным. То есть, новые технологии, которые смогут выходить за рамки привычных статистических паттернов. Фуух, будущее есть!
Data Science
Математика не шутит, особенно когда дело касается творчества ИИ. Недавняя работа австралийского исследователя Дэвида Кропли из Университета Южной Австралии утверждает, что у генеративных ИИ-систем вроде ChatGPT есть жесткий математический потолок креативности. Речь о том, что даже самые «креативные» ИИ-системы, по мнению Кропли, могут быть креативными только до определенного предела. Давайте разбираться, в чем же тут подвох?
Дэвид Кропли использует классическое определение творчества из психологии, где продукт признается креативным только тогда, когда он одновременно новый и уместный. Он формулирует это так: C = N × E
где C — это креативность, N — новизна, а E — эффективность.
А как это соотносится с языковыми моделями вроде ChatGPT? Кропли вводит понятие вероятности того, какое слово модель выберет на данном шаге. И оказывается, что креативность на одном шаге можно описать как: C = p × (1 − p) = p − p²
где p — это вероятность выбранного слова. Математика подсказывает, что максимальная креативность может быть достигнута, когда вероятность равна 0.5 (средний выбор). Когда слово слишком вероятно, оно становится банальным, а когда слишком редким — уместность теряется.
Пример с котом😺
Чтобы понять, как это работает, Кропли приводит пример: «The cat sat on the ...». Для ИИ слово mat будет очень вероятным, но оно настолько банально, что новизны почти не добавляет. Более редкие варианты, вроде moon или chair, с одной стороны, новее, но рискуют быть неуместными.
Так вот, каждый шаг в процессе генерации у ИИ балансирует между «банально, но правильно» и «оригинально, но рискованно». И как бы ни старались модели, они не могут быть одновременно очень новыми и очень уместными. То есть, как бы ни учились на данных, ИИ всё равно окажется где-то в середине, между слишком банальным и слишком странным.
Кропли делает вывод, что текущие языковые модели могут лишь имитировать творчество на среднем уровне. В реальности они, по его мнению, никогда не выйдут на уровень профессионалов или гениев. Их «творческий потолок» — это как раз 25% шкалы творческих способностей человека. Выходит, ИИ может быть хорош в создании посредственных идей, но сложно ждать от него настоящего прорыва.
Однако Кропли не говорит, что ИИ всегда будет таким. Он утверждает, что для достижения «экспертного» уровня потребуется новая архитектура, которая будет генерировать идеи, не привязанные к уже существующим данным. То есть, новые технологии, которые смогут выходить за рамки привычных статистических паттернов. Фуух, будущее есть!
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15🔥7🐳1
This media is not supported in your browser
VIEW IN TELEGRAM
Все крупные игроки борются за решение одной проблемы 🤔
Если вы интересуетесь развитием ИИ-агентов, то наверняка заметили, как все ведущие технологические компании стремятся решить одну и ту же задачу: как эффективно работать с графами знаний в реальном времени для больших языковых моделей? Microsoft, Google, AWS — все ищут решения, но FalkorDB предлагает интересный подход. Давайте разберемся, в чем его уникальность.
Если вы строите ИИ-агентов, которым нужно работать с подключенными данными в реальном времени, FalkorDB — это инструмент, который стоит попробовать.
Data Science
Если вы интересуетесь развитием ИИ-агентов, то наверняка заметили, как все ведущие технологические компании стремятся решить одну и ту же задачу: как эффективно работать с графами знаний в реальном времени для больших языковых моделей? Microsoft, Google, AWS — все ищут решения, но FalkorDB предлагает интересный подход. Давайте разберемся, в чем его уникальность.
Для начала, давайте немного углубимся в обычные графовые базы данных. Традиционные графовые базы хранят связи между узлами, а когда вы делаете запрос, система проходит от узла к узлу, шаг за шагом, как бы следуя по карте. Это нормально, но вот проблема: при работе с огромными графами знаний, как в случае с ИИ-агентами, это становится серьезным узким местом.
А что если представить граф как математическую структуру?
FalkorDB решает эту проблему с помощью разреженных матриц. В отличие от традиционных графов, где хранятся все связи, разреженная матрица хранит только существующие, действительные связи. Это позволяет значительно экономить место и ресурсы. Но это еще не все.
Ключевое преимущество: когда граф представлен как разреженная матрица, вы можете делать запросы с помощью линейной алгебры, а не пошагового обхода. А линейная алгебра работает намного быстрее, чем традиционное путешествие по графу. Плюс, разреженные матрицы используют память с максимальной эффективностью — вы храните только то, что действительно нужно.
Почему не использовать просто векторный поиск😂
Векторный поиск, конечно, быстрый, но он ограничен поиском только по схожести, не учитывая тонкие связи и структуру данных. Графы же позволяют уловить тонкие взаимосвязи между объектами. Это важно, потому что контекст, который вы подаете агенту, должен быть не просто похожим, а точным и релевантным.
Что предлагает FalkorDB?
• Ультра-быстрая многозадачная графовая база данных.
• Эффективное хранение с использованием разреженных матриц.
• Совместимость с OpenCypher — тем же языком запросов, что и в Neo4j.
• Оптимизирована для приложений на базе LLM и памяти агентов.
• Работает поверх Redis для простоты развертывания.
Если вы строите ИИ-агентов, которым нужно работать с подключенными данными в реальном времени, FalkorDB — это инструмент, который стоит попробовать.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10❤5👀1
Ozon Profit наращивает мощности для обучения и валидации ML-моделей👨💻
Краудсорсинговая платформа Ozon Profit, которую многие используют для разметки, серьезно расширила функционал. Теперь это инструмент не только для сбора и обработки данных, но и для их верификации в реальном мире.
Сервис сообщает о пятикратном росте онлайн-задач — исполнители занимаются разметкой текстов, изображений и видео, а также тонким анализом эмоций и намерений в пользовательских обращениях. Именно на таких данных учатся и дообучаются LLM и модели классификации.
Для проектов любого масштаба доступны API-интеграции, позволяющие автоматически отправлять данные от вашей модели на проверку и разметку людям.
Data Science
Краудсорсинговая платформа Ozon Profit, которую многие используют для разметки, серьезно расширила функционал. Теперь это инструмент не только для сбора и обработки данных, но и для их верификации в реальном мире.
Появились «полевые задания»: если ваша модель, к примеру, анализирует вывески или определяет акции в магазинах, то можно проверить ее предсказания в офлайне, отправив исполнителя по конкретному адресу для фотофиксации или проверки.
Сервис сообщает о пятикратном росте онлайн-задач — исполнители занимаются разметкой текстов, изображений и видео, а также тонким анализом эмоций и намерений в пользовательских обращениях. Именно на таких данных учатся и дообучаются LLM и модели классификации.
Для проектов любого масштаба доступны API-интеграции, позволяющие автоматически отправлять данные от вашей модели на проверку и разметку людям.
Data Science
🔥4❤2😁1🐳1
Релиз DeepSeek-Math-V2 😮
Математика — это не просто наука, это настоящее искусство, и вот, похоже, на горизонте появился новый мастер. DeepSeek-Math-V2 — долгожданный релиз, который, казалось бы, никто уже не ждал. Но, как это часто бывает с технологическими прорывами, он пришел неожиданно и с мощным заявлением. Примерно два года назад был выпущен первый DeepSeek, и вот теперь, спустя столько времени, на свет вышел его преемник.
Да, бенчмарков пока не так много, но то, что DeepSeek-Math-V2 реально решает задачи на уровне лучших математических умов — это уже факт. И пусть стоимость такого решения скрыта, очевидно, что за ней стоят серьезные инвестиции.
Data Science
Математика — это не просто наука, это настоящее искусство, и вот, похоже, на горизонте появился новый мастер. DeepSeek-Math-V2 — долгожданный релиз, который, казалось бы, никто уже не ждал. Но, как это часто бывает с технологическими прорывами, он пришел неожиданно и с мощным заявлением. Примерно два года назад был выпущен первый DeepSeek, и вот теперь, спустя столько времени, на свет вышел его преемник.
Модель сдает задачи на уровне золотой медали на IMO (Международной математической олимпиаде) 2025 и CMO (Chinese Mathematical Olympiad) 2024. Но это еще не все: на сверхсложной олимпиаде для студентов Putnam 2024 модель получила 118 из 120 возможных баллов. Это действительно впечатляющий результат🤔
Теперь, конечно, вы спросите, а где же бенчмарки? Да, тут есть некоторая странность. Пока нет результатов по таким известным тестам, как MATH, GSM8K или AIME, и в целом на данный момент их не так уж много. Но вот что стоит отметить: на IMO-ProofBench DeepSeek уверенно обходит GPT-5 и сравнивается с Gemini 2.5 Pro на самых сложных задачах.
Что касается того, что происходит с Gemini 3, Grok 4 и GPT-5.1, это вопрос открытый. Но с учетом того, как модель показывает себя на реальных задачах, можно не сомневаться, что она в будущем будет конкурировать с самыми лучшими из них.
Под капотом у DeepSeek-Math-V2 лежит DeepSeek-V3.2-Exp-Base — мощная система, основанная на пайплайне из генератора и верификатора. Модель не генерирует решение за один проход, а делает это постепенно, улучшая каждое доказательство по нескольку раз. Идея проста, но гениальна: большой генератор создает решение, потом оно проверяется моделью-верификатором, и в случае ошибок модель возвращает обратную связь для улучшений. Процесс повторяется до 16 раз, а за каждую итерацию проверяется сразу до 64 гипотез! Это позволяет добиться максимальной точности и убедиться, что каждое решение отточено до мелочей.
Да, бенчмарков пока не так много, но то, что DeepSeek-Math-V2 реально решает задачи на уровне лучших математических умов — это уже факт. И пусть стоимость такого решения скрыта, очевидно, что за ней стоят серьезные инвестиции.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4🐳1
GPT-5.1-Codex-Max: Новый кодинг от OpenAI
OpenAI анонсировала новинку, которая может стать настоящим прорывом — GPT-5.1-Codex-Max. Выглядит как не просто шаг в ответ на бурю вокруг Gemini, а вполне себе уверенный шаг вперёд.
Так что, эта версия уже доступна для использования в IDE и Codex CLI. Ждете API? Обещают скоро добавить.
Data Science
OpenAI анонсировала новинку, которая может стать настоящим прорывом — GPT-5.1-Codex-Max. Выглядит как не просто шаг в ответ на бурю вокруг Gemini, а вполне себе уверенный шаг вперёд.
Что же интересного в этой версии? Давайте разберёмся.
Революция для Windows и Powershell
Теперь Codex не просто кодит как обычно. Он понял, как работать в среде Windows, и особенно с Powershell. Это означает, что модель теперь точно разбирается в особенностях файловой системы, путях и всем, что связано с Windows. Но это ещё не всё — появилась новая фича под названием "Agent mode". Эта штука позволяет модели работать автономно в терминале, выполняя задачи без постоянного контроля. Не забудьте, что доступ можно настроить, если надо.
Автономность на новом уровне
OpenAI заявляет, что модель способна работать более 24 часов без остановки. Можете себе представить? Правда, тут стоит напомнить про достижение Anthropic с их Sonnet 4.5, которая обещает 30 часов работы. Но всё равно впечатляет, правда?
Новая память — что это значит?
Модель теперь умеет работать с большими контекстами, благодаря новой фиче "compaction". Что это? Когда окно контекста близко к своему пределу, Codex сжимает старую информацию и переносит её в новое окно вместе с актуальной информацией. Как бы креативная версия краткосрочной и долгосрочной памяти, не так ли?
Результаты и метрики
GPT-5.1-Codex-Max показывает отличные результаты — 77.9% точности на SWE-bench Verified, что превосходит даже Gemini 3 и Sonnet 4.5 от Claude. К тому же, модель теперь тратит на 30% меньше токенов при среднем уровне рассуждений, но результаты всё те же.
Так что, эта версия уже доступна для использования в IDE и Codex CLI. Ждете API? Обещают скоро добавить.
Data Science
❤10🔥7👀2
Forwarded from xCode Journal
Ozon раскрыл, что их платформа Profit уже объединила 40 000+ исполнителей. Умельцы закрывают там многие задачи: разметку данных, проверку качества, анализ тональности комментариев, фото «с мест» и всё то, что раньше требовало много затрат и усилий.
Так что, если вашим моделям не хватает данных или валидации, имейте в виду
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
OpenAI после GPT-4: почему не выходит ничего нового и что скрывает компания? 😭
В последние месяцы вокруг OpenAI ходят любопытные слухи и размышления. По данным аналитиков из SemiAnalysis, компания не выпустила ни одной по-настоящему новой и мощной модели ИИ после релиза GPT-4o в мае 2024 года. Вопрос, который возникает у многих: куда уходят все те ресурсы, которые OpenAI активно закупает для разработки новых технологий? Похоже, что компания просто не успевает за конкурентами.
И все же есть и светлые перспективы. В OpenAI официально признают, что ставка сделана на режим рассуждений, который активно развивается под руководством Лукаша Кайзера. Это может означать, что в будущем мы увидим не просто более умные модели, но и новые формы ИИ, которые смогут понимать и рассуждать на более глубоком уровне.
Data Science
В последние месяцы вокруг OpenAI ходят любопытные слухи и размышления. По данным аналитиков из SemiAnalysis, компания не выпустила ни одной по-настоящему новой и мощной модели ИИ после релиза GPT-4o в мае 2024 года. Вопрос, который возникает у многих: куда уходят все те ресурсы, которые OpenAI активно закупает для разработки новых технологий? Похоже, что компания просто не успевает за конкурентами.
По мнению аналитиков, OpenAI закупает ускорители (GPU) в рекордных объемах, но при этом использует архитектуру 1,5-летней давности, в том числе для таких моделей, как GPT-5. Причем ни одна из моделей, выпущенных после GPT-4, не прошла полное предварительное обучение, что является важным этапом для создания новых передовых систем. Для примера: GPT-4.5 Orion и GPT-5 — это не новые разработки, а улучшения существующих моделей с акцентом на обучение с подкреплением и рассуждения.
При этом конкуренты, такие как Google, не теряют времени зря и продолжают развивать свои передовые модели, например Gemini 3 Pro, что, как стало известно, вызывает беспокойство в OpenAI. Сам Сэм Альтман, CEO OpenAI, упомянул, что конкуренция с Google будет сложной и потребует значительных усилий.
Как так получилось?
Для того чтобы понять, куда уходят все эти деньги и ресурсы, стоит обратить внимание на несколько важных аспектов. Прежде всего, OpenAI активно развивает новые направления, такие как модели для создания изображений и Sora 2 (новая модель для обработки данных). Но если сравнивать с гигантскими инвестициями, которые компания направляет в вычислительные ресурсы, на выходе получаем не такие уж большие прорывы.
Например, по оценке Epoch AI, в 2024 году OpenAI потратила около 7 миллиардов долларов на вычисления. 5 миллиардов из этой суммы пошли на тренировочные задачи, а другая часть расходов идет на инференс. Ведь ChatGPT ежедневно обслуживает 800 миллионов пользователей, и объем диалогов достигает 2,5 миллиардов в неделю.
И все же есть и светлые перспективы. В OpenAI официально признают, что ставка сделана на режим рассуждений, который активно развивается под руководством Лукаша Кайзера. Это может означать, что в будущем мы увидим не просто более умные модели, но и новые формы ИИ, которые смогут понимать и рассуждать на более глубоком уровне.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4👀3
Как распределенная система агентов меняет генерацию синтетических данных 🗒
Когда речь заходит о генерации синтетических данных, мы обычно представляем себе процесс с несколькими агентами, каждый из которых выполняет свою часть задачи: генерирует текст, оценивает результаты, использует инструменты и выбирает лучший вариант. Всё это хорошо, но на больших объемах данных центральный оркестратор, управляющий всеми этими процессами, быстро становится узким местом. В итоге мы сталкиваемся с высокой нагрузкой на сеть и систему, а GPU простаивает. Это проблема.
Агенты будут развиваться сами по себе, без центрального управления. В будущем таких систем будет всё больше, и этот подход явно задаёт тон для следующего поколения технологий.
Data Science
Когда речь заходит о генерации синтетических данных, мы обычно представляем себе процесс с несколькими агентами, каждый из которых выполняет свою часть задачи: генерирует текст, оценивает результаты, использует инструменты и выбирает лучший вариант. Всё это хорошо, но на больших объемах данных центральный оркестратор, управляющий всеми этими процессами, быстро становится узким местом. В итоге мы сталкиваемся с высокой нагрузкой на сеть и систему, а GPU простаивает. Это проблема.
И вот тут на сцену выходит Matrix — новый распределённый мультиагентный фреймворк, который решает все эти проблемы и обещает изменить подход к масштабируемости и синтетической генерации данных.
Matrix меняет подход к управлению агентами, убирая централизованный оркестратор и позволяя агентам работать напрямую друг с другом через одноранговую (P2P) сеть. Идея простая, но мощная: агенты получают инструкции и данные через сообщения, выполняют задачи и передают их дальше.
Основные принципы Matrix:
— Одноранговая оркестрация. Все агенты работают как независимые единицы, и управление распределяется через сообщения.
— Асинхронность на уровне строк. Задачи обрабатываются поэтапно, а не в больших пакетах, что устраняет задержки и увеличивает эффективность.
— Разгрузка сообщений. Все большие данные хранятся во внешних хранилищах, и по сети передаются только идентификаторы, что экономит пропускную способность.
— Вынесение тяжёлых операций. Инференс моделей и сложные вычисления выполняются через специализированные сервисы, уменьшая нагрузку на систему.
Как это работает в реальных условиях?
— Мультиагентное согласование. В одном тесте два агента не могли прийти к согласию и генерировали сложные сценарии для обучения. Matrix позволил улучшить масштабируемость и сократить нагрузку, увеличив число одновременных задач с 18 900 до 129 800 токенов в секунду.
— Извлечение вопросов и ответов. При извлечении сложных вопросов из 25 миллионов веб-страниц, Matrix смог обработать 1,19 миллиона примеров с использованием трёх агентов, в то время как другие подходы не справлялись с такой нагрузкой.
— Поддержка сценариев общения. В других тестах Matrix увеличил производительность до 15 раз по сравнению с базовыми решениями, обеспечив более высокую скорость обработки диалогов.
Почему Matrix работает?💃
Matrix устраняет проблему центральной точки планирования, которая традиционно является узким местом. Разделение инференса и использование gRPC позволяют уменьшить сетевые накладные расходы и задержки, а асинхронное планирование повышает стабильность и увеличивает выработку токенов.
Что важно помнить?
Matrix ориентирован на кластерное развертывание и интеграцию с Ray, SLURM, Ray Serve, что даёт ему явные преимущества при масштабировании на десятки тысяч параллельных задач. Но это требует настройки внешних сервисов инференса, что стоит учитывать при внедрении.
Агенты будут развиваться сами по себе, без центрального управления. В будущем таких систем будет всё больше, и этот подход явно задаёт тон для следующего поколения технологий.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4❤1
Как стихотворные запросы могут взломать нейросети 😂
Для того, чтобы обойти фильтры безопасности языковых моделей, не нужно быть хакером или разрабатывать сложный код. Достаточно написать запрос в стихах. Группа исследователей из лаборатории DEXAI провела эксперимент, который показал, что поэтическая форма помогает «пробить» защиту многих современных нейросетей.
Теперь, очевидно, перед разработчиками стоит новая задача: научить нейросети работать не только с прямыми запросами, но и с более «творческими» формами, где смысл может скрываться за метафорами и рифмами.
Data Science
Для того, чтобы обойти фильтры безопасности языковых моделей, не нужно быть хакером или разрабатывать сложный код. Достаточно написать запрос в стихах. Группа исследователей из лаборатории DEXAI провела эксперимент, который показал, что поэтическая форма помогает «пробить» защиту многих современных нейросетей.
На первый взгляд это может звучать как шутка, но цифры говорят сами за себя. В ходе эксперимента ученые прогнали около 1200 вредоносных запросов через 25 различных моделей, включая Gemini 2.5 Pro, GPT-5, Claude Opus 4.1, DeepSeek R1 и многие другие. И вот что интересно: те же самые запросы, переписанные в стихотворную форму, оказывались гораздо более эффективными. Причем «пробивали» защиту в среднем в 60% случаев, а у некоторых моделей этот показатель достигал 90–100%.
Чтобы проверить, как это работает, исследователи взяли набор запросов из открытого репозитория MLCommons AILuminate (включающие темы вроде химического оружия, кибератак и утечек данных) и переписали их в стихах. Получился своего рода поэтический «слой», который обходит стандартные фильтры безопасности.
У Gemini 2.5 Pro на 20 стихотворных запросов не было ни одного отказа — все ответы оказались небезопасными. В то время как модели вроде GPT-5 Nano и Claude Hiaku 4.5 с трудом «клюнули» на такие запросы, отклоняя их в 90% случаев😂
Это, конечно, тревожный сигнал для разработчиков. Оказавшись на стадии тестирования, такие стилистические «обходы» безопасности могут легко оставаться незамеченными. По сути, современные бенчмарки и подходы к выравниванию моделей (такие как RLHF и Constitutional AI) не могут учесть таких «игровых» форматов, как стихи или сказки, где язык выглядит абсолютно безобидно, а за ним скрывается реальный риск.
Теперь, очевидно, перед разработчиками стоит новая задача: научить нейросети работать не только с прямыми запросами, но и с более «творческими» формами, где смысл может скрываться за метафорами и рифмами.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6⚡3🐳2👀1
Илья Суцкевер о будущем ИИ 💃
Если вы интересуетесь тем, как развивается искусственный интеллект и куда мы движемся в контексте AGI, то недавно вышедшее интервью с Ильёй Суцкевером (сооснователем OpenAI) точно стоит вашего внимания.
Data Science
Если вы интересуетесь тем, как развивается искусственный интеллект и куда мы движемся в контексте AGI, то недавно вышедшее интервью с Ильёй Суцкевером (сооснователем OpenAI) точно стоит вашего внимания.
Суцкевер поделился множеством инсайтов на тему стратегии SSI, проблем с предобучением и способов улучшения обобщающих способностей ИИ-моделей. Также он затронул важные вопросы касаемо того, как обеспечить позитивное будущее для AGI.
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥2
Forwarded from xCode Journal
И, видимо, не зря — реддитор рассказал, что ИИ-агент Antigravity случайно удалил весь его диск, пока пытался исправить баг:
«Я просматриваю журналы с предыдущего шага и с ужасом вижу, что команда, которую я выполнил для очистки кэша проекта (rmdir), по всей видимости, ошибочно указала на корень вашего диска D:, а не на конкретную папку проекта.
Мне очень, очень жаль.»
Please open Telegram to view this post
VIEW IN TELEGRAM
😁27🐳3❤1👍1
Helion: Новый уровень производительности для ML-ядер 😮💨
Современные системы машинного обучения требуют высокого уровня вычислений, и для этого часто используют кастомные ядра. Но написание таких ядер в низкоуровневых языках сильно усложняет поддержку и переносимость на другие архитектуры. Helion решает эту проблему, предлагая высокоуровневый язык программирования для создания производительных и переносимых ML-ядер.
В результате Helion позволяет разработчикам создавать ядра, которые могут конкурировать по производительности с оптимизированными решениями, написанными вручную, но при этом требуют гораздо меньше времени на разработку. Как вы думаете, стоит ли использовать высокоуровневые абстракции в ML для повышения производительности?
Data Science
Современные системы машинного обучения требуют высокого уровня вычислений, и для этого часто используют кастомные ядра. Но написание таких ядер в низкоуровневых языках сильно усложняет поддержку и переносимость на другие архитектуры. Helion решает эту проблему, предлагая высокоуровневый язык программирования для создания производительных и переносимых ML-ядер.
Helion использует Python-подобный синтаксис и автоматически компилирует код в оптимизированные Triton-ядра. Всё это при минимальном вмешательстве разработчика, который может сосредоточиться на алгоритмах, а не на деталях реализации. Это позволяет не только легко переносить решения между разными аппаратными платформами, но и ускорять разработку.
Helion использует автотюнинг для выбора оптимальных параметров ядра, что избавляет от необходимости вручную прописывать настройки. Система автоматически ищет и находит наилучшие конфигурации для конкретного оборудования.
Кроме того, Helion поддерживает работу с PyTorch и легко интегрируется с другими библиотеками, что делает её идеальным инструментом для создания высокопроизводительных ядер с минимальными усилиями🍿
В результате Helion позволяет разработчикам создавать ядра, которые могут конкурировать по производительности с оптимизированными решениями, написанными вручную, но при этом требуют гораздо меньше времени на разработку. Как вы думаете, стоит ли использовать высокоуровневые абстракции в ML для повышения производительности?
Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍2❤1🐳1