⚡️ Релиз Gemini 3.1 Pro - новый уровень интеллекта моделей
Google официально представила Gemini 3.1 Pro, и результаты выглядят серьёзно: модель показала 77,1% в одном из самых сложных тестов на абстрактное мышление — ARC-AGI-2.
- Резкий скачок качества
Результат почти в 2 раза выше, чем у предыдущей версии
- Обгоняет конкурентов
Gemini 3.1 Pro опережает Opus 4.6 и GPT-5.2 в задачах на обобщение и логическое мышление
- Сильнее в реальных сценариях
- программирование
- агентные задачи
- работа с новыми паттернами без примеров
- Новые возможности
Модель может генерировать анимированные SVG из текста и решать логические задачи, которых не было в обучающей выборке — это важный шаг к более универсальному AI.
- Контекст: 1M токенов, до 64k токенов вывода
- Knowledge cutoff: январь 2025
- Цена без изменений:
- $2 / $12 (до 200k токенов)
- $4 / $18 (свыше 200k токенов)
Попробовать Gemini 3.1 Pro уже можно в Google AI Studio: blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
@ai_machinelearning_big_data
Google официально представила Gemini 3.1 Pro, и результаты выглядят серьёзно: модель показала 77,1% в одном из самых сложных тестов на абстрактное мышление — ARC-AGI-2.
- Резкий скачок качества
Результат почти в 2 раза выше, чем у предыдущей версии
- Обгоняет конкурентов
Gemini 3.1 Pro опережает Opus 4.6 и GPT-5.2 в задачах на обобщение и логическое мышление
- Сильнее в реальных сценариях
- программирование
- агентные задачи
- работа с новыми паттернами без примеров
- Новые возможности
Модель может генерировать анимированные SVG из текста и решать логические задачи, которых не было в обучающей выборке — это важный шаг к более универсальному AI.
- Контекст: 1M токенов, до 64k токенов вывода
- Knowledge cutoff: январь 2025
- Цена без изменений:
- $2 / $12 (до 200k токенов)
- $4 / $18 (свыше 200k токенов)
Попробовать Gemini 3.1 Pro уже можно в Google AI Studio: blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-1-pro/
@ai_machinelearning_big_data
👍26❤12🔥8
🔥 Netflix угрожает ByteDance немедленным судебным иском из-за нового AI-сервиса Seedance 2.0.
Компания направила официальное требование о прекращении работы, назвав сервис
«двигателем высокоскоростного пиратства».
В чем претензии:
Seedance 2.0 способен генерировать контент, основанный на интеллектуальной собственности Netflix, включая:
- сцены из финала *Stranger Things*
- кроссоверы по *Squid Game*
- костюмы из *Bridgerton* сезона 4, который ещё даже не вышел
По мнению Netflix, модель воспроизводит оригинальный контент без разрешения.
Кто ещё против
К критике уже присоединились:
- Disney
- Paramount
- Warner Bros.
ByteDance заявила, что усилит защитные механизмы, но Netflix считает это недостаточным.
Netflix утверждает, что:
> Если AI воспроизводит оригинальный контент и используется в конкурентном продукте - это не «fair use», а нарушение авторских прав.
Конфликт показывает новый этап борьбы:
• AI-генерация контента = зона юридического риска.
Крупные медиакомпании начинают активно защищать свои IP от генеративных моделей.
Следующая волна регулирования AI будет связана не с безопасностью, а с авторским правом и лицензированием данных.
@data_analysis_ml
Компания направила официальное требование о прекращении работы, назвав сервис
«двигателем высокоскоростного пиратства».
В чем претензии:
Seedance 2.0 способен генерировать контент, основанный на интеллектуальной собственности Netflix, включая:
- сцены из финала *Stranger Things*
- кроссоверы по *Squid Game*
- костюмы из *Bridgerton* сезона 4, который ещё даже не вышел
По мнению Netflix, модель воспроизводит оригинальный контент без разрешения.
Кто ещё против
К критике уже присоединились:
- Disney
- Paramount
- Warner Bros.
ByteDance заявила, что усилит защитные механизмы, но Netflix считает это недостаточным.
Netflix утверждает, что:
> Если AI воспроизводит оригинальный контент и используется в конкурентном продукте - это не «fair use», а нарушение авторских прав.
Конфликт показывает новый этап борьбы:
• AI-генерация контента = зона юридического риска.
Крупные медиакомпании начинают активно защищать свои IP от генеративных моделей.
Следующая волна регулирования AI будет связана не с безопасностью, а с авторским правом и лицензированием данных.
@data_analysis_ml
👍8❤7🔥4🤣4
Команды Яндекса ищут продуктовых и data-аналитиков, а также data scientists с опытом на Python от 3 лет.
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
⚪ Зарегистрироваться на сайте до 25 февраля.
⚪ Пройти две технические секции 28 февраля.
⚪ Познакомиться с командами и получить офер 1 марта.
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
Участвуйте в Weekend Offer, чтобы всего за 2 дня пройти все собеседования и получить офер.
Как участвовать?
Мы опираемся на научные исследования и аналитические данные, а потом превращаем их в реальные продукты для миллионов пользователей. Присоединяйтесь, чтобы строить полезные сервисы вокруг ИИ-технологий, находить новые решения и делать то, что другим не по силам.
Подробности и регистрация — по ссылке: https://yandex.ru/project/events/wo-analytics-0226
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥4
🌟 Awesome LLM Apps для креативных решений
Собрание выдающихся приложений на основе LLM, использующих модели от OpenAI, Anthropic и других. Здесь вы найдете идеи применения LLM в различных областях, от анализа данных до создания контента.
🚀Основные моменты:
- 💡 Практическое применение LLM в разных доменах.
- 🔥 Интеграция с AI-агентами и многими другими технологиями.
- 🎓 Возможность обучения и участия в открытых проектах.
📌 GitHub: https://github.com/Shubhamsaboo/awesome-llm-apps
#python
Собрание выдающихся приложений на основе LLM, использующих модели от OpenAI, Anthropic и других. Здесь вы найдете идеи применения LLM в различных областях, от анализа данных до создания контента.
🚀Основные моменты:
- 💡 Практическое применение LLM в разных доменах.
- 🔥 Интеграция с AI-агентами и многими другими технологиями.
- 🎓 Возможность обучения и участия в открытых проектах.
📌 GitHub: https://github.com/Shubhamsaboo/awesome-llm-apps
#python
❤9🔥4👍3
Анализ данных (Data analysis)
Генеральный директор OpenAI Сэм Альтман и генеральный директор Anthropic Дарио Амодей показательно отказались взяться за руки во время группового фото на саммите India AI Impact Summit, в то время как другие участники на сцене сцепили руки для символического…
🔥17😁14❤2🥴2
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Как чувствует себя ИИ, когда помог тебе сдать экзамены и получить диплом, а потом в итоге забрал твою работу.
😁57❤5🔥4👍2
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Новый инструмент сканирует кодовую базу и предлагает патчи для исправления найденных проблем. Сейчас он доступен в режиме ограниченного превью для Enterprise и Team клиентов, а мейнтейнеры репозиториев могут запросить приоритетный бесплатный доступ.
Обычный статический анализ ищет совпадения с известными паттернами уязвимостей. Этого достаточно, чтобы поймать торчащие наружу пароли или устаревшее шифрование.
Но прорехи в бизнес-логике или сломанный контроль доступа такие инструменты пропускают - там нужно понимать, как компоненты взаимодействуют между собой и куда движутся данные.
Claude Code Security делает именно это: читает и анализирует код так, как его читал бы человек-исследователь безопасности.
Каждая находка проходит многоступенчатую верификацию. Claude сам перепроверяет результаты, пытаясь опровергнуть собственные выводы и отсеять ложные срабатывания.
Финальные находки появляются в дашборде с оценкой серьезности и уровнем уверенности модели. Решение, применять предложенный патч или нет остается за людьми, без человеческого одобрения ничего не меняется.
За инструментом - более года исследований. Команда Frontier Red Team тестировала Claude на соревнованиях CTF и совместно с Pacific Northwest National Laboratory отрабатывала защиту критической инфраструктуры.
С Opus 4.6 команда обнаружила в open-source проектах более 500 уязвимостей, которые не замечали годами, несмотря на регулярный аудит.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤7🔥5😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Стартаперы после того, как потратили $50 000 на вайб-кодинг приложения, которым никто не пользуется:
😁41👍8❤3
Компания CXMT продаёт модули DDR4 почти в два раза дешевле рыночной цены, несмотря на то, что сами цены на память резко растут.
За последний месяц стоимость DRAM выросла на 23,7% - до $11,50, а в годовом выражении увеличилась более чем в 8 раз.
Пока мировой рынок дорожает из-за дефицита и спроса, китайские компании пытаются захватить долю рынка за счёт низких цен.
https://www.koreaherald.com/article/10679206
Please open Telegram to view this post
VIEW IN TELEGRAM
❤21👍16🔥5
Anthropic выпустили исследование AI Fluency Index. И главный вывод - большинство людей уже используют AI каждый день, но почти никто не умеет работать с ним правильно.
Вот самое важное и неожиданное из исследования.
Главный навык работы с AI - не запрос, а диалог
85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.
Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат
уровень AI-грамотности в 2 раза выше.
Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает
Вывод: первый ответ AI - это черновик, а не результат.
Самая продуктивная модель - AI как напарник
Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях
AI усиливает человека, а не заменяет его.
Опасный эффект: чем красивее результат, тем меньше его проверяют
Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы
люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)
Если результат выглядит готовым - его принимают на веру.
Это один из главных рисков эпохи AI.
Люди хорошо управляют AI, но плохо контролируют результат
В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)
Но при этом меньше анализируют итог.
Только 30% пользователей задают правила работы с AI
Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»
А это напрямую влияет на качество результата.
Главный вывод
Разрыв будущего будет не между программистами и не-программистами.
Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ
AI-грамотность - это новый базовый навык.
И самый важный принцип из исследования:
Первый ответ AI - это начало работы, а не конец.
https://www.anthropic.com/research/AI-fluency-index
@data_analysis_ml
Вот самое важное и неожиданное из исследования.
Главный навык работы с AI - не запрос, а диалог
85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.
Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат
уровень AI-грамотности в 2 раза выше.
Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает
Вывод: первый ответ AI - это черновик, а не результат.
Самая продуктивная модель - AI как напарник
Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях
AI усиливает человека, а не заменяет его.
Опасный эффект: чем красивее результат, тем меньше его проверяют
Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы
люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)
Если результат выглядит готовым - его принимают на веру.
Это один из главных рисков эпохи AI.
Люди хорошо управляют AI, но плохо контролируют результат
В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)
Но при этом меньше анализируют итог.
Только 30% пользователей задают правила работы с AI
Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»
А это напрямую влияет на качество результата.
Главный вывод
Разрыв будущего будет не между программистами и не-программистами.
Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ
AI-грамотность - это новый базовый навык.
И самый важный принцип из исследования:
Первый ответ AI - это начало работы, а не конец.
https://www.anthropic.com/research/AI-fluency-index
@data_analysis_ml
👍19❤8🔥4