📚 У OpenAI снова юридические проблемы, и ситуация становится заметно серьезнее.
Суд обязал компанию передать внутренние переписки о том, зачем и почему были удалены два огромных датасета пиратских книг.
Если в этих сообщениях окажется, что сотрудники понимали незаконность данных и пытались quietly erase их, авторам будет проще доказать умышленное нарушение авторских прав. А это значит гораздо более высокие штрафы за каждую книгу.
Что известно сейчас:
- Авторы утверждают, что модели OpenAI обучались на больших наборах пиратских книг.
- Истцы уже получили Slack-переписки сотрудников по датасетам books1 и books2.
- Судья потребовала раскрыть документы, объясняющие мотивы удаления этих датасетов.
- Внутренние юристы OpenAI будут допрошены.
- Если окажется, что компания меняла объяснение причин удаления, это усиливает позицию истцов.
Почему это поворотный момент:
Суд указал, что OpenAI сначала объясняла удаление тем, что данные не использовались, а позже пыталась закрыть переписки под юрпривилегией. Такое изменение позиции суд расценил как отказ от привилегии. Поэтому теперь Slack-каналы project clear и excise libgen могут быть раскрыты.
Этот кейс создаёт значимый сигнал для всей AI-индустрии:
то, как компании обсуждают скрапинг, теневые библиотеки и чистку данных внутри Slack или других рабочих инструментов, может напрямую влиять на то, попадут ли они под обычные штрафы или под огромную финансовую ответственность.
hollywoodreporter.com/business/business-news/openai-loses-key-discovery-battle-why-deleted-library-of-pirated-books-1236436363/
Суд обязал компанию передать внутренние переписки о том, зачем и почему были удалены два огромных датасета пиратских книг.
Если в этих сообщениях окажется, что сотрудники понимали незаконность данных и пытались quietly erase их, авторам будет проще доказать умышленное нарушение авторских прав. А это значит гораздо более высокие штрафы за каждую книгу.
Что известно сейчас:
- Авторы утверждают, что модели OpenAI обучались на больших наборах пиратских книг.
- Истцы уже получили Slack-переписки сотрудников по датасетам books1 и books2.
- Судья потребовала раскрыть документы, объясняющие мотивы удаления этих датасетов.
- Внутренние юристы OpenAI будут допрошены.
- Если окажется, что компания меняла объяснение причин удаления, это усиливает позицию истцов.
Почему это поворотный момент:
Суд указал, что OpenAI сначала объясняла удаление тем, что данные не использовались, а позже пыталась закрыть переписки под юрпривилегией. Такое изменение позиции суд расценил как отказ от привилегии. Поэтому теперь Slack-каналы project clear и excise libgen могут быть раскрыты.
Этот кейс создаёт значимый сигнал для всей AI-индустрии:
то, как компании обсуждают скрапинг, теневые библиотеки и чистку данных внутри Slack или других рабочих инструментов, может напрямую влиять на то, попадут ли они под обычные штрафы или под огромную финансовую ответственность.
hollywoodreporter.com/business/business-news/openai-loses-key-discovery-battle-why-deleted-library-of-pirated-books-1236436363/
❤11🤣6👍4🔥3🤔3
🧮 Интересная и подробная статья о том, почему TPU становятся ключевым фактором в удешевлении инференса.
- TPUs дают примерно в 4 раза лучшую стоимость за производительность по сравнению с Nvidia GPU в задачах инференса
- Инференс за время жизни модели стоит в 15 раз дороже, чем её обучение
- К 2030 году инференс будет потреблять около 75 процентов всего AI compute (рынок на 255 млрд долларов)
Основная мысль проста: инференс полностью доминирует итоговую стоимость эксплуатации модели. Обучение модели уровня GPT-4 стоит примерно 150 миллионов долларов, но поддержание инференса - около 2.3 миллиарда долларов в год.
Nvidia H100 отлично подходит для гибкого обучения, но их универсальная архитектура добавляет лишнюю логику управления и движение данных, что увеличивает энергопотребление при простых forward-pass операциях — поэтому длительный инференс обходится дорого.
Google TPU - специализированные чипы для tensor math, построенные на систолических массивах и агрессивной инженерии энергопотребления. В итоге они потребляют примерно на 60-65 процентов меньше энергии и дают около четырёхкратного выигрыша по стоимости инференса трансформеров по сравнению с H100.
Практика это подтверждает:
Midjourney снизил затраты на инференс примерно на 65 процентов после перехода на TPU.
Anthropic закупает до миллиона TPU.
Meta, Salesforce, Cohere и многие другие также переводят всё больше трафика на TPU-поды, поскольку инференс стремительно растёт и к 2030 году станет около 75 процентов всех вычислений в AI.
ainewshub.org/post/ai-inference-costs-tpu-vs-gpu-2025
- TPUs дают примерно в 4 раза лучшую стоимость за производительность по сравнению с Nvidia GPU в задачах инференса
- Инференс за время жизни модели стоит в 15 раз дороже, чем её обучение
- К 2030 году инференс будет потреблять около 75 процентов всего AI compute (рынок на 255 млрд долларов)
Основная мысль проста: инференс полностью доминирует итоговую стоимость эксплуатации модели. Обучение модели уровня GPT-4 стоит примерно 150 миллионов долларов, но поддержание инференса - около 2.3 миллиарда долларов в год.
Nvidia H100 отлично подходит для гибкого обучения, но их универсальная архитектура добавляет лишнюю логику управления и движение данных, что увеличивает энергопотребление при простых forward-pass операциях — поэтому длительный инференс обходится дорого.
Google TPU - специализированные чипы для tensor math, построенные на систолических массивах и агрессивной инженерии энергопотребления. В итоге они потребляют примерно на 60-65 процентов меньше энергии и дают около четырёхкратного выигрыша по стоимости инференса трансформеров по сравнению с H100.
Практика это подтверждает:
Midjourney снизил затраты на инференс примерно на 65 процентов после перехода на TPU.
Anthropic закупает до миллиона TPU.
Meta, Salesforce, Cohere и многие другие также переводят всё больше трафика на TPU-поды, поскольку инференс стремительно растёт и к 2030 году станет около 75 процентов всех вычислений в AI.
ainewshub.org/post/ai-inference-costs-tpu-vs-gpu-2025
❤14🔥7👍5
llama.cpp (PR #16095) теперь поддерживает Qwen3-Next - новую гибридную архитектуру от Qwen.
Теперь Qwen3-Next можно запускать локально с эффективным CPU/GPU-инференсом. 🚀
https://github.com/ggml-org/llama.cpp/pull/16095
Теперь Qwen3-Next можно запускать локально с эффективным CPU/GPU-инференсом. 🚀
https://github.com/ggml-org/llama.cpp/pull/16095
👍12🔥9❤6
Бизнесу данные нужны как воздух
На их основе компании принимают важные стратегические решения. Поэтому спрос на аналитиков растёт в самых разных сферах: от банковской до медицинской.
На курсе «Аналитика данных с МФТИ» готовят специалистов универсальной квалификации. За 10 месяцев вы научитесь использовать Python для анализа данных, применять методы ИИ в своих задачах и работать с базами данных.
С универсальными знаниями вы сможете строить карьеру в одном из трёх направлений аналитики:
☑️ Аналитика данных.
☑️ Data Science.
☑️ Инженерия данных.
После обучения получите дипломы о профессиональной переподготовке от МФТИ и Нетологии. Центр развития карьеры поможет с трудоустройством, резюме и портфолио.
Записывайтесь на курс и становитесь универсальным специалистом в аналитике → https://netolo.gy/eurg
Реклама. ООО “Нетология” ОГРН 1207700135884 Erid:2VSb5yCracR
На их основе компании принимают важные стратегические решения. Поэтому спрос на аналитиков растёт в самых разных сферах: от банковской до медицинской.
На курсе «Аналитика данных с МФТИ» готовят специалистов универсальной квалификации. За 10 месяцев вы научитесь использовать Python для анализа данных, применять методы ИИ в своих задачах и работать с базами данных.
С универсальными знаниями вы сможете строить карьеру в одном из трёх направлений аналитики:
☑️ Аналитика данных.
☑️ Data Science.
☑️ Инженерия данных.
После обучения получите дипломы о профессиональной переподготовке от МФТИ и Нетологии. Центр развития карьеры поможет с трудоустройством, резюме и портфолио.
Записывайтесь на курс и становитесь универсальным специалистом в аналитике → https://netolo.gy/eurg
Реклама. ООО “Нетология” ОГРН 1207700135884 Erid:2VSb5yCracR
❤5😁3👍1🔥1
🐋 DeepSeek выкатили не «ещё одну модель», а полноценную топ-систему уровня IMO/IOI/ICPC - при этом обучение и генерация стоят в десятки раз дешевле, чем у GPT-5 и Gemini 3 Pro.
Главное:
• DeepSeek-V3.2-Speciale обгоняет Gemini 3.0 Pro в математике и коде
• Новая флагманская модель совмещает рассуждения + агентность
• Архитектура MoE из семейства V3.1 Terminus, контекст 128k
• Главное нововведение — DeepSeek Sparse Attention (DSA), сделанный ради дешёвого длинного контекста
Что делает DSA
Обычное внимание - O(T²), что больно при 128k токенов.
DSA снижает стоимость до O(T·U), где U - только небольшое число релевантных токенов.
Как работает:
1) Lightning Indexer - лёгкая сеть оценивает важность каждого прошлого токена
2) Fine-grained top-k - модель выбирает только самые полезные токены и считает внимание по ним
Как обучали
Начали с чекпоинта V3.1 (128k) и сделали 2-ступенчатое дообучение:
• Stage 1 - плотное внимание, замороженная модель, обучается только DSA
• Stage 2 - постепенный переход на DSA по всей модели
Итог: длинный контекст стал реально дешёвым, а качество выше, чем у предыдущих версий и конкурентов.
Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
Главное:
• DeepSeek-V3.2-Speciale обгоняет Gemini 3.0 Pro в математике и коде
• Новая флагманская модель совмещает рассуждения + агентность
• Архитектура MoE из семейства V3.1 Terminus, контекст 128k
• Главное нововведение — DeepSeek Sparse Attention (DSA), сделанный ради дешёвого длинного контекста
Что делает DSA
Обычное внимание - O(T²), что больно при 128k токенов.
DSA снижает стоимость до O(T·U), где U - только небольшое число релевантных токенов.
Как работает:
1) Lightning Indexer - лёгкая сеть оценивает важность каждого прошлого токена
2) Fine-grained top-k - модель выбирает только самые полезные токены и считает внимание по ним
Как обучали
Начали с чекпоинта V3.1 (128k) и сделали 2-ступенчатое дообучение:
• Stage 1 - плотное внимание, замороженная модель, обучается только DSA
• Stage 2 - постепенный переход на DSA по всей модели
Итог: длинный контекст стал реально дешёвым, а качество выше, чем у предыдущих версий и конкурентов.
Tech report: https://huggingface.co/deepseek-ai/DeepSeek-V3.2/resolve/main/assets/paper.pdf
❤14👍9🔥7😁1
⚔️ Преимущество OpenAI в ИИ уже не выглядит таким недосягаемым.
Google с Gemini 3 и Anthropic с Claude стремительно сокращают разрыв по качеству моделей, а сама OpenAI несёт огромные риски из-за вычислительных затрат и монетизации.
Что пишет FT:
- Google продвинула Gemini 3 выше GPT-5 на ряде бенчмарков.
Модель обучалась на собственных TPU, а не внешних GPU, и глубоко встроена в поиск и Android.
Благодаря этому приложение Gemini выросло до 650 млн пользователей в месяц.
- Anthropic делает ставку на надёжных корпоративных ассистентов и уже получила оценку выше $300 млрд.
Это превратило её в серьёзную альтернативу OpenAI для бизнеса.
- У OpenAI всё ещё гигантская база — 800+ млн еженедельных пользователей ChatGPT.
Но компания одновременно выпускает множество продуктов и подписала обязательства на около $1.4 трлн вычислительных мощностей на ближайшие 8 лет.
Сумма огромна по сравнению с текущей выручкой, поэтому OpenAI вынуждена активнее опираться на подписки, корпоративные сделки и модели монетизации уровня Sora, в нишах, где доминируют крупные рекламные платформы.
Общая картина такова:
- OpenAI - самая сильная потребительская марка, но с самыми тяжёлыми вычислительными обязательствами.
- Google - мощная инфраструктура и глубокая интеграция в экосистемы.
- Anthropic - доверие и деньги от enterprise-клиентов, стабильный рост и сверхвысокая оценка.
Гонка стала ближе и напряжённее: ранний рывок OpenAI больше не гарантирует лидерства.
Источник: Financial Times
ft.com/content/8881062d-ff4f-4454-8e9d-d992e8e2c4e3
Google с Gemini 3 и Anthropic с Claude стремительно сокращают разрыв по качеству моделей, а сама OpenAI несёт огромные риски из-за вычислительных затрат и монетизации.
Что пишет FT:
- Google продвинула Gemini 3 выше GPT-5 на ряде бенчмарков.
Модель обучалась на собственных TPU, а не внешних GPU, и глубоко встроена в поиск и Android.
Благодаря этому приложение Gemini выросло до 650 млн пользователей в месяц.
- Anthropic делает ставку на надёжных корпоративных ассистентов и уже получила оценку выше $300 млрд.
Это превратило её в серьёзную альтернативу OpenAI для бизнеса.
- У OpenAI всё ещё гигантская база — 800+ млн еженедельных пользователей ChatGPT.
Но компания одновременно выпускает множество продуктов и подписала обязательства на около $1.4 трлн вычислительных мощностей на ближайшие 8 лет.
Сумма огромна по сравнению с текущей выручкой, поэтому OpenAI вынуждена активнее опираться на подписки, корпоративные сделки и модели монетизации уровня Sora, в нишах, где доминируют крупные рекламные платформы.
Общая картина такова:
- OpenAI - самая сильная потребительская марка, но с самыми тяжёлыми вычислительными обязательствами.
- Google - мощная инфраструктура и глубокая интеграция в экосистемы.
- Anthropic - доверие и деньги от enterprise-клиентов, стабильный рост и сверхвысокая оценка.
Гонка стала ближе и напряжённее: ранний рывок OpenAI больше не гарантирует лидерства.
Источник: Financial Times
ft.com/content/8881062d-ff4f-4454-8e9d-d992e8e2c4e3
❤9👍6🔥2👌1
🦾 KNN — интерпретируемый метод для задачи классификации и регрессии
Хорошая модель не всегда должна быть сложной. Иногда самый надёжный инструмент — это старый добрый k ближайших соседей (KNN). Метод, который доказывает: простота в машинном обучении не мешает эффективности. На открытом уроке разберём логику алгоритма: как он «находит соседей», принимает решения и почему остаётся одним из самых понятных и интерпретируемых подходов в ML.
Урок подойдёт тем, кто делает первые шаги в Data Science, хочет перейти в ML из смежных направлений или разобраться в базовых методах обучения без «магии нейросетей». KNN — отличная точка входа, чтобы понять принципы машинного обучения на интуитивном уровне.
8 декабря, 18:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/h0a7O/?erid=2W5zFGNKei4
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
Хорошая модель не всегда должна быть сложной. Иногда самый надёжный инструмент — это старый добрый k ближайших соседей (KNN). Метод, который доказывает: простота в машинном обучении не мешает эффективности. На открытом уроке разберём логику алгоритма: как он «находит соседей», принимает решения и почему остаётся одним из самых понятных и интерпретируемых подходов в ML.
Урок подойдёт тем, кто делает первые шаги в Data Science, хочет перейти в ML из смежных направлений или разобраться в базовых методах обучения без «магии нейросетей». KNN — отличная точка входа, чтобы понять принципы машинного обучения на интуитивном уровне.
8 декабря, 18:00 МСК. Открытый урок проходит в преддверии старта курса «Machine Learning. Professional». Регистрация открыта: https://otus.pw/h0a7O/?erid=2W5zFGNKei4
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤣7❤3👍2
🚀 Bytedance представила новую модель для кода - Doubao Seed Code
Новая версия умеет не только писать и понимать код, но и принимать изображения на вход, что открывает возможности для визуального анализа задач программирования.
Что известно:
- Поддержка image input
- Опубликованы бенчмарки и цены
- По результатам тестов, модель опережает Sonnet 4.5 на SWE-Bench-Verified и Multi-SWE,
но немного уступает на Terminal Bench
🧠 Doubao Seed Code — часть линейки моделей Bytedance, нацеленной на интеграцию LLM в рабочие процессы разработчиков и систем с edge-инференсом.
Подробнее и тестировать можно здесь:
🔗 https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
Новая версия умеет не только писать и понимать код, но и принимать изображения на вход, что открывает возможности для визуального анализа задач программирования.
Что известно:
- Поддержка image input
- Опубликованы бенчмарки и цены
- По результатам тестов, модель опережает Sonnet 4.5 на SWE-Bench-Verified и Multi-SWE,
но немного уступает на Terminal Bench
🧠 Doubao Seed Code — часть линейки моделей Bytedance, нацеленной на интеграцию LLM в рабочие процессы разработчиков и систем с edge-инференсом.
Подробнее и тестировать можно здесь:
🔗 https://exp.volcengine.com/ark?model=doubao-seed-code-preview-251028
❤6👍6🔥2
Релиз Transformers v5 ! 🔥
Hugging Face выпустили Transformers v5 - обновление, которое стало логичным итогом бурного роста всего стека за последние годы.
Цифры впечатляют:
- 20k → 3 млн+ установок в день
- 40 → 400+ поддерживаемых архитектур
- ~1k → 750k+ чекпоинтов
- 1.2 млрд+ общих установок
Что нового в v5:
- полностью PyTorch-ориентированная архитектура
- модульные определения моделей
- подход quantization-first
- OpenAI-совместимый Transformers Serve (включая Responses API)
Transformers становится ключевым фундаментом открытого AI/ML-стека - для обучения, дообучения и моделей.
Новый этап экосистемы официально начался.
https://huggingface.co/blog/transformers-v5
Hugging Face выпустили Transformers v5 - обновление, которое стало логичным итогом бурного роста всего стека за последние годы.
Цифры впечатляют:
- 20k → 3 млн+ установок в день
- 40 → 400+ поддерживаемых архитектур
- ~1k → 750k+ чекпоинтов
- 1.2 млрд+ общих установок
Что нового в v5:
- полностью PyTorch-ориентированная архитектура
- модульные определения моделей
- подход quantization-first
- OpenAI-совместимый Transformers Serve (включая Responses API)
Transformers становится ключевым фундаментом открытого AI/ML-стека - для обучения, дообучения и моделей.
Новый этап экосистемы официально начался.
https://huggingface.co/blog/transformers-v5
❤18👍6🔥1
🚀 Эксперимент InstantDB: нейромодели собрали полноценный 3D-шутер без единой строки ручного кода
InstantDB провели показательный эксперимент: три крупные модели - Codex Max 5.1, Claude Opus 4.5 и Gemini 3 Pro — получили задачу создать мультиплеерный 3D-шутер с картой, физикой, оружием, врагами и комнатами для игроков.
Все три модели успешно справились и представили рабочие FPS-прототипы.
Как распределились сильные стороны:
- Лучший фронтенд - Claude: наиболее аккуратные карты, визуальный стиль уровня Minecraft и плавные анимации.
- Лучшая серверная часть - Gemini: стабильный мультиплеер, минимум ошибок, грамотно реализованные комнаты и сохранения.
- Уверённое второе место по всем направлениям - Codex: качественно, предсказуемо, но без ярких преимуществ.
Эксперимент показывает, насколько быстро модели приближаются к созданию сложных игровых систем под ключ.
Демоверсии доступны для Codex, Claude, Gemini
InstantDB провели показательный эксперимент: три крупные модели - Codex Max 5.1, Claude Opus 4.5 и Gemini 3 Pro — получили задачу создать мультиплеерный 3D-шутер с картой, физикой, оружием, врагами и комнатами для игроков.
Все три модели успешно справились и представили рабочие FPS-прототипы.
Как распределились сильные стороны:
- Лучший фронтенд - Claude: наиболее аккуратные карты, визуальный стиль уровня Minecraft и плавные анимации.
- Лучшая серверная часть - Gemini: стабильный мультиплеер, минимум ошибок, грамотно реализованные комнаты и сохранения.
- Уверённое второе место по всем направлениям - Codex: качественно, предсказуемо, но без ярких преимуществ.
Эксперимент показывает, насколько быстро модели приближаются к созданию сложных игровых систем под ключ.
Демоверсии доступны для Codex, Claude, Gemini
❤7🔥6👍3
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
👍14❤8🔥2