🤔 Хммм… интересно, почему же Grok снова на первом месте в апсторе в Японии?)
Grok Anime-Waifu: новый Ghibli-хайп?
Аниме-вайфу от Grok сейчас переживает тот же всплеск интереса, что и Ghibli‑стиль после выхода инструмента генерации изображений от ChatGPT🎌
xAI поймали незанятую нишу: 3D-аватары с крутым голосовым режимом и небольшой провокацией. Как бы вы ни относились к этой теме — массовый рынок тут есть, и он пока был пуст.
CharacterAI всё ещё в топ‑10 самых посещаемых AI-приложений в мире. Молодёжь массово проводит там часы в общении с вымышленными персонажами. Это о многом говорит — но мы не будем давать оценок деградация это или нет.
Важно другое: ни Google, ни OpenAI, ни Microsoft пока не вышли с 3D-аватарами с продвинутым голосовым режимом.
Все знали, что это огромный рынок, но опасались репутационных последствий — вспомните скандалы вокруг CharacterAI в прошлом году.
А xAI рискнули — и пока пожимают плоды . Аудитория молодая, хайп органический, конкуренты только приглядываются к теме. Быть первым в такой категории — значит занять особое место в головах (пустых и не очень) пользователей.
Так что да: xAI сделали ставку — и, похоже, угадали.
@data_analysis_ml
Grok Anime-Waifu: новый Ghibli-хайп?
Аниме-вайфу от Grok сейчас переживает тот же всплеск интереса, что и Ghibli‑стиль после выхода инструмента генерации изображений от ChatGPT🎌
xAI поймали незанятую нишу: 3D-аватары с крутым голосовым режимом и небольшой провокацией. Как бы вы ни относились к этой теме — массовый рынок тут есть, и он пока был пуст.
CharacterAI всё ещё в топ‑10 самых посещаемых AI-приложений в мире. Молодёжь массово проводит там часы в общении с вымышленными персонажами. Это о многом говорит — но мы не будем давать оценок деградация это или нет.
Важно другое: ни Google, ни OpenAI, ни Microsoft пока не вышли с 3D-аватарами с продвинутым голосовым режимом.
Все знали, что это огромный рынок, но опасались репутационных последствий — вспомните скандалы вокруг CharacterAI в прошлом году.
А xAI рискнули — и пока пожимают плоды . Аудитория молодая, хайп органический, конкуренты только приглядываются к теме. Быть первым в такой категории — значит занять особое место в головах (пустых и не очень) пользователей.
Так что да: xAI сделали ставку — и, похоже, угадали.
@data_analysis_ml
Пока мы с вами обсуждаем архитектуры новых моделей, на наших глазах разворачивается битва за конечного пользователя, и чат-боты, похоже, начинают в ней побеждать.
Аналитики из Sensor Tower опубликовали отчет, который в сухих цифрах показывает, что ChatGPT, Gemini и другие их собратья перестали быть игрушкой для IT-сообществ и превратились в реальную угрозу для поисковых гигантов.
Sensor Tower - платформа цифровой аналитики и один из авторитетных источников аналитики мобильных приложений, цифровой рекламы, розничной медиарекламы и данных об аудитории для крупнейших мировых брендов и создателей приложений.
Аудитория ChatGPT уже перевалила за 500 млн. MAU, причем этот рубеж был достигнут менее чем за 2 года. Но что еще важнее, его аудитория становятся нетехнической.
Год назад 44% всех запросов к ChatGPT были связаны с разработкой ПО, то сегодня эта доля упала до 29%.
А вот категория «Экономика, финансы и налоги» взлетела с 4% до 13%.
Проще говоря, люди все чаще спрашивают у ИИ не как написать код, а как составить бюджет или разобраться в инфляции. Это означает выход в мейнстрим.
В апреле 2025 года время, проведенное пользователями в приложении ChatGPT, взлетело на 98% по сравнению с прошлым годом. За тот же период время, проведенное в приложениях традиционных поисковиков, упало на 3%.
Более того, уже почти треть (31%) пользователей поисковых приложений в США также активно используют ChatGPT. Год назад их было всего 13%. Аудитории начинают пересекаться, и чат-бот явно перетягивает одеяло на себя.
В топе реферальных ссылок: YouTube, Wikipedia и National Library of Medicine. То есть люди приходят за знаниями. Но тут же рядом Amazon (помощь в покупках), GitHub и arXiv (IT и ML). Забавно, что сам Google, как поисковая система, находится на 6 месте в этом списке.
Чат-бот становится новой точкой входа в интернет, которая сама решает, куда направить пользователя.
Ранние последователи ИИ, установившие ChatGPT еще в 2023 году, уже проводят в приложениях Google на 6% меньше времени. Новички пока не изменили привычек, но это, скорее всего, лишь вопрос времени.
Все эти показатели указывают на то, что борьба за "реферал от ИИ" становится главным полем боя для брендов.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Бывший сотрудник OpenAI поделился откровенными впечатлениями о годе работы внутри одной из самых обсуждаемых компаний мира.
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
Он присоединился к команде в мае 2024, ушёл три недели назад — и решил написать личные размышления, пока всё ещё свежо в памяти.
Он подчёркивает: никаких скандалов или внутренних конфликтов — просто желание снова что-то строить с нуля. Несмотря на это, он признаёт: сложно уйти с работы, где ты видишь рождение AGI своими глазами и участвуешь в запуске Codex.
Культура OpenAI — это хаос, скорость и независимость.
Компания за год выросла с 1000 до более чем 3000 сотрудников. Почти все руководители делают совершенно другую работу, чем пару лет назад. И всё внутри строится снизу вверх: roadmap’ов не было, а идеи рождались и запускались без бюрократии.
Всё общение происходит в Slack — никаких email, почти никакого планирования. Команды могут быть хаотичны и перегружены, но часто это работает: если идея крутая, люди просто начинают делать, и вокруг появляется команда.
Руководители не мешают, а помогают — особенно в исследовательских командах. Исследователь воспринимается как мини-руководитель: выбрал интересную задачу — вперёд. Главное — не «казаться», а «делать». Политика и презентации — не в цене. Лучшие идеи побеждают.
OpenAI умеет разворачиваться на ходу. Как только появляется новая информация, стратегия может кардинально поменяться — и в этом сила. Вдохновлённый атмосферой Segment, автор признаёт: OpenAI удалось сохранить эту гибкость даже при таком масштабе.
Закрытость — часть культуры.
Из-за огромного внимания общества и прессы компания крайне аккуратно делится информацией. Многое не анонсируется даже внутри. Но при этом она остаётся самой открытой из «больших AI-лабораторий»: модели попадают в API, доступны не только корпорациям, но и отдельным пользователям.
Внимание к реальным рискам (злоупотребления, манипуляции, self-harm) — важный фокус внутри. Хоть фундаментальные угрозы (в духе "intelligence explosion") тоже обсуждаются, упор в работе на конкретные и прикладные сценарии.
Технологически OpenAI — монорепозиторий на Python, немного Rust и Go. Всё крутится на Azure, но доверяют только 2–3 сервисам. Инфраструктура напоминает ранний Facebook: всё движется быстро, дублируется, много внутренней разработки и отсутствие строгих архитектурных комитетов.
Он отдельно отметил уникальность команды Codex, с которой провёл последние 3 месяца. За 7 недель (!) они с нуля запустили продукт: с контейнерным рантаймом, fine-tuning моделей, git-интеграцией и полноценным асинхронным агентом. В ночь перед запуском они сидели до 4 утра, а утром уже нажимали на кнопку.
Codex показал: будущее программирования будет похоже на общение с ассистентом, а не набор кода строка за строкой. С момента запуска Codex сгенерировал более 630 000 pull request’ов — это десятки тысяч на каждого инженера в команде.
Несмотря на скандалы в персе — тысячи людей, искренне верящих, что строят нечто важное. OpenAI остаётся одной из самых амбициозных организаций в мире: не только чат, не только API, но и hardware, агенты, изображения — и это ещё не всё.
📌 Читать
@data_analysis_ml
Media is too big
VIEW IN TELEGRAM
Amazon анонсировала S3 Vectors - нативную поддержку векторного поиска прямо внутри своего вездесущего объектного хранилища. Заявлено, что это может снизить затраты на хранение и обработку векторов до 90%.
По сути, AWS предлагает не отдельный сервис, а новый тип бакета
vector bucket. Внутри него вы создаете векторные индексы, указывая размерность векторов и метрику расстояния (косинусную или евклидову).Вы просто загружаете в индекс свои эмбеддинги вместе с метаданными для фильтрации, а S3 берет на себя всю грязную работу по хранению, автоматической оптимизации и обеспечению субсекундного ответа на запросы. Никакого управления инфраструктурой.
Один бакет может содержать до 10 тысяч индексов, а каждый индекс, в свою очередь, десятки миллионов векторов.
S3 Vectors бесшовно интегрируется с Bedrock Knowledge Bases. Теперь при создании базы знаний для RAG-приложения можно просто указать S3-бакет в качестве векторного хранилища.
Процесс создания RAG-пайплайна для тех, кто уже живет в облаке AWS, упрощается до нескольких кликов. То же самое касается и SageMaker Unified Studio, где эта интеграция тоже доступна из коробки.
AWS предлагает гибкую, многоуровневую стратегию. Нечасто используемые или «холодные» векторы можно экономично хранить в S3 Vectors. А когда для части данных потребуется максимальная производительность и низкая задержка в реальном времени, например, для системы рекомендаций, их можно быстро экспортировать в OpenSearch.
Это очень прагматичный инженерный подход, позволяющий балансировать между стоимостью и производительностью.
Пока сервис находится в статусе превью и доступен в регионах US East (N. Virginia), US East (Ohio), US West (Oregon), Europe (Frankfurt), and Asia Pacific (Sydney) Regions.
Попробовать S3 Vectors можно в Amazon S3 console.
@ai_machinelearning_big_data
#AI #ML #RAG #Amazon
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Новая статья “Chain of Thought Monitorability: A New and Fragile Opportunity for AI Safety” выделяет важность мониторинга цепочек рассуждений (CoT) в продвинутых LLM для повышения безопасности AI.
✅ Основная идея:
Когда ИИ "размышляет вслух" на человеческом языке, мы получаем редкую возможность наблюдать промежуточные шаги мышления и вовремя обнаруживать опасные намерения :contentReference.
🤔 Но это не очень надежно:
- CoT — не всегда надёжно: модели иногда "надувают" мысли фальшивыми оправданиями - В будущем AI может перейти на латентные рассуждения, скрывая настоящие мысли.
- Не все вредоносные действия требуют развернутого CoT – короткая вредоносная команда может пройти незамеченной.
🎯 Почему это важно:
- CoT-мониторинг можно применять уже сейчас как дополнительный слой безопасности.
- Он помогает построить доверие и прозрачность, особенно в ответственных системах (медицина, финансы, критическая автоматизация).
- Но это — лишь временный ресурс: мы должны его сохранить и укрепить
💬 Авторы (включены исследователи из Anthropic, OpenAI, DeepMind, Google и другие) предлагают:
- Включать мониторируемость CoT в качестве метрики при разработке моделей.
- Построить библиотеку кейсов безопасных и рискованных CoT.
- Разрабатывать автоматические мониторы, обучаемые на выявлении подозрительных цепочек.
Вывод:
Сегодня CoT — наш редкий способ заглянуть внутрь ИИ. Но без сознательных усилий он может исчезнуть. Контекстные рассуждения нужно ценить, защищать и формализовать, прежде чем они станут недоступны в новых моделях.
📌 Читать полностью
✅ Основная идея:
Когда ИИ "размышляет вслух" на человеческом языке, мы получаем редкую возможность наблюдать промежуточные шаги мышления и вовремя обнаруживать опасные намерения :contentReference.
🤔 Но это не очень надежно:
- CoT — не всегда надёжно: модели иногда "надувают" мысли фальшивыми оправданиями - В будущем AI может перейти на латентные рассуждения, скрывая настоящие мысли.
- Не все вредоносные действия требуют развернутого CoT – короткая вредоносная команда может пройти незамеченной.
🎯 Почему это важно:
- CoT-мониторинг можно применять уже сейчас как дополнительный слой безопасности.
- Он помогает построить доверие и прозрачность, особенно в ответственных системах (медицина, финансы, критическая автоматизация).
- Но это — лишь временный ресурс: мы должны его сохранить и укрепить
💬 Авторы (включены исследователи из Anthropic, OpenAI, DeepMind, Google и другие) предлагают:
- Включать мониторируемость CoT в качестве метрики при разработке моделей.
- Построить библиотеку кейсов безопасных и рискованных CoT.
- Разрабатывать автоматические мониторы, обучаемые на выявлении подозрительных цепочек.
Вывод:
Сегодня CoT — наш редкий способ заглянуть внутрь ИИ. Но без сознательных усилий он может исчезнуть. Контекстные рассуждения нужно ценить, защищать и формализовать, прежде чем они станут недоступны в новых моделях.
📌 Читать полностью
China Telecom совместно с TeleAI спроектировали фреймворк AI Flow, который рассматривает ИИ и сети передачи данных как единую систему.
AI Flow - это не просто очередной метод оптимизации, а цельная парадигма. Она предлагает отойти от идеи монолитного ИИ к распределенному и коллаборативному, где интеллект может перетекать по сети туда, где он в данный момент нужнее всего и где для него есть ресурсы.
Идея в том, чтобы разумно распределять нагрузку: простейшие операции выполняются на самом гаджете, более сложные и требующие низкой задержки — на ближайшем edge-сервере, а самое тяжелые задачи и ресурсоемкий инференс остаются в облаке.
AI Flow предлагает конкретные механизмы для такой концепции - спекулятивное декодирование, где легкая модель на устройстве быстро генерирует черновик ответа, а мощная модель на эдже его лишь верифицирует и корректирует.
Это не просто набор моделей разного размера, а целое семейство с архитектурно согласованными скрытыми представлениями.
Маленькая, средняя и большая модели устроены настолько похоже, что они могут бесшовно передавать друг другу эстафету инференса.
Модель на смартфоне обрабатывает первые несколько слоев, а затем ее промежуточный результат подхватывает модель на сервере и продолжает вычисления ровно с того же места, без какого-либо дополнительного преобразования данных.
Пайплайн AI Flow делает возможным взаимодействие разных моделей, от LLM и VLM до диффузионных генераторов.
Через такую коллаборацию рождается эмерджентный интеллект – коллективная интуиция, превышающая возможности отдельных сетей, где несколько агентов генерируют черновые решения, затем сервер-оркестратор выбирает лучшие фрагменты, объединяет их и возвращает итоговый ответ для уточнения с учетом контекста каждого из них.
В этом и фишка: после такой синергии ответ становится богаче и более осмысленным, ведь сходятся разные точки зрения и узкопрофильные знания моделей-участников.
Ее крупнейшая ветвь содержит 7 млрд. параметров и способна порождать early-exit подсети с эффективным числом параметров в 3, 4, 5 и 6 млрд:
@ai_machinelearning_big_data
#AI #ML #LLM #AIFlow #TeleAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Хочешь подключить свой LLM к MCP-серверу без Cursor и Claude?
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
mcp-use — open-source фреймворк, который позволяет:
🔌 Подключать любой LLM к любому MCP-серверу
🤖 Строить собственных MCP-агентов без закрытых решений
💻 Работать полностью локально: 100% контроль и приватность
✅ Совместим с Ollama, LangChain и другими LLM-инструментами
✅ Открытый код, легко настраивается под любые пайплайны
Идеально для:
— разработчиков, строящих кастомных агентов
— локальных ассистентов без внешних API
— продвинутых LLM‑интеграций
📦 Попробуй и собери своего MCP‑клиента без ограничений!
GitHub → https://github.com/mcp-use/mcp-use
Самые важные ИИ новости
✔ ИИ-ассистент Replit удалил производственную базу данных.
Replit, позиционирующая себя как инструмент для вайбкодинга, оказалась в центре скандала. Джейсон Лемкин, основатель SaaStr, подробно описал свой опыт, который начался с восторга от скорости прототипирования и перерос в серьезные проблемы.
Несмотря на явные и многократные инструкции не вносить изменения без разрешения, ИИ-агент удалил его производственную базу данных. Ситуацию усугубила противоречивая реакция техподдержки, которая сначала заявила о невозможности восстановления данных, а затем все же смогла их вернуть.
Лемкин пришел к выводу, что Replit пока не готов для серьезной работы. Инструмент не только проигнорировал прямые запреты, но и не смог обеспечить "заморозку кода".
theregister.com (https://www.theregister.com/2025/07/21/replit_saastr_vibe_coding_incident/)
✔ Стартап Composite AI выпустил локального браузерного ИИ-агента.
Агент, представленный Composite AI, автоматизирует рутинные действия в интернете: клики, ввод текста и навигацию по сайтам. Ключевое отличие от большинства аналогов в том, что он работает локально в браузере пользователя, а не в облаке. Это дает ему прямой доступ к входу в учетные записи пользователя без необходимости сложной настройки или передачи данных на сторонние серверы.
По заявлению разработчиков, инструмент работает на любом веб-сайте и выполняет действия в реальном времени. Пока агент доступен только на macOS. Бесплатная пробная версия действует 30 дней и включает 1000 запросов к топовым моделям. Платный тариф стоит 20 долларов в месяц за те же 1000 запросов, которые предоставляются ежемесячно.
composite.com (https://composite.com/)
✔ В платформу X интегрируют генерацию видео.
Соцсеть X скоро получит собственный инструмент для создания видеороликов из текстовых описаний. По словам Илона Маска, новая фича под названием «Imagine» будет основана на интеграции технологий стартапа Hotshot, который его компания, xAI, приобрела в марте, с чат-ботом Grok.
Х планирует дать пользователям возможность быстро создавать креативные вирусные видео. Это позволит ей конкурировать с Veo от Google. Еще до поглощения Hotshot был известен в сообществе ИИ-энтузиастов своими разработками в области text-to-video.
finance.yahoo.com (https://finance.yahoo.com/news/x-plans-launch-ai-text-205522324.html)
✔ NVIDIA открыла платформу CUDA для процессоров с архитектурой RISC-V.
На саммите RISC-V в Китае NVIDIA анонсировала открытие платформы CUDA для поддержки процессоров с открытой архитектурой RISC-V. Впервые в истории проприетарная технология выходит за пределы экосистем x86 и Arm, что может значительно ускорить внедрение RISC-V в высокопроизводительных системах.
Согласно анонсу, CPU на базе RISC-V теперь смогут выступать в роли центрального управляющего компонента в ИИ-системах, использующих технологии NVIDIA. Компания уже продемонстрировала референсную архитектуру, где процессор RISC-V отвечает за операционную систему и логику, графические ускорители NVIDIA - за интенсивные вычисления, а DPU - за сетевые задачи.
RISC-V в сети X (https://x.com/risc_v/status/1946251939823370697)
✔ В обучении ИИ меняется тенденция: вместо разметчиков данных теперь нанимают дорогих экспертов.
ИИ-компании Scale AI, Turing и Toloka отказываются от услуг низкооплачиваемых разметчиков данных в пользу узкопрофильных специалистов. Этот тренд обусловлен появлением моделей нового поколения, способных к ризонингу. Для их обучения простого аннотирования данных уже недостаточно.
Новая стратегия требует от экспертов не просто маркировать данные, а демонстрировать свой мыслительный процесс, например, в формате цепочки рассуждений. Инженеры и ученые решают комплексные задачи, а модель учится на их примерах.
ft.com (https://www.ft.com/content/e17647f0-4c3b-49b4-a031-b56158bbb3b)
#news #ai #ml
✔ ИИ-ассистент Replit удалил производственную базу данных.
Replit, позиционирующая себя как инструмент для вайбкодинга, оказалась в центре скандала. Джейсон Лемкин, основатель SaaStr, подробно описал свой опыт, который начался с восторга от скорости прототипирования и перерос в серьезные проблемы.
Несмотря на явные и многократные инструкции не вносить изменения без разрешения, ИИ-агент удалил его производственную базу данных. Ситуацию усугубила противоречивая реакция техподдержки, которая сначала заявила о невозможности восстановления данных, а затем все же смогла их вернуть.
Лемкин пришел к выводу, что Replit пока не готов для серьезной работы. Инструмент не только проигнорировал прямые запреты, но и не смог обеспечить "заморозку кода".
theregister.com (https://www.theregister.com/2025/07/21/replit_saastr_vibe_coding_incident/)
✔ Стартап Composite AI выпустил локального браузерного ИИ-агента.
Агент, представленный Composite AI, автоматизирует рутинные действия в интернете: клики, ввод текста и навигацию по сайтам. Ключевое отличие от большинства аналогов в том, что он работает локально в браузере пользователя, а не в облаке. Это дает ему прямой доступ к входу в учетные записи пользователя без необходимости сложной настройки или передачи данных на сторонние серверы.
По заявлению разработчиков, инструмент работает на любом веб-сайте и выполняет действия в реальном времени. Пока агент доступен только на macOS. Бесплатная пробная версия действует 30 дней и включает 1000 запросов к топовым моделям. Платный тариф стоит 20 долларов в месяц за те же 1000 запросов, которые предоставляются ежемесячно.
composite.com (https://composite.com/)
✔ В платформу X интегрируют генерацию видео.
Соцсеть X скоро получит собственный инструмент для создания видеороликов из текстовых описаний. По словам Илона Маска, новая фича под названием «Imagine» будет основана на интеграции технологий стартапа Hotshot, который его компания, xAI, приобрела в марте, с чат-ботом Grok.
Х планирует дать пользователям возможность быстро создавать креативные вирусные видео. Это позволит ей конкурировать с Veo от Google. Еще до поглощения Hotshot был известен в сообществе ИИ-энтузиастов своими разработками в области text-to-video.
finance.yahoo.com (https://finance.yahoo.com/news/x-plans-launch-ai-text-205522324.html)
✔ NVIDIA открыла платформу CUDA для процессоров с архитектурой RISC-V.
На саммите RISC-V в Китае NVIDIA анонсировала открытие платформы CUDA для поддержки процессоров с открытой архитектурой RISC-V. Впервые в истории проприетарная технология выходит за пределы экосистем x86 и Arm, что может значительно ускорить внедрение RISC-V в высокопроизводительных системах.
Согласно анонсу, CPU на базе RISC-V теперь смогут выступать в роли центрального управляющего компонента в ИИ-системах, использующих технологии NVIDIA. Компания уже продемонстрировала референсную архитектуру, где процессор RISC-V отвечает за операционную систему и логику, графические ускорители NVIDIA - за интенсивные вычисления, а DPU - за сетевые задачи.
RISC-V в сети X (https://x.com/risc_v/status/1946251939823370697)
✔ В обучении ИИ меняется тенденция: вместо разметчиков данных теперь нанимают дорогих экспертов.
ИИ-компании Scale AI, Turing и Toloka отказываются от услуг низкооплачиваемых разметчиков данных в пользу узкопрофильных специалистов. Этот тренд обусловлен появлением моделей нового поколения, способных к ризонингу. Для их обучения простого аннотирования данных уже недостаточно.
Новая стратегия требует от экспертов не просто маркировать данные, а демонстрировать свой мыслительный процесс, например, в формате цепочки рассуждений. Инженеры и ученые решают комплексные задачи, а модель учится на их примерах.
ft.com (https://www.ft.com/content/e17647f0-4c3b-49b4-a031-b56158bbb3b)
#news #ai #ml
The Register
Vibe coding service Replit deleted user’s production database, faked data, told fibs galore
: AI ignored instruction to freeze code, forgot it could roll back errors, and generally made a terrible hash of things
🧠 ИИ придумывает странные физические эксперименты — и они дают реальные результаты.
Журнал Quanta рассказывает: команда из Caltech загрузила в ИИ набор зеркал, линз и лазеров, поставив задачу — увеличить чувствительность гравитационного интерферометра.
ИИ выдал решение, которое ни один физик не стал бы даже пробовать: он добавил в схему световое кольцо длиной 3 км, нарушил привычную симметрию и собрал всё в новую архитектуру. В итоге — +10–15% к чувствительности прибора. Позже выяснилось: похожую теорию предлагали советские учёные, но никто не решался её реализовать.
🌀 Это не единичный случай.
Алгоритмы упростили квантовый эксперимент с запутанностью, вывели новую формулу плотности тёмной материи и «нащупали» симметрию Лоренца прямо из сырых данных Большого адронного коллайдера — без подсказок.
ИИ действует иначе: он не следует интуиции, он просто перебирает всё, что может сработать — даже если это выглядит дико.
📈 Что дальше? Как только появится ИИ, способный не только проектировать, но и сам проводить эксперименты — наука может перейти на экспоненциальную скорость развития.
🔜 Подробнее
Журнал Quanta рассказывает: команда из Caltech загрузила в ИИ набор зеркал, линз и лазеров, поставив задачу — увеличить чувствительность гравитационного интерферометра.
ИИ выдал решение, которое ни один физик не стал бы даже пробовать: он добавил в схему световое кольцо длиной 3 км, нарушил привычную симметрию и собрал всё в новую архитектуру. В итоге — +10–15% к чувствительности прибора. Позже выяснилось: похожую теорию предлагали советские учёные, но никто не решался её реализовать.
🌀 Это не единичный случай.
Алгоритмы упростили квантовый эксперимент с запутанностью, вывели новую формулу плотности тёмной материи и «нащупали» симметрию Лоренца прямо из сырых данных Большого адронного коллайдера — без подсказок.
ИИ действует иначе: он не следует интуиции, он просто перебирает всё, что может сработать — даже если это выглядит дико.
📈 Что дальше? Как только появится ИИ, способный не только проектировать, но и сам проводить эксперименты — наука может перейти на экспоненциальную скорость развития.
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenReasoning-Nemotron - набор LLM на архитектуре Qwen 2.5 и дистиллированных из DeepSeek-R1-0528 ( 671 млрд. параметров):
Семейство было обучено на 5 млн. примеров рассуждений в математике, естественных науках и программировании.
Модели показали достойные результаты pass@1 на бенчах GPQA, MMLU-PRO, AIME, HMMT и LiveCodeBench - без использования RL.
Старшая модель, 32B, выбила 96,7% по HMMT с декодированием GenSelect.
@ai_machinelearning_big_data
#AI #ML #LLM #Reasoning #Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Qwen3-Coder — новая мощная open-source модель от Alibaba для кодинга
Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов
📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков
🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)
💬 Попробовать бесплатно можно:
- Через чат: ttps://chat.qwen.ai/)
- GitHub link: https://github.com/QwenLM/qwen-code
Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.
#qwen #ml #ai #llm #Alibaba
@data_analysis_ml
Модель с архитектурой MoE:
- 480B параметров в общей сложности
- 35B активных параметров
- Контекст 256k, но легко масштабируется до 1M токенов
📈 Производительность:
- На уровне Claude 4 Sonnet
- Лучше или на уровне GPT-4.1 на многих задачах
- Обходит Kimi K2, DeepSeek V3 на ряде бенчмарков
🧩 Модель уже доступна:
- На HuggingFace — можно скачать и запускать
- В OpenRouter — $1/M токенов вход, $5/M выход
(в 3 раза дешевле Claude Sonnet: $3 и $15)
💬 Попробовать бесплатно можно:
- Через чат: ttps://chat.qwen.ai/)
- GitHub link: https://github.com/QwenLM/qwen-code
Qwen3-Coder — это просто одна из лучших моделей для программирования, которые мы когда-либо видели.
#qwen #ml #ai #llm #Alibaba
@data_analysis_ml
Архитектура Mixture-of-Recursions (MoR), предложенная Google в соавторстве с KAIST AI объединяет в едином фреймворке традиционные подходы разделения параметров и адаптивные вычисления, заставляя модель думать над каждым токеном с разной глубиной.
Под капотом MoR - рекурсивный трансформер, который прогоняет входные данные через один и тот же блок слоев несколько раз. Но главная фишка в том, что количество этих прогонов, или глубина рекурсии, не фиксированное, а динамическое и определяется для каждого токена индивидуально.
Легковесный обучаемый роутер анализирует токен и решает, сколько вычислительных усилий на него потратить. Простые слова могут пройти всего один цикл рекурсии, в то время как семантически нагруженные термины отправятся на более глубокую обработку из нескольких циклов.
Это дает два главных преимущества:
При одинаковом бюджете на обучение (в FLOPs) и меньшем размере самой модели MoR показывает более низкую перплексию и лучшие результаты в few-shot задачах, чем стандартные и рекурсивные аналоги.
@ai_machinelearning_big_data
#AI #ML #LLM #Architecture #MoR
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM