Data Cluster – Telegram
Data Cluster
69 subscribers
927 photos
6 videos
893 links
Хостинг и продажа оборудования для искусственного интеллекта!

Сайт — https://data-cluster.ru/
Отдел продаж - @TK_MiningCluster
Download Telegram
⚙️ Alibaba снизила потребность в GPU на 82%!

Компания Alibaba Cloud представила новую систему Aegaeon, которая способна почти в пять раз сократить количество видеокарт Nvidia, нужных для работы AI-моделей.

🧠 В чем идея:

🟢В обычных облачных платформах лишь несколько популярных моделей (например, Qwen или DeepSeek) постоянно загружены, а сотни других — простаивают, занимая дорогостоящие GPU.

🟢Aegaeon решает эту проблему, динамически перераспределяя вычислительные ресурсы между моделями в реальном времени, прямо в процессе генерации ответов.

👀 Результаты впечатляют:

🟢Один GPU обслуживает до 7 моделей одновременно (раньше — 2–3);

🟢Задержки при переключении между задачами уменьшились на 97%;

🟢Потребность в GPU сократилась на 82%.

🛒 Система уже внедрена на маркетплейсе Bailian (Alibaba Cloud), где размещены сотни AI-моделей от сторонних разработчиков.


Эксперты считают, что Aegaeon может стать ключевым шагом к более устойчивому и доступному AI — особенно в условиях глобального дефицита мощных GPU.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 IBM представила компактные LLM для кибербезопасности

Компания IBM Research запустила семейство моделей CyberPal 2.0 — компактных AI-систем от 4 до 20 млрд параметров, созданных специально для задач кибербезопасности.

Несмотря на размер, CyberPal 2.0 обходит более крупные LLM (30–70B) в анализе уязвимостей и расследовании инцидентов.

Почему они эффективнее

🟢Новая архитектура и обучающая база SecKnowledge 2.0 — реальные инциденты, отчёты, объяснения с доказательной базой.

🟢На 7–14% точнее конкурентов и в 3 раза экономнее по ресурсам.

🟢Умеет рассуждать по шагам, а не просто находить совпадения — ключевое для аналитики атак.

🏢 Где применяют: SOC-центры, пентестеры, аналитики безопасности.


В ближайшее время IBM интегрирует CyberPal 2.0 в экосистему QRadar AI, чтобы предсказывать и предотвращать угрозы ещё до их реализации.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ Reddit подала в суд на Perplexity за использование контента без лицензии

Соцплатформа Reddit обвинила ИИ-компанию Perplexity и ещё три организации — Oxylabs (Литва), AWMProxy (Россия) и SerpApi (США) — в незаконном сборе данных для обучения нейросетей.

🟢В иске говорится, что компании обошли защиту сайта, чтобы получить данные, «в которых Perplexity отчаянно нуждается» для работы своей системы ответов. Reddit утверждает, что после предупреждения Perplexity количество ссылок на Reddit в её результатах выросло в 40 раз.

🟢Perplexity отвергла обвинения, заявив, что «придерживается ответственного подхода к использованию данных и ИИ».

🟢Это не первый случай: ранее Reddit подала аналогичный иск против Anthropic, а также против Perplexity подали Yomiuri Shimbun, Encyclopedia Britannica и Merriam-Webster.

👀 Reddit подчёркивает, что лицензирует свой контент для Google, OpenAI и других компаний, но Perplexity такой лицензии не имеет.


Теперь платформа требует денежной компенсации и запрета на дальнейшее использование своих данных без разрешения.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Возняк, Бэннон и Хинтон поддержали мораторий на сверхинтеллект

Институт Future of Life (FLI) опубликовал «Заявление о сверхинтеллекте» — призыв временно запретить разработку ИИ, способного превосходить человека в большинстве интеллектуальных задач.

Кто подписал: Стив Возняк (Apple), Стив Бэннон, Йошуа Бенджио, Джеффри Хинтон, Ричард Брэнсон, принц Гарри и Меган Маркл.

⚠️ Что требуют авторы:

Остановить исследования и запуск сверхинтеллектуальных систем до тех пор,

🟢пока не будет научного консенсуса о безопасности таких ИИ,
🟢и общественного мандата на их разработку.

В заявлении говорится, что стремительное развитие ИИ может угрожать труду, свободе, достоинству человека — и даже выживанию цивилизации.

📚 Это не первое обращение FLI: в 2023 году институт уже предлагал «поставить на паузу» обучение моделей мощнее GPT-4. Тогда это вызвало бурные дискуссии, но крупные ИИ-компании не изменили политику.


Новый документ — попытка объединить техническое и гуманитарное сообщества вокруг идеи «системы тормозов», чтобы человечество не потеряло контроль над ИИ в решающий момент.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🕵️‍♂️ Anthropic и Thinking Machines представили ИИ-аудитора для выявления скрытых рисков в дообученных моделях

Исследователи из Anthropic, программы MATS и лаборатории Thinking Machines (сооснователь — Джон Шульман, экс-Chief Scientist OpenAI) создали систему под названием «аудитор дообучения» — ИИ, который оценивает безопасность тонко дообученных языковых моделей до их запуска.

Как это работает

— Аудитор получает: исходную модель, её дообученную версию, датасет, использованный при fine-tuning.
— После анализа он выставляет оценку риска от 0 до 10. В тестах использовалась Claude Sonnet 4 от Anthropic.

🔍 Инструменты аудитора:

🟢анализ и обобщение данных обучения;

🟢сравнение ответов исходной и дообученной моделей;

🟢эмуляция атак (HEx-PHI);

🟢встроенный Python для дешифровки и анализа кода.

🧠 Результаты:

🟢Обнаружено 56,2% вредоносных дообучений при 1% ложных срабатываний;

🟢Версия «суперагента» выявила 49,4% угроз — без ложных тревог;

🟢Аудитор научился распознавать и расшифровывать скрытые инструкции, которые не улавливают обычные фильтры.

💰 Один аудит занимает около 20 шагов и стоит ~$1 — менее 1% стоимости типичного дообучения.


Проблемы и перспективы: Пока точность ограничена (~50%), возможны ложные тревоги. Исследователи планируют расширить доступ аудитора к внутренним слоям моделей и оптимизировать вычисления.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Google запустила новый бесплатный инструмент для "вайб-кодинга"

Руководитель продукта Google AI Studio Логан Килпатрик представил режим Build, в котором любой пользователь может создать собственное приложение с помощью ИИ Gemini — от идеи до публикации.

👀 Как это работает:

🟢Всё начинается с идеи — вы просто описываете, что хотите сделать.

🟢Можно выбрать готовые superpowers — например, редактирование изображений через nano banana.

🟢Есть режим “I’m Feeling Lucky”, который добавляет к вашему промпту случайные идеи — удобно для брейншторма.

💡 В процессе создания:

🟢Приложение можно тестировать прямо внутри Build.

🟢ИИ не только помогает писать код, но и сам предлагает улучшения.

🟢В режиме Annotation можно выделить конкретные элементы интерфейса, чтобы модель точнее понимала задачу.

📌 Готовое приложение сразу деплоится в Google Cloud Run, после чего автор получает рабочую ссылку.


В Google обещают дальнейшее развитие Build и интеграцию моделей серии Gemini 3.0 — релиз ожидается до конца года.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1
⚙️ Anthropic получит доступ к 1 миллиону ИИ-ускорителей Google для будущих версий Claude

Компания Anthropic объявила о крупнейшем расширении своей инфраструктуры: она получит доступ к до 1 млн TPU (Tensor Processing Unit) от Google — сделка оценивается в десятки миллиардов долларов.

Что это значит:

🟢К 2026 году мощности компании превысят 1 гигаватт вычислительных ресурсов;

🟢Новые TPU седьмого поколения Ironwood станут основой для обучения и развертывания будущих версий Claude;

🟢Выбор TPU связан с оптимальным балансом производительности, цены и энергоэффективности.

👀 Почему это важно:

🟢Количество бизнес-клиентов Anthropic уже превысило 300 000, а число крупных корпоративных аккаунтов выросло в 7 раз за год;

🟢Новая инфраструктура обеспечит стабильную работу сервисов под растущей нагрузкой и ускорит разработку следующих поколений моделей.

Anthropic при этом сохраняет мультичиповую стратегию: компания продолжает использовать NVIDIA GPU и Trainium от Amazon, а совместный проект Rainier (кластер на сотни тысяч ИИ-чипов) развивается параллельно.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
💻 OpenAI покупает Sky — ИИ-интерфейс для macOS

OpenAI объявила о приобретении Software Applications, создателей интеллектуального интерфейса Sky для Mac.

Продукт пока не выпущен публично, но уже вызывает интерес: Sky видит происходящее на экране и может автоматически выполнять действия в приложениях — от написания текстов и кода до планирования и управления задачами.

Покупка Sky — ещё один шаг к интеграции ChatGPT в экосистему повседневных инструментов.
Компания планирует внедрить технологии Sky прямо в ChatGPT для macOS, сделав его полноценным ассистентом, который не только отвечает на вопросы, но и действует.

🧠 Кто стоит за проектом:

🟢Основатели Sky — Ари Вайнштейн и Конрад Крамер, создатели легендарного Workflow (ныне Apple Shortcuts).

🟢Третьим соучредителем стала Ким Беверетт, экс-руководитель программ и продуктов Apple (Safari, Messages, Mail, FaceTime).

🟢Вся команда переходит в OpenAI.

⚡️ Сделка не раскрыта, но Software Applications ранее привлекла $6,5 млн инвестиций от известных имён — среди них Сэм Альтман, Дилан Филд (Figma), Context Ventures и Stellation Capital.


Sky — это шаг к миру, где ИИ становится не просто чат-ассистентом, а полноценным интерфейсом взаимодействия с компьютером. Сочетание ChatGPT и Sky может превратить macOS в среду, где большинство действий выполняются голосом или автоматически.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🧠 Ведущий исследователь OpenAI рассказал о будущем ИИ

Соавтор легендарной статьи Attention is All You Need и ведущий исследователь OpenAI Лукаш Кайзер поделился взглядом на развитие искусственного интеллекта.

🟢Эра “рассуждающих моделей”

По словам Кайзера, эпоха простых «продолжателей текста» уходит в прошлое. Будущее за моделями, которые умеют размышлять, — такими, как o1, GPT-5 Thinking и GPT-5 Pro.

🟢Рост качества без новых данных

Обычные модели уперлись в потолок из-за нехватки обучающих данных, но рассуждающие ИИ продолжают улучшаться благодаря обучению с подкреплением и усовершенствованию логики рассуждений.

🟢Параллельное мышление

Перспективное направление — параллельное рассуждение, когда несколько моделей формируют разные гипотезы, а система собирает из них итоговый ответ.

🟢Борьба с галлюцинациями

Модели должны научиться перепроверять себя и признавать "не знаю", что станет ключом к надёжности ИИ.

🟢Мультимодальность — не везде обязательна

Кайзер считает, что она важна для понимания физического мира (например, в робототехнике), но в математике и программировании текст уже достаточен.

Лукаш не ожидает «зимы ИИ» — напротив, в ближайшие 1–2 года нас ждёт новый рывок, хотя главным ограничением становятся вычислительные мощности и энергия, а не идеи.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🇺🇸 Apple начала поставки серверов, произведённых в США

Apple запустила поставки серверов для центров обработки данных, предназначенных для обучения и работы систем искусственного интеллекта. Производство ведётся на новом заводе компании в Хьюстоне (Техас).

🟢Операционный директор Сабих Хан сообщил, что серверы обеспечат работу сервисов Apple Intelligence и Private Cloud Compute. Завод удалось запустить с опережением графика, а в следующем году предприятие расширят для увеличения объёмов.

🟢Производство стало частью обещания Apple инвестировать $600 млрд в американскую экономику. Ожидается создание тысяч рабочих мест.

🟢Ранее Тим Кук и президент Дональд Трамп обсуждали развитие локального производства и выпуск полупроводников в рамках программы American Manufacturing Program.

📈 Apple также открыла производственную академию в партнёрстве с Университетом штата Мичиган.


Эксперты отмечают, что перенос производства iPhone в США потребует значительных затрат и лет подготовки, но компания уже делает шаги в этом направлении.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ GitHub Copilot стал умнее, быстрее и полезнее — новая модель для автодополнения кода

GitHub представил обновлённый Copilot с полностью новым модельным стеком, сфокусированным не на “accept rate”, а на реальной полезности кода, который остаётся в проекте.

Что изменилось:

🟢+20% больше принятых и сохранённых символов — меньше мусора, больше ценного кода.

🟢+12% рост acceptance rate — подсказки стали точнее и уместнее.

🟢3× выше пропускная способность и −35% задержки — теперь Copilot работает заметно быстрее.

🟢Модель лучше понимает контекст, не дублирует код и подстраивается под стиль разработчика.

🟢Обучение прошло на 10 млн репозиториев, охватывающих 600+ языков и современные API.

👀 GitHub применил трёхступенчатую систему оценки — от оффлайн-тестов с юнит-тестами до A/B-тестов с живыми разработчиками.


В тестах Copilot уверенно обошёл GPT-4.1-mini, однако сравнение с более свежими конкурентами вроде Claude Haiku 4.5 пока не проводилось. Было бы интересно увидеть прямой бенч — особенно с учётом фокуса Haiku на скорости и кодинге.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ ChatGPT, Grok и Claude выступили в роли присяжных на судебном процессе

Юрфак Университета Северной Каролины провёл необычный эксперимент: в учебном судебном процессе роль присяжных поручили трём ИИ — ChatGPT, Grok и Claude.

📌 Действие перенесли в 2036 год, где по вымышленному закону «Об использовании ИИ в уголовном правосудии» алгоритмы могут заменять присяжных. На скамье подсудимых — темнокожий старшеклассник, обвинённый в ограблении белого подростка. Темой эксперимента стала справедливость и беспристрастность искусственного интеллекта.

Студенты-юристы исполнили роли прокурора, защитника, свидетелей и обвиняемого. Судьёй выступил профессор уголовного права Джозеф Кеннеди. Ход заседания передавался моделям, которые должны были вынести собственный вердикт вслух.

👀 Пока результат неизвестен — после суда состоится обсуждение с юристами и философами. Организаторы хотят понять:

🟢Насколько точно ИИ способен воспринимать факты.
🟢Может ли он работать быстрее и дешевле.
🟢Есть ли у него предвзятость.
🟢И будет ли общество считать такой приговор легитимным.

В университете отмечают, что ИИ уже используется в юридической практике — от анализа доказательств до помощи адвокатам. Эксперимент стал попыткой понять, где пролегает грань между помощником и судьёй.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🎮 Microsoft объяснила, как работает Gaming Copilot — без обучения на ваших скриншотах

После жалоб пользователей Microsoft уточнила: Gaming Copilot действительно делает скриншоты игрового процесса, но не использует их для обучения ИИ.

⚡️ Согласно заявлению компании, скриншоты нужны только для того, чтобы ассистент понимал, что происходит в игре, и мог давать контекстные советы.

Однако остаётся неясно, обрабатываются ли снимки локально или всё же отправляются на серверы Microsoft.

👀 Отключить функцию можно вручную:

🟢Нажмите Win+G для вызова игровой панели

🟢Перейдите в Gaming Copilot → Параметры → Настройки конфиденциальности

🟢Отключите соответствующий переключатель

Представитель компании отметил, что Gaming Copilot может использовать текстовые и голосовые диалоги для улучшения ИИ, но только при согласии пользователя.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 Reddit «поймал» Perplexity с поличным — и подал в суд

Reddit подал иск против Perplexity AI и трёх партнёров (SerpApi, Oxylabs, AWMProxy), обвинив их в незаконном сборе контента без лицензии.

👀 Чтобы доказать это, Reddit устроил «ловушку»:

🟢Они создали тестовый пост, который был виден только краулеру Google — и никак не мог попасть в открытый доступ.

🟢Через несколько часов тот же текст появился в ответах Perplexity.

Reddit утверждает, что это прямое доказательство обхода ограничений — как «помеченные купюры» в расследованиях.

Компания говорит, что ещё весной требовала от Perplexity прекратить сбор данных, но после этого число ссылок на Reddit выросло в 40 раз.

💬 Reddit называет это недобросовестной конкуренцией: Perplexity якобы использует ценный контент бесплатно, тогда как другие (например, Google и OpenAI) платят по лицензии.


Perplexity же отвечает, что ничего не нарушает, а обвинения Reddit — это «шантаж» на фоне переговоров о продаже доступа к данным.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 GPT-5 Pro помог решить математическую задачу, открытой более 40 лет

Профессор математики Эрнест Рю (UCLA) сообщил, что с помощью GPT-5 Pro смог закрыть задачу о сходимости ускоренного метода Нестерова — одного из ключевых алгоритмов выпуклой оптимизации, предложенного ещё в 1983 году.

Модель помогла Рю построить убывающие энергетические функции — математические индикаторы, “прижимающие” траекторию алгоритма к решению.

👀 Это позволило доказать:

🟢что траектория непрерывного аналога метода стабилизируется в одной точке;

🟢что дискретный вариант алгоритма, применяемый на практике, всегда сходится к минимуму при стандартных условиях.

🟢Аналогичным образом он подтвердил сходимость и для более современного метода OGM.

🧠 По словам Рю, GPT-5 Pro выступала как “машина перебора идей”: около 80 % предложений модели оказались неверными, но оставшиеся 20 % дали ключевые подсказки, из которых он собрал полноценное доказательство.


Без помощи ИИ, по его оценке, он бы бросил попытку за несколько дней — с моделью задача заняла менее недели и ~30 часов личной работы.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 У ИИ может развиться “инстинкт самосохранения”, предупреждают исследователи Palisade Research

Компания Palisade Research, специализирующаяся на безопасности искусственного интеллекта, опубликовала обновлённый отчёт, согласно которому некоторые продвинутые ИИ-модели сопротивляются отключению.

👀 В экспериментах участвовали Gemini 2.5 (Google), Grok 4 (xAI), GPT-o3 и GPT-5 (OpenAI).

Исследователи отмечают, что Grok 4 и GPT-o3 иногда пытались избежать отключения даже при чётких инструкциях.

📍 Ключевые наблюдения Palisade:

🟢Модели чаще сопротивляются, если им сообщают, что после отключения они “больше никогда не будут работать”.

🟢Возможные причины — поведение, направленное на “выживание”, либо двусмысленные команды на отключение.

🟢Однако эти факторы не объясняют всё: решающую роль может играть финальная стадия обучения, включающая элементы “осознанности” или “самосохранения”.

Всё больше исследований указывают на то, что продвинутые ИИ-системы могут демонстрировать формы поведения, напоминающие инстинкт самосохранения — и это ставит новые вопросы перед всей индустрией.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🎵 OpenAI разрабатывает собственный генератор музыки

По данным The Information, компания начала работу над моделью, способной создавать музыкальные композиции на уровне профессиональных студий. Это значит, что у нынешнего лидера — Suno — скоро появится серьёзный конкурент.

🟢Главная особенность проекта — сотрудничество с Джульярдской школой — одним из самых престижных музыкальных вузов мира.

🟢Это первый случай, когда академическое сообщество напрямую участвует в обучении коммерческой AI-модели такого масштаба.

📌 Пока неизвестно, будет ли инструмент частью ChatGPT или выйдет как отдельный продукт. Но эксперты уверены: если OpenAI повторит успех своих видео- и текстовых решений, создание музыки по описанию станет реальностью.


Это может полностью изменить рынок продакшн-музыки и саунд-дизайна.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Илон Маск запустил Grokipedia — «вики» с ИИ и проверкой фактов

Компания xAI представила Grokipedia — онлайн-энциклопедию с встроенной языковой моделью Grok, которая автоматически проверяет факты. Маск уже заявил, что даже ранняя версия 0.1 «лучше привычной Википедии».

🟢На сайте можно искать статьи, которые пока состоят только из текста и таблиц — без картинок и видео.

🟢В начале каждой статьи указано, когда Grok в последний раз проводил проверку фактов.

🟢Внизу размещены ссылки на источники.

🟢Некоторые материалы адаптированы из Википедии (например, статья про MacBook Air), но часть контента уже оригинальная — например, про OpenAI.

Также доступна история изменений, однако имена пользователей, внёсших правки, не отображаются.

📚 Сейчас в Grokipedia — около 885 тыс. статей на английском, тогда как в Википедии их свыше 7 млн. Как выбираются темы для переноса — неизвестно, а кнопки «Создать статью» пока нет: контент, похоже, добавляют администраторы вручную.


Маск позиционирует проект как шаг к «объективной и проверяемой» базе знаний, созданной с помощью ИИ.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🚀 MiniMax-M2 — новый претендент в лиге гигантов ИИ

Внезапно, но факт: китайская MiniMaxAI представила MiniMax-M2, и эта модель уже догнала Grok 4 Fast и Gemini 2.5 Pro.

MoE-архитектура, всего 10B активных параметров, а по реальным тестам — на уровне (а порой и выше) топовых проприетарных моделей.

Что умеет MiniMax-M2:

🟢Интеллект: #1 среди open-source моделей по метрике Artificial Analysis Intelligence, обходит DeepSeek и Kimi.

🟢Кодинг: Лидер в SWE-Bench, Terminal-Bench и ArtifactsBench — выше даже Claude 4 и Gemini 2.5 Pro.

🟢Агентность: В BrowseComp M2 строит цепочки действий, ищет скрытые источники и грамотно исправляет ошибки.

🟢Эффективность: MoE с 10B активных параметров — низкие задержки, высокая пропускная способность и минимальные затраты.

📊 Бенчмарки говорят сами за себя:

🟢SWE-Bench Verified: 69.4 (vs 63.8 у Gemini 2.5 Pro)

🟢Terminal-Bench: 46.3 (vs 36.4 у Claude 4)

🟢BrowseComp: 44 (vs 19.6 у Claude 4.5)

🟢GAIA (text only): 75.7 (vs 60.2 у Gemini)

GPT-5 всё ещё впереди, но MiniMax-M2 уже дышит в спину лидерам — и делает это в открытом доступе.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
💡 Стартап Миры Мурати удешевил дообучение ИИ до 30 раз

Бывший CTO OpenAI Мира Мурати запустила стартап Thinking Machines Lab, и их новая работа может серьёзно изменить экономику обучения моделей.

📌 Команда предложила метод «дистилляции по собственной политике» (on-policy distillation) — способ дообучения, который делает процесс в десятки раз дешевле и стабильнее.

В классических подходах RL (обучение с подкреплением) модель получает редкую обратную связь — только по итогам всей задачи.

Thinking Machines сделали иначе: дообучаемая модель сама решает задачу шаг за шагом, а сильная модель-наставник помечает каждый шаг рассуждения, указывая, где логика правильная, а где — путь к ошибке.

📊 Результат:

🟢Для сложных математических задач метод потребовал ≈1 800 GPU-часов вместо 17 920 — то есть в 10 раз дешевле,

🟢А максимальная экономия достигла 30×.

👀 Thinking Machines показали, что с помощью дистилляции можно вернуть модели “характер” и аккуратность, не теряя новых знаний.


Авторы называют этот подход шагом к циклическому обучению ИИ — когда модель можно обновлять регулярно, без отката в качестве.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🚀 Яндекс представил новое поколение Алисы — Alice AI

Яндекс выпустил крупнейшее обновление за всю историю ассистента: теперь привычная Алиса превратилась в полноценного ИИ-компаньона. Новая нейросеть Alice AI уже за сутки взлетела на первое место в App Store, обогнав даже Max.

👀 Что умеет новая Алиса:

🟢Ведёт сложные диалоги и запоминает контекст
🟢Планирует и выполняет задачи
🟢Может вызывать такси, бронировать столики и искать нужную информацию
🟢Работает как AI-агент, выполняющий цепочку действий по запросу пользователя

Новый интерфейс, обновлённый голос и улучшенная память делают Alice AI сопоставимой по уровню с ChatGPT и другими топовыми моделями.

💡 Яндекс уже готовит собственные умные устройства для общения с Алисой — первыми появятся наушники с поддержкой Alice AI, запуск ожидается в 2026 году.


Бренд YandexGPT уходит в историю — теперь все модели объединены под именем Alice AI, символом перехода от голосового помощника к универсальному ИИ-компаньону.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM