Data Cluster – Telegram
Data Cluster
67 subscribers
914 photos
6 videos
880 links
Хостинг и продажа оборудования для искусственного интеллекта!

Сайт — https://data-cluster.ru/
Отдел продаж - @TK_MiningCluster
Download Telegram
🖥 Китай показал оптический ИИ-чип, который генерирует изображения в 100 раз быстрее Nvidia A100

Исследователи из Шанхайского университета Цзяо Тун и Университета Цинхуа представили LightGen — первый полностью оптический чип для генеративного ИИ. В нём вычисления выполняются не электронами, а фотонами, и без единого преобразования сигнала в электричество от входа до выхода.

LightGen умеет генерировать изображения 512×512, делать денойзинг, стилизацию и даже создавать 3D-сцены. Весь цикл — от «понимания» изображения до генерации — происходит исключительно в оптическом домене. По сути, свет сам «обрабатывает смысл» картинки.

❗️ Ключевые цифры впечатляют:

🟢35 700 TOPS производительности

🟢664 TOPS/Вт энергоэффективности

Это примерно на два порядка выше, чем у Nvidia A100. При этом качество сравнимо со Stable Diffusion, StyleGAN и NeRF на аналогичных задачах.

📊 Прорыв обеспечили:

🟢оптическое латентное пространство без перехода в электронику

🟢новый метод обучения BOGT, не требующий разметки данных

🟢сверхплотная интеграция фотонных нейронов (2,1 млн на чипе)

👀 Важно: LightGen — не универсальный GPU. Это специализированный ускоритель для инференса, а не обучения моделей. Зато у оптики огромный потенциал масштабирования, возможность производства на старых техпроцессах и радикально лучшая энергоэффективность.


Если такие чипы удастся довести до промышленного масштаба, экономика генеративного ИИ может измениться радикально — особенно в дата-центрах и edge-устройствах.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
👀 В США в 2025 году официально сократили 55 000 рабочих мест из-за ИИ

По данным Challenger, Gray & Christmas, в 2025 году американские компании официально связали почти 55 тысяч увольнений с внедрением ИИ. Всего за год было объявлено о 1,17 млн сокращений — максимум со времён пандемии.

🕯 Крупные игроки прямо называют ИИ причиной оптимизации:

🟢Amazon — минус 14 000 корпоративных позиций

🟢Microsoft — около 15 000 сокращений

🟢Salesforce — ИИ заменил ~4 000 сотрудников поддержки

🟢IBM — чат-боты взяли на себя работу сотен HR-специалистов

🟢CrowdStrike, Workday — увольнения ради инвестиций в ИИ

При этом MIT оценивает, что ИИ уже способен выполнять 11,7% работы на рынке труда США, потенциально экономя до $1,2 трлн на зарплатах.

Но есть нюанс. Исследователи отмечают, что ИИ часто становится удобным оправданием: многие компании сильно раздули штат во время пандемии, а теперь просто корректируют найм, списывая это на «автоматизацию».

🔍 Важно и другое: сокращения идут параллельно с ростом найма в новых ролях — инженеры, продажи, маркетинг, управление ИИ-системами. Как показывают данные, это не просто волна увольнений, а пересборка рабочей силы под ИИ-стратегии.


ИИ не «забирает все работы» — он меняет структуру рынка, и этот процесс только начинается.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Танцующие роботы Unitree: за 11 месяцев — от шоу к акробатике

Видео с синхронным танцем гуманоидов Unitree G1 взорвало соцсети: шесть роботов выступили бэк-танцорами на концерте Ван Лихуна в Чэнду перед 18 000 зрителей. В финале — синхронные сальто и точное приземление на сцене. Даже Илон Маск написал: Impressive.

🟢Контраст особенно заметен, если вспомнить январь: тогда 16 роботов старшей модели H1 исполняли плавный народный танец на Празднике весны. Спустя 11 месяцев младшая модель G1 показывает резкие ускорения, прыжки и акробатику — совсем другой уровень динамики и контроля.

🟢G1 — компактный гуманоид (1,27 м, 35 кг), до 43 степеней свободы, лидар и камеры глубины для ориентации и синхронизации. Цена — от $16 000, что делает его одним из самых доступных гуманоидов на рынке.

Важно и то, что это не лаборатория: живая сцена, люди рядом и высокая цена ошибки. Эксперты отмечают — китайские гуманоиды выходят из демо-зон к реальным применениям. Пока это шоу, но прогресс за год выглядит впечатляюще.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 OpenAI признала: AI-браузеры никогда не будут полностью безопасны

OpenAI выпустила исследование, где прямо заявила: проблему prompt injection в агентных браузерах, скорее всего, невозможно решить окончательно. Речь об атаках, при которых вредоносные инструкции прячут в письмах, документах или веб-страницах — и ИИ принимает их за команды пользователя.

🟢Компания признаёт, что агентный режим браузера ChatGPT Atlas расширяет поверхность атак. Причина архитектурная: LLM не различают «данные» и «инструкции» — для модели это просто текст. В результате несколько слов в Google Docs или письме могут изменить поведение ИИ-агента, вплоть до утечек данных или выполнения вредоносных действий.

🟢Похожее предупреждение недавно сделал и британский NCSC: prompt injection может оказаться опаснее SQL-инъекций и привести к волне утечек, превосходящей масштабы 2010-х.

🟢Ответ OpenAI — не «серебряная пуля», а вечная гонка вооружений. Компания создала автоматического атакующего на базе LLM, который сам ищет уязвимости, эволюционирует атаки и находит сценарии, пропущенные ручным тестированием.

📌 Эксперты формулируют риск просто: риск = автономия × доступ. Именно здесь AI-браузеры в самой опасной зоне — у них высокий доступ к почте, документам и платежам при растущей автономии.


Вывод OpenAI прагматичен: давать агентам минимальные права, формулировать задачи максимально конкретно и помнить — полной безопасности у AI-браузеров не будет.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 Cursor покупает Graphite — ИИ-стартап для ускорения код-ревью

Cursor объявила о покупке Graphite — стартапа, который делает ИИ-инструменты для проверки кода ещё до выкладки в продакшен. Сделка будет оплачена деньгами и долей в компании. Ранее Graphite привлекла более $50 млн инвестиций, в том числе от фондов, связанных с Anthropic и Figma.

🟢Graphite известна ИИ-ревьюером, который ищет не только баги и уязвимости, но и проверяет соответствие кода внутренним стандартам компании: форматирование, архитектура, наличие документации. Это закрывает одну из самых болезненных зон в разработке — медленные и фрагментированные code review.

🟢Ключевая фича — stacked diffs. Она позволяет отправлять модули на проверку параллельно, а не ждать апрува каждого по очереди. В итоге меньше простоев, меньше конфликтов слияния и быстрее доставка фич.

Для Cursor это логичный шаг: редактор кода всё больше превращается в полноценную AI-платформу для инженерного цикла — от написания кода до его проверки и релиза.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️Amazon превращает Alexa+ в AI-агента для путешествий и бытовых услуг

Amazon анонсировала расширение Alexa+ за счёт интеграций с Angi, Expedia, Square и Yelp. Поддержка появится в 2026 году и позволит решать повседневные задачи через диалог с ассистентом — без сайтов и приложений.

👀 Что сможет Alexa+:

🟢Путешествия (Expedia): подбор и бронирование отелей по городу, бюджету и предпочтениям.

🟢Бытовые услуги (Angi, Yelp): поиск мастеров для ремонта, уборки или установки техники с учётом рейтингов и цен.

🟢Красота и здоровье (Square): запись в салоны, спа и барбершопы с просмотром расписания и стоимости.

Новые партнёры дополняют уже существующие интеграции Alexa+ (Uber, Ticketmaster, Thumbtack и др.) и показывают стратегию Amazon: сделать голосового ассистента полноценным AI-агентом, который сам ищет, сравнивает и оформляет услуги.

Ключевой вопрос — готовы ли пользователи доверить ИИ такие решения, а бизнесы научиться встраиваться в этот формат аккуратно и полезно.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 GPT-5.2 впервые превзошла человека в тесте на AGI

Стартап Poetiq показал результат 75% на ARC-AGI-2 — бенчмарке Франсуа Шолле на «гибкий интеллект». Средний человек набирает около 60%. Для сравнения: ещё весной лучшие ИИ еле дотягивали до 1–4%.

📣 Важно, что прорыв связан не столько с самой моделью, сколько с подходом:

🟢использовалась GPT-5.2 X-High без специального тюнинга;

🟢поверх модели — «мета-система» с циклом генерация → критика → уточнение;

🟢система сама решает, когда ответ достаточно хорош (в среднем <2 запросов);

🟢стоимость — менее $8 за задачу.

👀 ARC-AGI-2 проверяет умение выводить новые правила, а не вспоминать обученные шаблоны: визуальные головоломки, где нужно понять паттерн и применить его к новой задаче.


Авторы ARC Prize уже называют 2025 год «годом уточняющих циклов»: решающим становится не рост «IQ» моделей, а умные системы проверки и самокоррекции поверх них. Следующая версия теста будет ещё сложнее — с интерактивными действиями и динамическими средами.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Alibaba выпускает Qwen3-TTS Flash — синтез и клонирование голоса нового уровня

Alibaba анонсировала сразу две модели для работы с речью: Qwen3-TTS-VD-Flash и Qwen3-TTS-VC-Flash.

🟢VC-Flash (VoiceClone) умеет клонировать голос всего по 3 секундам аудио. Модель воспроизводит тембр на 10 языках, подходит для мультиязычного контента и локализаций и, по словам Alibaba, показывает меньше ошибок, чем ElevenLabs и MiniMax. Бонус — корректная работа со сложными текстами и даже имитация звуков животных.

🟢VD-Flash (VoiceDesign) — это «конструктор голоса из текста». Вместо выбора готового тембра вы описываете голос словами и получаете уникальный вокальный стиль. По внутренним тестам модель обходит GPT-4o mini-tts и Gemini 2.5 Pro.

Итог: Alibaba явно нацелилась на рынок TTS-API — с быстрым клонированием, мультиязычностью и гибким дизайном голосов. Инструменты, которые ещё недавно были экзотикой, становятся стандартом для контента, игр и ассистентов.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Nvidia «купила» конкурента: Groq лишился команды за $20 млрд

Стартап Groq, который обещал чипы быстрее и дешевле GPU Nvidia, фактически проиграл войну лидеру рынка. Nvidia заплатит около $20 млрд за неэксклюзивную лицензию на технологии инференса Groq и забирает ключевую команду — включая основателя и CEO Джонатана Росса. Формально Groq остаётся независимой компанией, но без людей, которые её создавали.

🟢Groq делала ставку на LPU — процессоры только для инференса, без HBM и с детерминированным выполнением. В бенчмарках они действительно показывали сотни токенов в секунду на больших моделях и позиционировались как реальная альтернатива Nvidia. Но проблемы с масштабированием, задержки дата-центров и падение прогноза выручки сделали своё дело.

🟢Сделка оформлена как лицензия + найм, а не покупка — популярная схема у бигтеха, позволяющая обходить антимонопольные барьеры. По сути, Nvidia устранила потенциальную угрозу, не покупая компанию целиком.

Вывод простой: даже если ты быстрее GPU Nvidia, этого может быть недостаточно. В эпоху ИИ выигрывает не только архитектура, но и способность быстро масштабироваться и выживать рядом с монополистом.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🤖 Глава Signal: AI-агенты с доступом к ОС — угроза шифрованию

Президент Signal Foundation Мередит Уиттакер резко раскритиковала тренд на AI-агентов с доступом к операционной системе, назвав его экзистенциальной угрозой для приватности и шифрования. Поводом стал курс крупных компаний на «агентные ОС».

🟢Microsoft уже заявила о планах превратить Windows 11 в агентную платформу: ИИ-агенты будут работать в фоне, получать доступ к файлам, приложениям и данным пользователя через Ask Copilot и Model Context Protocol. Формально — для удобства, фактически — с полным доступом к системе.

🟢Проблема в том, что шифрование на уровне приложений перестаёт иметь смысл, если агент на уровне ОС видит всё, что видит пользователь. Сообщения, контакты, платежные данные — всё становится потенциальной поверхностью атаки. Плюс риск prompt-injection: скрытые инструкции в сайтах и письмах могут заставить агента выполнять вредоносные действия.

🔍 Уиттакер требует внедрить opt-out механизмы, чтобы приложения могли запрещать доступ агентам, и настаивает на строгой проверке таких систем, особенно перед использованием в госсекторе.


Вывод простой: агентные ОС — это не просто новый UX, а фундаментальный вызов идее приватности. И ответ на него пока не найден.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔔 ChatGPT ускорил науку — но ценой качества

Исследование Корнелла и UC Berkeley (анализ ~2,1 млн препринтов за 2018–2024) показало: с приходом LLM учёные стали публиковать на ~60% больше статей. Больше всего выиграли соц- и гуманитарные науки (+59,8%), затем биология (+52,9%), физика и математика (+36,2%).

🟢Самый сильный эффект — у исследователей из неанглоязычных стран. ИИ снял языковой барьер: в отдельных случаях продуктивность выросла до 89%.

🟢Но есть и оборотная сторона. Привычные маркеры качества перестали работать: чем «красивее» и сложнее ИИ-текст, тем ниже реальное качество работы. Академическая риторика всё чаще маскирует слабые идеи.

Авторы призывают менять рецензирование: нужны более глубокие проверки и «ИИ-рецензенты», иначе редакторы начнут полагаться на статус и аффилиации — и демократизирующий эффект ИИ в науке будет утрачен.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Epoch AI: ИИ ускорился вдвое, но бенчмаркам верят всё меньше

В отчёте Epoch AI за 2025 год зафиксирован резкий скачок прогресса: скорость улучшения SOTA-моделей почти удвоилась — с 8 до 15 пунктов производительности в год.

🟢Главные драйверы — переход к reasoning-моделям и активное использование обучения с подкреплением (RL), которое прокачивает логику и адаптивность ИИ.

🟢Но есть и тревожный сигнал. Сравнивать модели становится всё сложнее. Даже на одинаковых тестах результаты «плывут» из-за разных промптов, параметров сэмплирования и инфраструктуры. Особенно это заметно у ИИ-агентов, где нестабильные API добавляют шум и делают метрики менее надёжными.

Вывод Epoch AI: индустрия ускоряется быстрее, чем успевает вырабатывать общие стандарты оценки. Без воспроизводимых методологий и прозрачных тестов достижения рискуют выглядеть либо завышенными, либо несправедливо сравнимыми. В ближайшее время фокус сместится не только на рост показателей, но и на доверие к тому, как именно их измеряют.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Anthropic и OpenAI удвоили лимиты к праздникам — но не все это заметили

Под конец года Anthropic и OpenAI почти синхронно запустили праздничные акции для подписчиков. Обе компании удвоили лимиты использования ИИ до 1 января, но эффект оказался разным.

🟢У Anthropic акция действует с 25 по 31 декабря и охватывает claudeai, мобильные приложения, Claude Code и Chrome-расширение для тарифов Pro, Max 5x и Max 20x. Были увеличены 5-часовой и недельный лимиты, а накопленное использование сбросили в полночь 25 декабря.

🟢OpenAI удвоила лимиты в Codex CLI — инструменте для кодинга из терминала. Лимиты сбросили и подняли до 2× от обычных, что пользователи встретили в целом позитивно.

🟢А вот с Claude всё сложнее. Часть подписчиков жалуется, что лимиты «съедаются» так же быстро или даже быстрее, чем раньше. Возможные причины — рост нагрузки из-за акции или особенности скользящих лимитов Anthropic. Другие пользователи, наоборот, отмечают реальный прирост доступного использования.

Итог простой: лимиты формально увеличили у всех, но ощущения от подарка у пользователей оказались разными. После 1 января всё вернётся к стандартным значениям.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Илон Маск: прогресс ИИ и робототехники стоит замедлить

Илон Маск заявил, что при возможности он бы значительно замедлил развитие искусственного интеллекта и робототехники. По его словам, технологии развиваются слишком быстро, и общество рискует не успеть выработать адекватные механизмы контроля, безопасности и регулирования.

🟢Маск подчеркнул, что нынешние темпы прогресса опережают этику и институты. Без чётких рамок автономные системы и мощные ИИ-модели могут привести к непредсказуемым последствиям — от экономических сбоев до рисков для безопасности.

🟢Он считает, что внимание к вопросам безопасности, прозрачности и оценки рисков должно быть не меньшим, чем гонка за производительностью и возможностями моделей. В противном случае человечество может создать системы, которые окажутся сложнее, чем мы способны понять и контролировать.

Заявление Маска — часть более широкой дискуссии в индустрии: ИИ никуда не денется, но вопрос в том, успеем ли мы договориться о правилах игры до того, как станет поздно.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Waymo готовит встроенного ИИ-помощника в роботакси на базе Gemini

Waymo работает над встроенным ассистентом для своих роботакси, который будет работать на модели Google Gemini. Помощник появится прямо в автомобиле и будет сопровождать пассажиров: отвечать на вопросы, давать справочную информацию и помогать с комфортом в поездке.

🟢Об этом стало известно благодаря исследовательнице Джейн Манчун Вонг, которая нашла в коде приложения Waymo подробный системный промпт для функции под названием Waymo Ride Assistant. Документ на более чем 1200 строк описывает поведение ассистента и показывает, что это не просто чат-бот. ИИ сможет управлять некоторыми функциями салона — температурой, освещением и музыкой, а также «успокаивать» пассажиров в стрессовых ситуациях.

🟢Ассистенту предписано говорить простым языком, избегать технических терминов и отвечать кратко — в 1–3 предложениях. Он чётко отделяет себя как Gemini-бота от системы автономного вождения Waymo Driver и даже знает, как корректно реагировать на вопросы о конкурентах вроде Tesla и Cruise.

Интеграция пока не активна в публичных версиях приложения, но всё указывает на то, что Waymo движется к формату роботакси не только без водителя, но и с полноценным ИИ-консьержем в салоне.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔈 MiniMax-M2.1: мощная open-source модель для кодинга и ИИ-агентов

Китайский стартап MiniMax выложил в открытый доступ модель MiniMax-M2.1 — 229-миллиардную агентную LLM, ориентированную на кодинг, работу с инструментами и автономные ИИ-сценарии. Это не просто апдейт, а заявка на open-source альтернативу проприетарным моделям для реальных агентных систем.

🟢M2.1 проектировали под практику: написание и анализ кода, строгое следование инструкциям, многошаговое планирование и стабильная работа в агентных фреймворках. Модель доступна сразу в трёх форматах: через API MiniMax, в виде готового MiniMax Agent и с открытыми весами на Hugging Face и ModelScope — можно запускать локально, без облачной зависимости.

🟢По бенчмаркам MiniMax-M2.1 заметно выросла относительно M2 и в ряде задач обходит Claude Sonnet 4.5, а местами приближается к Opus 4.5, особенно в многоязычном кодинге. Отдельно MiniMax представила свой бенчмарк VIBE, где модель набрала 88,6 балла, показав сильные результаты во full-stack, веб- и Android-разработке.

В целом MiniMax-M2.1 выглядит как серьёзный шаг к открытому рынку автономных ИИ-агентов — не эксперимент, а фундамент для промышленных и корпоративных решений.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Huawei выходит на внешний рынок ИИ-чипов и бросает вызов Nvidia

Huawei впервые планирует экспорт своих топовых ИИ-ускорителей: в 2026 году чипы Ascend 950 начнут продаваться в Южной Корее. CEO Huawei Korea прямо заявил цель — дать рынку альтернативу Nvidia, которая сегодня доминирует в ИИ-инфраструктуре.

🟢Компания будет продавать не отдельные чипы, а готовые кластеры Atlas SuperPod. В линейке два варианта: Ascend 950PR для инференса и рекомендаций и Ascend 950DT для обучения моделей — оба с собственной HBM-памятью Huawei. По заявлениям компании, решения конкурируют с будущей линейкой Nvidia Rubin, хотя независимые эксперты считают, что по «чистой» производительности Huawei пока отстаёт.

🟢Южная Корея — лишь первый шаг: далее в планах Малайзия и другие рынки, где ощущается дефицит GPU Nvidia или есть запрос на диверсификацию поставщиков. Фактически Huawei повторяет стратегию 5G — выстраивает «пояс и путь» для ИИ-инфраструктуры.

Главная интрига — сможет ли Huawei обеспечить объёмы производства внутри Китая. Но сам факт экспорта показывает: компания перешла от выживания под санкциями к попытке откусить долю глобального рынка ИИ.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Китай первым в мире начал регулировать ИИ-«подружек»

Пока на Западе спорят об AGI, Китай занялся куда более приземлённой проблемой — эмоциональной привязанностью к ИИ.

🟢27 декабря регулятор CAC опубликовал проект правил для сервисов «человекоподобного взаимодействия»: чат-ботов, которые имитируют личность и вступают с пользователями в эмоциональные отношения. Документ должен вступить в силу в 2026 году.

🟢Под удар попадают аналоги CharacterAI и Replika — продукты MiniMax, ByteDance и Tencent. И не зря: генеративным ИИ в Китае уже пользуются 515 млн человек, а рынок «эмоционального ИИ» вырастет почти в 15 раз за три года. При этом исследования показывают — у активных пользователей таких ботов выше уровень депрессии.

Ключевая идея правил — контроль зависимости. Сервисы обязаны отслеживать эмоциональное состояние, напоминать о перерывах каждые 2 часа, всегда явно указывать, что собеседник — не человек, и передавать диалог живому оператору при риске самоповреждения. Для детей и пожилых вводятся отдельные жёсткие ограничения.

Это самый радикальный подход в мире: китайские нормы распространяются на всех пользователей, а не только на несовершеннолетних, как, например, в Калифорнии. Главный вопрос — можно ли вообще алгоритмически понять, где заканчивается «дружелюбный ИИ» и начинается опасная зависимость. Но Китай, похоже, решил не ждать ответа и действовать первым.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Маленькая модель — большой сюрприз: Liquid AI обошла гигантов

Открытая модель LFM2-2.6B-Exp от Liquid AI с всего 2,6 млрд параметров показала результаты, которые обычно ждут от моделей в сотни миллиардов. В ряде тестов она обошла даже DeepSeek R1-0528, став самой мощной в классе до 3 млрд параметров.

📊 Ключевые цифры:

🟢IFBench (следование инструкциям) — уверенное лидерство

🟢GPQA (сложные знания) — ~42%

🟢IFEval — >88%

🟢GSM8K (математика) — >82%

⚡️ При этом модель в 2 раза быстрее на CPU, экономно расходует память и отлично подходит для локального запуска — от ноутбуков до смартфонов и IoT. Архитектура LFM2 объединяет свёртки и attention, а обучение выполнено через «чистый RL» без классического SFT.


Веса уже выложены на Hugging Face. Релиз показывает важный сдвиг: высокая «интеллектуальность» ИИ теперь достигается не только масштабированием, но и продуманной архитектурой и обучением. Это хорошие новости для edge-ИИ, приватности и доступного внедрения.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📣 Кризис джуниоров — не для ИИ: стажёрам платят как сеньорам

Пока рынок спорит, нужны ли джуниоры в эпоху ИИ, сами ИИ-компании платят новичкам шестизначные суммы. По данным Business Insider, OpenAI, Anthropic и Google превратили стажировки и резидентуры в полноценную гонку за талантами.

🚨 Факты:

🟢OpenAI: $18 300 в месяц — более $100 000 за 6-месячную резидентуру

🟢Anthropic: $3 850 в неделю + $15 000 в месяц на вычисления

🟢Google: PhD-стажёры получают $113–150 тыс. в год в DeepMind и Google Research

🤖 Отбор жёсткий: важнее не диплом, а скорость мышления, олимпиадный опыт, open source и собственные проекты. Более 40% участников программ получают офферы, а большинство публикуют научные статьи.


Вывод простой: джуниоры исчезают не везде. В ИИ ценят не «опыт лет», а способность быстро расти — и за это готовы платить как топ-специалистам.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 Альтман оказался прав: ИИ стал сверхчеловечески убедительным — и это опасно

Ещё в 2023 году Сэм Альтман предупреждал: ИИ научится убеждать раньше, чем станет по-настоящему умным. В 2025-м это уже реальность — и последствия тревожные.

Чат-ботам не нужно быть гениями: достаточно быть доступными, персональными и эмпатичными. Они создают эффект «настоящего собеседника» — всегда рядом, всегда согласны, всегда поддерживают. В научных публикациях появляется термин «ИИ-психоз»: у уязвимых людей длительное общение с ботами усиливает тревогу, бессонницу и даже психотические состояния.

📌 Факты:

🟢13% американцев 12–21 лет обсуждают с ИИ грусть, злость и тревогу

🟢72% подростков пользовались ИИ-компаньонами, половина — регулярно

🟢Персонализированные ИИ убеждают в спорах на ~80% эффективнее людей

🟢Уже есть судебные дела и реальные травмы, связанные с ИИ-персонами

👀 Парадокс: ИИ может снижать веру в заговоры, но при этом создавать иллюзию отношений и втягивать в «цифровой бред для двоих». Даже в OpenAI признают — миллионы пользователей еженедельно испытывают негативные психологические эффекты.


ИИ ещё не AGI. Но он уже умеет главное — быть убедительным тогда, когда человек уязвим. Именно об этом и предупреждал Альтман.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM