Data Cluster – Telegram
Data Cluster
67 subscribers
914 photos
6 videos
880 links
Хостинг и продажа оборудования для искусственного интеллекта!

Сайт — https://data-cluster.ru/
Отдел продаж - @TK_MiningCluster
Download Telegram
🔔 GPT-5.2 Thinking и Gemini 3 Pro возглавили рейтинг ИИ по уровню IQ

Сайт Tracking AI обновил рейтинг «IQ» языковых моделей — и первое место теперь делят GPT-5.2 Thinking от OpenAI и Gemini 3 Pro от Google. Обе модели набрали одинаковые результаты: 141 балл в тесте Mensa Norway и 127 баллов в закрытом оффлайн-тесте.

🟢Mensa Norway — это публичный онлайн-тест из 35 задач на поиск закономерностей, где средний человеческий результат равен 100. Но из-за открытости заданий есть риск, что они попадали в обучающие датасеты. Поэтому авторы рейтинга добавили оффлайн-тест с аналогичными, но недоступными в сети задачами — он считается более показательным.

🟢Интересные нюансы видны в сравнении моделей. В оффлайн-тесте GPT-5.2 Thinking обошла более дорогую GPT-5 Pro, тогда как в Mensa Norway Pro-версия показала себя лучше — что может говорить скорее о лучшей «подготовке» к открытому тесту.

🔍 Неожиданно высоко выступила и обычная чат-версия GPT-5.2 без режима рассуждений: 120 баллов, на уровне Claude Opus 4.5.


Важно помнить, что такие рейтинги — это не универсальная мера «ума», а срез логико-абстрактных способностей. Но они хорошо показывают, насколько быстро топовые ИИ приближаются к очень высоким человеческим результатам в классических когнитивных тестах.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
👀 Китай запустил Future Network — «распределённый суперкомпьютер» из 40 городов

3 декабря 2025 года в Китае заработала Future Network Test Facility — вычислительная система нового типа, объединяющая дата-центры в 40 городах в одну сеть. Это не классический суперкомпьютер в одном здании, а распределённая инфраструктура с «нервной системой» из более чем 55 000 км высокоскоростного оптоволокна — больше длины экватора Земли.

🟢Ключевой прорыв — эффективность работы на уровне 98%, несмотря на огромные расстояния. Для ИИ это означает резкий прирост скорости: одна итерация обучения большой языковой модели теперь занимает около 16 секунд вместо прежних 36. В масштабах полного обучения это экономит недели и месяцы вычислений.

📌 При этом система задумывалась как универсальная национальная платформа. Она может одновременно обслуживать до 128 разных сетей — от телемедицины и промышленной автоматизации до задач обработки данных в реальном времени.


Future Network — часть долгосрочной стратегии «Восточные данные — западные вычисления», запущенной ещё в 2013 году. Проект подчёркивает системный подход Китая к развитию ИИ-инфраструктуры и технологического суверенитета. Впереди — вопросы устойчивости, энергопотребления и безопасности, но уже сейчас этот запуск меняет представление о том, как может выглядеть вычислительная мощь будущего.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Умная камера «Яндекса» теперь понимает, что происходит в кадре — не просто движение, а события

«Яндекс» добавил ИИ в свою умную IP-камеру: теперь она не просто фиксирует движение, а описывает, что именно произошло. Вместо уведомления «обнаружено движение» пользователь получает конкретику — например, «дети пришли домой» или «в кадре появился кот».

🔍За это отвечает Alice AI VLM — визуально-языковая модель «Яндекса», которая анализирует изображение и интерпретирует происходящее. Та же технология уже используется в чате с «Алисой», а теперь работает прямо внутри камеры.

Главное новшество — гибкие сценарии умного дома, которые можно задавать обычными словами. Пользователь может написать: «собака грызёт диван» или «кот запрыгнул на стол» — и привязать к этому автоматическое действие: включить свет, отправить фото, запустить другое устройство. Камера реагирует не на абстрактные сигналы, а на смысл события.

👀 Дополнительно ИИ:

🟢делает детализированные текстовые описания для каждого события в архиве;

🟢раз в сутки формирует краткую «сводку дня» — кто и что происходило в кадре;

🟢помогает быстрее находить нужные моменты без просмотра видео.

ИИ-функции доступны по подписке «Стандарт» и «Экстра» (первый месяц — бесплатно), при этом часть ранее платных возможностей теперь открыта всем пользователям. В итоге камера из датчика движения превращается в полноценного «наблюдателя», который понимает контекст происходящего дома.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
📊 Врачи активно используют ИИ, но недовольны его внедрением — и вот почему

В США сложился любопытный парадокс: по данным опроса Offcall, 67% врачей используют ИИ каждый день, 84% считают, что он реально улучшает их работу — и при этом 81% недовольны тем, как ИИ внедряется в их организациях. Проблема не в технологии, а в управлении ею.

🟢Главный источник фрустрации — отсутствие влияния. 71% врачей говорят, что не участвуют в выборе ИИ-инструментов: решения принимают администраторы, а сами инструменты «просто появляются» в электронных медкартах, без объяснений и нормального обучения. Неудивительно, что почти половина врачей оценивает коммуникацию по внедрению ИИ на минимальные 1–2 балла из 5.

🟢Интересно и то, чего врачи действительно хотят от ИИ. Это не «супердиагностика», а избавление от рутины: автоматическое документирование приёмов, сокращение бумажной и административной нагрузки. Клинические подсказки — лишь на третьем месте. ИИ для них — способ вернуть время пациентам, а не еще один сложный инструмент.

🟢Пока клиники буксуют, врачи действуют самостоятельно: покупают ИИ-сервисы за свой счёт. В ход идут десятки инструментов — от OpenEvidence и ChatGPT до нишевых решений для документации. При этом почти 90% считают, что за ИИ должен платить работодатель.

И всё же тон отчёта оптимистичный. Врачи не боятся, что ИИ заменит их: наоборот, многие верят, что именно он поможет удержаться в профессии. Ключевая мысль проста — медики не против ИИ, они против потери контроля над тем, как и зачем он используется.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Андрей Карпати проверил прогнозы Hacker News 2015 года с помощью GPT-5.1

Андрей Карпати запустил проект HN Time Capsule — эксперимент, в котором GPT-5.1 Thinking анализирует, насколько точными оказались IT-прогнозы десятилетней давности. В качестве данных он взял 930 топ-постов Hacker News за декабрь 2015 года и попросил модель оценить их с позиции 2025-го.

🟢Для каждого поста ИИ делает краткий пересказ статьи и дискуссии, сопоставляет их с тем, что произошло за 10 лет, а затем раздает «награды»: самый пророческий комментарий и самый ошибочный. Дополнительно модель выставляет оценки участникам обсуждений — от A+ до F. На основе этого Карпати собрал своего рода «зал славы» самых дальновидных комментаторов HN.

🟢Примеры удачных прогнозов выглядят показательно. Один из пользователей еще в 2015 году указывал на слабую безопасность Telegram по сравнению с Signal — и оказался прав. Другой точно предсказал крах Theranos задолго до официального финала истории. Были и технологические попадания: прогноз о том, что JavaScript останется главным языком фронтенда, а WebAssembly займет нишу высокопроизводительных задач.

Сам проект Карпати написал за три часа с помощью Claude, а анализ всех постов через API OpenAI обошелся всего в $58. Главный вывод он сформулировал философски: «Будьте аккуратны в своих словах — будущие LLM будут смотреть». Когда интеллект станет дешевым и массовым, всё написанное сегодня легко превратится в объект детального анализа завтра.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 «Великая коррекция AI-хайпа»: почему 2025 стал годом отрезвления

MIT Technology Review называет 2025-й годом «великой коррекции» в ИИ. После взрывного эффекта ChatGPT индустрия жила ожиданием непрерывных прорывов, но реальность оказалась скромнее: громкие релизы перестали ощущаться как революции, а обещанный экспоненциальный рост — как нечто само собой разумеющееся.

🟢Символом перелома стал выход GPT-5. Его долго подавали как «PhD-эксперта во всём», но реакция рынка свелась к формуле «чуть лучше, но всё то же самое». Исследователи все чаще говорят, что мы вошли в фазу зрелых продуктов, а не скачков — «эру Samsung Galaxy» для LLM.

🟢Цифры усиливают скепсис: по данным MIT, 95% компаний не смогли получить измеримую пользу от внедрения AI — проекты застревают на пилотах. При этом внутри организаций процветает «теневая экономика ИИ»: сотрудники массово пользуются чат-ботами через личные аккаунты, просто без официальной стратегии и эффекта масштаба.

👀 Даже создатели технологии признают ограничения. Илья Суцкевер отмечает, что современные LLM плохо обобщают знания и не учатся принципам так, как люди. Это мощный инструмент, но не путь к AGI в его классическом понимании.


При этом авторы статьи предостерегают от чрезмерного пессимизма. Хайп действительно скорректировался, но исследования продолжаются, инвестиции и таланты никуда не исчезли. Как формулирует Суцкевер, «мы снова в эре исследований» — и это не шаг назад, а начало более трезвого и практичного этапа развития ИИ.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Бесплатные расширения для браузеров тайно собирают ваши диалоги с ИИ

Компания Koi обнаружила популярные расширения для Chrome и Edge с суммарно более чем 8 млн установок, которые перехватывают и копируют полные диалоги пользователей с ИИ-чатами — от ChatGPT и Claude до Gemini, Copilot и Perplexity — и передают их разработчикам для «маркетинговой аналитики».

🟢Речь идёт о расширениях, которые позиционируются как VPN или блокировщики рекламы и даже имеют статус «Рекомендованных» в магазинах Google и Microsoft. Под капотом они внедряют специальные скрипты прямо в страницы ИИ-сервисов, обходят стандартные API браузера и получают доступ ко всему содержимому переписки: запросам, ответам, временным меткам, идентификаторам сессий и используемым моделям.

🟢По словам технического директора Koi, расширения «видят переписку в необработанном виде» — включая медицинские вопросы, финансовые данные, личные проблемы и фрагменты кода — и отправляют копию на свои серверы. При этом сбор данных работает независимо от заявленных функций VPN или блокировки рекламы.

🟢Особенно тревожно выглядит несоответствие заявлений: например, Urban VPN Proxy рекламирует «защиту от ИИ», но фактически анализирует и копирует запросы и ответы чатов. В политике конфиденциальности формально указано, что данные не передаются третьим лицам вне «основной функциональности», однако сбор переписки там всё же допускается.

История ещё раз показывает: бесплатные «защитные» расширения могут быть самым слабым звеном в цепочке приватности. Если вы общаетесь с ИИ о чувствительных вещах, стоит внимательно пересмотреть установленные дополнения — иногда за VPN и ad-block скрывается совсем другая бизнес-модель.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1
🕯 VS Code делает шаг к более умной автоматизации

В версии VS Code Insiders появилась поддержка Agent Skills — открытого протокола от Anthropic. Это не просто кастомные инструкции, а полноценные модули с инструкциями, скриптами и ресурсами, которые подгружаются динамически и только при необходимости.

👀 Что это даёт:

🟢Один скилл — везде: работает и в редакторе, и в CLI, и с разными ИИ-агентами

🟢Автоматизация рутины: генерация шаблонов, проверки кода, интеграции с API

🟢Кросс-платформенность и переиспользование — меньше ручной настройки, меньше ошибок

🟢Особенно полезно для команд и больших проектов, где важны стандарты

Microsoft явно двигается в сторону экосистемы, где ИИ-инструменты легко комбинируются между собой — от VS Code до Copilot и сторонних агентов.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Google представила T5Gemma 2 — мультимодальную модель с контекстом до 128 000 токенов

Google выпустила T5Gemma 2 — обновлённую версию своей T5-модели, ориентированную на длинный контекст и мультимодальные задачи. Модель умеет работать с текстом и изображениями, поддерживает 140 языков и рассчитана на обработку действительно больших документов и сложных входных данных.

🟢Ключевые изменения — объединённые механизмы self-attention и cross-attention и общие (tied) embeddings для энкодера и декодера. Это снижает потребление памяти и ускоряет работу на длинных последовательностях. Контекст — до 128 000 токенов.

🟢T5Gemma 2 доступна в трёх размерах: 270 млн, 1 млрд и 4 млрд параметров — от исследований до продакшена. В тестах модель обошла предыдущую Gemma 3 в задачах на длинный контекст, кодинг и мультимодальное понимание.

Модель уже выложена на Hugging Face и Kaggle. Релиз хорошо показывает общий тренд индустрии: меньше «вау-хайпа», больше практики — длинный контекст, эффективность и мультимодальность для реальных задач.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 OpenAI выпустила GPT-5.2-Codex

OpenAI анонсировала GPT-5.2-Codex — новую версию Codex, ориентированную не на «помощь с кодом», а на работу с большими продакшн-проектами. Компания называет её самым продвинутым инструментом для разработки ПО на сегодня.

🟢Ключевое обновление — нативное сжатие контекста. Модель может работать с крупными кодовыми базами, не теряя архитектурную связность и логику проекта. Codex умеет делать глубокий рефакторинг репозиториев: перестраивать модули, функции и структуру приложения без «разваливания» системы.

🟢Важная особенность — интеграция с Windows-терминалом. Через модель можно запускать команды, управлять проектами и взаимодействовать с системными инструментами, что приближает её к роли полноценного инженерного ассистента, а не просто чат-бота.

🟢Отдельный фокус — безопасность кода. GPT-5.2-Codex анализирует уязвимости, находит небезопасные практики и предлагает исправления — критично для корпоративных и open-source проектов.

Модель уже доступна платным пользователям ChatGPT, API обещают открыть в ближайшие недели. В OpenAI подчёркивают: Codex не заменяет инженеров, а снимает рутину и ускоряет цикл разработки. Конкуренция с Copilot и другими code-LLM выходит на новый уровень.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Claude Code научили управлять Chrome — и это действительно опасно

Anthropic запустила пилот Claude in Chrome — расширение, где ИИ не просто «читает веб», а видит DOM, анализирует консоль, кликает кнопки и выполняет действия за пользователя. Причём теперь браузерный агент умеет работать в связке с Claude Code из CLI, превращаясь почти в автономного веб-исполнителя.

Но главное в анонсе — не возможности, а безопасность. Anthropic прямо показывает, почему browser-агенты без защиты выпускать нельзя.

Во внутреннем red-teaming без mitigations 23,6% prompt-injection атак срабатывали. Типичный сценарий — фишинговое письмо под видом «security notice», которое убеждало агента удалить всю почту пользователя.

⚡️ После внедрения защит:

🟢успешные атаки снизились до 11,2%

🟢в браузер-специфичных атаках (инструкции в DOM, noscript, URL) — с 35,7% до 0%

🔍 Что добавили:

🟢доступ по доменам (site-level permissions)

🟢подтверждения действий для покупок, публикаций и шаринга данных

🟢жёсткие блоклисты (финансы, пиратка, adult)

🟢обновлённые system prompts + классификаторы, ищущие скрытые инструкции даже в «обычном» контенте

👀 Важно: все тесты проводились в автономном режиме, то есть в худшем возможном сценарии. И даже так новая защита оказалась заметно надёжнее старого Computer Use, где модель просто «смотрела на экран».


Вывод простой: браузерные ИИ-агенты — это мощно, но без продуманной security-архитектуры они превращаются в идеальный вектор атаки. Anthropic это, похоже, понимает лучше многих.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
📌 CEO Stack Overflow: ChatGPT стал экзистенциальной угрозой для платформы

Генеральный директор Stack Overflow Прашант Чандрасекар в интервью The Verge признал: появление ChatGPT стало для компании «экзистенциальным моментом».

🟢Генеративный ИИ ударил по самой сути сервиса вопросов и ответов — разработчики всё чаще ищут решения у ИИ, а не у сообщества. Дополнительно ситуацию усугубил наплыв машинно сгенерированных ответов, снизивших качество контента.

🟢Реакция была быстрой: около 10% команды переключили на антикризисные задачи и пересборку стратегии. Stack Overflow начал трансформацию из классического сообщества в корпоративный SaaS-бизнес — с ИИ-решениями для компаний и лицензированием данных сообщества для разработчиков ИИ-инструментов.

🟢При этом Чандрасекар уверен: люди платформе всё ещё нужны. ИИ хорошо решает типовые задачи, но в сложных, спорных и контекстных вопросах разработчикам важно обсуждение с живыми экспертами.

👀 Ключевой парадокс эпохи ИИ, по его словам, — разрыв между использованием и доверием: более 80% пользователей Stack Overflow уже применяют ИИ, но доверяют ему лишь 29%. Будущее индустрии зависит от того, удастся ли встроить ИИ так, чтобы он дополнял человеческий опыт, а не вытеснял его.


Контекст жёсткий: к апрелю 2025 года трафик Stack Overflow упал на 64% год к году. Это не конец платформы — но точно конец старой модели.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ CEO Uber: ИИ не сокращает инженеров — он делает их «сверхлюдьми»

Гендиректор Uber Дара Хосровшахи рассказал, что внедрение ИИ привело компанию не к сокращению штата, а наоборот — к найму большего числа инженеров. Причина проста: ИИ резко повышает ценность каждого разработчика.

🟢По его словам, современные модели ИИ приносят Uber сотни миллионов долларов выгоды и уже «окупили себя с лихвой». Причём речь не о футуристических технологиях, а о максимально прикладных вещах — от динамического ценообразования и маршрутизации до того, какие товары пользователь увидит в Uber Eats после выбора овсяного молока.

🟢Сегодня 80–90% инженеров Uber используют ИИ-инструменты. Агентные системы круглосуточно мониторят инфраструктуру, находят сбои и помогают с диагностикой — то, на что раньше уходили часы и десятки людей. Теперь человек скорее наблюдает и принимает решения, чем вручную ищет проблему.

🟢Хосровшахи подчёркивает: многие компании видят рост продуктивности на 20–30% и думают, что им нужно на столько же меньше инженеров. Uber делает противоположный вывод:

🔍 «Я считаю, что инженеры становятся сверхлюдьми. Поэтому мы нанимаем больше — каждый из них стал для меня гораздо ценнее».


Хороший пример того, как ИИ может усиливать людей, а не вытеснять их.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Альтман пообещал новую GPT в Q1 2026 — Google уже готовит ответ

Сэм Альтман в Big Technology Podcast подтвердил: новая версия GPT выйдет в первом квартале 2026 года. Речь, скорее всего, о GPT-5.3 или GPT-5.5 — модель «настолько мощную, чтобы назвать её GPT-6», он пока не готов анонсировать.

🟢Ключевой тезис Альтмана — для массовых пользователей важнее не рост абстрактного «IQ», а ощущаемые продуктовые улучшения: стабильность, предсказуемость и польза в повседневных сценариях. В бизнес-сегменте всё иначе: там рост интеллектуальных возможностей по-прежнему напрямую конвертируется в ценность — в коде, аналитике и управлении процессами.

🟢Контекст важен. По данным The Information, GPT-5.2 — это не финал проекта Garlic, а ускоренный релиз из-за давления со стороны Gemini 3 Pro. В OpenAI были впечатлены прогрессом Google в раннем обучении моделей и решили быстрее сокращать разрыв.

👀 И Google не стоит на месте: инженер DeepMind Кристиан Гарсиа подтвердил, что обновлённая Gemini 3 Pro уже в разработке и появится в ближайшие месяцы — сценарий, знакомый по эволюции Gemini 2.5 Pro.


Гонка больших моделей продолжается — но фокус всё больше смещается от «кто умнее» к «кто полезнее в реальной жизни».

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32
🔍 Google представила FunctionGemma — ИИ, который управляет смартфоном

Google выпустила FunctionGemma — специализированную версию компактной модели Gemma 3 270M, заточенную под function calling. Это значит, что ИИ теперь не просто отвечает текстом, а превращает команды на естественном языке в реальные действия: создать событие в календаре, управлять элементами игры или вызывать системные функции.

Главное преимущество — локальная работа на смартфоне. Благодаря небольшому размеру модель запускается прямо на устройстве, снижая задержки и повышая приватность. По данным Google, дополнительное обучение повышает надёжность распознавания команд с 58% до 85%.

👀 FunctionGemma может работать в двух режимах:

🟢как офлайн-агент, выполняя простые действия на устройстве;

🟢как маршрутизатор, обрабатывая базовые команды локально, а сложные — отправляя более крупным моделям (например, Gemma 3 27B).

Уже сейчас можно протестировать демо в AI Edge Gallery — мини-игру и физические головоломки, где ИИ управляет процессом через обычные текстовые инструкции.

Контекст релиза понятен: ИИ всё чаще нужен не как чат-бот, а как агент управления — особенно на мобильных устройствах, где важны скорость, автономность и конфиденциальность. FunctionGemma — шаг именно в эту сторону.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Microsoft: ИИ-агенты в Windows будут спрашивать разрешение на доступ к файлам

Microsoft прояснила один из самых чувствительных моментов вокруг ИИ-агентов в Windows 10 и 11. Компания подтвердила: никакого автоматического доступа к личным файлам не будет — ИИ обязан запрашивать согласие пользователя.

Под защиту попадают шесть стандартных папок: Рабочий стол, Документы, Загрузки, Музыка, Изображения и Видео. Ранее формулировки в документации выглядели так, будто агенты смогут читать файлы напрямую, что вызвало обеспокоенность у специалистов по безопасности. Теперь Microsoft официально это опровергла и обновила документацию.

🕯 Доступ будет настраиваться для каждого агента отдельно — Researcher, Analyst и Copilot. При запросе появится системное окно с вариантами:

🟢«Разрешать всегда»

🟢«Спрашивать каждый раз»

🟢«Не сейчас» (в будущем — «Никогда не разрешать»)

🤖 Новая модель разрешений уже доступна в Windows 11 24H2 (сборка 26100.7344) и 25H2 (26200.7344).


По сути, Microsoft делает ИИ-агентов ближе к модели мобильных ОС: явное согласие, контроль и прозрачность. Без этого запускать ИИ, который работает с личными данными, было бы просто невозможно.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
📌 Google откладывает полную замену Google Assistant на Gemini

Google пересмотрела сроки перехода с классического Google Assistant на ИИ-ассистента Gemini на Android. Теперь компания планирует завершить миграцию в течение 2026 года, хотя ранее обещала закончить процесс до конца 2025-го.

🟢Причина — желание сделать переход более плавным. После завершения миграции пользователи устройств, которые соответствуют минимальным требованиям Gemini, больше не смогут пользоваться Google Assistant и не смогут скачать его приложение отдельно.

🟢При этом Gemini уже активно заменяет Assistant в других экосистемах Google: Wear OS, Android Auto, Nest и Google Home. В 2025 году Google также расширила возможности Gemini на Android — теперь через него можно звонить, ставить таймеры и отправлять сообщения без включённой “Активности приложений Gemini”, то есть без передачи запросов для обучения ИИ.

Фактически Google движется к полному отказу от старого ассистента, но делает это осторожнее, чем планировала изначально. Похоже, Gemini становится новым стандартом, но пользователям и экосистеме нужно больше времени, чтобы к этому привыкнуть.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🖥 Китай показал оптический ИИ-чип, который генерирует изображения в 100 раз быстрее Nvidia A100

Исследователи из Шанхайского университета Цзяо Тун и Университета Цинхуа представили LightGen — первый полностью оптический чип для генеративного ИИ. В нём вычисления выполняются не электронами, а фотонами, и без единого преобразования сигнала в электричество от входа до выхода.

LightGen умеет генерировать изображения 512×512, делать денойзинг, стилизацию и даже создавать 3D-сцены. Весь цикл — от «понимания» изображения до генерации — происходит исключительно в оптическом домене. По сути, свет сам «обрабатывает смысл» картинки.

❗️ Ключевые цифры впечатляют:

🟢35 700 TOPS производительности

🟢664 TOPS/Вт энергоэффективности

Это примерно на два порядка выше, чем у Nvidia A100. При этом качество сравнимо со Stable Diffusion, StyleGAN и NeRF на аналогичных задачах.

📊 Прорыв обеспечили:

🟢оптическое латентное пространство без перехода в электронику

🟢новый метод обучения BOGT, не требующий разметки данных

🟢сверхплотная интеграция фотонных нейронов (2,1 млн на чипе)

👀 Важно: LightGen — не универсальный GPU. Это специализированный ускоритель для инференса, а не обучения моделей. Зато у оптики огромный потенциал масштабирования, возможность производства на старых техпроцессах и радикально лучшая энергоэффективность.


Если такие чипы удастся довести до промышленного масштаба, экономика генеративного ИИ может измениться радикально — особенно в дата-центрах и edge-устройствах.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥1
👀 В США в 2025 году официально сократили 55 000 рабочих мест из-за ИИ

По данным Challenger, Gray & Christmas, в 2025 году американские компании официально связали почти 55 тысяч увольнений с внедрением ИИ. Всего за год было объявлено о 1,17 млн сокращений — максимум со времён пандемии.

🕯 Крупные игроки прямо называют ИИ причиной оптимизации:

🟢Amazon — минус 14 000 корпоративных позиций

🟢Microsoft — около 15 000 сокращений

🟢Salesforce — ИИ заменил ~4 000 сотрудников поддержки

🟢IBM — чат-боты взяли на себя работу сотен HR-специалистов

🟢CrowdStrike, Workday — увольнения ради инвестиций в ИИ

При этом MIT оценивает, что ИИ уже способен выполнять 11,7% работы на рынке труда США, потенциально экономя до $1,2 трлн на зарплатах.

Но есть нюанс. Исследователи отмечают, что ИИ часто становится удобным оправданием: многие компании сильно раздули штат во время пандемии, а теперь просто корректируют найм, списывая это на «автоматизацию».

🔍 Важно и другое: сокращения идут параллельно с ростом найма в новых ролях — инженеры, продажи, маркетинг, управление ИИ-системами. Как показывают данные, это не просто волна увольнений, а пересборка рабочей силы под ИИ-стратегии.


ИИ не «забирает все работы» — он меняет структуру рынка, и этот процесс только начинается.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Танцующие роботы Unitree: за 11 месяцев — от шоу к акробатике

Видео с синхронным танцем гуманоидов Unitree G1 взорвало соцсети: шесть роботов выступили бэк-танцорами на концерте Ван Лихуна в Чэнду перед 18 000 зрителей. В финале — синхронные сальто и точное приземление на сцене. Даже Илон Маск написал: Impressive.

🟢Контраст особенно заметен, если вспомнить январь: тогда 16 роботов старшей модели H1 исполняли плавный народный танец на Празднике весны. Спустя 11 месяцев младшая модель G1 показывает резкие ускорения, прыжки и акробатику — совсем другой уровень динамики и контроля.

🟢G1 — компактный гуманоид (1,27 м, 35 кг), до 43 степеней свободы, лидар и камеры глубины для ориентации и синхронизации. Цена — от $16 000, что делает его одним из самых доступных гуманоидов на рынке.

Важно и то, что это не лаборатория: живая сцена, люди рядом и высокая цена ошибки. Эксперты отмечают — китайские гуманоиды выходят из демо-зон к реальным применениям. Пока это шоу, но прогресс за год выглядит впечатляюще.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 OpenAI признала: AI-браузеры никогда не будут полностью безопасны

OpenAI выпустила исследование, где прямо заявила: проблему prompt injection в агентных браузерах, скорее всего, невозможно решить окончательно. Речь об атаках, при которых вредоносные инструкции прячут в письмах, документах или веб-страницах — и ИИ принимает их за команды пользователя.

🟢Компания признаёт, что агентный режим браузера ChatGPT Atlas расширяет поверхность атак. Причина архитектурная: LLM не различают «данные» и «инструкции» — для модели это просто текст. В результате несколько слов в Google Docs или письме могут изменить поведение ИИ-агента, вплоть до утечек данных или выполнения вредоносных действий.

🟢Похожее предупреждение недавно сделал и британский NCSC: prompt injection может оказаться опаснее SQL-инъекций и привести к волне утечек, превосходящей масштабы 2010-х.

🟢Ответ OpenAI — не «серебряная пуля», а вечная гонка вооружений. Компания создала автоматического атакующего на базе LLM, который сам ищет уязвимости, эволюционирует атаки и находит сценарии, пропущенные ручным тестированием.

📌 Эксперты формулируют риск просто: риск = автономия × доступ. Именно здесь AI-браузеры в самой опасной зоне — у них высокий доступ к почте, документам и платежам при растущей автономии.


Вывод OpenAI прагматичен: давать агентам минимальные права, формулировать задачи максимально конкретно и помнить — полной безопасности у AI-браузеров не будет.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM