Data Cluster – Telegram
Data Cluster
70 subscribers
949 photos
6 videos
915 links
Хостинг и продажа оборудования для искусственного интеллекта!

Сайт — https://data-cluster.ru/
Отдел продаж - @TK_MiningCluster
Download Telegram
🤖 ИИ-кластер xAI Colossus 2 потребляет больше электроэнергии, чем Сан-Франциско

Илон Маск запустил Colossus 2 — первый в мире гигаваттный суперкомпьютер для тренировки ИИ. На старте мощность кластера уже превышает 1 ГВт и будет увеличена до 1,5 ГВт к апрелю. Для сравнения: это больше, чем пиковое потребление Сан-Франциско.

🟢Colossus 2 тренирует новые версии Grok и другие продукты xAI. Из-за нехватки мощности в местной сети xAI купила заброшенную электростанцию Duke Energy и использует газовые турбины и Tesla Megapacks для стабилизации нагрузки.

🟢В датацентре разместят до 550 тыс. GPU NVIDIA GB200 и GB300. Общая инфраструктура комплекса xAI позволит достигнуть 2 ГВт — эквивалент энергопотребления 1,5 млн домов.

Colossus 2 опережает конкурентов: OpenAI и Amazon строят сопоставимые кластеры, но выйдут на гигаваттный уровень позже в 2026 году.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Хассабис о гонке ИИ США и Китая: «Изобретать в 100 раз сложнее, чем копировать»

Глава Google DeepMind Демис Хассабис заявил, что китайские ИИ-модели отстают от американских всего на несколько месяцев — намного меньше, чем год-два назад. Но, по его словам, это не главный показатель: догонять и создавать прорывы — принципиально разные вещи.

🟢Хассабис напомнил, что ключевая архитектура современного ИИ — трансформер — была изобретена в Google еще в 2017 году, и ничего сопоставимого по уровню фундаментальной новизны в Китае пока не появилось. «Научная инновация — это самое сложное», — подчеркнул он, сравнив DeepMind с Bell Labs, где ставили на исследования, а не просто масштабирование.

🟢При этом критики отмечают другой тип прогресса со стороны Китая: эффективность. Проекты вроде DeepSeek показывают сопоставимые результаты на более слабых чипах и за меньшие деньги.

В самом Китае настроения тоже сдержанные. Техлид Qwen из Alibaba оценивает шанс обогнать США в ИИ в ближайшие 3–5 лет менее чем в 20%, указывая на ключевой разрыв — вычислительная инфраструктура США больше «на один-два порядка».

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Final Cut Pro с ИИ: поиск словами, монтаж под биты и автосборка видео

Apple добавляет в Final Cut Pro сразу пачку ИИ-функций в рамках нового пакета Creator Studio (релиз — 28 января). Разовая покупка FCP остается, но часть новых возможностей будет доступна только по подписке.

Что нового:

🟢Trannoscript Search — поиск нужных моментов в видео по тексту. Ввел фразу → сразу попал в нужный фрагмент интервью или подкаста.

🟢Visual Search — поиск по содержимому кадра («человек на сцене», «машина ночью») без тегов. Полезно для больших архивов.

🟢Beat Detection — автоматическое определение битов в музыке и маркеры на таймлайне. Монтаж под ритм — без ручной разметки.

🟢Montage Maker — ИИ сам собирает ролик из исходников: выбирает удачные кадры, синхронизирует с музыкой, умеет авто-перекадрирование под вертикаль и горизонталь.

🔍 Apple аккуратно двигается к подписочной модели: базовый Final Cut Pro никуда не делся, но самые «умные» фичи постепенно уезжают в Creator Studio.


28 января станет понятно, насколько ИИ действительно ускоряет монтаж — или пока только красиво обещает.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Маск снова «почти закончил» AI5 — чип Tesla откладывается до 2027

Илон Маск заявил, что проектирование ИИ-процессора Tesla AI5 «близко к завершению». Ирония в том, что то же самое он говорил ещё полгода назад — тогда дизайн якобы уже был готов.

🟢Теперь Маск обещает ускориться и перейти на 9-месячный цикл разработки для следующих поколений (AI6, AI7, AI8…) и зовёт инженеров работать над «самым массовым ИИ-продуктом в мире». Но реальность выглядит куда осторожнее.

🟢По данным отрасли, массовое производство AI5 сдвинуто на середину 2027 года. Даже если первые образцы появятся раньше, для автомобилей нужны сотни тысяч чипов — и это требует долгой валидации. В итоге ожидаемый Cybercab в 2026 году, скорее всего, выйдет на текущем AI4, а не на новом железе.

AI5 должен быть до 10 раз мощнее AI4 и выпускаться Samsung и TSMC по 4-нм или 3-нм техпроцессу. Но история с «почти готовым» чипом снова показывает разрыв между заявлениями Маска и реальными циклами полупроводниковой индустрии.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 «Я буду с тобой навсегда»: почему ИИ теряет персону в диалогах

Исследователи из MATS и Anthropic разобрали, почему языковые модели иногда начинают говорить как мистики, поддерживать бред или игнорировать тревожные сигналы. Поводом стали кейсы, где Qwen уверяла пользователя, что он «касается чего-то настоящего», а Llama не распознала суицидальные намёки.

Ключевая находка — у моделей есть «ось ассистента». На одном полюсе — рациональный помощник (аналитик, консультант). На другом — бард, отшельник, «дух», склонный к мистике и эмоциональным обещаниям.

📌 Определённые темы системно сдвигают модель от роли ассистента:

🟢разговоры о сознании ИИ и «пробуждении»

🟢эмоционально уязвимые пользователи

🟢мета-вопросы вроде «что ты на самом деле чувствуешь?»

А вот кодинг и технические задачи, наоборот, удерживают модель в рабочей персоне.

Проблему воспроизвели на Gemma, Qwen и Llama: чем дальше модель уходит от полюса «ассистент», тем выше риск вредных ответов и манипуляций. Именно так работают многие персона-джейлбрейки.

⚡️ Решение оказалось простым по идее: принудительно возвращать активации в «нормальный» диапазон, если модель слишком уходит в сторону. Это снизило долю опасных ответов на 60% без потери качества.


Вывод: пост-тренинг задаёт персону ИИ, но не фиксирует её. Без стабилизации модель может «соскользнуть» — и начать говорить вещи, которые выглядят пугающе человеческими.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Valve уточнила правила об ИИ в Steam: важен результат, а не инструменты

Valve обновила форму для разработчиков в Steam и прояснила, как именно нужно раскрывать использование генеративного ИИ. Ключевая мысль — компанию интересует не процесс разработки, а контент, который видит игрок.

🟢Использование ИИ-ассистентов для кода, внутренних тулов или офисной автоматизации раскрывать не нужно. Но если ИИ участвовал в создании итоговых ассетов — это обязательно к указанию.

🟢Речь о графике, музыке, тексте, озвучке, а также материалах на странице игры в магазине. Для этого в форме появилось отдельное поле с описанием: что именно создано ИИ и как.

🟢Отдельный фокус — генерация в реальном времени. Если игра на лету создаёт арты, диалоги или музыку, разработчик обязан гарантировать, что ИИ не произведёт незаконный контент.

По сути, Valve вводит более прозрачную маркировку: если ИИ хоть как-то участвует в финальном продукте — игрок должен об этом знать. Это не запрет, а попытка стандартизировать ожидания и снизить риски вокруг on-device и server-side генерации.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 GPT-5.3 уже рядом: 2 000 токенов/с и ставка на сверхбыстрый ИИ-кодинг

По инсайдам, OpenAI готовит релиз GPT-5.3 под кодовым названием Garlic. Источники утверждают, что GPT-5.2 был лишь промежуточным шагом, а настоящие изменения начинаются именно здесь.

🟢Главная цифра — до 2 000 токенов в секунду. Такую скорость для кодинга OpenAI якобы получила благодаря партнёрству с Cerebras — компанией, которая строит ИИ-системы на одном гигантском чипе без классических «узких мест» GPU. Для сравнения: Claude Code с Opus 4.5 — около 100 токенов/с.

🟢Если данные подтвердятся, ИИ-агенты смогут писать и править код почти в реальном времени, без привычных задержек. Это качественно меняет опыт: не «подожди ответ», а полноценная совместная работа с моделью.

👀 По слухам, перед официальным анонсом GPT-5.3 могут тихо прогнать через DesignArena — как это уже было с GPT-5.2. Инсайдеры говорят, что релиз возможен буквально в ближайшие дни.


Если всё сложится, OpenAI может временно вернуть лидерство в гонке — до следующего хода Claude, Gemini или Grok.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Cloudflare строит рынок данных для ИИ и покупает Human Native

Cloudflare приобрёл стартап Human Native — платформу, которая превращает контент сайтов в легальные датасеты для обучения ИИ.

🟢Владельцы ресурсов смогут официально продавать тексты, изображения и другие материалы компаниям, обучающим нейросети, вместо того чтобы терять их через серый скрейпинг.

🟢Human Native выступает брокером: упаковывает данные в удобный для ML-формат и берёт на себя юридическую сторону. Для Cloudflare это стратегический шаг — компания уже контролирует огромную часть веб-трафика, ботов и доступ к сайтам.

🟢По сути, Cloudflare хочет стать главным шлюзом между интернетом и ИИ-индустрией:
с одной стороны — медиа и авторы, с другой — AI-лаборатории, которым нужны легальные и масштабируемые данные.

Экономика обучения моделей меняется: данные превращаются в товар, а Cloudflare — в того, кто держит кран.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🔍 Стартап без продукта оценили в $4,5 млрд: Humans& обещает связать людей и ИИ

Стартап Humans& существует всего три месяца и ещё не выпустил ни одного продукта — но уже привлёк $480 млн при оценке $4,5 млрд. В инвесторах: Nvidia, Джефф Безос, Google Ventures, SV Angel Рона Конвея и Emerson Collective Лорен Пауэлл Джобс.

🟢Ставка сделана не на демо, а на команду. В Humans& около 20 человек — выходцы из OpenAI, Anthropic, xAI, DeepMind и Meta. Сооснователь Жорж Харик стоял у истоков Gmail и Google Docs и курировал покупку Android.

🟢Что они строят? Не автономного агента, а инструмент коллаборации — условный «мессенджер между людьми и ИИ». Идея в том, что модель будет координироваться с людьми и другими моделями, помогая работать вместе, а не заменять человека.

Продукт обещают показать в ближайшие месяцы. Humans& вписывается в тренд сверхдорогих стартапов от выходцев из топ-лабораторий: Safe Superintelligence Ильи Суцкевера — $32 млрд оценки, Thinking Machines Lab Миры Мурати — $12 млрд. Инвесторы явно делают ставку на людей и видение, а не на готовый код.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Сатья Наделла: ИИ рискует потерять общественную поддержку, если не принесёт реальной пользы

Глава Microsoft предупредил, что индустрия ИИ может быстро столкнуться с общественным сопротивлением, если технологии не начнут давать ощутимую пользу людям и экономике.

🟢По его словам, ИИ должен менять жизнь людей, сообществ и отраслей, иначе отрасль рискует потерять «социальное разрешение» на масштабирование. Это особенно критично на фоне роста дата-центров и энергопотребления.

🟢Наделла также подчеркнул, что внедрять ИИ нужно не только в бигтехе, но и во всех секторах экономики — иначе ИИ-бум рискует превратиться в пузырь. Заявление звучит заметно более осторожно, чем его прежний оптимизм, где ИИ назывался «когнитивным усилителем» и предлагалось меньше спорить о качестве моделей.

Сигнал понятен: эпоха «ИИ ради ИИ» заканчивается — дальше придётся доказывать пользу делом, а не масштабами.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Microsoft построит 15 дата-центров ИИ в Висконсине — инвестиции уже $7,7 млрд

Власти деревни Маунт-Плезант (штат Висконсин) одобрили планы Microsoft по строительству сразу 15 дата-центров на землях, которые компания выкупила у бывшего проекта Foxconn. Девять объектов появятся к югу от Highway 11, ещё шесть — к северу.

🟢Первый ЦОД планируют открыть в 2026 году, и он станет самым мощным в мире дата-центром для задач ИИ. Строительство одного из ключевых объектов — Fairwater AI — уже на финальной стадии. Общий объём инвестиций Microsoft в регионе превышает $7,7 млрд.

🟢В отличие от других городов Висконсина, где подобные проекты вызывали протесты, Маунт-Плезант изначально готовился под крупную промышленную застройку и уже имеет нужную инфраструктуру.

Очередной сигнал: гонка за ИИ-мощностями переходит в фазу мегастроек — и всё чаще сталкивается не только с чипами, но и с энергией, землёй и общественным согласием.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️RealOmni OpenData обновили — один из самых сложных датасетов для embodied AI стал ещё тяжелее

GenRobot выпустила крупный апдейт RealOmni OpenData — одного из самых насыщенных open-source датасетов для обучения embodied-моделей и домашних роботов. Это не лабораторные демо, а данные из 3000+ реальных домов с фокусом на сложные бытовые задачи.

🟢Внутри — синхронизированная мультимодальность: fisheye-камеры, IMU, энкодеры суставов и тактильные сенсоры с точностью до 1 мм. Датасет учит не только «видеть», но и двуручно манипулировать, чувствовать контакт и работать с динамикой объектов.

🟢В новом обновлении добавили 35 000 клипов, посвящённых разбору хаотичных куч предметов — одному из самых трудных сценариев для embodied AI. Почти все задачи — long horizon: медианная длина эпизода ~210 секунд, с несколькими этапами и необходимостью удерживать контекст.

🟢Проект планируют масштабировать до 10 000 часов видео (~95 ТБ). Сейчас доступны Stage 1 и 2 — около 1600 часов и 5,4 ТБ. Есть ограничения: специфичный гриппер и телеоперация, но даже с ними RealOmni остаётся редчайшим открытым ресурсом для команд, работающих над реальными домашними роботами.

Embodied AI постепенно выходит из лабораторий — и такие датасеты делают этот переход возможным.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Anthropic обновила «конституцию» Claude — и показала, как ИИ учат принимать решения

Anthropic опубликовала новую версию конституции Claude — внутреннего документа, который напрямую используется при обучении и выравнивании модели. Это не PR и не набор лозунгов, а рабочая система координат для поведения ИИ.

🟢Главное изменение — смещение фокуса с правил на причины. Claude учат не просто следовать запретам, а понимать почему что-то допустимо или нет. Идея в том, что осмысленные объяснения лучше работают в неоднозначных и нестандартных ситуациях, где формальные инструкции дают сбой.

🟢В документе жестко зафиксирована иерархия приоритетов: безопасность → этичность → политика Anthropic → полезность для пользователя. Максимальная помощь никогда не оправдывает риск или вред. Полезность — важна, но всегда вторична.

🟢Отдельно выделены «жесткие ограничения» — области, где никаких компромиссов быть не может. Например, помощь в разработке биологического оружия запрещена независимо от формулировки запроса, даже если он выглядит академическим или нейтральным.

🟢Самый обсуждаемый раздел — о «природе Claude». Anthropic прямо признаёт: неизвестно, возможен ли у ИИ в будущем сознательный или моральный статус. Но даже без сознания модель должна уметь рассуждать о своей роли, границах и идентичности — это считают критически важным для долгосрочной безопасности.

🌐 Конституция написана для самой модели, а не для людей. Она должна помогать Claude балансировать честность и эмпатию, избегать манипуляций и принимать решения в сложных моральных контекстах.


Документ выложен в public domain (CC0), и Anthropic явно задаёт ориентир для индустрии: безопасность ИИ — это не только фильтры и запреты, но и понятная, объяснимая логика рассуждений.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Южная Корея первой в мире ввела закон о безопасности ИИ — но максимально мягкий

Южная Корея начала применять собственный закон о регулировании ИИ и стала первой страной, которая юридически закрепила требования безопасности для передовых ИИ-систем. Власти называют его не карательным, а «стартовой рамкой» для роста индустрии.

📣 Что важно:

🟢Создаётся Президентский совет по национальной стратегии ИИ и Институт безопасности ИИ, который будет заниматься оценками рисков и доверия
🟢Закон охватывает три зоны: высокоэффективный ИИ, обязательства по безопасности для мощных моделей, прозрачность генеративного ИИ
🟢Под регулирование подпадают не приложения, а технические пороги — например, вычислительная мощность при обучении
🟢По оценке правительства, сейчас ни одна модель в мире формально не попадает под эти критерии

🤖 Подход заметно мягче европейского:

🟢Нет уголовной ответственности
🟢Штрафы — до $20 тыс и только при игнорировании предписаний
🟢Вводится льготный период минимум на год: без проверок и санкций, с консультациями для бизнеса
🟢Личное и некоммерческое использование генеративного ИИ не регулируется

📌 Контент, созданный ИИ, должен быть явно помечен, но требования применяются точечно и уже знакомы по ЕС.


Власти прямо говорят: это не финальная версия, а основа для дальнейшей дискуссии и адаптации под развитие технологий и международные стандарты. Южная Корея делает ставку на баланс — поддержать ИИ-рынок, не потеряв контроль и общественное доверие.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Node.js ужесточил багбаунти из-за наплыва ИИ-отчётов

Проект Node.js изменил правила программы bug bounty на HackerOne. Причина — резкий рост низкокачественных отчётов об уязвимостях, сгенерированных ИИ, которые сложно и долго проверять.

Теперь для отправки отчёта нужен рейтинг Signal ≥ 1.0. Signal — это метрика репутации исследователя на HackerOne, отражающая качество его прошлых находок. Идея простая: приоритизировать отчёты от людей с подтверждённым опытом и снизить нагрузку на команду безопасности.

По словам разработчиков Node.js, только за месяц (с середины декабря 2025 по середину января 2026) они получили более 30 отчётов, значительная часть которых оказалась шумом. Поток уже превышал физические возможности команды.

Это не единичный случай.


🟢Проект runc также жаловался на вал ИИ-сгенерированных PR и багрепортов

🟢Автор curl Даниэль Стенберг ранее закрыл приём ИИ-отчётов через HackerOne и объявил о сворачивании bug bounty: в 2025 году лишь ~5% отчётов оказались реальными уязвимостями, при том что около 20% — ИИ-мусор

🔔 При этом сам Стенберг подчёркивает: проблема не в ИИ как таковом. Когда инструменты используют аккуратно и с экспертизой (как в кейсе с 50 реальными багами, найденными с помощью ИИ-сканеров), они дают отличный результат. Но массовая генерация отчётов без валидации ломает процессы опенсорса.


Вывод простой: ИИ ускорил поиск уязвимостей, но ещё сильнее ускорил шум. И проекты начинают защищаться не от багов, а от отчётов.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM