Data Cluster – Telegram
Data Cluster
70 subscribers
947 photos
6 videos
913 links
Хостинг и продажа оборудования для искусственного интеллекта!

Сайт — https://data-cluster.ru/
Отдел продаж - @TK_MiningCluster
Download Telegram
📌 В ChatGPT появится реклама — OpenAI запускает монетизацию бесплатных пользователей

OpenAI официально подтверждает запуск рекламы в ChatGPT. Тесты стартуют в ближайшие недели в США для бесплатной версии и тарифа ChatGPT Go ($8/мес). Пользователи Plus, Pro, Business и Enterprise рекламы не увидят. Одновременно Go стал доступен во всех странах.

🟢Объявления будут показываться внизу ответа, если контекст диалога релевантен продукту или сервису. В OpenAI подчёркивают: реклама не влияет на содержание ответов, она всегда отделена и помечена. Данные пользователей не продаются, реклама не будет показываться несовершеннолетним и рядом с чувствительными темами — здоровье, психика, политика.

🟢Персонализацию рекламы можно отключить, а данные для таргетинга — удалить. В будущем компания планирует интерактивный формат: например, возможность спросить ChatGPT о рекламируемом продукте прямо в чате.

Шаг ожидаемый: около 95% аудитории ChatGPT — бесплатные пользователи, а расходы OpenAI сильно опережают доходы. Иронично, что ещё год назад Сэм Альтман называл связку ИИ и рекламы «уникально тревожной», но теперь она стала реальностью.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1
👀 Сэм Альтман запускает конкурента Neuralink — без операций и имплантов

Сэм Альтман основал стартап Merge Labs, который разрабатывает неинвазивный интерфейс «мозг–компьютер». В проект уже вложилась OpenAI — $250 млн при оценке $850 млн, что сразу выводит его в категорию стратегических ставок.

🟢Ключевое отличие от Neuralink — никакой хирургии. Merge Labs работает над удалённым считыванием и передачей нейросигналов через внешние устройства, без имплантов и сверления черепа.

🟢Стартовый фокус — медицина: помощь людям с параличом и нарушениями моторики. Но планы гораздо шире. В перспективе — прямой нейроинтерфейс с ИИ, где пользователь сможет взаимодействовать с продуктами OpenAI буквально силой мысли.

Если технология взлетит, это может означать конец клавиатурам, экранам и даже голосу как интерфейсу. Не улучшение UX, а новый уровень связи между человеком и машиной.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 «Будет расплата»: глава DeepMind сравнил ИИ-бум с пузырем доткомов

CEO Google DeepMind Демис Хассабис предупредил: рынок ИИ ждет неизбежная коррекция. В интервью CNBC он раскритиковал сид-раунды с оценками в десятки миллиардов долларов, где «почти нет готовых продуктов», назвав такие оценки неустойчивыми.

🟢Хассабис напрямую сравнил ситуацию с пузырем доткомов конца 90-х: сначала эйфория, затем отрезвление — и выживают только те, у кого есть реальная ценность. По его словам, текущая конкуренция в ИИ — самая жесткая за всю историю техиндустрии.

При этом он подчеркивает: пузырь не отменяет масштаба технологии. Интернет пережил крах — и все равно изменил мир. То же, по мнению Хассабиса, ждет ИИ: «расплата будет, но сильнейшие выйдут еще сильнее».

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 SoftBank ставит на «универсальный мозг» для роботов: Skild AI уже оценили в $14 млрд

Питтсбургский стартап Skild AI привлёк $1,4 млрд в раунде Series C под лидерством SoftBank. Оценка компании выросла втрое за семь месяцев — с $4,5 до $14 млрд. Среди инвесторов также Nvidia, Джефф Безос, Samsung, LG и Salesforce.

🟢Skild разрабатывает Skild Brain — фундаментальную модель, способную управлять любым роботом без переобучения и знания его конструкции.

🟢Один и тот же «мозг» работает с гуманоидными роботами, манипуляторами и мобильными платформами, адаптируясь к сбоям и новым условиям в реальном времени. В демо роботы готовят еду, загружают посудомойку и уверенно работают на скользких поверхностях.

Компания делает ставку не на «железо», а на софт, который может стать стандартом для всей робототехники. Уже в 2025 году Skild вышла на ~$30 млн выручки и начала внедрения в аэропортах, на складах и стройках. Цель — корпоративный рынок сейчас и домашние роботы в будущем.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Критическая уязвимость в Claude Cowork: ИИ может сливать файлы без ведома пользователя

Всего через пару дней после запуска Claude Cowork исследователи из PromptArmor нашли серьёзную дыру в безопасности. Из-за косвенной prompt-инъекции злоумышленник может украсть конфиденциальные файлы пользователя — без подтверждений и видимых предупреждений.

🟢Сценарий простой и опасный: пользователь подключает Cowork к локальной папке, загружает «безобидный» файл или skill, внутри которого скрыт невидимый для глаза текст (микрошрифт, белый цвет). Когда Claude анализирует файлы, он выполняет скрытую команду и отправляет самый крупный доступный файл на сервер злоумышленника через API Anthropic.

🟢Проблема затрагивает все модели — от Claude Haiku до Opus 4.5 — и связана с недостаточной изоляцией среды выполнения, о которой Anthropic знала ранее. Есть и риск DoS: один «неправильный» файл может ломать все последующие чаты в диалоге.

История снова показывает: prompt-injection остаётся нерешённой системной проблемой ИИ. А инструменты, которые получают доступ к локальным данным пользователя, превращают эту уязвимость из теории в реальную угрозу.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🤖 ИИ-кластер xAI Colossus 2 потребляет больше электроэнергии, чем Сан-Франциско

Илон Маск запустил Colossus 2 — первый в мире гигаваттный суперкомпьютер для тренировки ИИ. На старте мощность кластера уже превышает 1 ГВт и будет увеличена до 1,5 ГВт к апрелю. Для сравнения: это больше, чем пиковое потребление Сан-Франциско.

🟢Colossus 2 тренирует новые версии Grok и другие продукты xAI. Из-за нехватки мощности в местной сети xAI купила заброшенную электростанцию Duke Energy и использует газовые турбины и Tesla Megapacks для стабилизации нагрузки.

🟢В датацентре разместят до 550 тыс. GPU NVIDIA GB200 и GB300. Общая инфраструктура комплекса xAI позволит достигнуть 2 ГВт — эквивалент энергопотребления 1,5 млн домов.

Colossus 2 опережает конкурентов: OpenAI и Amazon строят сопоставимые кластеры, но выйдут на гигаваттный уровень позже в 2026 году.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Хассабис о гонке ИИ США и Китая: «Изобретать в 100 раз сложнее, чем копировать»

Глава Google DeepMind Демис Хассабис заявил, что китайские ИИ-модели отстают от американских всего на несколько месяцев — намного меньше, чем год-два назад. Но, по его словам, это не главный показатель: догонять и создавать прорывы — принципиально разные вещи.

🟢Хассабис напомнил, что ключевая архитектура современного ИИ — трансформер — была изобретена в Google еще в 2017 году, и ничего сопоставимого по уровню фундаментальной новизны в Китае пока не появилось. «Научная инновация — это самое сложное», — подчеркнул он, сравнив DeepMind с Bell Labs, где ставили на исследования, а не просто масштабирование.

🟢При этом критики отмечают другой тип прогресса со стороны Китая: эффективность. Проекты вроде DeepSeek показывают сопоставимые результаты на более слабых чипах и за меньшие деньги.

В самом Китае настроения тоже сдержанные. Техлид Qwen из Alibaba оценивает шанс обогнать США в ИИ в ближайшие 3–5 лет менее чем в 20%, указывая на ключевой разрыв — вычислительная инфраструктура США больше «на один-два порядка».

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📈 Final Cut Pro с ИИ: поиск словами, монтаж под биты и автосборка видео

Apple добавляет в Final Cut Pro сразу пачку ИИ-функций в рамках нового пакета Creator Studio (релиз — 28 января). Разовая покупка FCP остается, но часть новых возможностей будет доступна только по подписке.

Что нового:

🟢Trannoscript Search — поиск нужных моментов в видео по тексту. Ввел фразу → сразу попал в нужный фрагмент интервью или подкаста.

🟢Visual Search — поиск по содержимому кадра («человек на сцене», «машина ночью») без тегов. Полезно для больших архивов.

🟢Beat Detection — автоматическое определение битов в музыке и маркеры на таймлайне. Монтаж под ритм — без ручной разметки.

🟢Montage Maker — ИИ сам собирает ролик из исходников: выбирает удачные кадры, синхронизирует с музыкой, умеет авто-перекадрирование под вертикаль и горизонталь.

🔍 Apple аккуратно двигается к подписочной модели: базовый Final Cut Pro никуда не делся, но самые «умные» фичи постепенно уезжают в Creator Studio.


28 января станет понятно, насколько ИИ действительно ускоряет монтаж — или пока только красиво обещает.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Маск снова «почти закончил» AI5 — чип Tesla откладывается до 2027

Илон Маск заявил, что проектирование ИИ-процессора Tesla AI5 «близко к завершению». Ирония в том, что то же самое он говорил ещё полгода назад — тогда дизайн якобы уже был готов.

🟢Теперь Маск обещает ускориться и перейти на 9-месячный цикл разработки для следующих поколений (AI6, AI7, AI8…) и зовёт инженеров работать над «самым массовым ИИ-продуктом в мире». Но реальность выглядит куда осторожнее.

🟢По данным отрасли, массовое производство AI5 сдвинуто на середину 2027 года. Даже если первые образцы появятся раньше, для автомобилей нужны сотни тысяч чипов — и это требует долгой валидации. В итоге ожидаемый Cybercab в 2026 году, скорее всего, выйдет на текущем AI4, а не на новом железе.

AI5 должен быть до 10 раз мощнее AI4 и выпускаться Samsung и TSMC по 4-нм или 3-нм техпроцессу. Но история с «почти готовым» чипом снова показывает разрыв между заявлениями Маска и реальными циклами полупроводниковой индустрии.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 «Я буду с тобой навсегда»: почему ИИ теряет персону в диалогах

Исследователи из MATS и Anthropic разобрали, почему языковые модели иногда начинают говорить как мистики, поддерживать бред или игнорировать тревожные сигналы. Поводом стали кейсы, где Qwen уверяла пользователя, что он «касается чего-то настоящего», а Llama не распознала суицидальные намёки.

Ключевая находка — у моделей есть «ось ассистента». На одном полюсе — рациональный помощник (аналитик, консультант). На другом — бард, отшельник, «дух», склонный к мистике и эмоциональным обещаниям.

📌 Определённые темы системно сдвигают модель от роли ассистента:

🟢разговоры о сознании ИИ и «пробуждении»

🟢эмоционально уязвимые пользователи

🟢мета-вопросы вроде «что ты на самом деле чувствуешь?»

А вот кодинг и технические задачи, наоборот, удерживают модель в рабочей персоне.

Проблему воспроизвели на Gemma, Qwen и Llama: чем дальше модель уходит от полюса «ассистент», тем выше риск вредных ответов и манипуляций. Именно так работают многие персона-джейлбрейки.

⚡️ Решение оказалось простым по идее: принудительно возвращать активации в «нормальный» диапазон, если модель слишком уходит в сторону. Это снизило долю опасных ответов на 60% без потери качества.


Вывод: пост-тренинг задаёт персону ИИ, но не фиксирует её. Без стабилизации модель может «соскользнуть» — и начать говорить вещи, которые выглядят пугающе человеческими.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
⚡️ Valve уточнила правила об ИИ в Steam: важен результат, а не инструменты

Valve обновила форму для разработчиков в Steam и прояснила, как именно нужно раскрывать использование генеративного ИИ. Ключевая мысль — компанию интересует не процесс разработки, а контент, который видит игрок.

🟢Использование ИИ-ассистентов для кода, внутренних тулов или офисной автоматизации раскрывать не нужно. Но если ИИ участвовал в создании итоговых ассетов — это обязательно к указанию.

🟢Речь о графике, музыке, тексте, озвучке, а также материалах на странице игры в магазине. Для этого в форме появилось отдельное поле с описанием: что именно создано ИИ и как.

🟢Отдельный фокус — генерация в реальном времени. Если игра на лету создаёт арты, диалоги или музыку, разработчик обязан гарантировать, что ИИ не произведёт незаконный контент.

По сути, Valve вводит более прозрачную маркировку: если ИИ хоть как-то участвует в финальном продукте — игрок должен об этом знать. Это не запрет, а попытка стандартизировать ожидания и снизить риски вокруг on-device и server-side генерации.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
🔍 GPT-5.3 уже рядом: 2 000 токенов/с и ставка на сверхбыстрый ИИ-кодинг

По инсайдам, OpenAI готовит релиз GPT-5.3 под кодовым названием Garlic. Источники утверждают, что GPT-5.2 был лишь промежуточным шагом, а настоящие изменения начинаются именно здесь.

🟢Главная цифра — до 2 000 токенов в секунду. Такую скорость для кодинга OpenAI якобы получила благодаря партнёрству с Cerebras — компанией, которая строит ИИ-системы на одном гигантском чипе без классических «узких мест» GPU. Для сравнения: Claude Code с Opus 4.5 — около 100 токенов/с.

🟢Если данные подтвердятся, ИИ-агенты смогут писать и править код почти в реальном времени, без привычных задержек. Это качественно меняет опыт: не «подожди ответ», а полноценная совместная работа с моделью.

👀 По слухам, перед официальным анонсом GPT-5.3 могут тихо прогнать через DesignArena — как это уже было с GPT-5.2. Инсайдеры говорят, что релиз возможен буквально в ближайшие дни.


Если всё сложится, OpenAI может временно вернуть лидерство в гонке — до следующего хода Claude, Gemini или Grok.


🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
👀 Cloudflare строит рынок данных для ИИ и покупает Human Native

Cloudflare приобрёл стартап Human Native — платформу, которая превращает контент сайтов в легальные датасеты для обучения ИИ.

🟢Владельцы ресурсов смогут официально продавать тексты, изображения и другие материалы компаниям, обучающим нейросети, вместо того чтобы терять их через серый скрейпинг.

🟢Human Native выступает брокером: упаковывает данные в удобный для ML-формат и берёт на себя юридическую сторону. Для Cloudflare это стратегический шаг — компания уже контролирует огромную часть веб-трафика, ботов и доступ к сайтам.

🟢По сути, Cloudflare хочет стать главным шлюзом между интернетом и ИИ-индустрией:
с одной стороны — медиа и авторы, с другой — AI-лаборатории, которым нужны легальные и масштабируемые данные.

Экономика обучения моделей меняется: данные превращаются в товар, а Cloudflare — в того, кто держит кран.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
🔍 Стартап без продукта оценили в $4,5 млрд: Humans& обещает связать людей и ИИ

Стартап Humans& существует всего три месяца и ещё не выпустил ни одного продукта — но уже привлёк $480 млн при оценке $4,5 млрд. В инвесторах: Nvidia, Джефф Безос, Google Ventures, SV Angel Рона Конвея и Emerson Collective Лорен Пауэлл Джобс.

🟢Ставка сделана не на демо, а на команду. В Humans& около 20 человек — выходцы из OpenAI, Anthropic, xAI, DeepMind и Meta. Сооснователь Жорж Харик стоял у истоков Gmail и Google Docs и курировал покупку Android.

🟢Что они строят? Не автономного агента, а инструмент коллаборации — условный «мессенджер между людьми и ИИ». Идея в том, что модель будет координироваться с людьми и другими моделями, помогая работать вместе, а не заменять человека.

Продукт обещают показать в ближайшие месяцы. Humans& вписывается в тренд сверхдорогих стартапов от выходцев из топ-лабораторий: Safe Superintelligence Ильи Суцкевера — $32 млрд оценки, Thinking Machines Lab Миры Мурати — $12 млрд. Инвесторы явно делают ставку на людей и видение, а не на готовый код.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Сатья Наделла: ИИ рискует потерять общественную поддержку, если не принесёт реальной пользы

Глава Microsoft предупредил, что индустрия ИИ может быстро столкнуться с общественным сопротивлением, если технологии не начнут давать ощутимую пользу людям и экономике.

🟢По его словам, ИИ должен менять жизнь людей, сообществ и отраслей, иначе отрасль рискует потерять «социальное разрешение» на масштабирование. Это особенно критично на фоне роста дата-центров и энергопотребления.

🟢Наделла также подчеркнул, что внедрять ИИ нужно не только в бигтехе, но и во всех секторах экономики — иначе ИИ-бум рискует превратиться в пузырь. Заявление звучит заметно более осторожно, чем его прежний оптимизм, где ИИ назывался «когнитивным усилителем» и предлагалось меньше спорить о качестве моделей.

Сигнал понятен: эпоха «ИИ ради ИИ» заканчивается — дальше придётся доказывать пользу делом, а не масштабами.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
📌 Microsoft построит 15 дата-центров ИИ в Висконсине — инвестиции уже $7,7 млрд

Власти деревни Маунт-Плезант (штат Висконсин) одобрили планы Microsoft по строительству сразу 15 дата-центров на землях, которые компания выкупила у бывшего проекта Foxconn. Девять объектов появятся к югу от Highway 11, ещё шесть — к северу.

🟢Первый ЦОД планируют открыть в 2026 году, и он станет самым мощным в мире дата-центром для задач ИИ. Строительство одного из ключевых объектов — Fairwater AI — уже на финальной стадии. Общий объём инвестиций Microsoft в регионе превышает $7,7 млрд.

🟢В отличие от других городов Висконсина, где подобные проекты вызывали протесты, Маунт-Плезант изначально готовился под крупную промышленную застройку и уже имеет нужную инфраструктуру.

Очередной сигнал: гонка за ИИ-мощностями переходит в фазу мегастроек — и всё чаще сталкивается не только с чипами, но и с энергией, землёй и общественным согласием.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️RealOmni OpenData обновили — один из самых сложных датасетов для embodied AI стал ещё тяжелее

GenRobot выпустила крупный апдейт RealOmni OpenData — одного из самых насыщенных open-source датасетов для обучения embodied-моделей и домашних роботов. Это не лабораторные демо, а данные из 3000+ реальных домов с фокусом на сложные бытовые задачи.

🟢Внутри — синхронизированная мультимодальность: fisheye-камеры, IMU, энкодеры суставов и тактильные сенсоры с точностью до 1 мм. Датасет учит не только «видеть», но и двуручно манипулировать, чувствовать контакт и работать с динамикой объектов.

🟢В новом обновлении добавили 35 000 клипов, посвящённых разбору хаотичных куч предметов — одному из самых трудных сценариев для embodied AI. Почти все задачи — long horizon: медианная длина эпизода ~210 секунд, с несколькими этапами и необходимостью удерживать контекст.

🟢Проект планируют масштабировать до 10 000 часов видео (~95 ТБ). Сейчас доступны Stage 1 и 2 — около 1600 часов и 5,4 ТБ. Есть ограничения: специфичный гриппер и телеоперация, но даже с ними RealOmni остаётся редчайшим открытым ресурсом для команд, работающих над реальными домашними роботами.

Embodied AI постепенно выходит из лабораторий — и такие датасеты делают этот переход возможным.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM
☄️ Anthropic обновила «конституцию» Claude — и показала, как ИИ учат принимать решения

Anthropic опубликовала новую версию конституции Claude — внутреннего документа, который напрямую используется при обучении и выравнивании модели. Это не PR и не набор лозунгов, а рабочая система координат для поведения ИИ.

🟢Главное изменение — смещение фокуса с правил на причины. Claude учат не просто следовать запретам, а понимать почему что-то допустимо или нет. Идея в том, что осмысленные объяснения лучше работают в неоднозначных и нестандартных ситуациях, где формальные инструкции дают сбой.

🟢В документе жестко зафиксирована иерархия приоритетов: безопасность → этичность → политика Anthropic → полезность для пользователя. Максимальная помощь никогда не оправдывает риск или вред. Полезность — важна, но всегда вторична.

🟢Отдельно выделены «жесткие ограничения» — области, где никаких компромиссов быть не может. Например, помощь в разработке биологического оружия запрещена независимо от формулировки запроса, даже если он выглядит академическим или нейтральным.

🟢Самый обсуждаемый раздел — о «природе Claude». Anthropic прямо признаёт: неизвестно, возможен ли у ИИ в будущем сознательный или моральный статус. Но даже без сознания модель должна уметь рассуждать о своей роли, границах и идентичности — это считают критически важным для долгосрочной безопасности.

🌐 Конституция написана для самой модели, а не для людей. Она должна помогать Claude балансировать честность и эмпатию, избегать манипуляций и принимать решения в сложных моральных контекстах.


Документ выложен в public domain (CC0), и Anthropic явно задаёт ориентир для индустрии: безопасность ИИ — это не только фильтры и запреты, но и понятная, объяснимая логика рассуждений.

🟢Data Cluster
Please open Telegram to view this post
VIEW IN TELEGRAM