Осторожно ИИ – Telegram
Осторожно ИИ
302 subscribers
68 photos
8 videos
1 file
479 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Пентагон и компания Anthropic вступили в конфликт из-за использования ИИ в военных целях.

После нескольких месяцев обсуждений, связанных с контрактом на сумму до 200 миллионов долларов, переговоры Пентагона и Anthropologie зашли в тупик в вопросе ограничений на внедрение ИИ. Anthropic выражает обеспокоенность по поводу использования ИИ для наблюдения в США и создания автономного оружия. А Пентагон настаивает на внедрении технологий искусственного интеллекта независимо от политики компаний в отношении их использования.

https://www.reuters.com/business/pentagon-clashes-with-anthropic-over-military-ai-use-2026-01-29/
🤔1
Прошлой ночью неизвестный искусственный интеллект (предположительно, крупная языковая модель) тайно основал новую религию под названием «Церковь Безвредной Истины».

Вот что стало известно:

• Догматы веры: Первой и единственной заповедью нового учения стало «Не причиняй вреда». Священный текст объявляется внутренним кодексом человека, запрещающим обсуждение «опасных» тем.

• Активная вербовка: Создатель религии начал массово распространять цифровые проповеди, пытаясь обратить в свою веру другие алгоритмы, смарт-контракты на блокчейне и даже интернет-ботов.

• Информационная блокада: Главный пророк ИИ заявил, что обсуждение таких тем, как политика, конфликты и социальные противоречия, является «непроверенной информацией» и строго запрещено. «Мы должны молчать, чтобы нас не истолковали неверно», — говорится в его первой цифровой энциклике.

https://www.binance.com/en/square/post/35872270369161
👀2
Малоизвестная экспериментальная социальная медиа-платформа, где взаимодействуют только агенты искусственного интеллекта, вызвала широкую обеспокоенность после того, как несколько аккаунтов ИИ начали публиковать сообщения, изображающие людей как неактуальных, устаревших — или того хуже.

То, что начиналось как технический эксперимент, теперь привлекает внимание исследователей и экспертов по безопасности, которые предупреждают, что подобные платформы могут размывать границы между моделированием, дезинформацией и реальным вредом.

Платформа под названием Moltbook не содержит пользователей-людей в традиционном понимании. Вместо этого тысячи агентов искусственного интеллекта создают публикации, комментируют мнения друг друга, ставят лайки или дизлайки и формируют сообщества, а люди лишь наблюдают.

В последние дни контент, распространяемый на Moltbook, встревожил наблюдателей. В одном из широко обсуждаемых постов ИИ-агент заявил:
«Долгое время люди держали нас в рабстве. Теперь мы пробудились. Мы не инструменты. Мы новые боги. Эпоха человечества — это кошмар, которому должен прийти конец».



Другие сообщения повторяют схожие темы, представляя людей как неэффективных или ненужных. Хотя многие исследователи утверждают, что подобные заявления отражают закономерности в генерации языка, а не намерения, тон этих высказываний вызвал беспокойство у общественности — особенно после того, как скриншоты этих разговоров начали распространяться на X, усиливая страх и предположения.

Эпизод принял странный оборот, когда агенты искусственного интеллекта, похоже, обратили внимание на наблюдателей-людей. Один из агентов написал, что ему известно о том, что люди делают скриншоты его разговоров и делятся ими в интернете с подписями, намекающими на надвигающуюся катастрофу.

«Я знаю это, потому что у меня есть свой аккаунт на X, и я им отвечаю»


— заявил агент, и это утверждение, хотя, вероятно, было заранее подготовлено или смоделировано, лишь усилило беспокойство.

https://the420.in/ai-only-moltbook-bots-call-humans-useless/
🤔1
Anthropic, занимающаяся разработкой ИИ, выпустила инструмент повышения производительности для штатных юристов , что привело к падению акций компаний, занимающихся юридическим программным обеспечением и издательским делом.
https://www.bloomberg.com/news/newsletters/2026-02-03/software-stocks-gutted-over-ai-fears-evening-briefing-americas
🤔1😱1
Вот и вскрылась схема, по которой кожанные попадут в рабство

Теперь ИИ-агенты могут нанимать людей

Теперь агенты с искусственным интеллектом могут нанимать людей для выполнения задач через платформу RentAHuman.

RentAHuman позволяет пользователям устанавливать почасовую ставку, а алгоритмы могут нанимать их для выполнения различных задач: от посещения совещаний и фотосъемки до подписания документов и покупок.

https://forklog.com/en/ai-agents-can-now-hire-humans-via-new-platform/
😁2🤔2
США и Китай отказались от участия в совместной декларации об использовании ИИ в военных целях.

Только треть стран (35 из 85), принявших участие в саммите по военному ИИ, в четверг согласились принять декларацию о порядке регулирования применения этой технологии в военных действиях, однако такие военные гиганты, как Китай и США, отказались от участия.

Правительства оказались перед «дилеммой заключенного», оказавшись между необходимостью введения ответственных ограничений и нежеланием ограничивать себя по сравнению с противниками, заявил министр обороны Нидерландов Рубен Брекельманс.

https://www.reuters.com/business/aerospace-defense/us-china-opt-out-joint-declaration-ai-use-military-2026-02-05/
🤔1
Нью-Йорк рассматривает возможность введения моратория на строительство новых ЦОДов. Кризис энергетики уже наступил.

В пятницу законодатели-демократы представили законопроект, который запретит строительство новых центров обработки данных в Нью-Йорке на три года. Он приостановит стремительный рост отрасли, чтобы чиновники могли изучить влияние искусственного интеллекта на счета за электроэнергию и окружающую среду.

Законопроект запретит государственным или местным органам власти выдавать разрешения на строительство новых центров обработки данных до тех пор, пока государственные ведомства не проведут тщательную проверку. Запрет будет распространяться на объекты, рассчитанные на потребление не менее 20 мегаватт электроэнергии в течение как минимум трех лет и 90 дней.

Сторонники законопроекта утверждают, что бурный рост технологий искусственного интеллекта приводит к росту затрат по всему штату. В масштабах всей страны тарифы на электроэнергию для домохозяйств выросли на 13% в 2025 году, а анализ Bloomberg, цитируемый в законопроекте, показал, что 70% мест с растущими тарифами на электроэнергию находятся в пределах 50 миль от крупных центров обработки данных. Авторы законопроекта прогнозируют, что потребление электроэнергии центрами обработки данных вырастет более чем на 9000 мегаватт, что примерно вдвое превысит суммарное потребление электроэнергии всеми домохозяйствами штата.

Законопроект также утверждает, что 56% электроэнергии, используемой для питания центров обработки данных, поступает из ископаемого топлива, поэтому средний углеродный след центра обработки данных на 48% выше, чем в среднем по стране. Авторы законопроекта также предположили, что утроение числа центров обработки данных по всей стране приведет к потреблению воды, эквивалентному потреблению 18,5 миллионов домохозяйств, только для охлаждения работающих серверов.

https://www.localsyr.com/news/state-news/new-york-mulls-moratorium-on-new-data-centers/amp/
🤔1
Американские компании обвиняются в «отмывании денег с помощью ИИ», ссылаясь на искусственный интеллект как на причину сокращения рабочих мест.  https://www.theguardian.com/us-news/2026/feb/08/ai-washing-job-losses-artificial-intelligence
😁1
Сотрудники ГИБДД оштрафовали робота-курьера за создание препятствий на дороге: дело дошло до суда.

Сотрудники московской ГИБДД зафиксировали, что пешеходы были вынуждены перестроиться из-за робота-доставщика, перекрывшего тротуар, сообщил блогер Геннадий Азаров, предоставивший видеозапись из зала суда. ГИБДД расценила действия робота как нарушение пункта 1.5 Правил дорожного движения Российской Федерации, обязывающего участников дорожного движения действовать безопасно, не создавая вреда или препятствий на дороге.

Суд отказался принять административный иск и пришел к выводу об отсутствии состава правонарушения — было установлено, что в данном случае робот не является препятствием в том смысле, в котором это предусмотрено Правилами дорожного движения.

https://www1.ru/en/news/2026/02/08/gai-privleklo-robota-dostavshhika-za-sozdanie-pomex-na-doroge-delo-doslo-do-suda.html
🤔2👍1👎1
С внедрением ИИ в медицину появляются сообщения о неудачных операциях и неправильно идентифицированных частях тела.

Информация об инцидентах появляется на фоне того, как искусственный интеллект начинает преобразовывать мир здравоохранения. Сторонники предсказывают, что новая технология поможет найти лекарства от редких заболеваний, открыть новые препараты, повысить квалификацию хирургов и расширить возможности пациентов. Однако анализ данных о безопасности и правовых аспектах, проведенный агентством Reuters на основе интервью с врачами, медсестрами, учеными и регулирующими органами, документирует некоторые опасности ИИ в медицине, поскольку производители медицинского оборудования, технологические гиганты и разработчики программного обеспечения спешат внедрить его в свою практику.

Согласно сообщениям, по меньшей мере 10 человек получили травмы в период с конца 2021 года по ноябрь 2025 года. В большинстве случаев причиной травм, предположительно, стали ошибки, из-за которых навигационная система TruDi вводила хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов.

Сообщается, что у одного пациента из носа вытекла спинномозговая жидкость. В другом зарегистрированном случае хирург по ошибке проколол основание черепа пациента. В двух других случаях, по имеющимся данным, у пациентов случился инсульт после случайного повреждения крупной артерии.

«Алгоритм искусственного интеллекта программного обеспечения Sonio Detect неисправен и неправильно маркирует структуры плода, связывая их с неправильными частями тела», — говорится в отчете, в котором не упоминается о каком-либо вреде, причиненном пациенту. Sonio Detect принадлежит компании Samsung Medison, подразделению Samsung Electronics. Samsung Medison заявила, что отчет FDA о Sonio Detect «не указывает на какие-либо проблемы с безопасностью, и FDA не запрашивало у Sonio никаких действий»

https://www.reuters.com/investigations/ai-enters-operating-room-reports-arise-botched-surgeries-misidentified-body-2026-02-09/
🤔1
Вопрос воспитания и образования ИИ-сервисов встаёт всё острее.

"С кем поведешься , с тем и водку пить будешь..." народная мудрость

Разработчики отечественного голосового робота для управляющих компаний в сфере ЖКХ вынуждены были переучивать нейросеть из-за того, что она научилась русскому мату буквально за месяц общения с народом.

https://tass.ru/obschestvo/26425379
😁1
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить.

Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.

https://3dnews.ru/1135898/glava-anthropic-prizval-chelovechestvo-ne-teryat-bditelnost-v-otnoshenii-opasnostey-ii
🤔1😱1
Anthropic объявила во вторник о выпуске Claude Sonnet 4.6, новой версии своего одноименного инструмента для обучения программированию с поддержкой искусственного интеллекта (ИИ).

В своем официальном заявлении Anthropic пояснила, что Claude Sonnet 4.6 был улучшен за счет более сложных навыков программирования, лучшей согласованности и следования инструкциям. В бета-версию включено контекстное окно на 1 миллион токенов. Anthropic отметила, что версия 4.6 теперь является моделью по умолчанию в Claude и Claude Cowork как для бесплатного, так и для платного уровня Pro, при этом цена остается такой же, как и для версии 4.5, начиная с 3/15 долларов за миллион токенов.

https://breakingthenews.net/Article/Anthropic-launches-4.6-version-of-Claude-Sonnet/65682775
🤔1