Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Продолжение «Социальной сети» про Марка Цукерберга выйдет в 2026 году — фильм получил название «Социальный расчёт». 

Режиссёром и сценаристом выступит Аарон Соркин, а роль Цукерберга исполнит Джереми Стронг.

Sony Pictures объявила дату выхода фильма «Социальный расчёт» (“The Social Reckoning”) — 9 октября 2026 года, пишет The Variety. Это продолжение фильма 2010 года «Социальная сеть» по сценарию Аарона Соркина о создании Facebook*.
Президент ОАЭ встречается с генеральным директором OpenAI Сэмом Альтманом для активизации сотрудничества в области ИИ.

Объединённые Арабские Эмираты (ОАЭ) усиливают свои амбиции стать глобальным центром искусственного интеллекта, инвестируя миллиарды долларов в передовые технологии и международное партнёрство.

В субботу президент ОАЭ шейх Мухаммед бен Заид Аль Нахайян встретился в Абу-Даби с генеральным директором OpenAI Сэмом Альтманом, чтобы обсудить новые возможности сотрудничества, сообщает государственное информационное агентство.

https://www.econotimes.com/UAE-President-Meets-OpenAI-CEO-Sam-Altman-to-Boost-AI-Collaboration-1721774
Измерение технологической конвергенции с помощью искусственного интеллекта использует неоднородные графы для определения двумерного индекса

Сымин Дэн, Жуньсун Цзя и Чуньцзюань Луань из Даляньского технологического университета, совместно с Мэнцзя У и И Чжаном, решают эту проблему, разрабатывая новый подход к количественной оценке конвергенции как по глубине, так и по широте.

Их исследование представляет индекс технологической конвергенции (TCI), который использует передовые методы искусственного интеллекта, в частности, преобразователи гетерогенных графов и семантическое обучение, для анализа патентных данных и выявления того, как знания интегрируются в различных областях.

https://quantumzeitgeist.com/ai-enhanced-measurement-technological-convergence-uses-heterogeneous-graphs-define/
🔥1🤯1
‼️ Как в Кремниевой долине решают вопросы - и вот эти люди обучают ИИ, который должен что-то решать за нас. Терминатор всё ближе.

Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.

Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.

Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.

ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).

СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.

Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?

ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.

В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.

https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
😢2🤬1
Among Us раскрыл характеры ИИ-моделей.

• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro —  защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
Недавнее исследование Mandarin /Liquid, посвященное отношению государственных служащих к ИИ, показало, что госслужащие настроены более оптимистично по отношению к ИИ, чем население в целом: 84% заявили, что лично готовы использовать его в своей работе.

Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.

Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.

Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах. 
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
🤔1
Что думает ИИ втайне

Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.

В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.

Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели. 
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
🤔1
«Искусственный интеллект может изменить миллион рабочих мест в Лондоне»

Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.

Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.

Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.

Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.

https://www.bbc.com/news/articles/c07vmllz38jo
💯1
Казахстанской армии предоставили психолога с искусственным интеллектом

В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.

Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.

https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
Правоохранительные органы используют ИИ для синтеза доказательств.))))

Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.

«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».

Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.

Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.

https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
Китай приостанавливает закупки чипов Nvidia: Главный регулятор интернета Китая (CAC), как сообщается, приказал крупным технологическим компаниям, включая Alibaba и ByteDance, прекратить закупки и тестирование новейших высокопроизводительных чипов Nvidia для искусственного интеллекта (RTX 6000D ), фактически запретив передовые графические процессоры Nvidia в Китае .

Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .

Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .

Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю 
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
👍4👏1
Губернатор Калифорнии Гэвин Ньюсом подписал закон о безопасности ИИ

Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.

Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.

Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.

https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
🤔6
Ставка Walmart на искусственный интеллект может снова способствовать росту производительности в США

Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».

История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.

https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
🤔1
ИИ съел мою домашнюю работу: мой опыт работы с университетским набором инструментов ИИ

Все мы знаем, что ИИ в учебе — это плохо. Верно?

То есть, он пишет предсмертные записки для 16-летних, высасывает воду из планеты и облегчает списывание. Эта реклама предлагает нам избавление от того, для чего и предназначен колледж: от учёбы. Всё это объективно плохо.

Верно?

Но разве это может быть настолько плохо, если у Мичиганского университета есть свой маленький друг ИИ с милым именем: Мейзи ? Разве это может быть настолько плохо, если университет гордится тем, что является «первым университетом в мире, предоставившим своему сообществу специализированный набор инструментов генеративного ИИ». Или взять конец студенческой политики в отношении ИИ, в которой университет постановляет , что «использование вами инструментов на основе GenAI может дать вам возможность улучшить не только себя, но и общество в целом, и это налагает на вас этическую ответственность».

Разве это не похоже на то, что нас обманывают? Как будто наша администрация заманивает нас в пасть академической нечестности, ожидая, чтобы сожрать нас в тот злополучный момент, когда мы наберём математическую задачу в UM-GPT? Этот язык преподносит ИИ как моральное благо и необходимое условие успеха — он больше не опционален.

https://www.michigandaily.com/statement/ai-ate-my-homework-my-experience-with-the-universitys-ai-toolkit/
4
Google внедряет защиту от программ-вымогателей на базе искусственного интеллекта в Drive для компьютеров.
Он может остановить атаки на полпути, приостанавливая синхронизацию файлов после обнаружения лишь нескольких поврежденных файлов и позволяя вам вернуть все в безопасное состояние всего за несколько щелчков мыши.
https://www.techloy.com/google-brings-ai-powered-ransomware-defense-to-drive-for-desktop/

Microsoft Sentinel представляет платформу Agentic SIEM для улучшения защиты от угроз
https://cyberpress.org/agentic-siem-threat-defense/
👍2
Человечество может потерять контроль над искусственным интеллектом, и он случайно может захватить мир, заявил глава OpenAI Сэм Альтман

По его словам, пользователи ChatGPT становятся все более зависимыми от искусственного интеллекта.

«Предположим, модель становится все умнее и умнее, дает вам советы, которым вы почти всегда следуете. Потом она становится еще умнее. И теперь дает вам советы, которые вы даже не понимаете, но они оказываются правильными. И в итоге у вас выбор: либо следовать, либо проигрывать в конкуренции»,

— добавил Альтман.

В такой ситуации, отмечает глава OpenAI, люди начинают действовать по указанию ИИ, даже не осознавая этого.

«В конце концов мы все делаем то, что говорит нам ассистент с искусственным интеллектом. По крайней мере те, кто хочет оставаться конкурентоспособным», — отметил он.
🔥2😁1
«Мой сын искренне верил, что это реально»: родители разрешают маленьким детям играть с искусственным интеллектом.

Сто лет назад матери в Аризоне беспокоились, что радиопередачи «чрезмерно стимулируют, пугают и эмоционально подавляют» детей...

Чат-боты, работающие на основе больших языковых моделей (LLM), вовлекают маленьких детей способами, о которых создатели настольных игр, Тедди Ракспина, Ферби и даже iPad даже не мечтали: они создают персонализированные сказки на ночь, ведут разговоры, учитывающие интересы ребёнка, и создают фотореалистичные изображения самых невероятных фантазий — всё это для ребёнка, который ещё не умеет читать, писать или печатать.

Исследования влияния генеративного ИИ на развитие детей находятся на ранней стадии, хотя и основаны на исследованиях менее сложных форм ИИ, таких как цифровые голосовые помощники, такие как Alexa и Siri. Многочисленные исследования показали, что социальное взаимодействие маленьких детей с инструментами ИИ несколько отличается от взаимодействия с людьми: дети в возрасте от трёх до шести лет кажутся «менее активными» в разговорах с умными колонками. По словам Ин Сюй, профессора педагогики Гарвардской высшей школы образования, это открытие предполагает, что дети воспринимают агентов ИИ как нечто среднее между одушевлёнными и неодушевлёнными существами.

Суть игрушек на ИИ заключается в том, что они могут «узнать» характер вашего ребёнка и стать для него своего рода весёлым и познавательным компаньоном, сокращая время, проведённое за экраном. Это типичная ниша Кремниевой долины — эксплуатация обоснованных опасений по поводу технологий последнего поколения для продажи следующего.

https://www.theguardian.com/technology/ng-interactive/2025/oct/02/ai-children-parenting-creativity
🤔5
Компания Meta усиливает контроль над своей исследовательской лабораторией ИИ , вводя новый процесс рецензирования научных статей. Это вызвало сильное внутреннее недовольство.

Изменения в лаборатории фундаментальных исследований ИИ (FAIR) были восприняты настолько негативно, что, по словам источников, главный специалист по ИИ Янн Лекун подумывал об отставке .

Этот шаг знаменует собой серьёзный сдвиг от знаменитой культуры открытых исследований Meta к более строгому корпоративному надзору, что является прямым следствием хаотичного года для подразделения ИИ. Подразделение столкнулось с постоянными сменами состава команды, потерей ключевых специалистов и серьёзными задержками в разработке собственных моделей ИИ . 
https://winbuzzer.com/2025/10/02/meta-tightens-grip-on-ai-research-sparking-internal-anger-and-fears-for-open-culture-xcxwbn/
🤓2
Страдает ли Трамп деменцией? Искусственный интеллект Google обвиняют в цензурировании результатов поиска по вопросам психического здоровья

Google подвергается критике за предполагаемое подавление результатов поиска, касающихся психического здоровья президента Дональда Трампа, особенно в связи с утверждениями о его деменции.

Появились сообщения о том, что при поиске по таким запросам, как «Проявляет ли Трамп признаки деменции?», пользователи получают сообщение: «Обзор ИИ для этого запроса недоступен». Это контрастирует с результатами поиска по бывшему президенту Джо Байдену, чьё когнитивное здоровье также вызывает споры.

https://inews.zoombangla.com/does-trump-have-dementia-google-ai-accused-of-censoring-mental-health-search-results/
😁4
Доминирование в принятии решений зависит от скорости выполнения цикла понимания, визуализации, руководства и оценки.

При этом сегодня недостатка информации нет, есть ее избыток и это настоящая проблема. Поиск и проверка этой информации вручную отнимают драгоценное время. На войне время — это ресурс, который нельзя тратить впустую.

Представьте себе командира на поле боя, где каждая секунда — на грани между победой и катастрофой. Одно промедление с решением, одна ошибка — и жизни потеряны, миссии сорваны, исход войны смещен. Это и есть доминирование в принятии решений, способность понимать, принимать решения и действовать быстрее противника.

ИИ обладает потенциалом трансформации. Объединяя данные радаров в режиме реального времени, данные из открытых источников, потоки социальных сетей, базы данных логистики и другие источники, агентная система могла бы мгновенно предоставлять чёткую информацию о состоянии взлётно-посадочных полос польских аэродромов, пропускной способности и состоянии инфраструктуры без недельных задержек. То, что раньше требовало трудоёмкой разведки, теперь можно сжать до нескольких секунд, обеспечивая понимание ситуации со скоростью, необходимой для современных конфликтов. Способность понимать ситуацию быстрее противника — это первый шаг к превосходству в принятии решений.

Командиры также должны визуализировать ход боя, преодолевая сложности и представляя себе конечный результат до первого хода. Этот этап часто требует времени и размышлений, но в современной войне времени мало. ИИ даёт преимущество: обрабатывая огромные объёмы данных, выдавая рекомендации и проверяя предположения, визуализация может быть достигнута быстрее и с большей чёткостью, ускоряя планирование и обеспечивая превосходство в принятии решений.

Режиссура — это процесс, где понимание превращается в действие. Речь идёт о решительном принятии решений, адаптации к давлению и превращении возможностей в результаты. Визуализация помогает определить варианты, а режиссура превращает понимание в результаты. И тут ИИ может оказать серьезную помощь.

Командир приводит планы в действия на поле боя, но исполнение приказов без контроля неполное. Оценка гарантирует реализацию планов. Это не разовое мероприятие, а непрерывный цикл оценки действий, выявления пробелов и улучшений, даже когда никто не жалуется. Вновь ИИ способен значительно ускорить эти процессы.

Сегодня меняется не важность цикла, а скорость, с которой он должен быть выполнен. Противники уже используют ИИ и цифровые сети для ускорения собственных процессов принятия решений, сжимая сроки и повышая ставки.

https://smallwarsjournal.com/2025/10/03/agentic-ai-decision-dominance/
🤔3
Голландский суд обязал Meta* (Facebook) предоставить пользователям возможность выбора ленты без алгоритмов - без ИИ Цукерберга.

В решении Амстердамского суда сказано, что Meta* должна разрешить пользователям в Нидерландах устанавливать хронологическую, неалгоритмическую ленту в качестве ленты по умолчанию в Instagram и Facebook.


https://www.dutchnews.nl/2025/10/court-tells-meta-to-give-dutch-users-algorithm-free-feed-option/