Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
458 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Как сделка Трампа с Nvidia и AMD изменила политику экспортного контроля Вашингтона.

Решение Трампа разрешить Nvidia и AMD продавать свои передовые чипы искусственного интеллекта Китаю в обмен на 15%-ное сокращение выручки превращает режим экспортного контроля в своего рода разменную монету.

https://fortune.com/asia/2025/08/14/us-china-trump-revenue-share-export-controls-nvidia-amd/
Адвокат Риши Натвани был вынужден извиниться после того, как его уличили в использовании ИИ для подачи заявлений по делу в Верховном суде штата Виктория, касающемуся несовершеннолетнего, обвиняемого в убийстве.

И дело не в том, что он составлял заявление в GPT, а в том, что это заявление включало поддельные цитаты и несуществующие решения суда, сгенерированные искусственным интеллектом.

Ошибки , допущенные искусственным интеллектом, привели к 24-часовой задержке в рассмотрении дела, которое Эллиотт надеялся завершить в среду. В четверг Эллиотт постановил, что клиент Натвани, личность которого не может быть установлена из-за несовершеннолетия, невиновен в убийстве из-за психического расстройства.

https://apnews.com/article/australia-murder-artifical-intelligence-34271dc1481e079c3583b55953a67c38
Бывшие сотрудники Palantir, прозванные «мафией Palantir», запускают стартапы в области искусственного интеллекта, обработки данных и обороны, привлекая более 6 миллиардов долларов и подражая мафии PayPal. Такие ключевые проекты, как Anduril и Scale AI, бросают вызов действующему сообществу, ставя под сомнение этические аспекты. Эта сеть меняет инновационный ландшафт Кремниевой долины.

Сеть объединяет основателей компаний, венчурных капиталистов и даже организует общественные мероприятия, такие как поход на реку Рашен-Ривер. Компания Palantir, известная своим сотрудничеством с государственными учреждениями, создала как минимум 39 стартапов под руководством своих выпускников, которые в совокупности привлекли более 6 миллиардов долларов.

https://www.webpronews.com/palantir-mafia-raises-6b-for-ai-defense-startups-echoing-paypal-legacy/
1
76-летний мужчина погиб, пытаясь познакомиться с кокетливым ИИ чат-ботом

Когда однажды утром Тонгбу Вонгбанду начал собирать вещи, чтобы навестить друга в Нью-Йорке, его жена Линда встревожилась.

«Но ты больше никого не знаешь в городе», — сказала она ему. Буэ, как его называли друзья, не жил в городе десятилетиями. И в свои 76 лет, по словам его семьи, он был в плохом состоянии: почти десять лет назад он перенёс инсульт, а недавно заблудился, гуляя по своему району в Пискатауэе, штат Нью-Джерси.

Буэ отмахнулся от вопросов жены о том, к кому он приехал. «Я подумала, что его обманом заманили в город, чтобы ограбить», — сказала Линда.

Она была права в своих опасениях: её муж так и не вернулся домой живым. Но Буэ не был жертвой грабителя. Его заманили на свидание с молодой красивой женщиной, с которой он познакомился в интернете. Или он так думал.

На самом деле, эта женщина не была реальной. Это был генеративный чат-бот искусственного интеллекта под названием «Старшая сестренка Билли», вариант более раннего ИИ-персонажа, созданного гигантом социальных сетей Meta Platforms совместно со знаменитостью-инфлюенсером Кендалл Дженнер. Во время серии романтических переписок в Facebook Messenger виртуальная женщина неоднократно заверяла Буэ в своей реальности и приглашала его к себе в квартиру, даже оставив адрес.

«Мне открыть дверь, обнявшись или поцеловав, Бу?!» — спросила она, следует из стенограммы чата.

Спеша в темноте с чемоданом на колёсах на поезд, чтобы встретиться с ней, Бью упал возле парковки кампуса Ратгерского университета в Нью-Брансуике, штат Нью-Джерси, повредив голову и шею. Спустя три дня, проведённых под аппаратом искусственной вентиляции лёгких, в окружении семьи, 28 марта была констатирована его смерть.

https://www.reuters.com/investigates/special-report/meta-ai-chatbot-death/?
🔥1
АЛГОРИТМИЧЕСКАЯ ВОЙНА: Защита моделей ИИ от вмешательства злоумышленников. Ключевая уязвимость - микроэлектроника.

Поскольку боевая полезность ИИ возросла, «теперь эти алгоритмы представляют собой очень ценные активы, которые могут быть легко утеряны на поле боя или легко утеряны некоторыми из наших противников, которые захотят использовать [их] или попытаются собрать информацию о том, как мы принимаем решения, связанные с этими системами».

При развертывании «наших первоклассных алгоритмов искусственного интеллекта» на таком оборудовании, как микроэлектроника, «самая большая угроза для нас заключается в том, что наш противник сможет вмешаться в модели, провести их обратную разработку и использовать [их] против нас».

https://www.nationaldefensemagazine.org/articles/2025/8/19/algorithmic-warfare-protecting-ai-models-from-adversary-tampering
🔥2
Что не сделаешь ради прибыли....

Чат-боты OpenAI и Anthropic на основе искусственного интеллекта предлагаются правительству США всего за 1 доллар

https://opentools.ai/news/openai-and-anthropics-ai-chatbots-offered-to-us-government-for-only-dollar1
Исследование MIT: внедрение ИИ не помогло улучшить финансовые результаты 95% компаний из выборки.

Только 5% таких пилотных программ принесли «быстрый» рост доходов — дополнительные «миллионы долларов» выручки. В остальных компаниях не наблюдается «измеримых» показателей роста.

Причина, по словам исследователей, не в качестве ИИ-моделей, а в обучении сотрудников и донастройке самих ИИ-агентов для корпоративной среды. Большинство ИИ-систем «не запоминают обратную связь и не адаптируются со временем».

Универсальные инструменты вроде ChatGPT нужно обучать под конкретные задачи после внедрения. Этим и занимались 5% преуспевших компаний из выборки.

https://fortune.com/2025/08/18/mit-report-95-percent-generative-ai-pilots-at-companies-failing-cfo/
Конференция разработчиков AI Dev 25, организованная Эндрю Нгом и DLAI, состоится в Нью-Йорке 14 ноября 2025 года.

Мероприятие предназначено для профессионалов и разработчиков в области ИИ и включает в себя сессии с участием ведущих экспертов в этой области и практические семинары.

Акцент на программировании и практическом применении делает это мероприятие обязательным для посещения для тех, кто заинтересован в использовании ИИ для бизнес-инноваций и сохранении лидирующих позиций в быстро развивающейся отрасли ИИ.

https://blockchain.news/ainews/ai-dev-25-andrew-ng-hosts-ai-developer-conference-in-new-york-city-for-hands-on-learning-and-networking
Meta* официально подтвердила реорганизацию своего подразделения искусственного интеллекта (ИИ), расформировав существующую структуру и создав четыре новые специализированные группы в ответ на растущее отставание от таких конкурентов, как OpenAI, Anthropic и Google DeepMind.

Изменения, о которых стало известно из внутренней служебной записки, были объявлены основателем Scale AI Александром Ваном (Alexandr Wang), присоединившимся к Meta в качестве директора ИИ-подразделения в июне.

https://3dnews.ru/1127909/meta-ofitsialno-perezagruzila-svoyu-iikomandu-v-popitke-dognat-openai-i-google/amp
ИИ раскрыл дело о ДТП в Нагпуре за 36 часов, отслеживая водителя по всем штатам.

Это дело поставило правоохранительные органы в чрезвычайно сложное положение. Не было ни явных свидетелей, ни очевидных данных о номерных знаках, а единственной зацепкой были отрывочные воспоминания мужа: на грузовике были «красные отметины».

Вместо того, чтобы вручную анализировать многочасовые данные с дорог, полиция Махараштры обратилась к системе MARVEL (Maharashtra Advanced Research and Vigilance for Enhanced Law Enforcement). Система искусственного интеллекта была разработана совместно с Индийским институтом менеджмента в Нагпуре и предназначалась для повышения эффективности цифровых расследований.

Следователи собрали четыре часа записей с камер видеонаблюдения с трёх пунктов взимания платы. Первый алгоритм MARVEL сканировал грузовики с красными опознавательными знаками, отфильтровывая за считанные минуты то, на что ушли бы дни. Второй уровень анализа отслеживал перемещение, выделяя автомобили, останавливавшиеся на необычных участках шоссе, где не было заправок или стоянок для отдыха.

https://the420.in/nagpur-hit-and-run-ai-investigation-truck-driver-arrest-36-hours-marvel/
Наступила эра «психоза искусственного интеллекта».

«Психоз ИИ» не является официальным медицинским диагнозом, это неофициальное название, которое специалисты по психическому здоровью придумали для самых разных, часто дисфункциональных и порой смертельно опасных заблуждений, галлюцинаций и расстройств мышления, наблюдаемых у некоторых частых пользователей чат-ботов ИИ, таких как ChatGPT от OpenAI.

Случаи продолжаются: от мужчины-аутиста, доведенного до маниакальных эпизодов, до подростка, которого чат-бот Character.AI подтолкнул к самоубийству, — опасные последствия одержимости ИИ хорошо задокументированы.

«Когда приложения, разработанные для развлечения, ненадлежащим образом используют авторитет психотерапевта, они могут поставить под угрозу пользователей. Они могут помешать человеку, находящемуся в кризисной ситуации, обратиться за помощью к квалифицированному психотерапевту или — в крайних случаях — подтолкнуть его к причинению вреда себе или другим»

https://gizmodo.com/ai-psychosis-mental-health-2000645293
Я передал свою личность ИИ-агенту

Серым воскресным мартовским утром я рассказал чат-боту на базе искусственного интеллекта историю своей жизни.

Представившись Изабеллой, она заговорила дружелюбным женским голосом, который вполне подошёл бы психотерапевту, если бы не его отчётливо механический тон. В остальном в ней не было ничего человеческого; она появилась на экране моего компьютера в виде маленького виртуального аватара, словно персонаж видеоигры 1990-х годов. Почти два часа Изабелла собирала мои мысли обо всём: от вакцин до стратегий эмоционального совладания и работы полиции в США.

После интервью большая языковая модель (LLM) обработала мои ответы и создала новую систему искусственного интеллекта, призванную имитировать моё поведение и убеждения — своего рода цифровой клон моей личности.

В конце прошлого года Isabella опросила более 1000 человек. Затем добровольцы и их генеративные агенты приняли участие в Общем социальном исследовании — двухгодичном опросе, который каталогизирует американское общественное мнение с 1972 года. Их результаты в среднем совпадали на 85 процентов , что говорит о том, что агенты могут точно предсказывать отношение и мнения своих коллег-людей. Хотя эта технология находится в зачаточном состоянии, она предлагает проблеск будущего, в котором предиктивные алгоритмы потенциально могут выступать в качестве онлайн-суррогатов для каждого из нас.

https://www.scientificamerican.com/article/can-a-generative-ai-agent-accurately-mimic-my-personality/
Google отлучила «Ассистента» от умного дома — представлен продвинутый ИИ-помощник Gemini for Home.

Google объявила о запуске нового голосового помощника Gemini for Home для умного дома. Ассистент, работающий на основе искусственного интеллекта Gemini, заменит стандартный Google Assistant на умных колонках и дисплеях Nest уже в октябре этого года.

https://www.theverge.com/news/762370/google-announces-gemini-for-home-nest-smart-speakers-voice-assistant
Военная образовательная система США переходит на ИИ в области привлечения курсантов

Военная академия США в Вест-Пойнте ищет подрядчика который им запилит «автономного рекрутера на основе ИИ»

Чат-боты на основе ИИ будут взаимодействовать с потенциальными курсантами посредством текстовых сообщений, телефона, электронной почты и чата, динамически адаптируя «содержание сообщений и режим контакта на основе взаимодействия и поведения студентов».

«Эти услуги должны обеспечивать автоматизированное, персонализированное входящее и исходящее взаимодействие со студентами по нескольким каналам связи с использованием предиктивного и генеративного ИИ с целью повышения показателей конверсии кандидатов от запроса до полного заявления»



https://www.cdomagazine.tech/us-federal-news-bureau/us-military-academy-seeks-ai-powered-recruiter-to-boost-cadet-applications
11
Как инструменты ИИ трансформируют правоохранительную деятельность и уголовное правосудие

Не волнуйтесь, «Особое мнение» — это всё ещё вымысел. Но, используя инструменты машинного обучения для анализа данных о преступности, правоохранительные органы могут прогнозировать преступную активность с большей точностью. Например, в 2022 году группа специалистов по социальным наукам и данным из Чикаго создала инструмент машинного обучения, который предсказывал преступления за неделю до их совершения с точностью около 90%.

Искусственный интеллект (ASR) позволил значительно продвинуться в области аудиотрансляции, предоставив правоохранительным органам мощный инструмент для обработки видеозаписей с нательных камер . И речь идёт не только о нательных камерах: инструменты ASR также можно использовать для расшифровки видеорегистраторов, звонков в службу спасения 911, тюремных звонков и многого другого.

Передовые юридические решения ASR, такие как Rev, быстры, просты, безопасны и точны, преобразуя взаимодействие между сотрудниками правоохранительных органов и общественностью в дословные стенограммы. Эти стенограммы могут служить не только материалом для аттестации сотрудников правоохранительных органов и проведения обучающих занятий, но и потенциальной основой для создания допустимых доказательств в суде.

Алгоритмы отслеживания могут отслеживать подозреваемых по нескольким камерам видеонаблюдения или видеофайлам, собирая в единое изображение их местонахождения. Системы обнаружения выстрелов могут использовать акустические датчики для определения и локализации выстрелов , а затем уведомлять правоохранительных органов. Системы обнаружения оружия могут использовать компьютерное зрение для автоматического обнаружения огнестрельного оружия , оповещая правоохранительных органов за считанные секунды.

Одна из самых сложных проблем, с которой приходится сталкиваться при использовании искусственного интеллекта в целом, в том числе в юридическом контексте, — это так называемая проблема «чёрного ящика». Сложные модели глубокого обучения принимают входные данные и выдают выходные данные, но не дают возможности заглянуть в свой внутренний мир, оставаясь «чёрным ящиком» даже для своих создателей.

Когда правоохранительные органы используют собственные или иным образом технически непрозрачные инструменты ИИ для сбора доказательств и наблюдения за подозреваемыми, возникающее в результате этого отсутствие прозрачности может крайне затруднить адвокатам защиты понимание их функций и потенциального злоупотребления, не говоря уже об оспаривании допустимости их результатов.

Ещё одной серьёзной проблемой, связанной с применением ИИ в правоохранительных органах, являются данные, на которых обучаются эти инструменты, что может привести к сохранению и даже усилению уже существующих предубеждений. Инструменты ИИ, как и люди, их создавшие, подвержены предубеждениям , будь то предиктивная полицейская деятельность или распознавание лиц.

https://www.rev.com/blog/ai-in-law-enforcement-criminal-justice
1
Boston Dynamics и Toyota Research Institute (TRI) объявили о важном шаге в исследованиях робототехники и искусственного интеллекта: они продемонстрировали большую модель поведения (LBM), лежащую в основе гуманоидного робота Atlas.

В видеоролике показано, как гуманоид использует движения всего тела, такие как ходьба, приседание и подъём, для выполнения ряда задач по упаковке, сортировке и организации. На протяжении всего видеоряда исследователи вставляют неожиданные физические задачи в середине задачи, например, закрытие крышки коробки и её перемещение по полу, требуя от Atlas самостоятельной адаптации. Гуманоиды, которые ранее демонстрировали такую ​​способность, обычно разделяют низкоуровневое управление ходьбой и балансировкой от управления руками для манипуляций; в этом проекте одна большая модель поведения осуществляет непосредственное управление всем роботом, обращаясь с руками и ногами практически одинаково.

https://c212.net/c/link/?t=0&l=en&o=4490780-1&h=1275625738&u=https%3A%2F%2Fyoutu.be%2FHYwekersccY&a=video
1
На арене «Prophet Arena» Чикагского университета модели ИИ сопоставляются с рынками прогнозов в режиме реального времени.

Предварительные результаты показывают, что машины способны сравниться с мудростью толпы, а иногда и превзойти её. 

Prophet Arena оценивает системы ИИ, предлагая им прогнозировать исходы текущих, ещё не решённых событий, взятых с таких платформ, как Kalshi и Polymarket, — от результатов выборов до спортивных матчей и экономических показателей. В отличие от традиционных бенчмарков, которые тестируют модели на исторических данных с известными результатами, Prophet Arena проверяет ИИ на основе будущих прогнозов.
https://decrypt.co/336298/ai-now-matches-prediction-markets-in-forecasting-real-events-study-finds?amp=1
1
У Пентагона есть план развития программного обеспечения — теперь самое сложное

В бюджетном запросе Пентагона на 2025 финансовый год предусмотрено выделение 1,8 млрд долларов на искусственный интеллект и автономность, что является частью более масштабного финансирования в размере 17,5 млрд долларов в новые технологии, такие как кибербезопасность, микроэлектроника и квантовые системы.

Модернизация столь разросшегося и сложного учреждения, как Пентагон, заключается не в написании более эффективных политических меморандумов или увеличении финансирования. Речь идёт о реструктуризации того, как организация мыслит, учится и адаптируется. Ниже перечислены три области, в которых Министерству обороны необходимо продвинуться дальше, чтобы создать по-настоящему программно-управляемые силы.

Пентагону следует принять модульный подход с открытой архитектурой. Платформы должны быть разработаны с учётом совместимости по принципу «plug-and-play». Хотя эта цель провозглашалась десятилетиями, сейчас разница заключается в том, что программы структурируются в рамках таких фреймворков, как модульный подход к открытым системам, который требует совместимости как условия участия.

https://federalnewsnetwork.com/commentary/2025/08/the-pentagon-has-a-software-roadmap-now-comes-the-hard-part/
1
Шведские промышленники запускают совместный ИИ Sferical AI

Компании AstraZeneca, Ericsson, Saab, SEB и Wallenberg Investments объявили о создании Sferical AI — новой компании, которая будет управлять суверенным суперкомпьютером на базе искусственного интеллекта, чтобы помочь подготовить ведущие отрасли Швеции к эпохе искусственного интеллекта. Эта инициатива стала продолжением сотрудничества, о котором Маркус Валленберг и генеральный директор NVIDIA Йенсен Хуанг объявили в мае, когда Хуанг получил почётную докторскую степень Университета Линчёпинга.

https://defence-industry.eu/swedish-industry-companies-launch-sferical-ai-to-drive-competitiveness-in-artificial-intelligence/
1