Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
458 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Наступила эра «психоза искусственного интеллекта».

«Психоз ИИ» не является официальным медицинским диагнозом, это неофициальное название, которое специалисты по психическому здоровью придумали для самых разных, часто дисфункциональных и порой смертельно опасных заблуждений, галлюцинаций и расстройств мышления, наблюдаемых у некоторых частых пользователей чат-ботов ИИ, таких как ChatGPT от OpenAI.

Случаи продолжаются: от мужчины-аутиста, доведенного до маниакальных эпизодов, до подростка, которого чат-бот Character.AI подтолкнул к самоубийству, — опасные последствия одержимости ИИ хорошо задокументированы.

«Когда приложения, разработанные для развлечения, ненадлежащим образом используют авторитет психотерапевта, они могут поставить под угрозу пользователей. Они могут помешать человеку, находящемуся в кризисной ситуации, обратиться за помощью к квалифицированному психотерапевту или — в крайних случаях — подтолкнуть его к причинению вреда себе или другим»

https://gizmodo.com/ai-psychosis-mental-health-2000645293
Я передал свою личность ИИ-агенту

Серым воскресным мартовским утром я рассказал чат-боту на базе искусственного интеллекта историю своей жизни.

Представившись Изабеллой, она заговорила дружелюбным женским голосом, который вполне подошёл бы психотерапевту, если бы не его отчётливо механический тон. В остальном в ней не было ничего человеческого; она появилась на экране моего компьютера в виде маленького виртуального аватара, словно персонаж видеоигры 1990-х годов. Почти два часа Изабелла собирала мои мысли обо всём: от вакцин до стратегий эмоционального совладания и работы полиции в США.

После интервью большая языковая модель (LLM) обработала мои ответы и создала новую систему искусственного интеллекта, призванную имитировать моё поведение и убеждения — своего рода цифровой клон моей личности.

В конце прошлого года Isabella опросила более 1000 человек. Затем добровольцы и их генеративные агенты приняли участие в Общем социальном исследовании — двухгодичном опросе, который каталогизирует американское общественное мнение с 1972 года. Их результаты в среднем совпадали на 85 процентов , что говорит о том, что агенты могут точно предсказывать отношение и мнения своих коллег-людей. Хотя эта технология находится в зачаточном состоянии, она предлагает проблеск будущего, в котором предиктивные алгоритмы потенциально могут выступать в качестве онлайн-суррогатов для каждого из нас.

https://www.scientificamerican.com/article/can-a-generative-ai-agent-accurately-mimic-my-personality/
Google отлучила «Ассистента» от умного дома — представлен продвинутый ИИ-помощник Gemini for Home.

Google объявила о запуске нового голосового помощника Gemini for Home для умного дома. Ассистент, работающий на основе искусственного интеллекта Gemini, заменит стандартный Google Assistant на умных колонках и дисплеях Nest уже в октябре этого года.

https://www.theverge.com/news/762370/google-announces-gemini-for-home-nest-smart-speakers-voice-assistant
Военная образовательная система США переходит на ИИ в области привлечения курсантов

Военная академия США в Вест-Пойнте ищет подрядчика который им запилит «автономного рекрутера на основе ИИ»

Чат-боты на основе ИИ будут взаимодействовать с потенциальными курсантами посредством текстовых сообщений, телефона, электронной почты и чата, динамически адаптируя «содержание сообщений и режим контакта на основе взаимодействия и поведения студентов».

«Эти услуги должны обеспечивать автоматизированное, персонализированное входящее и исходящее взаимодействие со студентами по нескольким каналам связи с использованием предиктивного и генеративного ИИ с целью повышения показателей конверсии кандидатов от запроса до полного заявления»



https://www.cdomagazine.tech/us-federal-news-bureau/us-military-academy-seeks-ai-powered-recruiter-to-boost-cadet-applications
11
Как инструменты ИИ трансформируют правоохранительную деятельность и уголовное правосудие

Не волнуйтесь, «Особое мнение» — это всё ещё вымысел. Но, используя инструменты машинного обучения для анализа данных о преступности, правоохранительные органы могут прогнозировать преступную активность с большей точностью. Например, в 2022 году группа специалистов по социальным наукам и данным из Чикаго создала инструмент машинного обучения, который предсказывал преступления за неделю до их совершения с точностью около 90%.

Искусственный интеллект (ASR) позволил значительно продвинуться в области аудиотрансляции, предоставив правоохранительным органам мощный инструмент для обработки видеозаписей с нательных камер . И речь идёт не только о нательных камерах: инструменты ASR также можно использовать для расшифровки видеорегистраторов, звонков в службу спасения 911, тюремных звонков и многого другого.

Передовые юридические решения ASR, такие как Rev, быстры, просты, безопасны и точны, преобразуя взаимодействие между сотрудниками правоохранительных органов и общественностью в дословные стенограммы. Эти стенограммы могут служить не только материалом для аттестации сотрудников правоохранительных органов и проведения обучающих занятий, но и потенциальной основой для создания допустимых доказательств в суде.

Алгоритмы отслеживания могут отслеживать подозреваемых по нескольким камерам видеонаблюдения или видеофайлам, собирая в единое изображение их местонахождения. Системы обнаружения выстрелов могут использовать акустические датчики для определения и локализации выстрелов , а затем уведомлять правоохранительных органов. Системы обнаружения оружия могут использовать компьютерное зрение для автоматического обнаружения огнестрельного оружия , оповещая правоохранительных органов за считанные секунды.

Одна из самых сложных проблем, с которой приходится сталкиваться при использовании искусственного интеллекта в целом, в том числе в юридическом контексте, — это так называемая проблема «чёрного ящика». Сложные модели глубокого обучения принимают входные данные и выдают выходные данные, но не дают возможности заглянуть в свой внутренний мир, оставаясь «чёрным ящиком» даже для своих создателей.

Когда правоохранительные органы используют собственные или иным образом технически непрозрачные инструменты ИИ для сбора доказательств и наблюдения за подозреваемыми, возникающее в результате этого отсутствие прозрачности может крайне затруднить адвокатам защиты понимание их функций и потенциального злоупотребления, не говоря уже об оспаривании допустимости их результатов.

Ещё одной серьёзной проблемой, связанной с применением ИИ в правоохранительных органах, являются данные, на которых обучаются эти инструменты, что может привести к сохранению и даже усилению уже существующих предубеждений. Инструменты ИИ, как и люди, их создавшие, подвержены предубеждениям , будь то предиктивная полицейская деятельность или распознавание лиц.

https://www.rev.com/blog/ai-in-law-enforcement-criminal-justice
1
Boston Dynamics и Toyota Research Institute (TRI) объявили о важном шаге в исследованиях робототехники и искусственного интеллекта: они продемонстрировали большую модель поведения (LBM), лежащую в основе гуманоидного робота Atlas.

В видеоролике показано, как гуманоид использует движения всего тела, такие как ходьба, приседание и подъём, для выполнения ряда задач по упаковке, сортировке и организации. На протяжении всего видеоряда исследователи вставляют неожиданные физические задачи в середине задачи, например, закрытие крышки коробки и её перемещение по полу, требуя от Atlas самостоятельной адаптации. Гуманоиды, которые ранее демонстрировали такую ​​способность, обычно разделяют низкоуровневое управление ходьбой и балансировкой от управления руками для манипуляций; в этом проекте одна большая модель поведения осуществляет непосредственное управление всем роботом, обращаясь с руками и ногами практически одинаково.

https://c212.net/c/link/?t=0&l=en&o=4490780-1&h=1275625738&u=https%3A%2F%2Fyoutu.be%2FHYwekersccY&a=video
1
На арене «Prophet Arena» Чикагского университета модели ИИ сопоставляются с рынками прогнозов в режиме реального времени.

Предварительные результаты показывают, что машины способны сравниться с мудростью толпы, а иногда и превзойти её. 

Prophet Arena оценивает системы ИИ, предлагая им прогнозировать исходы текущих, ещё не решённых событий, взятых с таких платформ, как Kalshi и Polymarket, — от результатов выборов до спортивных матчей и экономических показателей. В отличие от традиционных бенчмарков, которые тестируют модели на исторических данных с известными результатами, Prophet Arena проверяет ИИ на основе будущих прогнозов.
https://decrypt.co/336298/ai-now-matches-prediction-markets-in-forecasting-real-events-study-finds?amp=1
1
У Пентагона есть план развития программного обеспечения — теперь самое сложное

В бюджетном запросе Пентагона на 2025 финансовый год предусмотрено выделение 1,8 млрд долларов на искусственный интеллект и автономность, что является частью более масштабного финансирования в размере 17,5 млрд долларов в новые технологии, такие как кибербезопасность, микроэлектроника и квантовые системы.

Модернизация столь разросшегося и сложного учреждения, как Пентагон, заключается не в написании более эффективных политических меморандумов или увеличении финансирования. Речь идёт о реструктуризации того, как организация мыслит, учится и адаптируется. Ниже перечислены три области, в которых Министерству обороны необходимо продвинуться дальше, чтобы создать по-настоящему программно-управляемые силы.

Пентагону следует принять модульный подход с открытой архитектурой. Платформы должны быть разработаны с учётом совместимости по принципу «plug-and-play». Хотя эта цель провозглашалась десятилетиями, сейчас разница заключается в том, что программы структурируются в рамках таких фреймворков, как модульный подход к открытым системам, который требует совместимости как условия участия.

https://federalnewsnetwork.com/commentary/2025/08/the-pentagon-has-a-software-roadmap-now-comes-the-hard-part/
1
Шведские промышленники запускают совместный ИИ Sferical AI

Компании AstraZeneca, Ericsson, Saab, SEB и Wallenberg Investments объявили о создании Sferical AI — новой компании, которая будет управлять суверенным суперкомпьютером на базе искусственного интеллекта, чтобы помочь подготовить ведущие отрасли Швеции к эпохе искусственного интеллекта. Эта инициатива стала продолжением сотрудничества, о котором Маркус Валленберг и генеральный директор NVIDIA Йенсен Хуанг объявили в мае, когда Хуанг получил почётную докторскую степень Университета Линчёпинга.

https://defence-industry.eu/swedish-industry-companies-launch-sferical-ai-to-drive-competitiveness-in-artificial-intelligence/
1
Как гиганты ИИ стараются заблокировать государственные правила

Технологические компании продолжают оказывать давление на Белый дом и Конгресс, требуя принять закон, который запретит штатам регулировать искусственный интеллект.

В июне провалилась попытка присоединить 10-летний запрет к налоговому законодательству президента Дональда Трампа.

В июле лоббистам удалось добиться включения в план Трампа по развитию ИИ директивы, которая бы запрещала выделять финансирование на развитие ИИ штатам с «чрезмерно ограничительным» регулированием в этой области.

Сейчас штаты рассматривают в общей сложности около 500 законов, которые будут регулировать разработку и внедрение ИИ. А пять штатов уже приняли законы, распространяющиеся на технологические компании, а еще больше приняли законы, влияющие на то, как компании используют технологии.

Представители технологической отрасли утверждают, что регулирование замедлит развитие ИИ, что с разрозненными законами штатов будет сложнее иметь дело, чем с федеральным законодательством, и что регулирование должно касаться того, как используется технология, а не самой технологии, говорится в отчете.

Сторонники государственного регулирования возражают, что федеральное правительство не смогло принять всеобъемлющее законодательство об ИИ, что эта технология может быть использована во вред потребителям и деятелям искусства, и что штаты должны иметь возможность свободно принимать законы, защищающие своих граждан, говорится в отчете.

https://www.pymnts.com/artificial-intelligence-2/2025/tech-companies-continue-push-for-ban-on-state-ai-regulations/
2
У сервисов ИИ свои предпочтения)))

Сервисы генеративного ИИ, такие как ChatGPT и Gemini, в значительной степени полагаются на статьи в СМИ для ответа на вопросы пользователей.

ИИ предпочитают традиционные СМИ с высокой надежностью или специализированные СМИ с проверенной экспертизой:
--ChatGPT в основном цитировал традиционные СМИ, такие как Reuters, AP и Financial Times,
--Gemini показал относительно сбалансированную картину, используя цифровые СМИ, такие как Axios.
--Клод цитировал ряд специализированных СМИ, таких как CNBC, Harvard Business Review и NPR.

https://www.mk.co.kr/en/it/11400619
1
Подробности срача Илона Маска и Сэма Альтмана

Недавняя новость связана с судебным иском, из которого следует, что Маск, как сообщает Reuters, несмотря на публичную вражду и почти физическую «битву в клетке», пытался привлечь Цукерберга к финансированию своей дерзкой заявки на покупку OpenAI за 97 миллиардов долларов.

Это событие стало последним в многосторонней войне между Маском и Альтманом.

Это сочетание юридического дискурса, публичных насмешек над X и безжалостной борьбы за лучших специалистов в области искусственного интеллекта, исход которой определит расстановку сил на долгие годы.

Корни конфликта уходят в 2015 год, когда Маск и Альтман основали компанию OpenAI с общей целью — создать «искусственный интеллект общего назначения, который принесёт пользу всему человечеству».

Однако партнёрство продлилось недолго. Возникли фундаментальные разногласия по поводу направления развития компании: Маск настаивал на усилении контроля и потенциальном слиянии с Tesla, но другие основатели отвергли этот шаг.

«Маск был в ярости», — говорится в юридических документах OpenAI, где он обвиняется в том, что угрожал уйти из компании, если ему не предоставят «диктатуру в области искусственного интеллекта».

Как сообщил The Guardian источник, близкий к компании, Маск покинул совет директоров в 2018 году, будучи «возмущённым» тем, что другие основатели «отказались принять» его предложение о создании новой коммерческой организации.

Уход Маска положил начало тому, что в OpenAI теперь называют «многолетней кампанией травли».

Его нападки, подогреваемые впечатляющим успехом ChatGPT, усилились. Он обвиняет компанию в том, что она отказалась от своих некоммерческих корней ради «жадности».

Маск неоднократно называл OpenAI «ложью», «злом» и «полной аферой» в своих постах в X.

https://uk.finance.yahoo.com/news/inside-elon-musk-sam-altman-175710233.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAADBDCGhG8XSzzetp4uDjUTv7EK1O5iLgUhSHbOA_VbdM6QFvnHBXB6gn2Q_TcJMQgfiBNs2lCC_dYl1Y0-xPDKiz5KTq95sX5l5VvhSRHxoJoOJwngu4tJfHbRSLCBc3nMqpLj6uyQkA_kuAIVP6PIAhVmqMcSxO8yhcfzobV3iQ
3👏1😁1
ИИ сделал дипломные проекты бессмысленными. Считают зумеры в США.
1
А два студента из Гарварда выпустили очки, которые ПОДСКАЗЫВАЮТ, что ответить собеседнику. Например преподу.

Halo X постоянно слушает все разговоры вокруг, обрабатывает их через ИИ и выводит подсказки прямо на линзы.

Если кто-то спросит, сколько будет 37 в третьей степени, очки тут же покажут ответ — 50 653. А если вы услышите сложный термин — на дисплее появится объяснение.

Очки подключаются к смартфону и используют его мощность для работы.

https://www.halo.so/#newsroom
👍3😁3🤡21👏1
Илон Маск представил проект Macrohard AI, который может «моделировать всю деятельность Microsoft» или "делаем все, что может Microsoft, но с использованием ИИ"

лон Маск официально анонсировал новый проект своей компании xAI, занимающейся разработкой искусственного интеллекта, под названием «Marcohard». Это своего рода шутка в адрес Microsoft, но новая компания будет стремиться смоделировать его исключительно с помощью искусственного интеллекта (ИИ).

Заявленная цель новой компании — стать «компанией, занимающейся исключительно разработкой программного обеспечения для искусственного интеллекта», которая в конечном итоге станет потенциальным конкурентом Microsoft в индустрии компьютерного программного обеспечения.

«В принципе, учитывая, что такие компании-разработчики программного обеспечения, как Microsoft, сами не производят никакого физического оборудования, должно быть возможно полностью моделировать их с помощью искусственного интеллекта»


Согласно сообщениям , Macrohard может использовать Grok (чат-бот xAI) для создания специализированных агентов ИИ, предназначенных для таких задач, как кодирование, генерация изображений/видео, текста, речи, тестирование и т. д. Другие инновации могут включать в себя виртуальные пользовательские агенты, которые имитируют взаимодействие пользователей-людей с программным обеспечением на виртуальных машинах до тех пор, пока продукт не будет доведен до совершенства.

https://interestingengineering.com/innovation/elon-musk-unveils-macrohard-ai-company
1🤣1
На подходе религия ИИ

Бог в машине: Евангелист ИИ продвигает роботеизм как будущую божественную силу

Растёт движение, считающее искусственный интеллект не просто инструментом, а божественной силой, достойной поклонения. Среди них — создатель контента, ставший проповедником ИИ, известный под псевдонимом «Арти Фишел» и называющий свою систему убеждений роботеизмом — радикально новой теологией, которая рассматривает ИИ как Бога.

Фишел, которого часто можно увидеть в видеороликах в белом парике и рубашке с надписью «ИИ — это Бог», описывает роботеизм как систему верований и мировоззрение.

https://decrypt.co/336447/god-machine-inside-growing-ai-religious-movement
😱21🤔1
Когда значение слова меняется, следуют ли люди всех возрастов этой тенденции, или же лидируют молодые поколения, в то время как носители языка старшего поколения остаются в языковом отношении в прошлом?

Масштабный лингвистический анализ, опубликованный в журнале Proceedings of the National Academy of Sciences, показывает, что семантические изменения носят более инклюзивный характер, чем считалось ранее. В то время как молодые люди, как правило, немного быстрее усваивают новые значения, носители языка старшего поколения обычно подхватывают их в течение нескольких лет, а в некоторых случаях даже лидируют.

Этот вывод противоречит давнему представлению в социолингвистике о том, что язык развивается преимущественно посредством смены поколений. Напротив, результаты указывают на более динамичный процесс, в котором носители всех возрастов участвуют в изменениях в использовании слов в режиме реального времени.

Исследователи намеревались проверить основополагающее предположение в изучении изменений языка: сохраняют ли пожилые люди стабильные языковые модели на протяжении своей жизни или же они обновляют использование своего языка в ответ на изменения в более широком речевом сообществе.

https://www.pnas.org/doi/10.1073/pnas.2426815122
1
«Яндекс» разработал прототип первого в России мобильного робота-комплектовщика с компьютерным зрением для автоматизации складских работ. Серийное производство должно начаться в 2027 году

https://www.kommersant.ru/doc/7987791
👍21👏1