Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
Субтитры разума: развивающийся текст описания ментального содержания, полученного в результате деятельности человеческого мозга

Нейробиологи представили технологию, которая приближает нас к чтению мыслей — в буквальном смысле.

Исследование под названием «Mind Captioning: Evolving Denoscriptive Text of mind content from Human Brain Activity» («Ввод текста в сознание: развитие описательного текста ментального содержания на основе активности человеческого мозга») представляет модель искусственного интеллекта , способную генерировать описательный текст того, что человек видит или вспоминает, путем декодирования паттернов мозговой активности, полученных с помощью фМРТ.

Система, разработанная доктором Томоясу Хорикавой и его командой в NTT Communication Science Laboratories в Японии, работает в два этапа. Сначала ИИ декодирует сигналы мозга, связанные со зрительным восприятием, используя линейные модели. Затем другая модель ИИ, обученная с помощью моделирования языка масок, преобразует эти декодированные сигналы в связные текстовые описания.

Проще говоря, ИИ считывает реакции вашего мозга на то, что вы видите или воображаете, и преобразует их в предложения, например: «Человек прыгает через глубокий водопад на горном хребте».

Точность поразительна. Когда участники смотрели видео, ИИ правильно описывал сцены почти в 50% случаев из 100 — это намного превышает случайность. Что ещё более примечательно, он мог описывать воспоминания с точностью до 40%, демонстрируя свою способность использовать ментальные образы и память, а не только восприятие.

https://www.science.org/doi/10.1126/sciadv.adw1464
OpenAI получила семь исков, связывающими ChatGPT с самоубийствами пользователей и причинением им психического вреда

В настоящее время компания Open AI сталкивается с семью исками в судах штата Калифорния, в которых утверждается, что ее чат-бот на основе искусственного интеллекта ChatGPT был причастен к самоубийствам людей и вызвал серьезные психологические расстройства.

Семь жалоб были поданы шестью взрослыми и подростком в Центр правовой защиты жертв социальных сетей и Проект правовой справедливости в области технологий. В них утверждается, что Open AI несет ответственность за неправомерную смерть, помощь в самоубийстве и халатность.

Серьезные меры были приняты в качестве необходимого следствия Open AI и продуманного решения Сэмюэля Альтмана внедрить правила безопасности.

Эти иски в первую очередь направлены на установление ответственности за размывание границ между инструментом и помощником, особенно с учетом того, что акцент на повышении вовлеченности пользователей ставит доминирование на рынке выше безопасности пользователей.

Текущие случаи отражают широко распространенные проблемы, связанные с психологическими рисками разговорного ИИ, которые могут причинить вред людям, использующим технологию.

Кроме того, семь исков, поданных против Open AI, находятся на рассмотрении в Калифорнии. Подобные трагические проблемы возникают, когда люди полностью полагаются на платформы разговорного ИИ.

https://en.yenisafak.com/technology/openai-faces-lawsuits-alleging-chatgpt-contributed-to-suicides-3710379
Вредоносное ПО теперь использует ИИ для переписывания собственного кода, чтобы избежать обнаружения

Исследователи из группы анализа угроз Google (GTIG) обнаружили, что хакеры создают вредоносное ПО, которое может использовать возможности больших языковых моделей (LLM) для самопереписывания на лету.

Экспериментальное семейство вредоносных программ, получившее название PROMPTFLUX, идентифицированное GTIG в недавнем сообщении в блоге , может переписывать свой собственный код, чтобы избежать обнаружения.

https://futurism.com/artificial-intelligence/malware-using-rewrite-code-avoid-detection
Как Карп манпулирует страхом элит для получения новых гос-контрактов

Алекс Карп из компании Palantir утверждает, что государство, осуществляющее надзор, предпочтительнее победы Китая в гонке за искусственный интеллект, что вновь открывает дискуссию о том, насколько далеко должны зайти демократии ради защиты технологического доминирования.

Генеральный директор Palantir Technologies Алекс Карп вновь разжег глобальную дискуссию об этике и власти искусственного интеллекта. В недавнем интервью Axios он заявил, что слежка в демократических системах представляет меньшую опасность, чем допущение доминирования Китая в сфере искусственного интеллекта.

Карп охарактеризовал глобальное состязание за лидерство в сфере ИИ как необходимую конфронтацию, настаивая на том, что «несовершенная свобода» в прозрачных обществах по-прежнему предпочтительнее «совершенного контроля» в условиях авторитарного правления.

Его замечания прозвучали в то время, когда правительства всё чаще рассматривают ИИ как инструмент национального выживания. Однако аргумент Карпа переводит дискуссию в гораздо более спорную плоскость, предполагая, что демократические страны должны смириться с масштабным наблюдением, если они хотят сохранить технологический суверенитет.

https://morningtick.com/post/palantir-ceo-surveillance-lesser-risk/
Связи гиганта ИИ Anthropic с крупными донорами-демократами и культовым движением «Эффективный альтруизм» (Effective altruism)

Компанию Anthropic, стоящую за чат-ботом Claude, возглавляет генеральный директор Дарио Амодеи, 42-летний физик, выпускник Принстона, который однажды назвал Трампа «феодальным военачальником» в ныне удаленном посте в социальной сети и поддержал Камалу Харрис на пост президента в 2024 году.

Изначально компания из Сан-Франциско полагалась на денежные средства от лидеров леворадикального движения «Эффективный альтруизм»и крупных доноров-демократов, таких как SBF, с момента своего основания — факт, который не ускользнул от внимания ключевых фигур в окружении Трампа, сообщили The Post источники, близкие к ситуации.

«Anthropic был просто на пике влияния при Байдене. Любой чиновник, которого Байден привлекал в качестве советника, будь то официальный или неофициальный, придерживался этого эффективного альтруистического мировоззрения», — сказал Лимер. «Они жили на широкую ногу четыре года с 2021 по 2024, и для них это стало полной переменой».

Соучредителями Anthropic являются брат и сестра Дарио Амодеи и Даниэла Амодеи.

Сестра Дарио Амодеи, Даниэла, замужем за Холденом Карнофски, которого широко считают одним из лидеров движения «Открытая филантропия». Он занимал пост генерального директора Open Philanthropy, прежде чем в прошлом году уйти в отставку и занять должность в Anthropic.

В совет директоров Anthropic входит соучредитель Netflix Рид Хастингс, богатый демократ. Среди других крупных спонсоров — соучредитель LinkedIn Рид Хоффман, ярый противник Республиканской партии.

В число инвесторов Anthropic также входит Ford Foundation, левая группа, недавно раскритикованная вице-президентом Дж. Д. Вэнсом за то, что она является частью того, что он назвал «сетью НПО, которая разжигает, способствует и участвует в насилии» после убийства консервативного активиста Чарли Кирка.

«Эффективный альтруизм»
Популярный среди крупных воротил Кремниевой долины, «Эффективный альтруизм» призывает своих приверженцев направлять свои средства на те цели, которые, по их мнению, принесут наибольшую пользу человечеству в будущем. Эти цели, которые последователи называют «долгосрочным альтруизмом» , включают изменение климата, предотвращение пандемий и почти одержимость жёстким регулированием искусственного интеллекта.

«Они считают, что лишь горстка людей может контролировать доступ к технологиям, и что ИИ, если не окажется в их руках, будет использован для уничтожения мира», — сказал Натан Лимер, бывший политический советник Федеральной комиссии по связи и генеральный директор Fixed Gear Strategies.

https://nypost.com/2025/11/09/business/ai-giant-anthropics-ties-to-cult-like-effective-altruism-democrat-megadonors-on-trump-admins-radar/
Центры обработки данных сталкиваются с сопротивлением из-за экологических проблем на фоне распространения ИИ-технологий в Латинской Америке  https://www.theguardian.com/technology/2025/nov/10/data-centers-latin-america
Huawei стала больше зарабатывать на патентах, но на разработки всё равно тратит в десятки раз больше

Конечно, как поясняет Nikkei Asian Review, указанная сумма составляет менее чем 1 % общей выручки Huawei Technologies, которая достигла $118,16 млрд, но положительная динамика лицензионных отчислений в адрес компании всё равно отслеживается. Данные по итогам 2023 года опубликованы не были, а в 2022 году она выручила на этом направлении $560 млн. Таким образом, за пару лет сумма лицензионных отчислений выросла на 12,5 %. Впрочем, сама Huawei за этот период заплатила прочим компаниям почти в три раза больше лицензионных отчислений, чем получила от них.

https://asia.nikkei.com/business/technology/huawei-flags-630mn-in-revenue-from-licensing-patents-and-technology
👍1
«Мы приближаемся к созданию ИИ, который сможет ускорить научные открытия и помочь решить сложные проблемы способами, которые раньше были невозможны», — заявил в пресс-релизе генеральный директор Anthropic Дарио Амодеи  https://www.theguardian.com/technology/2025/nov/12/anthropic-50bn-datacenter-construction
🤔1
Новая система обучения с подкреплением позволяет большим языковым моделям проверять и совершенствовать себя, используя реальные данные вместо специально подобранных обучающих наборов 
https://www.infoworld.com/article/4088517/metas-spice-framework-pushes-ai-toward-self-learning-without-human-supervision.html
RAND имитирует «бунт роботов» для проверки готовности США

В новом отчете корпорации RAND, основанном на результатах имитационного сценария кибератаки «Робот-бунт», сделан вывод о том, что Соединенные Штаты не готовы отреагировать на крупномасштабный кризис, вызванный неконтролируемым искусственным интеллектом.

В исследовании подчеркиваются критические пробелы в возможностях, включая быстрый анализ ИИ, устойчивую инфраструктуру и отсутствие скоординированных стратегий реагирования на кризисы или механизмов международного сотрудничества для чрезвычайных ситуаций с использованием ИИ.

Учения RAND были разработаны для моделирования реакции Совета национальной безопасности на чрезвычайную ситуацию, связанную с искусственным интеллектом. Участники, включая бывших высокопоставленных правительственных чиновников и аналитиков, играли роли членов кабинета министров, консультирующих вымышленного президента. На первом этапе сценария Соединенные Штаты столкнулись с волной кибератак, нацеленных на автономные автомобили, промышленных роботов и критически важные инфраструктурные системы, такие как электро- и водоснабжение. В результате этих атак погибли 26 человек в Лос-Анджелесе, а также был нанесен значительный ущерб.

Согласно отчёту, участники сразу же столкнулись с трудностью определения того, кто — или что — несёт ответственность. Исследователи RAND обнаружили, что неопределённость атрибуции «стала ключевой аналитической потребностью», поскольку выбор ответа полностью зависел от того, кто, по их мнению, стоял за атакой. Ответы сильно различались в зависимости от того, считали ли участники виновником Китай, террористическую группировку или независимую систему искусственного интеллекта.

https://www.rand.org/pubs/research_reports/RRA4231-1.html
🤔1
Учёные из Научного центра Токио разработали первую в мире автоматическую и адаптивную двухрежимную оптическую беспроводную систему передачи энергии на основе светодиодов, которая без проблем работает как в условиях слабого, так и яркого освещения. Система, наряду с технологией распознавания изображений на основе искусственного интеллекта, способна эффективно и бесперебойно питать несколько устройств. Благодаря использованию светодиодов, она представляет собой недорогое и безопасное решение, идеально подходящее для создания устойчивой инфраструктуры Интернета вещей в помещениях.   https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html https://techxplore.com/news/2025-11-ai-powered-stable-wireless-power.html
🤔1
Google потратит на строительство трёх новых ЦОД в Техасе $40 млрд.

Техас стал тем американским штатом, в котором крупные игроки облачного сегмента и амбициозные стартапы охотно возводят центры обработки данных, и в этом смысле Google не желает отставать от OpenAI, Anthropic или xAI. Интернет-гигант направит на строительство трёх новых ЦОД в Техасе $40 млрд.

https://www.bloomberg.com/news/articles/2025-11-14/google-to-invest-40-billion-in-new-data-centers-in-texas?srnd=phx-technology
ИИ не только решает проблемы, но и создаёт их

Рассмотрим организацию, которая обратилась к искусственному интеллекту для управления правилами брандмауэра. Идея была проста: позволить искусственному интеллекту непрерывно генерировать правила и обеспечивать их соблюдение, чтобы сеть оставалась защищенной в режиме реального времени. На бумаге это работало. Искусственный интеллект обеспечивал стабильное соблюдение правил и даже приносил хорошую прибыль.

Но когда за дело взялись аудиторы, они обнаружили проблему. Вместо того чтобы объединить правила, ИИ просто накладывал их друг на друга. Набор правил из 2000 строк превратился в набор из более чем 20 000 строк. В нём были противоречия, избыточность и дублирование.

Для операторов сеть работала. Но для специалистов по соблюдению нормативных требований это был кошмар. Чтобы продемонстрировать сегментацию конфиденциальных сред, как того требуют федеральные нормативные акты и стандарты безопасности данных индустрии платёжных карт, нужно было построчно просмотреть 20 000 правил. ИИ упростил контроль, но сделал его практически невозможным.

https://federalnewsnetwork.com/commentary/2025/11/ai-is-solving-problems-its-also-creating/
😁1
Похоже Трамп выбрал слеующую IT-жертву...

В меморандуме о национальной безопасности Белого дома утверждается, что Alibaba Group Holding Ltd. оказывала технологическую поддержку китайским военным в их операциях против целей в США.

В отчёте утверждается, что Alibaba также предоставляла правительству и военным Китая доступ к данным клиентов, включая IP-адреса, информацию о Wi-Fi, платёжные данные и услуги, связанные с искусственным интеллектом.

В сентябре республиканцы, возглавляющие комитеты Палаты представителей по Китаю и национальной безопасности, выступили против предоставления Alibaba доступа к местной инфраструктуре во время летних Олимпийских игр, обвинив компанию в том, что она «крайне важна» для операций китайского правительства по наблюдению и сбору разведданных.

https://www.bloomberg.com/news/articles/2025-11-15/white-house-memo-claims-alibaba-has-china-military-ties-ft-says
Хакеры с помощью нейросети впервые сама атаковала 30 сайтов крупных компаний — под ударом оказались финансовые учреждения, госкомпании, крупные бигтехи и даже химический завод.

90% работы автономно выполнил ИИ: сканирование угроз, поиск уязвимостей и их эксплуатация.

https://assets.anthropic.com/m/ec212e6566a0d47/original/Disrupting-the-first-reported-AI-orchestrated-cyber-espionage-campaign.pdf
👍1
В сентябре было обнаружено, что хакеры, стоящие за китайским правительством, использовали сервис искусственного интеллекта (ИИ) «Claude» американской компании Anslogic для взлома иностранных компаний и государственных учреждений.

Хакеры осуществили атаку одним нажатием кнопки, потребовав лишь минимального человеческого вмешательства, например, «да, продолжайте» или «не продолжайте». Anthropic заблокировала атаку и заблокировала учётную запись хакера, но до этого ей удалось взломать до четырёх систем. В одном случае хакерам также удалось выполнить запросы к внутренним базам данных и извлечь данные, отдав команду ИИ-инструменту Claude от Anthropic.

Компания Anthropic по итогам расследования не раскрыла список компаний и государственных учреждений, в которые пытались проникнуть хакеры, но сообщила, что обнаружила около 30 целей. Некоторым хакерам удалось похитить совершенно секретную информацию.

https://www.mk.co.kr/en/world/11469078
🔥1
Холодная война ИИ: трансформация глобальной динамики власти к 2025 году

Пекин придерживается философии «стаи против титанов», направляя огромные ресурсы в децентрализованные системы искусственного интеллекта и быстрые инновации.

Этот тактический маневр резко контрастирует с подходом США, который фокусируется на высокотехнологичных централизованных инновациях, возглавляемых такими гигантами отрасли, как OpenAI и Google.

Глобализация трансформируется в «реглобализацию», при этом США и Китай формируют расходящиеся технологические сферы. В статье утверждается, что демократии должны сотрудничать во всех секторах, чтобы эффективно двигаться в эту эпоху преобразований.

Выводы, опубликованные пользователями X, такими как Artificial Analysis, в мае 2025 года, подтверждают ключевые тенденции, формирующие ландшафт ИИ, особенно в отношении стремления к продвинутым моделям и вычислительной мощности. Лисан аль Гаиб в публикации от января 2025 года предвкушает анонсы ИИ и «фестиваля моделей» от таких лабораторий, как OpenAI и Google, что отражает неустанный темп инноваций.

https://www.rswebsols.com/news/the-ai-cold-war-transforming-global-power-dynamics-by-2025/
Заявление Anthropic о кибератаке с использованием искусственного интеллекта вызвало истерику в отрасли

В отчёте Anthropic утверждается, что раскрыта первая крупномасштабная кибератака с использованием искусственного интеллекта, проведённая китайской хакерской группой, спонсируемой государством, с использованием модели искусственного интеллекта Claude.

В отчете предлагается новая парадигма, в которой системы искусственного интеллекта самостоятельно выполняют сложные хакерские задачи: от обнаружения уязвимостей до осуществления кражи данных.в масштабах, ранее не достигавшихся усилиями исключительно человекаЭто утверждение вызвало серьёзную критику и скептицизм, особенно в отношении прозрачности и предполагаемой автономности ИИ по сравнению с человеческой помощью при проведении сложных кибератак. Критики утверждают, что подобные утверждения могут преувеличивать возможности ИИ влиять на регулирование, что отмечают как специалисты по технологиям, так и отраслевые эксперты.

Реакция общественности на заявления Anthropic о кибератаке с участием ИИ представляла собой смесь опасений, скептицизма и критики. Социальные сети, особенно X (ранее Twitter), бурно обсуждались исследователями ИИ, экспертами по кибербезопасности и техническими обозревателями. Янн Лекун из Meta открыто критиковал отчёт, назвав его примером «регуляторного театра» и предположив, что представление об угрозе автономного ИИ преувеличено. Его твиты отражают общее мнение в социальных сетях, которое ставит под сомнение истинный уровень автономности ИИ, заявленный Anthropic. Этот скептицизм разделяют и специалисты по безопасности, такие как Кевин Бомонт, которые требуют более веских доказательств для подтверждения заявлений об использовании ИИ в рамках заявленной атаки.

https://opentools.ai/news/anthropics-ai-driven-cyberattack-claim-triggers-industry-debates-and-skepticism
🤔1
Исследователи представили первую в истории защиту от криптоаналитических атак на ИИ

Новый защитный механизм основан на ключевом открытии, полученном исследователями в отношении криптоаналитических атак с извлечением параметров. Анализируя эти атаки, исследователи выявили ключевой принцип, на котором основывалась каждая из них. Чтобы понять их выводы, необходимо понимать базовую архитектуру нейронной сети.

Фундаментальный строительный блок модели нейронной сети называется «нейрон». Нейроны организованы в слои и используются последовательно для оценки входных данных и реагирования на них. После обработки данных нейронами первого слоя выходные данные этого слоя передаются во второй слой. Этот процесс продолжается до тех пор, пока данные не будут обработаны всей системой, после чего система определяет, как реагировать на входные данные.

«Мы заметили, что криптоаналитические атаки фокусируются на различиях между нейронами», — говорит Куриан. «И чем больше нейронов различаются, тем эффективнее атака. Наш защитный механизм основан на обучении модели нейронной сети таким образом, чтобы нейроны в одном слое модели были похожи друг на друга. Это можно сделать только в первом слое или в нескольких. Можно использовать все нейроны в слое или только для подмножества нейронов».

https://techxplore.com/news/2025-11-unveil-defense-cryptanalytic-ai.html
👍2
Добро пожаловать в «Состояние ИИ» — новый совместный проект Financial Times и MIT Technology Review. Каждый понедельник авторы обоих изданий обсуждают один из аспектов генеративной революции ИИ, меняющей расклад сил в мире.  https://www.technologyreview.com/2025/11/17/1127514/the-state-of-ai-the-new-rules-of-war/
Что такое проект «Прометей», соруководителем которого станет Джефф Безос?

Проект «Прометей» направлен на разработку ИИ, обучающегося на реальных процессах, и ориентирован на такие секторы, как аэрокосмическая промышленность и производство. Проект, соруководителем которого является Вик Баджадж, привлекает лучших специалистов из ведущих компаний, занимающихся разработкой ИИ.

Prometheus стремится разработать ИИ, способный обучаться на реальных процессах, а не только на цифровых данных, ориентируясь на такие области, как аэрокосмическая промышленность, передовое производство и прикладное машиностроение.

https://m.economictimes.com/news/international/us/what-is-project-prometheus-whose-co-ceo-will-be-jeff-bezos-10-points-for-you-to-know/articleshow/125388676.cms
🤔1