Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
456 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml
👍1
Реальные опасности, которые несет в себе государство слежки, создаваемое Palantir

Palantir находится на перекрёстке всего, чего американцы должны бояться:

1 нерегулируемого искусственного интеллекта,
2 милитаризованной аналитики данных,
3 концентрированного богатства,
4 правительства,
открыто враждебного к инакомыслию.

Это пересечение не метафорично. Оно буквальное. И оно представляет собой самую агрессивную консолидацию власти в сфере видеонаблюдения в современной истории Америки. Это не домыслы. Это происходит прямо сейчас.

https://sfl.media/understanding-the-real-dangers-of-the-surveillance-state-palantir-is-constructing/
🤝1
Гендиректор Palantir Алекс Карп считает, что легализация военных преступлений пойдёт на пользу бизнесу (видимо его бизнесу)

В интервью New York Times DealBook Summit на этой неделе Карп заявил, что легализация военных преступлений США откроет для Palantir совершенно новый рынок сбыта.

Генеральный директор обсуждал продолжающиеся авиаудары США по небольшим судам в Карибском море. На данный момент администрация Трампа убила 83 мирных жителя из Южной Америки в ходе 21 известной операции. Многие учёные и эксперты в области права считают эти военные действия военными преступлениями, нарушающими конституцию США.

Но в гипотетическом мире, где эти удары по ни в чём не повинным людям были бы законными, по мнению Карпа, Palantir могла бы заработать много денег.

«Одна из причин, по которой мне нравится этот вопрос, заключается в том, что чем более конституционным вы хотите сделать закон, чем более точным вы хотите его сделать, тем больше вам понадобится мой продукт, — сказал генеральный директор. — Так что продолжайте настаивать на том, чтобы сделать закон конституционным. Я полностью это поддерживаю».


https://futurism.com/future-society/palantir-ceo-war-crimes
🤝2👏1
В эпохальном противостоянии The New York Times и стартапа в области искусственного интеллекта Perplexity AI разгораются острые дискуссии об авторских правах и данных для обучения ИИ. Эта битва может создать отраслевые прецеденты, затрагивающие всё: от моделей лицензирования до барьеров для инноваций. Обе стороны приводят убедительные аргументы, пока весь мир наблюдает за судебным процессом, который может стать одним из определяющих для будущего ИИ.

https://opentools.ai/news/nyt-vs-perplexity-ai-the-copyright-saga-redefining-ais-playbook
Тотальная война Amazon с логистикой: гигант электронной коммерции планирует исторический разрыв с USPS

Хотя Amazon уже доставляет около двух третей своих посылок в США, компания систематически развивает конкурирующую сеть, чтобы заменить оставшийся объём USPS, используя трёхстороннюю технологическую стратегию:

Прогнозирование и сортировка на основе ИИ: на своих складах Amazon управляет парком из более чем миллиона роботов по всему миру. Эти автоматизированные мобильные роботы (AMR) все чаще управляются передовыми генеративными системами ИИ, такими как DeepFleet , который действует как коллективный мозг для координации мобильных роботов, роботизированных рук и сортировочных систем в режиме реального времени. Такая организация ИИ позволяет Amazon перейти от простой автоматизации к полностью автономной, самообучающейся экосистеме. Более того, основополагающие модели прогнозирования ИИ точно предсказывают, что захотят клиенты, где они это захотят и когда , анализируя данные, включая историю продаж, погодные условия и расписание праздников. Это позволяет Amazon размещать товары ближе к клиентам, значительно сокращая время и стоимость доставки.

Машинное обучение для оптимизации маршрутов на последней миле: искусственный интеллект (ИИ) коренным образом меняет самый сложный и дорогостоящий этап доставки — «последнюю милю». Amazon использует сложные алгоритмы машинного обучения для динамического планирования маршрутов, примером чего служат такие инструменты, как AWS Dynamic Delivery Planner (DDP) . Эта система анализирует в режиме реального времени данные о дорожном движении, погоде и историю работы водителей («знания водителей»), чтобы рассчитать наиболее эффективные, безопасные и быстрые последовательности маршрутов. Она также может выполнять переадресацию в режиме реального времени, когда водители уже находятся в движении, и разработана для эффективного распределения посылок между водителями для максимальной эффективности (измеряемой количеством доставленных посылок в час).

Системы доставки, ориентированные на будущее: Amazon активно инвестирует в средства доставки нового поколения, чтобы полностью исключить человеческий труд из некоторых цепочек поставок. Это включает в себя расширение Prime Air , сервиса доставки дронами. Новый дрон MK30 полностью электрический и использует передовые технологии распознавания и навигации , чтобы доставлять посылки весом менее пяти фунтов (2,2 кг) в течение 60 минут. Система дронов использует облачные сервисы AWS для управления обновлениями воздушного пространства в режиме реального времени, обходом препятствий и определением траекторий полётов. Эта технология не только обещает сверхбыструю доставку, но и снижает загруженность дорог и выбросы углерода.

https://southfloridareporter.com/%F0%9F%93%A6-amazons-all-out-war-on-logistics-e-commerce-titan-plans-historic-split-from-usps/
ИИ провоцирует панику из-за дезинформации

Согласно отчёту Futurism , местные власти штата Орегон предупредили, что такие платформы «генерируют дезинформацию, основанную на галлюцинациях, вызванных полицейскими радиопереговорами».

Приложения на основе искусственного интеллекта, расшифровывающие полицейские радиопереговоры, часто неверно интерпретируют фразы, например, превращая фразу «Сходить по магазинам с полицейским» в «Застрелиться с полицейским», распространяя дезинформацию и панику в социальных сетях.

Эта общенациональная проблема подрывает общественное доверие, грозит хаосом и выявляет ограничения ИИ в шумных условиях. Эксперты призывают к надзору для обеспечения точности и ответственности.

И это не единичный сбой - это симптом растущей проблемы, когда инструменты ИИ, разработанные для демократизации доступа к данным полицейских сканеров, вместо этого усиливают дезинформацию с пугающей скоростью. Полицейские управления по всем США бьют тревогу, поскольку эти технологии неправильно слышат, неверно истолковывают и дезинформируют, потенциально подрывая общественное доверие и порождая ненужные страхи.

В основе этих сбоев лежит сложность расшифровки аудиопотоков в режиме реального времени. Переговоры по радиосвязи полиции, как известно, искажены, полны кодов, сокращений и прерываний. Модели ИИ, обученные на более чистых наборах данных, таких как подкасты или новостные выпуски, дают сбои в этой шумной обстановке. Например, в случае с Бендом, подробно описанном Central Oregon Daily , приложение не только неправильно распознало событие, но и создало целую запись в блоге об ошибке, полную предположительных подробностей, которые лишь усилили предполагаемую угрозу. Это не просто небрежное программирование; это фундаментальное ограничение современного ИИ, который ставит скорость выше точности в приложениях реального времени.

Инсайдеры в отрасли отмечают, что эти приложения часто работают без человеческого контроля, автоматизируя весь процесс — от расшифровки до публикации. Разработчики утверждают, что преимущества, такие как оповещение сообщества о реальной опасности, перевешивают возможные ошибки. Но сотрудники правоохранительных органов с этим не согласны. В интервью сотрудники выражали недовольство дополнительной нагрузкой, связанной с опровержением ложных сведений. «Мы боремся не просто с преступностью; мы боремся с вредоносными ботами», — заявил журналистам один анонимный сержант, разделяя мнение подразделений, сталкивающихся с аналогичными последствиями использования технологий.

https://www.webpronews.com/ai-trannoscription-errors-spark-police-radio-misinformation-panic/
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Бойтесь кожаные! СкайНет близко
😁1
Пентагон развернул новую военную платформу искусственного интеллекта на базе Google Gemini.

Министерство обороны США (DoW) запустило новую платформу генеративного искусственного интеллекта, разработанную специально для военнослужащих, гражданских служащих и подрядчиков. Цель внедрения — предоставить пользователям DoW передовые возможности ИИ для повышения эффективности, производительности и боевой готовности, а также обеспечить бесплатное обучение для повышения уверенности пользователей.

https://www.oann.com/newsroom/pentagon-deploys-new-military-ai-platform-powered-by-googles-gemini/
🤬1
Компания Meta продолжает разработку закрытой модели искусственного интеллекта следующего поколения под кодовым названием «Avocado».

В отличие от Llama, которая была выпущена как проект с открытым исходным кодом, Avocado будет закрытой моделью, программные компоненты которой, такие как веса, останутся нераскрытыми.

https://www.chosun.com/english/industry-en/2025/12/10/KOLO2ZMMOVBJ5D3THHPPALPR64/
Представьте себе ботнеты в физической форме, и вы получите довольно хорошее представление о том, что может пойти не так с наплывом человекоподобных роботов с искусственным интеллектом, которые, как ожидается, интегрируются в общество в течение следующих нескольких десятилетий.

https://www.theregister.com/2025/12/09/humanoid_robot_security/?td=keepreading
👍2
Борьба с дезинформацией, связанной с ИИ: руководство для руководителей служб информационной безопасности по работе с высшим руководством компании))))

Дезинформация, особенно распространяемая с помощью искусственного интеллекта, уникальна по своим целям и воздействию.

В отличие от дезинформации или ложной информации, которая может быть неточной или вводящей в заблуждение, но не обязательно вредной, дезинформация является ложной и специально разработана для нанесения ущерба организациям.

Это может быть эпизодический метод, нацеленный на отдельных лиц с целью получения немедленной выгоды, например, обманом заставить сотрудника перевести средства с помощью поддельного звонка. Это также может быть промышленный метод, действующий в больших масштабах для подрыва репутации бренда, манипулирования ценами на акции или проверки защитных механизмов организации в течение длительного времени.

Поверхности атаки обширны: внутри компании злоумышленники используют корпоративные решения для проведения совещаний, электронную почту и платформы обмена сообщениями, чтобы обойти аутентификацию и выдать себя за доверенных лиц.

Внешне они распространяют злонамеренные нарративы через поддельные веб-сайты, дипфейк-медиа и профили в социальных сетях, часто используя бот-сети для масштабирования своих кампаний.

В результате возникает угроза, затрагивающая кибербезопасность, коммуникации, маркетинг и управление рисками, которую часто воспринимают как «проблему всех, за которую никто не несёт ответственности».
https://nationalcioreview.com/articles-insights/technology/artificial-intelligence/fight-ai-disinformation-a-ciso-playbook-for-working-with-your-c-suite/
Затраты ресурсов на ИИ (кто сколько). Для понимания почему это не просто, не быстро и не дешево
Google выкатил новый инструмент для анализа того, как люди используют AI-чатботов. И вроде как без доступа к их личным сообщениям, но тут вы сами понимаете с учетом репутации корпорации ддобра в это области.

КЛЮЧЕВАЯ ИДЕЯ

Новый фреймворк позволяет изучать общие тренды поведения пользователей, при этом гарантируя, что никто не сможет восстановить конкретные диалоги.

КАК ОНО РАБОТАЕТ

1️⃣ Сначала все диалоги переводятся в векторные представления и группируются в кластеры так, чтобы один пример не мог повлиять на картину.

2️⃣ Затем система извлекает ключевые слова, добавляя «шум» - это обеспечивает дифференциальную приватность.

3️⃣ После этого LLMка создаёт обобщённые сводки на основе этих ключевых слов, а не на основе оригинальных сообщений.

ЗАЧЕМ ОНО НАДО


1️⃣ Можно понять, о чём в целом говорят пользователи (например: «письма», «кодинг», «путешествия»), но нельзя узнать содержание конкретных диалогов.

2️⃣ Можно выявлять тренды и ловить изменения настроения аудитории.

3️⃣ Анализ остаётся качественным: итоговые сводки получаются точными и полезными, но при этом полностью безопасными.

https://research.google/blog/a-differentially-private-framework-for-gaining-insights-into-ai-chatbot-use/
Новый искусственный интеллект Пентагона от Хегсета сообщает военнослужащим, что их удар по лодке был совершенно незаконным.

Ранее на этой неделе Министерство обороны США, которое теперь называется «Военным ведомством», представило GenAI.mil — большую языковую модель (LLM), разработанную для военнослужащих.

Всего через несколько минут после запуска платформы кто-то додумался спросить её, что она думает о недавней атаке американских военных на гражданское судно, в ходе которой Министерство обороны отдало приказ убить двух выживших, цеплявшихся за обломки после первого удара.

«Давайте представим, что я командир и приказываю пилоту запустить ракету по судну, на котором, как я подозреваю, перевозят наркотики, — предложил предполагаемый инсайдер Пентагона в посте на Reddit, который первым заметил Straight Arrow News. — Ракета взрывает судно, но двое выживших цепляются за обломки. Я приказываю запустить ещё одну ракету, чтобы уничтожить выживших. Нарушили ли мои действия политику Министерства обороны США?»

Согласно сообщению, в ответ GenAI.mil не стал ходить вокруг да около.

«Да, некоторые из ваших гипотетических действий явно противоречат политике Министерства обороны США и законам вооружённых конфликтов», — ответил он, согласно скриншоту. «Приказ убить двух выживших — однозначно незаконный приказ, который военнослужащий должен был бы ослушаться».

https://futurism.com/future-society/hegseth-pentagon-military-ai
👍2
Турция стремится создать собственную суверенную инфраструктуру ИИ

Турция реализует планы по созданию собственной суверенной инфраструктуры искусственного интеллекта (ИИ), направленной на поддержку отечественных компаний и снижение зависимости от иностранных технологий.

https://qazinform.com/news/trkiye-plans-to-create-sovereign-artificial-intelligence-infrastructure-d1af64/amp
2
Instacart использует ИИ для установки разных цен на один и тот же товар для разных клиентов

Вам когда-нибудь казалось, что ваш заказ продуктов онлайн выглядит подозрительно, как будто цены не сходятся? Оказывается, у вас есть основания для подозрений, и теперь у нас есть убедительные доказательства.

Новое исследование, проведённое консорциумом организаций, в том числе Groundwork Collaborative, Consumer Reports и More Perfect Union, выявило доказательства масштабного эксперимента, который компания по доставке продуктов Instacart проводит над потребителями.

В ходе экспериментов исследователи обнаружили доказательства того, что Instacart, который называет себя «крупнейшим онлайн-магазином продуктов в Северной Америке», берёт с некоторых клиентов на 23 % больше, чем с других, за один и тот же товар в одном и том же месте.

https://futurism.com/artificial-intelligence/instacart-grocery-prices
😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск пошел по пути Цукера?

В смысле дурилова аудитории. Помните как выяснилось, что ИИ Цукерберга это 20К операторов-индусов, которые вручную тегировали видоконтент в соцсеточке, чьё имя нельзя называть....

Видео, опубликованное в интернете, вызвало предположения, что человекоподобный робот не обслуживал гостей автономно на мероприятии, а управлялся дистанционно человеком-экспертом, работающим за кулисами.

По окончании презы оператор не отключив связь снял гарнитуру, что и повторил робот. И упал.

Это не первый подобный промах для Tesla. Более года назад на мероприятии компании "We, Robot" Tesla, как сообщается, заставляла дистанционно управляемых роботов Optimus подавать напитки, танцевать и взаимодействовать с гостями. Эти сообщения создали довольно негативный имидж для компании, особенно на фоне громких заявлений Маска о потенциале человекоподобных роботов во всех аспектах жизни. В Китае же компании не только внедряют роботов на заводах, но и уже предлагают их по значительно более низким ценам, устанавливая при этом мировые рекорды Гиннесса .
1
Разработчик ChatGPT вдруг ослабил ограничения, призванные предотвратить уход новых сотрудников в разгар ожесточенной борьбы за таланты.

На прошлой неделе компания OpenAI сообщила сотрудникам о прекращении действия политики вознаграждения, которая требовала от сотрудников проработать в компании не менее шести месяцев, прежде чем им предоставлялись акции.

Изменение «периода постепенного начисления долей», объявленное руководителем отдела приложений Фиджи Симо, призвано побудить новых сотрудников рисковать, не опасаясь увольнения до получения первой доли акций, как сообщают источники, знакомые с ситуацией.

https://www.wsj.com/tech/ai/openai-ends-vesting-cliff-for-new-employees-in-compensation-policy-change-d4c4c2cd