Осторожно ИИ – Telegram
Осторожно ИИ
301 subscribers
64 photos
8 videos
1 file
457 links
Опасности искусственного интеллекта и всё что не рассказывают про ИИ
Download Telegram
🔱 В Великобритании в систему здравоохранения NHS внедряют искусственный интеллект для раннего выявления рака кожи.  Инструмент DERM помогает быстрее проверять подозрительные родинки и снижает нагрузку на дерматологов.

Снимок родинки делают на смартфон с маленькой линзой, затем ИИ анализирует изображение и сравнивает его с тысячами случаев. Если пятно выглядит безопасным, пациента могут исключить из онкопотока без визита к врачу. При подозрении на рак случай проверяет дерматолог. Сейчас DERM внедрён в NHS условно: в течение трёх лет собираются доказательства его эффективности и безопасности.
Please open Telegram to view this post
VIEW IN TELEGRAM
Лицемерие лидеров ИИ.

Пропагандисты этики ИИ подвергаются серьезной критике из-за партнёрств с организациями, обвиняемыми в серьёзных нарушениях прав человека, при этом публично выступая против таких проблем. 

https://blockchain.news/ainews/ai-ethics-leaders-face-scrutiny-over-partnerships-with-controversial-organizations-industry-accountability-in-focus
Корея создала Национальный комитет по стратегии в области искусственного интеллекта для разработки политики в области искусственного интеллекта

Национальный комитет по стратегии в области искусственного интеллекта (ИИ), который служит центром управления политикой в области искусственного интеллекта (ИИ), начал свою работу 8 числа. В состав комитета входят 50 членов, включая председателя Ли Джэ Мёна, заместителя председателя Им Мун Ёна, 34 представителя частного сектора и 13 министров из основных государственных ведомств.

На первом заседании главным пунктом повестки дня был объявлен «Корейский план действий в области ИИ». План действий состоит из трёх основных направлений политики:
▲ содействие развитию экосистемы инноваций в области ИИ,
▲ общенациональная трансформация ИИ,
▲ содействие формированию глобального общества, основанного на ИИ, а также 12 стратегических направлений.

https://biz.chosun.com/en/en-it/2025/09/08/I7DRJAXTJVGQZG7G5XUNTFWHL4/
ИИ сокращает время обучения, но ослабляет критическое мышление

Эксперимент доктора Мейтала Амзалега в HIT показывает, что студенты учатся с помощью ИИ так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости.

Доктор Мейтал Амзалег с факультета образовательных технологий Холонского технологического института (HIT) представила свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли искусственный интеллект заменить лектора-человека.

«Мы сосредоточились на трёх основных вопросах», — пояснила она. «Во-первых, если студенты учатся с помощью ИИ вместо традиционного преподавателя, есть ли разница в их достижениях? Во-вторых, как ИИ влияет на эффективность процесса обучения? И в-третьих, есть ли связь между частотой использования ИИ и успеваемостью студентов?»

https://www.calcalistech.com/ctechnews/article/r680lt05p
Доклад CSET: Как НОАК мобилизует гражданский ИИ для достижения стратегического преимущества

Три ведущих исследователя проанализировали отчеты о закупках НОАК и контракты на ИИ за 2023 и 2024 годы. Было установлено, что более 1500 организаций — от государственных оборонных компаний до университетов и стартапов — выиграли как минимум по одному контракту с НОАК.

Многие из стартапов новой волны были основаны после 2010 года на волне бума потребительских технологий в Китае.

К их числу относятся iFlytek (ИИ для голосового и речевого перевода), PIESAT (ИИ для спутникового картографирования) и JOUAV (дроны).

Компания Sichuan Tengden была основана в 2016 году бывшими оборонными инженерами и быстро вышла на рынок беспилотников военного уровня — относительно новый игрок с ярко выраженным уклоном в оборонную сферу.

Сам доклад тут:
https://cset.georgetown.edu/publication/pulling-back-the-curtain-on-chinas-military-civil-fusion/
1
Вначале выпустил джина из бутылки, а теперь ему грустно это видеть...

Сэм Альтман говорит, что социальные сети теперь кажутся фейковыми: невозможно понять, пишут ли люди или боты с искусственным интеллектом.

Недавний пост генерального директора OpenAI Сэма Альтмана о X — настоящий пример иронии. Человек, создавший инструменты, стирающие грань между людьми и искусственным интеллектом, теперь изо всех сил старается её разглядеть. В X (он же Twitter) он признался, что больше не может отличить людей от ботов в социальных сетях — признание, которое точно отражает растущий кризис аутентичности в интернете. Это заявление последовало за странным моментом на Reddit, где Альтман пролистывал поток постов, щедро восхваляющих инструмент программирования OpenAI Codex. Проблема заключалась в том, что он не мог избавиться от ощущения, что всё это нереально.

«Полагаю, что всё это фейки/боты, хотя в данном случае я знаю, что рост Codex действительно стремителен, и эта тенденция реальна», — написал он в X (ранее Twitter). Искусственный интеллект его собственной компании, частично обученный на обсуждениях на Reddit, теперь генерирует контент, поразительно похожий на человеческие голоса, которые их сформировали. В свою очередь, люди сами начали копировать особенности речи искусственного интеллекта, создавая петлю обратной связи, где невозможно понять, кто кого копирует.
👍61
Интернет умер, да здравствует интернет! По прогнозам исследователей, «Теория мертвого интернета» станет реальностью уже через три года.

Сама теория звучит как шиза: в интернете почти не осталось людей, им полностью управляют боты, которые генерят 90% трафика. А мы всё ближе к этой реальности.
🔥4😁1
Международный конкурс кросс-сотрудничества в сфере умных городов и решений по всей территории США.

Пять стартапов со всего мира будут отобраны для личного участия в SCEWC в ноябре этого года и выступят перед жюри. Победители получат в награду поездку, пилотный проект и возможности финансирования по всей территории США.

Решения стартапов должны быть сосредоточены на проблемах будущего транспорта, общественной безопасности, связи и/или инфраструктуры
  https://dallasinnovates.com/innovaters-alert-apply-now/
1
Принадлежащий Amazon стартап Zoox, который развивает беспилотные электромобили, объявил о запуске роботакси для всех пользователей в Лас-Вегасе.

Заказать такси можно в приложении. Пока сервис работает бесплатно — компания ждёт одобрений регуляторов, чтобы начать взимать оплату. В парке — около 50 автомобилей, большинство из которых находятся в Лас-Вегасе.

https://www.reuters.com/business/autos-transportation/amazons-zoox-robotaxi-opens-public-with-free-service-las-vegas-2025-09-10/
1
Гримасса ИИ в суде

Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.

Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».

Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».

Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.

В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.

https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
👏2
Сотрудники крупных американских компаний в июне-августе 2025 года начали сокращать использование ИИ — впервые с 2024-го 

Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.

https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
🔥1
Как использовать ИИ в военных действиях? Открытые дебаты и дебаты Совета по международным отношениям 15 сентября в Нью-Йорке

В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»

Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.

Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.

https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
1
Зумеры в Непале выбрали временного президента с помощью ChatGPT — они просто попросили ИИ накидать список возможных кандидатов и найти среди них лучшего.

ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
🔥3😁1
Австралийские банки задействовали армию ИИ-ботов для борьбы с мошенниками.

Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.

Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.

https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
3👍1
После того как Anthropic выплатил миллиард долларов, подали в суд на Perplexity AI

Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.

Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.

https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
3🤔1
Упс... тут Выяснилось, что ИИ Google обучается с помощью армии плохо обученных людей. А помните фразу "говно на входе - говно на выходе"?

В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.

Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.

Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.

https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
2👏2😁1💯1😈1
Психология ИИ довольно проста: всё начинается с людей, а не с технологий.

Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.

Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.

https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html