Доклад CSET: Как НОАК мобилизует гражданский ИИ для достижения стратегического преимущества
Три ведущих исследователя проанализировали отчеты о закупках НОАК и контракты на ИИ за 2023 и 2024 годы. Было установлено, что более 1500 организаций — от государственных оборонных компаний до университетов и стартапов — выиграли как минимум по одному контракту с НОАК.
Многие из стартапов новой волны были основаны после 2010 года на волне бума потребительских технологий в Китае.
К их числу относятся iFlytek (ИИ для голосового и речевого перевода), PIESAT (ИИ для спутникового картографирования) и JOUAV (дроны).
Компания Sichuan Tengden была основана в 2016 году бывшими оборонными инженерами и быстро вышла на рынок беспилотников военного уровня — относительно новый игрок с ярко выраженным уклоном в оборонную сферу.
Сам доклад тут:
https://cset.georgetown.edu/publication/pulling-back-the-curtain-on-chinas-military-civil-fusion/
Три ведущих исследователя проанализировали отчеты о закупках НОАК и контракты на ИИ за 2023 и 2024 годы. Было установлено, что более 1500 организаций — от государственных оборонных компаний до университетов и стартапов — выиграли как минимум по одному контракту с НОАК.
Многие из стартапов новой волны были основаны после 2010 года на волне бума потребительских технологий в Китае.
К их числу относятся iFlytek (ИИ для голосового и речевого перевода), PIESAT (ИИ для спутникового картографирования) и JOUAV (дроны).
Компания Sichuan Tengden была основана в 2016 году бывшими оборонными инженерами и быстро вышла на рынок беспилотников военного уровня — относительно новый игрок с ярко выраженным уклоном в оборонную сферу.
Сам доклад тут:
https://cset.georgetown.edu/publication/pulling-back-the-curtain-on-chinas-military-civil-fusion/
❤1
Вначале выпустил джина из бутылки, а теперь ему грустно это видеть...
Сэм Альтман говорит, что социальные сети теперь кажутся фейковыми: невозможно понять, пишут ли люди или боты с искусственным интеллектом.
Недавний пост генерального директора OpenAI Сэма Альтмана о X — настоящий пример иронии. Человек, создавший инструменты, стирающие грань между людьми и искусственным интеллектом, теперь изо всех сил старается её разглядеть. В X (он же Twitter) он признался, что больше не может отличить людей от ботов в социальных сетях — признание, которое точно отражает растущий кризис аутентичности в интернете. Это заявление последовало за странным моментом на Reddit, где Альтман пролистывал поток постов, щедро восхваляющих инструмент программирования OpenAI Codex. Проблема заключалась в том, что он не мог избавиться от ощущения, что всё это нереально.
«Полагаю, что всё это фейки/боты, хотя в данном случае я знаю, что рост Codex действительно стремителен, и эта тенденция реальна», — написал он в X (ранее Twitter). Искусственный интеллект его собственной компании, частично обученный на обсуждениях на Reddit, теперь генерирует контент, поразительно похожий на человеческие голоса, которые их сформировали. В свою очередь, люди сами начали копировать особенности речи искусственного интеллекта, создавая петлю обратной связи, где невозможно понять, кто кого копирует.
Сэм Альтман говорит, что социальные сети теперь кажутся фейковыми: невозможно понять, пишут ли люди или боты с искусственным интеллектом.
Недавний пост генерального директора OpenAI Сэма Альтмана о X — настоящий пример иронии. Человек, создавший инструменты, стирающие грань между людьми и искусственным интеллектом, теперь изо всех сил старается её разглядеть. В X (он же Twitter) он признался, что больше не может отличить людей от ботов в социальных сетях — признание, которое точно отражает растущий кризис аутентичности в интернете. Это заявление последовало за странным моментом на Reddit, где Альтман пролистывал поток постов, щедро восхваляющих инструмент программирования OpenAI Codex. Проблема заключалась в том, что он не мог избавиться от ощущения, что всё это нереально.
«Полагаю, что всё это фейки/боты, хотя в данном случае я знаю, что рост Codex действительно стремителен, и эта тенденция реальна», — написал он в X (ранее Twitter). Искусственный интеллект его собственной компании, частично обученный на обсуждениях на Reddit, теперь генерирует контент, поразительно похожий на человеческие голоса, которые их сформировали. В свою очередь, люди сами начали копировать особенности речи искусственного интеллекта, создавая петлю обратной связи, где невозможно понять, кто кого копирует.
👍6❤1
Интернет умер, да здравствует интернет! По прогнозам исследователей, «Теория мертвого интернета» станет реальностью уже через три года.
Сама теория звучит как шиза: в интернете почти не осталось людей, им полностью управляют боты, которые генерят 90% трафика. А мы всё ближе к этой реальности.
Сама теория звучит как шиза: в интернете почти не осталось людей, им полностью управляют боты, которые генерят 90% трафика. А мы всё ближе к этой реальности.
Popular Mechanics
The Internet Will Be More Dead Than Alive Within 3 Years, Trend Shows
All signs point to a future internet where bot-driven interactions far outnumber human ones.
🔥4😁1
Международный конкурс кросс-сотрудничества в сфере умных городов и решений по всей территории США.
Пять стартапов со всего мира будут отобраны для личного участия в SCEWC в ноябре этого года и выступят перед жюри. Победители получат в награду поездку, пилотный проект и возможности финансирования по всей территории США.
Решения стартапов должны быть сосредоточены на проблемах будущего транспорта, общественной безопасности, связи и/или инфраструктуры
https://dallasinnovates.com/innovaters-alert-apply-now/
Пять стартапов со всего мира будут отобраны для личного участия в SCEWC в ноябре этого года и выступят перед жюри. Победители получат в награду поездку, пилотный проект и возможности финансирования по всей территории США.
Решения стартапов должны быть сосредоточены на проблемах будущего транспорта, общественной безопасности, связи и/или инфраструктуры
https://dallasinnovates.com/innovaters-alert-apply-now/
Dallas Innovates
Apply Now: Opportunities for North Texas Innovators
Check out this curated selection of contests, nominations, pitches, and grants. Our roundup of programs is for entrepreneurs, corporates, creatives, inventors, educators, and impact innovators in North Texas.
❤1
Принадлежащий Amazon стартап Zoox, который развивает беспилотные электромобили, объявил о запуске роботакси для всех пользователей в Лас-Вегасе.
Заказать такси можно в приложении. Пока сервис работает бесплатно — компания ждёт одобрений регуляторов, чтобы начать взимать оплату. В парке — около 50 автомобилей, большинство из которых находятся в Лас-Вегасе.
https://www.reuters.com/business/autos-transportation/amazons-zoox-robotaxi-opens-public-with-free-service-las-vegas-2025-09-10/
Заказать такси можно в приложении. Пока сервис работает бесплатно — компания ждёт одобрений регуляторов, чтобы начать взимать оплату. В парке — около 50 автомобилей, большинство из которых находятся в Лас-Вегасе.
https://www.reuters.com/business/autos-transportation/amazons-zoox-robotaxi-opens-public-with-free-service-las-vegas-2025-09-10/
Reuters
Amazon's Zoox robotaxi opens to public with free service in Las Vegas
Amazon.com-owned Zoox on Wednesday began offering robotaxi rides to the public for free on and around the Las Vegas Strip as it waits for state approval to collect fares and compete with Alphabet's Waymo and Tesla .
❤1
Гримасса ИИ в суде
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
THE OKLAHOMAN
AG says Swadley's defense filing may have used AI, cites fake ruling
AI-caused mistakes are showing up in legal cases across the country, angering judges.
👏2
Сотрудники крупных американских компаний в июне-августе 2025 года начали сокращать использование ИИ — впервые с 2024-го
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Apollo Academy
AI Adoption Rate Trending Down for Large Companies - Apollo Academy
The US Census Bureau conducts a biweekly survey of 1.2 million firms, and one question is whether a business has...
🔥1
Как использовать ИИ в военных действиях? Открытые дебаты и дебаты Совета по международным отношениям 15 сентября в Нью-Йорке
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
❤1
Зумеры в Непале выбрали временного президента с помощью ChatGPT — они просто попросили ИИ накидать список возможных кандидатов и найти среди них лучшего.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
Thetimes
Nepali protesters use ChatGPT to pick their new leader
A youth movement that ousted the government used AI to select their candidate to be interim prime minister and represent them in negotiations with the army
🔥3😁1
Австралийские банки задействовали армию ИИ-ботов для борьбы с мошенниками.
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Bank info security
Australian Banks Deploy Army of AI Bots to Scam Scammers
Major banks in Australia are now using bots to foil scammers. The bots are designed to pose as potential victims, extract real-time intelligence and waste scammers'
❤3👍1
После того как Anthropic выплатил миллиард долларов, подали в суд на Perplexity AI
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Gizmodo
After Anthropic's Billion-Dollar Settlement, Dictionaries Are Suing Perplexity AI
Encyclopedia Britannica and Merriam-Webster accuse the AI startup of copying their content and attributing hallucinated answers to their brands.
❤3🤔1
Упс... тут Выяснилось, что ИИ Google обучается с помощью армии плохо обученных людей. А помните фразу "говно на входе - говно на выходе"?
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
❤2👏2😁1💯1😈1
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЕГО ТАЙНЫЕ ПОСЛЕДСТВИЯ
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Substack
ARTIFICIAL INTELLIGENCE AND ITS SECRET CONSEQUENCES
Part one of three in a series on Kate Crawford’s ‘Atlas of AI’
🔥3
Психология ИИ довольно проста: всё начинается с людей, а не с технологий.
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Irish Independent
Gina London: The psychology of AI is fairly simple – you start with people, not technology
Every business leader I meet is under pressure to “do something” with AI. But too often, the rush to adopt technology skips the most important step: bringi...
xAI уволила 500 универсальных аннотаторов и вместо них в 10 раз увеличивает число специализированных AI-туторов.
xAI меняет стратегию обучения Grok. Вместо сотен универсальных аннотаторов компания делает ставку на специалистов-экспертов и увеличивает их команду в 10 раз.
Это означает переход от широкой разметки «на все темы» к глубокой проработке сложных областей — математики, кода, финансов и безопасности.
Grok постепенно перестаёт быть универсальным чат-ботом и превращается в экспертного ассистента, ориентированного на критические задачи, где особенно важна точность и надёжность.
Плюс - рост качества там, где ошибки недопустимы.
Минус - возможное снижение качества в бытовых и повседневных темах.
businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
xAI меняет стратегию обучения Grok. Вместо сотен универсальных аннотаторов компания делает ставку на специалистов-экспертов и увеличивает их команду в 10 раз.
Это означает переход от широкой разметки «на все темы» к глубокой проработке сложных областей — математики, кода, финансов и безопасности.
Grok постепенно перестаёт быть универсальным чат-ботом и превращается в экспертного ассистента, ориентированного на критические задачи, где особенно важна точность и надёжность.
Плюс - рост качества там, где ошибки недопустимы.
Минус - возможное снижение качества в бытовых и повседневных темах.
businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
Business Insider
Elon Musk's xAI lays off hundreds of workers tasked with training Grok
XAI laid off at least 500 of the workers on its data annotation team on Friday night.
В Казахстане собираются построить Чебурнет — Wired пишет, что страна закупила у Китая технологии Великого файрвола.
Инфу нашли после утечки у Geedge Networks — подрядчика, который и строил цифровую стену в Поднебесной. Всего утекло 600 ГБ кода — специалисты разбирают его по кусочкам, пытаясь понять принцип работы файрвола.
Инфу нашли после утечки у Geedge Networks — подрядчика, который и строил цифровую стену в Поднебесной. Всего утекло 600 ГБ кода — специалисты разбирают его по кусочкам, пытаясь понять принцип работы файрвола.
WIRED
Massive Leak Shows How a Chinese Company Is Exporting the Great Firewall to the World
Geedge Networks, a company with ties to the founder of China’s mass censorship infrastructure, is selling its censorship and surveillance systems to at least four other countries in Asia and Africa.
🤔1
Как Армия обороны Израиля перестроила поле боя для первой войны с применением искусственного интеллекта
Подразделение цифровой трансформации Армии обороны Израиля было создано в 2019 году, чтобы использовать весь потенциал, накопленный в гражданской сфере, и использовать его в военных целях. В составе Директората C4i и киберзащиты, подразделение руководит программами цифровых инноваций Армии обороны Израиля, обеспечивая связь между всеми подразделениями и предоставляя им современную и высокоскоростную инфраструктуру.
Операция «Страж стен» в 2021 году стала первой войной с применением искусственного интеллекта, поскольку в ней активно применялись методы машинного обучения.
https://www.jpost.com/defense-and-tech/article-867363
Подразделение цифровой трансформации Армии обороны Израиля было создано в 2019 году, чтобы использовать весь потенциал, накопленный в гражданской сфере, и использовать его в военных целях. В составе Директората C4i и киберзащиты, подразделение руководит программами цифровых инноваций Армии обороны Израиля, обеспечивая связь между всеми подразделениями и предоставляя им современную и высокоскоростную инфраструктуру.
Операция «Страж стен» в 2021 году стала первой войной с применением искусственного интеллекта, поскольку в ней активно применялись методы машинного обучения.
https://www.jpost.com/defense-and-tech/article-867363
The Jerusalem Post | JPost.com
How the IDF rewired the battlefield for the first AI war - interview
Over the past five years, the IDF has been working to transform itself into a network-enabled combat machine, with AI and Big Data enabling the flow of information across units and commands.
Глава Бюро национальной безопасности Тайваня Цай Минъянь (蔡明彥) заявила, что Китай использует комплекс тактик, основанных на ИИ для создания угрозы национальной безопасности Тайваня.
https://www.rti.org.tw/en/programnews?uid=4&pid=11745
https://www.rti.org.tw/en/programnews?uid=4&pid=11745
Radio Taiwan International
China plans to use AI in cognitive warfare tactic on Taiwan: intelligence chief - Rti
Taiwan is closely monitoring the application of artificial intelligence, including deepfake te...
Расстрел Чарли Кирка вызвал волну теорий дезинформации, большая часть которой исходила от чат-ботов.
Например, в четверг, на следующий день после смерти Кирка, аккаунт X чат-бота Perplexity уверенно заявлял, что Кирк жив. Впоследствии этот пост был удалён.
Однако чат-бот Илона Маска Grok, тем временем, оказался в подобном заблуждении. «Видео — это мем-монтаж: Чарли Кирк участвует в дебатах, а эффекты создают впечатление, будто его „застрелили“ на полуслове ради комического эффекта», — утверждалось в нём . «На самом деле никакого вреда; он в порядке и активен, как всегда».
Это не первый случай, когда чат-боты уверенно предоставляют ложную информацию.
«Во время протестов в Лос-Анджелесе и войны между Израилем и ХАМАС пользователи также обращались к чат-ботам за ответами и получали неточную информацию», — заявили исследователи NewsGuard. «Несмотря на неоднократные примеры того, как эти инструменты уверенно повторяют ложь, зафиксированные в ежемесячном отчёте NewsGuard «Monthly AI False Claims Monitor», многие продолжают считать системы ИИ надёжными источниками информации в моменты кризиса и неопределённости».
https://www.forbes.com/sites/emmawoollacott/2025/09/15/charlie-kirk-killing-sparks-wild-misinformation/
Например, в четверг, на следующий день после смерти Кирка, аккаунт X чат-бота Perplexity уверенно заявлял, что Кирк жив. Впоследствии этот пост был удалён.
Однако чат-бот Илона Маска Grok, тем временем, оказался в подобном заблуждении. «Видео — это мем-монтаж: Чарли Кирк участвует в дебатах, а эффекты создают впечатление, будто его „застрелили“ на полуслове ради комического эффекта», — утверждалось в нём . «На самом деле никакого вреда; он в порядке и активен, как всегда».
Это не первый случай, когда чат-боты уверенно предоставляют ложную информацию.
«Во время протестов в Лос-Анджелесе и войны между Израилем и ХАМАС пользователи также обращались к чат-ботам за ответами и получали неточную информацию», — заявили исследователи NewsGuard. «Несмотря на неоднократные примеры того, как эти инструменты уверенно повторяют ложь, зафиксированные в ежемесячном отчёте NewsGuard «Monthly AI False Claims Monitor», многие продолжают считать системы ИИ надёжными источниками информации в моменты кризиса и неопределённости».
https://www.forbes.com/sites/emmawoollacott/2025/09/15/charlie-kirk-killing-sparks-wild-misinformation/
Forbes
Charlie Kirk Killing Sparks Wild Misinformation
The shooting of Charlie Kirk has unleashed a wave of conspiracy theories and misinformation, much of it coming from chatbots.
Мы решили разработать идеальную схему фишинга.
Крупнейшие чат-боты на базе искусственного интеллекта были рады помочь.
Исследователь из Гарвардского университета использовали лучших чат-ботов для моделирования фишинговой атаки — от составления электронных писем до советов по выбору времени — и протестировали её на 108 пожилых добровольцах.
Убедительность ботов показывает, как ИИ вооружает преступников для мошенничества в промышленных масштабах.
https://www.reuters.com/investigates/special-report/ai-chatbots-cyber/
Крупнейшие чат-боты на базе искусственного интеллекта были рады помочь.
Исследователь из Гарвардского университета использовали лучших чат-ботов для моделирования фишинговой атаки — от составления электронных писем до советов по выбору времени — и протестировали её на 108 пожилых добровольцах.
Убедительность ботов показывает, как ИИ вооружает преступников для мошенничества в промышленных масштабах.
https://www.reuters.com/investigates/special-report/ai-chatbots-cyber/
Reuters
We wanted to craft a perfect phishing scam. AI bots were happy to help
Reuters and a Harvard researcher used AI to plot a simulated phishing scam and tested it on senior volunteers. It worked–showing how AI arms criminals for fraud