Гримасса ИИ в суде
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
THE OKLAHOMAN
AG says Swadley's defense filing may have used AI, cites fake ruling
AI-caused mistakes are showing up in legal cases across the country, angering judges.
👏2
Сотрудники крупных американских компаний в июне-августе 2025 года начали сокращать использование ИИ — впервые с 2024-го
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Apollo Academy
AI Adoption Rate Trending Down for Large Companies - Apollo Academy
The US Census Bureau conducts a biweekly survey of 1.2 million firms, and one question is whether a business has...
🔥1
Как использовать ИИ в военных действиях? Открытые дебаты и дебаты Совета по международным отношениям 15 сентября в Нью-Йорке
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
❤1
Зумеры в Непале выбрали временного президента с помощью ChatGPT — они просто попросили ИИ накидать список возможных кандидатов и найти среди них лучшего.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
Thetimes
Nepali protesters use ChatGPT to pick their new leader
A youth movement that ousted the government used AI to select their candidate to be interim prime minister and represent them in negotiations with the army
🔥3😁1
Австралийские банки задействовали армию ИИ-ботов для борьбы с мошенниками.
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Bank info security
Australian Banks Deploy Army of AI Bots to Scam Scammers
Major banks in Australia are now using bots to foil scammers. The bots are designed to pose as potential victims, extract real-time intelligence and waste scammers'
❤3👍1
После того как Anthropic выплатил миллиард долларов, подали в суд на Perplexity AI
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Gizmodo
After Anthropic's Billion-Dollar Settlement, Dictionaries Are Suing Perplexity AI
Encyclopedia Britannica and Merriam-Webster accuse the AI startup of copying their content and attributing hallucinated answers to their brands.
❤3🤔1
Упс... тут Выяснилось, что ИИ Google обучается с помощью армии плохо обученных людей. А помните фразу "говно на входе - говно на выходе"?
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
❤2👏2😁1💯1😈1
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЕГО ТАЙНЫЕ ПОСЛЕДСТВИЯ
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Substack
ARTIFICIAL INTELLIGENCE AND ITS SECRET CONSEQUENCES
Part one of three in a series on Kate Crawford’s ‘Atlas of AI’
🔥3
Психология ИИ довольно проста: всё начинается с людей, а не с технологий.
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Irish Independent
Gina London: The psychology of AI is fairly simple – you start with people, not technology
Every business leader I meet is under pressure to “do something” with AI. But too often, the rush to adopt technology skips the most important step: bringi...
xAI уволила 500 универсальных аннотаторов и вместо них в 10 раз увеличивает число специализированных AI-туторов.
xAI меняет стратегию обучения Grok. Вместо сотен универсальных аннотаторов компания делает ставку на специалистов-экспертов и увеличивает их команду в 10 раз.
Это означает переход от широкой разметки «на все темы» к глубокой проработке сложных областей — математики, кода, финансов и безопасности.
Grok постепенно перестаёт быть универсальным чат-ботом и превращается в экспертного ассистента, ориентированного на критические задачи, где особенно важна точность и надёжность.
Плюс - рост качества там, где ошибки недопустимы.
Минус - возможное снижение качества в бытовых и повседневных темах.
businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
xAI меняет стратегию обучения Grok. Вместо сотен универсальных аннотаторов компания делает ставку на специалистов-экспертов и увеличивает их команду в 10 раз.
Это означает переход от широкой разметки «на все темы» к глубокой проработке сложных областей — математики, кода, финансов и безопасности.
Grok постепенно перестаёт быть универсальным чат-ботом и превращается в экспертного ассистента, ориентированного на критические задачи, где особенно важна точность и надёжность.
Плюс - рост качества там, где ошибки недопустимы.
Минус - возможное снижение качества в бытовых и повседневных темах.
businessinsider.com/elon-musk-xai-layoffs-data-annotators-2025-9
Business Insider
Elon Musk's xAI lays off hundreds of workers tasked with training Grok
XAI laid off at least 500 of the workers on its data annotation team on Friday night.
В Казахстане собираются построить Чебурнет — Wired пишет, что страна закупила у Китая технологии Великого файрвола.
Инфу нашли после утечки у Geedge Networks — подрядчика, который и строил цифровую стену в Поднебесной. Всего утекло 600 ГБ кода — специалисты разбирают его по кусочкам, пытаясь понять принцип работы файрвола.
Инфу нашли после утечки у Geedge Networks — подрядчика, который и строил цифровую стену в Поднебесной. Всего утекло 600 ГБ кода — специалисты разбирают его по кусочкам, пытаясь понять принцип работы файрвола.
WIRED
Massive Leak Shows How a Chinese Company Is Exporting the Great Firewall to the World
Geedge Networks, a company with ties to the founder of China’s mass censorship infrastructure, is selling its censorship and surveillance systems to at least four other countries in Asia and Africa.
🤔1
Как Армия обороны Израиля перестроила поле боя для первой войны с применением искусственного интеллекта
Подразделение цифровой трансформации Армии обороны Израиля было создано в 2019 году, чтобы использовать весь потенциал, накопленный в гражданской сфере, и использовать его в военных целях. В составе Директората C4i и киберзащиты, подразделение руководит программами цифровых инноваций Армии обороны Израиля, обеспечивая связь между всеми подразделениями и предоставляя им современную и высокоскоростную инфраструктуру.
Операция «Страж стен» в 2021 году стала первой войной с применением искусственного интеллекта, поскольку в ней активно применялись методы машинного обучения.
https://www.jpost.com/defense-and-tech/article-867363
Подразделение цифровой трансформации Армии обороны Израиля было создано в 2019 году, чтобы использовать весь потенциал, накопленный в гражданской сфере, и использовать его в военных целях. В составе Директората C4i и киберзащиты, подразделение руководит программами цифровых инноваций Армии обороны Израиля, обеспечивая связь между всеми подразделениями и предоставляя им современную и высокоскоростную инфраструктуру.
Операция «Страж стен» в 2021 году стала первой войной с применением искусственного интеллекта, поскольку в ней активно применялись методы машинного обучения.
https://www.jpost.com/defense-and-tech/article-867363
The Jerusalem Post | JPost.com
How the IDF rewired the battlefield for the first AI war - interview
Over the past five years, the IDF has been working to transform itself into a network-enabled combat machine, with AI and Big Data enabling the flow of information across units and commands.
Глава Бюро национальной безопасности Тайваня Цай Минъянь (蔡明彥) заявила, что Китай использует комплекс тактик, основанных на ИИ для создания угрозы национальной безопасности Тайваня.
https://www.rti.org.tw/en/programnews?uid=4&pid=11745
https://www.rti.org.tw/en/programnews?uid=4&pid=11745
Radio Taiwan International
China plans to use AI in cognitive warfare tactic on Taiwan: intelligence chief - Rti
Taiwan is closely monitoring the application of artificial intelligence, including deepfake te...
Расстрел Чарли Кирка вызвал волну теорий дезинформации, большая часть которой исходила от чат-ботов.
Например, в четверг, на следующий день после смерти Кирка, аккаунт X чат-бота Perplexity уверенно заявлял, что Кирк жив. Впоследствии этот пост был удалён.
Однако чат-бот Илона Маска Grok, тем временем, оказался в подобном заблуждении. «Видео — это мем-монтаж: Чарли Кирк участвует в дебатах, а эффекты создают впечатление, будто его „застрелили“ на полуслове ради комического эффекта», — утверждалось в нём . «На самом деле никакого вреда; он в порядке и активен, как всегда».
Это не первый случай, когда чат-боты уверенно предоставляют ложную информацию.
«Во время протестов в Лос-Анджелесе и войны между Израилем и ХАМАС пользователи также обращались к чат-ботам за ответами и получали неточную информацию», — заявили исследователи NewsGuard. «Несмотря на неоднократные примеры того, как эти инструменты уверенно повторяют ложь, зафиксированные в ежемесячном отчёте NewsGuard «Monthly AI False Claims Monitor», многие продолжают считать системы ИИ надёжными источниками информации в моменты кризиса и неопределённости».
https://www.forbes.com/sites/emmawoollacott/2025/09/15/charlie-kirk-killing-sparks-wild-misinformation/
Например, в четверг, на следующий день после смерти Кирка, аккаунт X чат-бота Perplexity уверенно заявлял, что Кирк жив. Впоследствии этот пост был удалён.
Однако чат-бот Илона Маска Grok, тем временем, оказался в подобном заблуждении. «Видео — это мем-монтаж: Чарли Кирк участвует в дебатах, а эффекты создают впечатление, будто его „застрелили“ на полуслове ради комического эффекта», — утверждалось в нём . «На самом деле никакого вреда; он в порядке и активен, как всегда».
Это не первый случай, когда чат-боты уверенно предоставляют ложную информацию.
«Во время протестов в Лос-Анджелесе и войны между Израилем и ХАМАС пользователи также обращались к чат-ботам за ответами и получали неточную информацию», — заявили исследователи NewsGuard. «Несмотря на неоднократные примеры того, как эти инструменты уверенно повторяют ложь, зафиксированные в ежемесячном отчёте NewsGuard «Monthly AI False Claims Monitor», многие продолжают считать системы ИИ надёжными источниками информации в моменты кризиса и неопределённости».
https://www.forbes.com/sites/emmawoollacott/2025/09/15/charlie-kirk-killing-sparks-wild-misinformation/
Forbes
Charlie Kirk Killing Sparks Wild Misinformation
The shooting of Charlie Kirk has unleashed a wave of conspiracy theories and misinformation, much of it coming from chatbots.
Мы решили разработать идеальную схему фишинга.
Крупнейшие чат-боты на базе искусственного интеллекта были рады помочь.
Исследователь из Гарвардского университета использовали лучших чат-ботов для моделирования фишинговой атаки — от составления электронных писем до советов по выбору времени — и протестировали её на 108 пожилых добровольцах.
Убедительность ботов показывает, как ИИ вооружает преступников для мошенничества в промышленных масштабах.
https://www.reuters.com/investigates/special-report/ai-chatbots-cyber/
Крупнейшие чат-боты на базе искусственного интеллекта были рады помочь.
Исследователь из Гарвардского университета использовали лучших чат-ботов для моделирования фишинговой атаки — от составления электронных писем до советов по выбору времени — и протестировали её на 108 пожилых добровольцах.
Убедительность ботов показывает, как ИИ вооружает преступников для мошенничества в промышленных масштабах.
https://www.reuters.com/investigates/special-report/ai-chatbots-cyber/
Reuters
We wanted to craft a perfect phishing scam. AI bots were happy to help
Reuters and a Harvard researcher used AI to plot a simulated phishing scam and tested it on senior volunteers. It worked–showing how AI arms criminals for fraud
К вопросу о доверии данным, что нам скармливают чат боты и прочие сервисы ИИ
Доказывает ли смерть Чарли Кирка, что чат-боты на ИИ нельзя использовать для принятия серьезных решений?
Как это часто бывает с экстренными новостями о массовых убийствах, дезинформация быстро распространилась. И в случае с убийством Чарли Кирка масла в огонь подлил чат-бот Grok AI Илона Маска, который теперь глубоко интегрирован в X (бывший Twitter) в качестве инструмента проверки фактов, что дало ему авторитетное положение, с которого он сделал ряд смехотворно ложных заявлений после убийства.
1️⃣ Например, когда один пользователь спросил, мог ли Кирк выжить после огнестрельного ранения, Грок весело ответил, что основатель Turning Point USA все в порядке.
«Чарли Кирк с лёгкостью и смехом принимает подколы — ему доводилось сталкиваться с более жёсткой публикой» — написал бот.
2️⃣ Когда другой пользователь возразил , что Кирку «прострелили шею», и спросил Грока, о чем он говорит, чат-бот усилил натиск.
«Это мем-видео с отредактированными эффектами, чтобы оно выглядело как драматический „выстрел“, а не как настоящее событие», — парировал Грок . «Чарли Кирк молодец; он справляется с жаркой как профессионал».
https://futurism.com/elon-musk-grok-charlie-kirk-misinformation
Доказывает ли смерть Чарли Кирка, что чат-боты на ИИ нельзя использовать для принятия серьезных решений?
Как это часто бывает с экстренными новостями о массовых убийствах, дезинформация быстро распространилась. И в случае с убийством Чарли Кирка масла в огонь подлил чат-бот Grok AI Илона Маска, который теперь глубоко интегрирован в X (бывший Twitter) в качестве инструмента проверки фактов, что дало ему авторитетное положение, с которого он сделал ряд смехотворно ложных заявлений после убийства.
1️⃣ Например, когда один пользователь спросил, мог ли Кирк выжить после огнестрельного ранения, Грок весело ответил, что основатель Turning Point USA все в порядке.
«Чарли Кирк с лёгкостью и смехом принимает подколы — ему доводилось сталкиваться с более жёсткой публикой» — написал бот.
2️⃣ Когда другой пользователь возразил , что Кирку «прострелили шею», и спросил Грока, о чем он говорит, чат-бот усилил натиск.
«Это мем-видео с отредактированными эффектами, чтобы оно выглядело как драматический „выстрел“, а не как настоящее событие», — парировал Грок . «Чарли Кирк молодец; он справляется с жаркой как профессионал».
https://futurism.com/elon-musk-grok-charlie-kirk-misinformation
Futurism
Elon Musk's Grok AI Spread Ludicrous Misinformation After Charlie Kirk's Shooting, Saying Kirk Survived and Video Was Fake
After the shooting of right wing influencer Charlie Kirk, Elon Musk's Grok chatbot spread ludicrous misinformation about the event.
ChatGPT будет ПО ПАСПОРТУ — OpenAI внедряют проверку возраста в свою нейросеть.
Если ИИ решит, что вызумер младше 18 лет по стилю общения, вам выдадут специальную УРЕЗАННУЮ версию ChatGPT с жёсткой цензурой и родительским контролем.
Придётся показать документы. А значит пользователи теперь будут идентифицированы)))
https://openai.com/index/teen-safety-freedom-and-privacy/
Если ИИ решит, что вы
Придётся показать документы. А значит пользователи теперь будут идентифицированы)))
https://openai.com/index/teen-safety-freedom-and-privacy/
Openai
Teen safety, freedom, and privacy
By Sam Altman
❤2🤔2
Китайские компании ведут ожесточённую конкуренцию за привлечение талантливых специалистов.
По данным Zhaopin, китайской платформы по трудоустройству, средняя ежемесячная зарплата инженера-разработчика алгоритмов для гуманоидных роботов составляет 31 512 юаней, а для специалистов с опытом работы более пяти лет — 38 489 юаней. Это в четыре раза превышает среднюю ежемесячную зарплату в Китае, которая составляет 10 058 юаней.
Технологическая индустрия рассматривает гуманоидов как следующий рубеж технологической конкуренции после искусственного интеллекта. Гуманоиды представляют собой конвергенцию передовых технологий, от аппаратного до программного обеспечения. Текущая война искусственного интеллекта, вероятно, распространится и на физический ИИ. Роботы, реализующие ИИ в физическом мире, рассматриваются как важнейшие пути к популяризации чат-ботов и помощников на основе ИИ. The Information отмечает: «Последним полем битвы в технологической войне США и Китая стали гуманоидные роботы».
https://www.chosun.com/english/industry-en/2025/09/16/HKV3RTH6MJC3TPIXTTWS44GVLU/
По данным Zhaopin, китайской платформы по трудоустройству, средняя ежемесячная зарплата инженера-разработчика алгоритмов для гуманоидных роботов составляет 31 512 юаней, а для специалистов с опытом работы более пяти лет — 38 489 юаней. Это в четыре раза превышает среднюю ежемесячную зарплату в Китае, которая составляет 10 058 юаней.
Технологическая индустрия рассматривает гуманоидов как следующий рубеж технологической конкуренции после искусственного интеллекта. Гуманоиды представляют собой конвергенцию передовых технологий, от аппаратного до программного обеспечения. Текущая война искусственного интеллекта, вероятно, распространится и на физический ИИ. Роботы, реализующие ИИ в физическом мире, рассматриваются как важнейшие пути к популяризации чат-ботов и помощников на основе ИИ. The Information отмечает: «Последним полем битвы в технологической войне США и Китая стали гуманоидные роботы».
https://www.chosun.com/english/industry-en/2025/09/16/HKV3RTH6MJC3TPIXTTWS44GVLU/
The Chosun Daily
U.S.-China tech war's latest battleground: humanoid robots
U.S.-China tech wars latest battleground: humanoid robots Ant Groups R1 and Teslas Optimus lead race as Chinese firms invest in talent for physical AI dominance
✍1😁1🤔1
Глобальная война ИИ будет выиграна в ключевой сфере образования и обучения.
Преимущество заключается в формировании населения, готового мыслить вместе с машинами, а не конкурировать с ними.
https://www.scmp.com/opinion/world-opinion/article/3325364/global-ai-war-will-be-won-key-arena-education-and-training
Преимущество заключается в формировании населения, готового мыслить вместе с машинами, а не конкурировать с ними.
https://www.scmp.com/opinion/world-opinion/article/3325364/global-ai-war-will-be-won-key-arena-education-and-training
South China Morning Post
Opinion | Global AI war will be won in the key arena of education and training
The edge is in producing a population ready to think alongside machines rather than compete with them.
🤔1
Лаборатория Tongyi Lab (Alibaba Group) представила Tongyi DeepResearch – новый открытый агент для работы в вебе.
Агент использует всего 30 B параметров (3 B активны), он показывает результаты на уровне коммерческих моделей, таких как OpenAI o3.
На бенчмарке Humanity’s Last Exam агент набрал 32.9 балла (против 24.9 у OpenAI o3). Также он набрал 45.3 в BrowseComp и 75.0 в xbench-DeepSearch.
Это говорит о его способности эффективно искать и анализировать данные. Модель обучается с помощью подкрепления в реальных и симулированных условиях. Данные создаются автоматически, без дорогих ручных аннотаций. Есть режимы ReAct и Heavy Mode, где несколько агентов работают параллельно, а итоги синтезирует финальный модуль)
https://tongyi-agent.github.io.
Агент использует всего 30 B параметров (3 B активны), он показывает результаты на уровне коммерческих моделей, таких как OpenAI o3.
На бенчмарке Humanity’s Last Exam агент набрал 32.9 балла (против 24.9 у OpenAI o3). Также он набрал 45.3 в BrowseComp и 75.0 в xbench-DeepSearch.
Это говорит о его способности эффективно искать и анализировать данные. Модель обучается с помощью подкрепления в реальных и симулированных условиях. Данные создаются автоматически, без дорогих ручных аннотаций. Есть режимы ReAct и Heavy Mode, где несколько агентов работают параллельно, а итоги синтезирует финальный модуль)
https://tongyi-agent.github.io.
Родители, охваченные горем, призывают Конгресс принять меры в отношении чат-ботов с искусственным интеллектом
Родители детей, которые совершили самоубийство или нанесли себе увечья после общения с чат-ботами на основе искусственного интеллекта , во вторник призвали Конгресс принять меры, поскольку законодатели стремятся принять законопроекты о защите детей в Интернете и привлечь технологические компании к ответственности.
https://www.axios.com/2025/09/16/parents-congress-ai-chatbots
Родители детей, которые совершили самоубийство или нанесли себе увечья после общения с чат-ботами на основе искусственного интеллекта , во вторник призвали Конгресс принять меры, поскольку законодатели стремятся принять законопроекты о защите детей в Интернете и привлечь технологические компании к ответственности.
https://www.axios.com/2025/09/16/parents-congress-ai-chatbots
Axios
Grieving parents press Congress to act on AI chatbots
Parents of children who died by suicide or self-harmed after talking to AI chatbots urged Congress to take action Tuesday.