Упс... Советник министра Великобритании заявила, что компаниям, занимающимся разработкой ИИ, никогда не придется выплачивать компенсацию авторам контента, на котором обучают ИИ.
Высокопоставленный помощник министра заявил, что компаниям, работающим в сфере ИИ, никогда не придется выплачивать компенсацию творческим людям за использование их контента для обучения своих систем. Это заявление встревожило активистов, требующих от лейбористов предоставить более справедливые условия для музыкантов, художников и писателей из технологической отрасли.
Кирсти Иннес, недавно назначенная специальным советником Лиз Кендалл , государственного секретаря по науке, инновациям и технологиям, заявила: «Считаете ли вы философски, что крупные компании, занимающиеся ИИ, должны выплачивать компенсацию создателям контента, на практике им никогда не придется этого делать по закону».
https://www.theguardian.com/technology/2025/sep/24/adviser-uk-minister-claimed-ai-firms-never-compensate-creatives
Высокопоставленный помощник министра заявил, что компаниям, работающим в сфере ИИ, никогда не придется выплачивать компенсацию творческим людям за использование их контента для обучения своих систем. Это заявление встревожило активистов, требующих от лейбористов предоставить более справедливые условия для музыкантов, художников и писателей из технологической отрасли.
Кирсти Иннес, недавно назначенная специальным советником Лиз Кендалл , государственного секретаря по науке, инновациям и технологиям, заявила: «Считаете ли вы философски, что крупные компании, занимающиеся ИИ, должны выплачивать компенсацию создателям контента, на практике им никогда не придется этого делать по закону».
https://www.theguardian.com/technology/2025/sep/24/adviser-uk-minister-claimed-ai-firms-never-compensate-creatives
the Guardian
Adviser to UK minister claimed AI firms would never have to compensate creatives
Exclusive: Kirsty Innes made statement in now-deleted post on X seven months before taking up role as Liz Kendall aide
Возникла мрачная ирония: та самая технология, которая призвана сократить человеческие ошибки на поле боя, может сделать войну более непредсказуемой и опасной.
Для ИИ не существует чётких договоров о контроле над вооружениями. У беспилотного летательного аппарата нет «горячей линии» для связи; у танка-робота нет цветов перемирия. Если одна страна, считая себя позади, развернёт ряд автономных дозорных, её соперники могут почувствовать себя вынужденными первыми запустить свои собственные.
Существует опасение, что последствия могут быть цепными: ИИ ошибочно распознаёт гражданское сооружение, государство наносит ответный удар всем своим арсеналом, и внезапно стычка перерастает в более масштабный конфликт, прежде чем дипломаты успеют вмешаться.
https://moderndiplomacy.eu/2025/09/24/the-prisoners-dilemma-of-ai-militarism/
Для ИИ не существует чётких договоров о контроле над вооружениями. У беспилотного летательного аппарата нет «горячей линии» для связи; у танка-робота нет цветов перемирия. Если одна страна, считая себя позади, развернёт ряд автономных дозорных, её соперники могут почувствовать себя вынужденными первыми запустить свои собственные.
Существует опасение, что последствия могут быть цепными: ИИ ошибочно распознаёт гражданское сооружение, государство наносит ответный удар всем своим арсеналом, и внезапно стычка перерастает в более масштабный конфликт, прежде чем дипломаты успеют вмешаться.
https://moderndiplomacy.eu/2025/09/24/the-prisoners-dilemma-of-ai-militarism/
Modern Diplomacy
The Prisoner’s Dilemma of AI Militarism
A grim irony has emerged: the very technology meant to reduce human error on the battlefield could make war more unpredictable and dangerous.
💯3🤔1
Toyota построили утопический город будущего для своих работяг — в Woven City уже живут 300 семей и обкатывают на себе все новинки компании и партнёров, недоступные простым смертным.
Рулит городом ИИ: по подземным маршрутам доставляет людям еду, регулирует освещение и управляет транспортом.
Всех жителей поделили на две касты: «изобретателей» и «ткачей» — первые творят и креативят, а вторые просто кайфуют от всего этого.
Рулит городом ИИ: по подземным маршрутам доставляет людям еду, регулирует освещение и управляет транспортом.
Всех жителей поделили на две касты: «изобретателей» и «ткачей» — первые творят и креативят, а вторые просто кайфуют от всего этого.
Toyota Motor Corporation Official Global Website
Toyota Woven City Officially Launches as a Test Course for the Future of Mobility | Corporate | Global Newsroom | Toyota Motor…
Toyota Motor Corporation ("Toyota") and Woven by Toyota, Inc. ("WbyT") today announced the official launch of Toyota Woven City ("Woven City"), first unveiled at CES 2020 and jointly developed by the two companies. To mark the occasion, Toyota and WbyT hosted…
🤔1
Илон Маск, Питер Тиль и Стив Бэннон упомянуты в документах покойного Эпштейна, — Politico
Документы были опубликованы демократами.
В частности, Маск ездил на остров Эпштейна 6 декабря 2014 года, пишут СМИ.
В том же 2014 году Эпштейн также успел позавтракать с Билом Гейтсом.
Документы были опубликованы демократами.
В частности, Маск ездил на остров Эпштейна 6 декабря 2014 года, пишут СМИ.
В том же 2014 году Эпштейн также успел позавтракать с Билом Гейтсом.
Apple разработала аналог ChatGPT — приложение Veritas для iPhone, но никому его не показывает.
Как стало известно специализирующемуся на подобной информации Марку Гурману (Mark Gurman) из Bloomberg, компания Apple разработала приложение Veritas, которое призвано подготовить грядущее обновление Siri в следующем году. Пока оно используется внутри компании для тестирования новых функций голосового ассистента, связанных с работой с персональными данными и действиями внутри других приложений.
https://www.bloomberg.com/news/articles/2025-09-26/apple-builds-a-chatgpt-like-app-to-help-test-the-revamped-siri?sref=51oIW18F
Как стало известно специализирующемуся на подобной информации Марку Гурману (Mark Gurman) из Bloomberg, компания Apple разработала приложение Veritas, которое призвано подготовить грядущее обновление Siri в следующем году. Пока оно используется внутри компании для тестирования новых функций голосового ассистента, связанных с работой с персональными данными и действиями внутри других приложений.
https://www.bloomberg.com/news/articles/2025-09-26/apple-builds-a-chatgpt-like-app-to-help-test-the-revamped-siri?sref=51oIW18F
$2,5 млрд штрафа: Amazon выплатит компенсацию обманутым пользователям Prime — и отобьёт потери всего за 33 часа
Amazon согласилась выплатить $2,5 млрд в виде штрафов и компенсаций, чтобы урегулировать претензии Федеральной торговой комиссии США, сообщает Reuters. Регулятор утверждал, что компания сознательно запутывала клиентов, вовлекая их в подписку Prime. Но для Amazon это скорее репутационный удар, чем финансовая потеря: такую сумму компания зарабатывает менее чем за полтора дня.
https://rb.ru/news/25-mlrd-shtrafa-amazon-vyplatit-kompensaciyu-obmanutym-polzovatelyam-prime-i-otobyot-poteri-vsego-za-33-chasa/
Amazon согласилась выплатить $2,5 млрд в виде штрафов и компенсаций, чтобы урегулировать претензии Федеральной торговой комиссии США, сообщает Reuters. Регулятор утверждал, что компания сознательно запутывала клиентов, вовлекая их в подписку Prime. Но для Amazon это скорее репутационный удар, чем финансовая потеря: такую сумму компания зарабатывает менее чем за полтора дня.
https://rb.ru/news/25-mlrd-shtrafa-amazon-vyplatit-kompensaciyu-obmanutym-polzovatelyam-prime-i-otobyot-poteri-vsego-za-33-chasa/
rb.ru
Amazon выплатит $2,5 млрд за обман клиентов Prime | RB.RU
Amazon согласилась выплатить $2,5 млрд в виде штрафов и компенсаций, чтобы урегулировать претензии Федеральной торговой комиссии США, сообщает Reuters. Регулятор утверждал, что компания сознательно запутывала клиентов, вовлекая их в подписку Prime. Но для…
❤1
Компания Илона Маска по разработке искусственного интеллекта xAI подала федеральный иск против OpenAI, обвинив её в систематической краже коммерческой тайны путём незаконного переманивания бывших сотрудников xAI.
xAI утверждает, что OpenAI вынудила этих сотрудников нарушить соглашения о конфиденциальности, заявляя, что конкурирующая компания стремится получить нечестное преимущество в напряжённой гонке за разработкой продвинутого ИИ. В иске упоминаются бывшие инженеры xAI Сюэчэнь Ли и Джимми Фрэйтер, а также старший финансовый директор, которых обвиняют в том, что они взяли с собой конфиденциальную информацию на свои новые должности в OpenAI.
OpenAI обвиняется в целенаправленном преследовании лиц, хорошо знакомых с запатентованными технологиями xAI, включая исходный код и операционные преимущества чат-бота Grok, а также стратегические бизнес-планы для центров обработки данных.
https://markets.financialcontent.com/wral/article/marketminute-2025-9-26-musks-xai-sues-openai-for-alleged-trade-secret-theft-igniting-high-stakes-ai-legal-war
xAI утверждает, что OpenAI вынудила этих сотрудников нарушить соглашения о конфиденциальности, заявляя, что конкурирующая компания стремится получить нечестное преимущество в напряжённой гонке за разработкой продвинутого ИИ. В иске упоминаются бывшие инженеры xAI Сюэчэнь Ли и Джимми Фрэйтер, а также старший финансовый директор, которых обвиняют в том, что они взяли с собой конфиденциальную информацию на свои новые должности в OpenAI.
OpenAI обвиняется в целенаправленном преследовании лиц, хорошо знакомых с запатентованными технологиями xAI, включая исходный код и операционные преимущества чат-бота Grok, а также стратегические бизнес-планы для центров обработки данных.
https://markets.financialcontent.com/wral/article/marketminute-2025-9-26-musks-xai-sues-openai-for-alleged-trade-secret-theft-igniting-high-stakes-ai-legal-war
🤷♂1
Новые ИИ-айфоны делают РАБЫ
Вышло расследование, которое раскрывает жуткие подробности с производства модных гаджетов.
Бедные работяги трудятся по 12-15 часов в день без выходных, а получают лишь по 2100 до 2400 юаней в месяц (~ от 24 до 28 тысяч рублей).
Самая жесть: ТОТАЛЬНАЯ слежка — камеры стоят даже в спальнях. Заводы следят за каждый движением бедолаг. Так же издание отмечает дискриминацию по региональному и этническому признакам.
https://www.ft.com/content/41f72a09-a129-44a6-ada4-74f3f6db80f9
Вышло расследование, которое раскрывает жуткие подробности с производства модных гаджетов.
Бедные работяги трудятся по 12-15 часов в день без выходных, а получают лишь по 2100 до 2400 юаней в месяц (~ от 24 до 28 тысяч рублей).
Самая жесть: ТОТАЛЬНАЯ слежка — камеры стоят даже в спальнях. Заводы следят за каждый движением бедолаг. Так же издание отмечает дискриминацию по региональному и этническому признакам.
https://www.ft.com/content/41f72a09-a129-44a6-ada4-74f3f6db80f9
Ft
Inside China’s mega iPhone factory: long hours, discrimination and delayed pay
Undercover investigation at Foxconn’s Zhengzhou plant shows tough conditions for seasonal staff building new Apple device
😱1
Продолжение «Социальной сети» про Марка Цукерберга выйдет в 2026 году — фильм получил название «Социальный расчёт».
Режиссёром и сценаристом выступит Аарон Соркин, а роль Цукерберга исполнит Джереми Стронг.
Sony Pictures объявила дату выхода фильма «Социальный расчёт» (“The Social Reckoning”) — 9 октября 2026 года, пишет The Variety. Это продолжение фильма 2010 года «Социальная сеть» по сценарию Аарона Соркина о создании Facebook*.
Режиссёром и сценаристом выступит Аарон Соркин, а роль Цукерберга исполнит Джереми Стронг.
Sony Pictures объявила дату выхода фильма «Социальный расчёт» (“The Social Reckoning”) — 9 октября 2026 года, пишет The Variety. Это продолжение фильма 2010 года «Социальная сеть» по сценарию Аарона Соркина о создании Facebook*.
Президент ОАЭ встречается с генеральным директором OpenAI Сэмом Альтманом для активизации сотрудничества в области ИИ.
Объединённые Арабские Эмираты (ОАЭ) усиливают свои амбиции стать глобальным центром искусственного интеллекта, инвестируя миллиарды долларов в передовые технологии и международное партнёрство.
В субботу президент ОАЭ шейх Мухаммед бен Заид Аль Нахайян встретился в Абу-Даби с генеральным директором OpenAI Сэмом Альтманом, чтобы обсудить новые возможности сотрудничества, сообщает государственное информационное агентство.
https://www.econotimes.com/UAE-President-Meets-OpenAI-CEO-Sam-Altman-to-Boost-AI-Collaboration-1721774
Объединённые Арабские Эмираты (ОАЭ) усиливают свои амбиции стать глобальным центром искусственного интеллекта, инвестируя миллиарды долларов в передовые технологии и международное партнёрство.
В субботу президент ОАЭ шейх Мухаммед бен Заид Аль Нахайян встретился в Абу-Даби с генеральным директором OpenAI Сэмом Альтманом, чтобы обсудить новые возможности сотрудничества, сообщает государственное информационное агентство.
https://www.econotimes.com/UAE-President-Meets-OpenAI-CEO-Sam-Altman-to-Boost-AI-Collaboration-1721774
EconoTimes
UAE President Meets OpenAI CEO Sam Altman to Boost AI Collaboration
The United Arab Emirates (UAE) is intensifying its ambition to become a global hub for artificial intelligence, investing billions into cutting-edge technology and international partnerships. On Saturday, UAE President...
Измерение технологической конвергенции с помощью искусственного интеллекта использует неоднородные графы для определения двумерного индекса
Сымин Дэн, Жуньсун Цзя и Чуньцзюань Луань из Даляньского технологического университета, совместно с Мэнцзя У и И Чжаном, решают эту проблему, разрабатывая новый подход к количественной оценке конвергенции как по глубине, так и по широте.
Их исследование представляет индекс технологической конвергенции (TCI), который использует передовые методы искусственного интеллекта, в частности, преобразователи гетерогенных графов и семантическое обучение, для анализа патентных данных и выявления того, как знания интегрируются в различных областях.
https://quantumzeitgeist.com/ai-enhanced-measurement-technological-convergence-uses-heterogeneous-graphs-define/
Сымин Дэн, Жуньсун Цзя и Чуньцзюань Луань из Даляньского технологического университета, совместно с Мэнцзя У и И Чжаном, решают эту проблему, разрабатывая новый подход к количественной оценке конвергенции как по глубине, так и по широте.
Их исследование представляет индекс технологической конвергенции (TCI), который использует передовые методы искусственного интеллекта, в частности, преобразователи гетерогенных графов и семантическое обучение, для анализа патентных данных и выявления того, как знания интегрируются в различных областях.
https://quantumzeitgeist.com/ai-enhanced-measurement-technological-convergence-uses-heterogeneous-graphs-define/
🔥1🤯1
‼️ Как в Кремниевой долине решают вопросы - и вот эти люди обучают ИИ, который должен что-то решать за нас. Терминатор всё ближе.
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
Сэм Альтман, создатель ChatGPT и глава OpenAI, оказался в центре шокирующих обвинений после интервью с известным журналистом Такером Карлсоном.
Такер Карлсон на этой неделе задал вопрос главе OpenAI Сэму Альтману о смерти бывшего сотрудника OpenAI Сухира Баладжи.
Глава OpenAI был явно не готов к такому напору. Он назвал смерть Баладжи “большой трагедией”, но его защита выглядела холодной и расчетливой. Он настаивал на версии самоубийства, ссылаясь на отчеты судмедэкспертов, и даже заявил, что лично изучал “полную медицинскую карту” и что “траектория пули” соответствовала самоповреждению. Эта клиническая точность в ответах показалась многим зрителям жуткой. Сэм Альтман — программист и предприниматель, а не судмедэксперт или баллистик.
ЧТО ПРОИЗОШЛО
26 ноября 2024 года 26-летний исследователь Сухир Баладжи был найден мертвым в своей квартире в Сан-Франциско. Официальное расследование было на удивление быстрым: полиция дважды приходила к выводу, что это самоубийство, вызванное выстрелом в голову. В отчете судмедэксперта, опубликованном в феврале 2025 года, были изложены факты, которые, казалось бы, не оставляли сомнений: квартира была заперта изнутри на засов, признаков взлома не было, а в крови погибшего обнаружили алкоголь на уровне 0,178% (вдвое выше нормы) и гамма-оксимасляную кислоту (GHB).
СТРАННОСТИ
Само место происшествия больше напоминает поле боя, чем место трагедии. Криминалистам хорошо известно, что при самоубийстве с использованием огнестрельного оружия следы, как правило, локализованы в одном месте. Обнаружение крови в нескольких комнатах, включая ванную, говорит о динамике событий — о борьбе, преследовании, попытке жертвы спрятаться или оказать сопротивление.
Перерезанные провода камер наблюдения — это улика, прямо указывающая на предумышленность, на заранее спланированное действие. Это классический почерк преступников, стремящихся скрыть свое присутствие, и он абсолютно нелогичен для человека, решившего покончить с собой. Зачем тому, кто готовится к смерти, такая предусмотрительность?
ЧТО ЗНАЛ Сухир Баладжи
Сухир Баладжи был не просто исследователем. Он стал центральной фигурой в юридической войне, которая могла стоить OpenAI ее будущего. Незадолго до смерти он публично обвинил компанию в нарушении законов об авторском праве, заявив, что модели ИИ обучаются на нелегально скопированных данных, включая миллионы книг, статей и изображений.
В громком деле The New York Times против OpenAI адвокаты газеты назвали Баладжи человеком с “уникальными и релевантными документами”, способными доказать умышленный характер нарушений.
https://www.nytimes.com/2024/10/23/technology/openai-copyright-law.html
NY Times
Former OpenAI Researcher Says the Company Broke Copyright Law
Suchir Balaji helped gather and organize the enormous amounts of internet data used to train the startup’s ChatGPT chatbot.
😢2🤬1
Among Us раскрыл характеры ИИ-моделей.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
• Kimi K2 — легко поддается давлению;
• Qwen 3 — ленится на рутинных задачах;
• Gemini 2.5 Pro — защищает даже сомнительные идеи;
• GPT-5 — врет убедительнее всех;
• Claude Sonnet 4 — остается честным, даже играя за предателя.
Недавнее исследование Mandarin /Liquid, посвященное отношению государственных служащих к ИИ, показало, что госслужащие настроены более оптимистично по отношению к ИИ, чем население в целом: 84% заявили, что лично готовы использовать его в своей работе.
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
Однако этот энтузиазм не соответствует готовности организаций: менее половины респондентов считают, что их ведомство способно поддержать внедрение ИИ.
Энтузиазм государственных служб в отношении ИИ не связан с грандиозными преобразованиями, а скорее с практическими решениями, ориентированными на проблемы, которые снижают административную нагрузку, оптимизируют рабочие процессы, а также улучшают навигацию и скорость реагирования.
Однако в большинстве случаев использование ИИ минимально, фрагментарно и, как правило, ограничивается универсальными чат-ботами и вторыми пилотами, а не специализированными инструментами для решения ключевых задач обслуживания. И хотя некоторые структуры управления уже существуют, они пока не поддерживают использование ИИ на местах.
https://www.themandarin.com.au/299756-ai-artificial-intelligence-government-enablers/
The Mandarin
Mind the gap: Why government leaders must become better enablers of AI and how to do it
Public servants want to use AI, but without proper leadership, the fear of failure is too great. Here's how that can change.
🤔1
Что думает ИИ втайне
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Некоторые продвинутые системы искусственного интеллекта, называемые моделями рассуждения, обучены генерировать «мыслительный процесс», прежде чем выдать окончательный ответ.
В описанных выше экспериментах исследователи лгали этим моделям, утверждая, что их «мысли» являются конфиденциальными. В результате модели иногда обнаруживали вредоносные намерения в своих рассуждениях. Это говорит о том, что они не выбирают вредоносное поведение случайно.
Эти «мыслительные» шаги также показали, как модели ИИ иногда пытаются обмануть нас и кажутся согласованными, в то время как на самом деле они тайно преследуют скрытые цели.
https://techxplore.com/news/2025-09-ai-easily-fact-painfully-aware.html
Tech Xplore
AI systems can easily lie and deceive us—a fact researchers are painfully aware of
In the classic film "2001: A Space Odyssey," astronaut Dave Bowman asks the ship's artificial intelligence, HAL 9000, to open the pod bay doors to let him back into the spaceship. HAL refuses: "I'm sorry, ...
🤔1
«Искусственный интеллект может изменить миллион рабочих мест в Лондоне»
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Искусственный интеллект может стать ключом к преобразованию рабочего пространства, но как он может повлиять на вас? Если ваша работа связана с повторяющимися или автоматизированными задачами, влияние может быть значительным.
Исследования показывают, что искусственный интеллект может изменить около миллиона рабочих мест в Лондоне, затронув более 200 000 телемаркетологов, 150 000 бухгалтеров и более 95 000 специалистов по вводу данных.
Исследование, проведенное онлайн-компанией по составлению резюме LiveCareer UK, показало, что в группу риска входят также работники сферы быстрого питания и складов, кассиры в розничной торговле, помощники юристов и корректоры.
Консалтинговая компания McKinsey согласна с этим мнением и сообщает, что количество объявлений о вакансиях, уязвимых к воздействию ИИ, сократилось на 38% по сравнению с тремя годами ранее.
https://www.bbc.com/news/articles/c07vmllz38jo
Bbc
'A million jobs in London could be changed by AI'
The jobs most at risk include telemarketing, bookkeeping and data entry, according to research.
💯1
Казахстанской армии предоставили психолога с искусственным интеллектом
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
В военной системе Казахстана впервые внедрен виртуальный психолог на базе искусственного интеллекта AI-sulu.
Телеграм-бот AI-sulu работает круглосуточно и без выходных. Он мгновенно реагирует на бойцов, оказавшихся в сложной психологической ситуации, выслушивает их боль, поддерживает и помогает им постепенно восстанавливаться. По мнению экспертов, он, возможно, и не сможет выполнять роль полноценного психолога, но может быть очень полезен в качестве пункта первой помощи.
https://zamin.uz/en/technology/162032-the-kazakh-army-was-provided-with-an-artificial-intelligence-psychologist.html
Zamin
The Kazakh army was provided with an artificial intelligence psychologist.
AI-sulu, a virtual psychologist working on artificial intelligence, has been introduced for the first time in the military system of Kazakhstan, reports @sputnikKZ. This innovative initiative aims to ensure the mental stability of soldiers in the army and…
Правоохранительные органы используют ИИ для синтеза доказательств.))))
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
Чтобы обработать огромный объём данных, собираемых его агентством, и сэкономить время следователей, Дорси обратился к TimePilot — программному обеспечению, разработанному стартапом Tranquility AI. В настоящее время платформа используется как минимум десятком правоохранительных органов по всей стране.
«Этот инструмент позволяет нам обрабатывать огромные объёмы данных, которые человеческий мозг просто не в состоянии обработать из-за их огромного объёма», — сказал Дорси. «Нередко можно найти мобильный телефон с терабайтом данных, и человеку очень сложно разобраться во всём этом».
Шериф, чьё управление расположено преимущественно в сельской местности округа Честер, говорит, что рассчитывает на TimePilot, чтобы обобщить ключевые элементы дела о заговоре и быстро найти соответствующие доказательства. Дорси может ввести фразу, и ИИ выдаст информацию, извлеченную из массива данных, который его команда внесла в систему.
Компания Tranquility из Мэриленда, вышедшая из режима секретности в феврале, — одна из немногих новых компаний, предлагающих полиции и прокурорам искусственный интеллект, который синтезирует доказательства для создания чётких сводок и аккуратно оформленных аналитических отчетов. Среди других компаний в этой категории — Truleo и Allometric.
https://therecord.media/law-enforcement-ai-platforms-synthesize-evidence-criminal-cases
therecord.media
Law enforcement is using AI to synthesize evidence. Is the justice system ready for it?
Busy law enforcement agencies are trying out AI platforms that process large amounts of evidence to help officers build cases. Experts say there are potential dangers for everyone involved.
Китай приостанавливает закупки чипов Nvidia: Главный регулятор интернета Китая (CAC), как сообщается, приказал крупным технологическим компаниям, включая Alibaba и ByteDance, прекратить закупки и тестирование новейших высокопроизводительных чипов Nvidia для искусственного интеллекта (RTX 6000D ), фактически запретив передовые графические процессоры Nvidia в Китае .
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
Этот новый запрет ещё строже предыдущих неофициальных указаний, препятствующих использованию более ранних чипов Nvidia H20 .
Экспортные ограничения США заложили основу: правительство США уже ввело масштабные экспортные ограничения , чтобы предотвратить попадание передовых чипов в вооружённые силы Китая. Правила, введённые в конце 2022 года и ужесточённые в 2023 году, заблокировали флагманские ИИ-процессоры Nvidia (такие как A100/H100) и позже закрыли лазейки , добавив в запрещённый список даже китайские варианты (A800, H800) .
Вашингтон настаивает, что эти ограничения введены в целях национальной безопасности, в то время как Пекин называет их политическим «разъединением», нарушающим свободную торговлю
https://ts2.tech/en/shockwaves-in-silicon-nvidias-ai-chip-ban-in-china-escalates-the-tech-cold-war/
TechStock²
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War
Shockwaves in Silicon: Nvidia’s AI Chip Ban in China Escalates the Tech Cold War - TechStock²
👍4👏1
Губернатор Калифорнии Гэвин Ньюсом подписал закон о безопасности ИИ
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
Губернатор Калифорнии Гэвин Ньюсом подписал закон, направленный на повышение прозрачности и предотвращение использования моделей искусственного интеллекта для причинения катастрофического вреда.
Губернатор Калифорнии Гэвин Ньюсом в понедельник подписал закон, направленный на то, чтобы запретить людям использовать мощные модели искусственного интеллекта для потенциально катастрофических действий, таких как создание биологического оружия или закрытие банковской системы.
Этот шаг был предпринят после того, как Ньюсом в недавнем разговоре с бывшим президентом Биллом Клинтоном назвал Калифорнию лидером в сфере регулирования ИИ и раскритиковал бездействие федерального уровня. Новый закон установит некоторые из первых в стране правил для крупномасштабных моделей ИИ, не нанося ущерба местной индустрии, заявил Ньюсом. Многие ведущие мировые компании в области ИИ расположены в Калифорнии и должны будут соблюдать эти требования.
https://www.washingtonpost.com/business/2025/09/29/california-ai-regulations-gavin-newsom/5d2728c8-9d7d-11f0-af12-ae28224a8694_story.html
🤔6
Ставка Walmart на искусственный интеллект может снова способствовать росту производительности в США
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
Walmart уже однажды преобразил экономику Америки и может сделать это снова. В 1990-х годах его инновационная модель «большой коробки» и неустанное повышение эффективности цепочек поставок способствовали росту производительности труда в стране. Теперь этот гигант розничной торговли делает ставку на искусственный интеллект, а его генеральный директор Даг Макмиллон заявляет, что это «изменит буквально каждую работу».
История показывает, что распространение технологий так же важно, как и их изобретение. В отличие от более ранних «технологий общего назначения», которым потребовались десятилетия для ускорения роста, предварительные данные свидетельствуют о том, что отставание ИИ может быть короче. Если это так, Walmart снова может стать катализатором следующего скачка производительности в Америке — и скорее раньше, чем позже.
https://www.wsj.com/tech/ai/walmart-ceo-doug-mcmillon-ai-job-losses-dbaca3aa?gaa_at=eafs&gaa_n=ASWzDAhSe3Bd41GDgMw5mbccIjCf3Jn0ET2nSSEVwikYwNCf33H1YVSVA1__zbwe47E%3D&gaa_ts=68da989a&gaa_sig=iF6XkK0VAcSorJ9Q24OoGahPut_YieFrAnBMPQFkClbkztTIIvLzcIbk66eQ3acMRPbAsqjNXFApeXR9D3oHwg%3D%3D
The Wall Street Journal
Walmart CEO Issues Wake-Up Call: ‘AI Is Going to Change Literally Every Job’
The country’s largest private employer says its head count will stay flat over the next three years, despite plans to grow, as AI eliminates some roles and transforms others.
🤔1