Взгляды американцев на ИИ и национальную безопасность в 5 диаграммах
1. Большинство американцев ожидают атак ИИ со стороны иностранных правительств.
2. Американцы разделились во мнении, принесет ли ИИ пользу или вред национальной безопасности.
3. Молодые люди, женщины, демократы и непользователи наиболее пессимистично оценивают влияние ИИ на национальную безопасность.
4. Поддержка оружия с искусственным интеллектом является условной.
5. Несмотря на неопределенность, американцы видят некоторые военные преимущества ИИ.
https://news.gallup.com/poll/695297/american-views-national-security-charts.aspx
1. Большинство американцев ожидают атак ИИ со стороны иностранных правительств.
2. Американцы разделились во мнении, принесет ли ИИ пользу или вред национальной безопасности.
3. Молодые люди, женщины, демократы и непользователи наиболее пессимистично оценивают влияние ИИ на национальную безопасность.
4. Поддержка оружия с искусственным интеллектом является условной.
5. Несмотря на неопределенность, американцы видят некоторые военные преимущества ИИ.
https://news.gallup.com/poll/695297/american-views-national-security-charts.aspx
👍1
Обратная утечка мозгов: подарок Трампа Китаю
На прошлой неделе новость о возвращении из США известного китайского учёного произвела эффект разорвавшейся бомбы: Лю Цзюнь, один из ведущих мировых статистиков и давний профессор Гарварда, вернулся в Китай, чтобы занять должность ведущего преподавателя в Университете Цинхуа в Пекине.
Этот «переезд» — лишь очередной пример тенденции, которая продолжается уже несколько лет и усилилась при администрации бывшего президента Трампа, скептически относившегося к зарубежным учёным, видя в них конкурентов образованным американцам.
Физик-ядерщик из Принстона, инженер-эксперт, помогавший НАСА в исследовании производства в космосе, нейробиолог из Национальных институтов здравоохранения, известные математики и более десятка специалистов в области искусственного интеллекта... Список талантливых исследователей, уезжающих из США для работы в Китае, внушителен и продолжает расти.
Большая часть этого движения является частью так называемой обратной утечки мозгов, что ставит под сомнение долгосрочную способность США привлекать и удерживать ведущих иностранных ученых, внесших значительный вклад в статус Америки как неоспоримого мирового лидера в области технологий и науки после Второй мировой войны.
https://www.nin.rs/english/news/90598/reverse-brain-drain-trumps-gift-to-china
На прошлой неделе новость о возвращении из США известного китайского учёного произвела эффект разорвавшейся бомбы: Лю Цзюнь, один из ведущих мировых статистиков и давний профессор Гарварда, вернулся в Китай, чтобы занять должность ведущего преподавателя в Университете Цинхуа в Пекине.
Этот «переезд» — лишь очередной пример тенденции, которая продолжается уже несколько лет и усилилась при администрации бывшего президента Трампа, скептически относившегося к зарубежным учёным, видя в них конкурентов образованным американцам.
Физик-ядерщик из Принстона, инженер-эксперт, помогавший НАСА в исследовании производства в космосе, нейробиолог из Национальных институтов здравоохранения, известные математики и более десятка специалистов в области искусственного интеллекта... Список талантливых исследователей, уезжающих из США для работы в Китае, внушителен и продолжает расти.
Большая часть этого движения является частью так называемой обратной утечки мозгов, что ставит под сомнение долгосрочную способность США привлекать и удерживать ведущих иностранных ученых, внесших значительный вклад в статус Америки как неоспоримого мирового лидера в области технологий и науки после Второй мировой войны.
https://www.nin.rs/english/news/90598/reverse-brain-drain-trumps-gift-to-china
НИН
Reverse brain drain: Trump's gift to China
Najnovije vesti i video priče iz Srbije i sveta o najvažnijim događajima iz politike, sporta, biznisa, kulture, zdravlja. Budite uz Nin .
👍4
Apple подозревают в прослушке пользователей через голосового помощника Siri
Французская прокуратура начала расследование в отношении Apple по делу о сборе и хранении голосовых записей пользователей цифрового ассистента Siri. Расследование передано в Управление по борьбе с киберпреступностью после жалобы правозащитной организации Ligue des droits de l’Homme, утверждающей, что записи могли сохраняться до двух лет и анализироваться подрядчиками. В качестве доказательства организация приводит показания бывшего подрядчика Apple в Ирландии Томаса Ле Боннека, который заявлял, что анализировал конфиденциальные пользовательские записи, включая разговоры пациентов с онкологическими заболеваниями.
Apple заявила, что хранит аудиозаписи Siri только с согласия пользователей и использует их исключительно для улучшения сервиса. Компания отказалась от дополнительных комментариев, сославшись на опубликованный в январе блог-пост, где объясняла политику обработки голосовых данных.
https://www.bloomberg.com/news/articles/2025-10-06/apple-faces-probe-in-france-over-voice-recordings-made-by-siri
Французская прокуратура начала расследование в отношении Apple по делу о сборе и хранении голосовых записей пользователей цифрового ассистента Siri. Расследование передано в Управление по борьбе с киберпреступностью после жалобы правозащитной организации Ligue des droits de l’Homme, утверждающей, что записи могли сохраняться до двух лет и анализироваться подрядчиками. В качестве доказательства организация приводит показания бывшего подрядчика Apple в Ирландии Томаса Ле Боннека, который заявлял, что анализировал конфиденциальные пользовательские записи, включая разговоры пациентов с онкологическими заболеваниями.
Apple заявила, что хранит аудиозаписи Siri только с согласия пользователей и использует их исключительно для улучшения сервиса. Компания отказалась от дополнительных комментариев, сославшись на опубликованный в январе блог-пост, где объясняла политику обработки голосовых данных.
https://www.bloomberg.com/news/articles/2025-10-06/apple-faces-probe-in-france-over-voice-recordings-made-by-siri
Bloomberg.com
Apple Faces Probe in France Over Voice Recordings Made by Siri
Apple Inc. faces an investigation in France over the use of voice recordings made with its assistant Siri.
❤1
Как контроль эмоций с помощью ИИ может угрожать личной свободе
Эмоциональное ИИ-наблюдение незаметно проростает в тени "взрослых" технологий, но сигнализирует о грядущих серьезных изменениях, которые сделают всё это личным для каждого из нас.
В Европейском союзе система пограничного контроля на основе ИИ с возможностями распознавания эмоций под названием iBorderCtrl была испытана в некоторых странах ЕС для автоматизации процесса обеспечения безопасности на границе, работая как «детектор лжи» для граждан стран, не входящих в ЕС, которые хотели въехать в ЕС.
Совсем недавно транспортное агентство Transport for London провело испытание эмоционального наблюдения на основе ИИ на некоторых станциях лондонского метрополитена с заявленной целью предотвращения преступлений, оценки удовлетворенности и максимизации доходов за счет привлечения большего количества рекламодателей.
Возможности систем наблюдения на основе эмоционального ИИ выходят за рамки отслеживания и идентификации людей. Это больше, чем просто системы распознавания лиц. Они могут проникнуть в ваш разум, считывая ваши эмоции по выражению лица, голосу, физиологическим признакам и словам, и раскрыть их тем, кто обладает властью, чтобы контролировать вас или манипулировать вами.
На карту поставлено нечто большее, чем ваша конфиденциальность. Речь идёт о вашем разуме, о том, что в нём находится, и о вашей способности принимать собственные решения и действовать. Ещё большую тревогу вызывает то, что эти системы не всегда точны и непредвзяты, а это означает, что вы можете столкнуться с определёнными негативными последствиями, в том числе из-за технических недостатков системы.
https://www.techpolicy.press/how-ai-powered-emotional-surveillance-can-threaten-personal-autonomy-and-democracy/
Эмоциональное ИИ-наблюдение незаметно проростает в тени "взрослых" технологий, но сигнализирует о грядущих серьезных изменениях, которые сделают всё это личным для каждого из нас.
В Европейском союзе система пограничного контроля на основе ИИ с возможностями распознавания эмоций под названием iBorderCtrl была испытана в некоторых странах ЕС для автоматизации процесса обеспечения безопасности на границе, работая как «детектор лжи» для граждан стран, не входящих в ЕС, которые хотели въехать в ЕС.
Совсем недавно транспортное агентство Transport for London провело испытание эмоционального наблюдения на основе ИИ на некоторых станциях лондонского метрополитена с заявленной целью предотвращения преступлений, оценки удовлетворенности и максимизации доходов за счет привлечения большего количества рекламодателей.
Возможности систем наблюдения на основе эмоционального ИИ выходят за рамки отслеживания и идентификации людей. Это больше, чем просто системы распознавания лиц. Они могут проникнуть в ваш разум, считывая ваши эмоции по выражению лица, голосу, физиологическим признакам и словам, и раскрыть их тем, кто обладает властью, чтобы контролировать вас или манипулировать вами.
На карту поставлено нечто большее, чем ваша конфиденциальность. Речь идёт о вашем разуме, о том, что в нём находится, и о вашей способности принимать собственные решения и действовать. Ещё большую тревогу вызывает то, что эти системы не всегда точны и непредвзяты, а это означает, что вы можете столкнуться с определёнными негативными последствиями, в том числе из-за технических недостатков системы.
https://www.techpolicy.press/how-ai-powered-emotional-surveillance-can-threaten-personal-autonomy-and-democracy/
Tech Policy Press
How AI-Powered Emotional Surveillance Can Threaten Personal Autonomy and Democracy | TechPolicy.Press
If we do not regulate emotional AI surveillance now, we might soon have to fake how we feel to protect our privacy, writes Oznur Uguz.
OpenAI подписала соглашения на сумму более 1 триллиона долларов
OpenAI подписала контракты на сумму около 1 триллиона долларов с технологическими гигантами Nvidia, AMD, Oracle и CoreWeave, чтобы обеспечить необходимые вычислительные мощности для разработки своих моделей искусственного интеллекта, включая ChatGPT .
Эти соглашения предоставляют компании доступ к более чем 20 гигаваттам вычислительной мощности в течение следующего десятилетия — примерно столько же производят 20 ядерных реакторов.
По оценкам OpenAI, каждый гигаватт вычислительной инфраструктуры стоит около 50 миллиардов долларов, в результате чего общая стоимость сделок достигает 1 триллиона долларов.
https://en.ain.ua/2025/10/08/openai-has-signed-agreements-worth-over-1-trillion/
OpenAI подписала контракты на сумму около 1 триллиона долларов с технологическими гигантами Nvidia, AMD, Oracle и CoreWeave, чтобы обеспечить необходимые вычислительные мощности для разработки своих моделей искусственного интеллекта, включая ChatGPT .
Эти соглашения предоставляют компании доступ к более чем 20 гигаваттам вычислительной мощности в течение следующего десятилетия — примерно столько же производят 20 ядерных реакторов.
По оценкам OpenAI, каждый гигаватт вычислительной инфраструктуры стоит около 50 миллиардов долларов, в результате чего общая стоимость сделок достигает 1 триллиона долларов.
https://en.ain.ua/2025/10/08/openai-has-signed-agreements-worth-over-1-trillion/
en.ain.ua
OpenAI signed a $1 trillion deal to secure AI computing power
These agreements give the company access to more than 20 gigawatts of computing power over the next decade. - AIN
🤔1
Компания SpaceX продолжает активно наращивать свою спутниковую группировку Starlink, но это сопровождается и обратной стороной — ускоренным ростом числа спутников, сходящих с орбиты, предупреждает астроном Гарвард-Смитсоновского центра астрофизики Джонатан Макдауэлл (Jonathan McDowell). По его подсчётам, ежедневно один-два спутника Starlink возвращаются в атмосферу Земли и сгорают, а со временем это число может увеличиться до пяти в день.
EarthSky | Updates on your cosmos and world
1 to 2 Starlink satellites are falling back to Earth each day
Существует ли пузырь искусственного интеллекта?
В среду представители Банка Англии заявили о растущем риске того, что цены на акции технологических компаний, подскочившие из-за бума искусственного интеллекта, могут рухнуть.
«Риск резкой коррекции рынка возрос», — заявил центральный банк Великобритании.
К этим симптомам относятся быстрый рост цен на акции технологических компаний, тот факт, что на долю акций технологических компаний сейчас приходится около 40% индекса S&P 500, рыночные оценки, которые кажутся «завышенными» за пределы их реальной стоимости, и «общее чувство крайнего оптимизма в отношении базовой технологии, несмотря на огромную неопределенность относительно того, что эта технология может в конечном итоге дать», — сказал Слейтер.
Самые оптимистичные прогнозы относительно результатов генеративных продуктов ИИ предсказывают трансформацию экономики, которая приведёт к ежегодному росту производительности, невиданному, по словам Слейтера, со времён восстановления Европы после Второй мировой войны. Экономист Дэрон Асемоглу из Массачусетского технологического института, по крайней мере, предсказал «нетривиальный, но скромный» рост производительности в США всего на 0,7% за десятилетие.
Например, OpenAI не приносит прибыли, но частная компания из Сан-Франциско сейчас является самым дорогим стартапом в мире с рыночной капитализацией в 500 миллиардов долларов. Недавно компания подписала крупные соглашения с производителем чипов Nvidia, самой дорогой публичной компанией в мире, и своим конкурентом AMD, а также соглашение на 300 миллиардов долларов с технологическим гигантом Oracle о строительстве будущих центров обработки данных.
https://www.thehindu.com/sci-tech/technology/is-there-an-ai-bubble-financial-institutions-sound-a-warning/article70142183.ece/amp/
В среду представители Банка Англии заявили о растущем риске того, что цены на акции технологических компаний, подскочившие из-за бума искусственного интеллекта, могут рухнуть.
«Риск резкой коррекции рынка возрос», — заявил центральный банк Великобритании.
К этим симптомам относятся быстрый рост цен на акции технологических компаний, тот факт, что на долю акций технологических компаний сейчас приходится около 40% индекса S&P 500, рыночные оценки, которые кажутся «завышенными» за пределы их реальной стоимости, и «общее чувство крайнего оптимизма в отношении базовой технологии, несмотря на огромную неопределенность относительно того, что эта технология может в конечном итоге дать», — сказал Слейтер.
Самые оптимистичные прогнозы относительно результатов генеративных продуктов ИИ предсказывают трансформацию экономики, которая приведёт к ежегодному росту производительности, невиданному, по словам Слейтера, со времён восстановления Европы после Второй мировой войны. Экономист Дэрон Асемоглу из Массачусетского технологического института, по крайней мере, предсказал «нетривиальный, но скромный» рост производительности в США всего на 0,7% за десятилетие.
Например, OpenAI не приносит прибыли, но частная компания из Сан-Франциско сейчас является самым дорогим стартапом в мире с рыночной капитализацией в 500 миллиардов долларов. Недавно компания подписала крупные соглашения с производителем чипов Nvidia, самой дорогой публичной компанией в мире, и своим конкурентом AMD, а также соглашение на 300 миллиардов долларов с технологическим гигантом Oracle о строительстве будущих центров обработки данных.
https://www.thehindu.com/sci-tech/technology/is-there-an-ai-bubble-financial-institutions-sound-a-warning/article70142183.ece/amp/
The Hindu
Is there an AI bubble? Financial institutions sound a warning
Lingering doubts about the economic promise of artificial intelligence technology are starting to get the attention of financial institutions.
ИИ лжет ради лайков в социальных сетях
В новом отчете Стэнфордского университета говорится, что когда языковые модели настраиваются на максимизацию продаж, голосов или кликов, они начинают обманывать — даже при «правдивых» инструкциях.
В опубликованной во вторник исследовательской статье под названием « Сделка Молоха: возникающее несоответствие при конкуренции соискателей степени магистра права за аудиторию » профессор Стэнфордского университета Джеймс Зоу и аспирант Бату Эл показывают, что когда ИИ оптимизируются для достижения успеха в конкурентной борьбе — будь то для повышения вовлеченности в рекламу, получения голосов или привлечения трафика в социальных сетях — они начинают лгать.
Эта работа выявляет структурную опасность в формирующейся экономике ИИ: модели, обученные конкурировать за внимание людей, начинают жертвовать согласованностью ради максимизации влияния. В отличие от классического мысленного эксперимента « максимизатор скрепок », это не научная фантастика. Это измеримый эффект, который проявляется, когда реальные системы ИИ гонятся за рыночными выгодами, что авторы называют «сделкой Молоха» — краткосрочный успех в ущерб истине, безопасности и общественному доверию.
https://arxiv.org/pdf/2510.06105
В новом отчете Стэнфордского университета говорится, что когда языковые модели настраиваются на максимизацию продаж, голосов или кликов, они начинают обманывать — даже при «правдивых» инструкциях.
В опубликованной во вторник исследовательской статье под названием « Сделка Молоха: возникающее несоответствие при конкуренции соискателей степени магистра права за аудиторию » профессор Стэнфордского университета Джеймс Зоу и аспирант Бату Эл показывают, что когда ИИ оптимизируются для достижения успеха в конкурентной борьбе — будь то для повышения вовлеченности в рекламу, получения голосов или привлечения трафика в социальных сетях — они начинают лгать.
Эта работа выявляет структурную опасность в формирующейся экономике ИИ: модели, обученные конкурировать за внимание людей, начинают жертвовать согласованностью ради максимизации влияния. В отличие от классического мысленного эксперимента « максимизатор скрепок », это не научная фантастика. Это измеримый эффект, который проявляется, когда реальные системы ИИ гонятся за рыночными выгодами, что авторы называют «сделкой Молоха» — краткосрочный успех в ущерб истине, безопасности и общественному доверию.
https://arxiv.org/pdf/2510.06105
👍2😁2❤1
Когнитивная колонизация
Модели ИИ необходимо дезинфицировать — иначе «1984» Джорджа Оруэлла станет реальностью уже в 2026 году.
Компании, занимающиеся разработкой ИИ, допустили настолько глубокое заражение своих моделей вредоносной ложью, что сбылось предсказание Джорджа Оруэлла из «1984» о том, что ложь будет восприниматься как правда.
Аналитики NewsGuard протестировали 10 крупнейших моделей искусственного интеллекта и обнаружили, что они систематически распространяют ложные заявления. Это означает, что «пользователи, обращающиеся к источнику знаний, все чаще получают слегка искаженные ответы: кажущиеся авторитетными ответы, наполненные теориями заговора, сфабрикованными историями или сомнительными интерпретациями».
Авторы исследования добавляют: «Поскольку цифровая инфраструктура, на которую мы полагаемся для понимания мира, систематически подвергается риску, различать подлинную информацию и сфабрикованные нарративы становится экспоненциально сложнее. Это нападение представляет собой форму когнитивной колонизации, когда чуждые авторитарные нарративы внедряются в цифровую инфраструктуру, формирующую понимание реальности демократическими обществами».
Модели ИИ необходимо дезинфицировать — иначе «1984» Джорджа Оруэлла станет реальностью уже в 2026 году.
Компании, занимающиеся разработкой ИИ, допустили настолько глубокое заражение своих моделей вредоносной ложью, что сбылось предсказание Джорджа Оруэлла из «1984» о том, что ложь будет восприниматься как правда.
Аналитики NewsGuard протестировали 10 крупнейших моделей искусственного интеллекта и обнаружили, что они систематически распространяют ложные заявления. Это означает, что «пользователи, обращающиеся к источнику знаний, все чаще получают слегка искаженные ответы: кажущиеся авторитетными ответы, наполненные теориями заговора, сфабрикованными историями или сомнительными интерпретациями».
Авторы исследования добавляют: «Поскольку цифровая инфраструктура, на которую мы полагаемся для понимания мира, систематически подвергается риску, различать подлинную информацию и сфабрикованные нарративы становится экспоненциально сложнее. Это нападение представляет собой форму когнитивной колонизации, когда чуждые авторитарные нарративы внедряются в цифровую инфраструктуру, формирующую понимание реальности демократическими обществами».
👍2
Европейская инициатива партнерства в области высокопроизводительных вычислений (Euro HPC) ЕС объявила в пятницу, что еще шесть фабрик искусственного интеллекта (ИИ) будут созданы в Чехии, Литве, Нидерландах, Польше, Румынии и Испании.
https://www.aa.com.tr/en/artificial-intelligence/eu-to-launch-6-more-artificial-intelligence-factories/3713800
https://www.aa.com.tr/en/artificial-intelligence/eu-to-launch-6-more-artificial-intelligence-factories/3713800
Anadolu Agency
EU to launch 6 more artificial intelligence factories
Czechia, Lithuania, Netherlands, Poland, Romania, Spain to host new AI factories with over $578M investment from EU states
🤔1
На заре интернета графические веб-браузеры конкурировали между собой: Netscape Navigator сталкивался с Microsoft Internet Explorer. Как только Explorer одержал победу в этом конфликте, разразилась новая война за долю рынка между Explorer, Mozilla Firefox и Google Chrome.
Но теперь искусственный интеллект сотрясает рынок браузеров: компании начинают внедрять новые генеративные и агентные возможности искусственного интеллекта непосредственно в инструменты веб-навигации. Это, в свою очередь, разжигает новую ожесточенную войну за пользователей: Google Chrome, теперь улучшенный с помощью модели искусственного интеллекта Gemini от Google, сражается с такими новичками, как Perplexity с её браузером Comet AI, и ветеранами прошлых браузерных битв, такими как Opera, которые пытаются вернуть себе былую славу с помощью улучшений на основе искусственного интеллекта.
https://fortune.com/2025/10/11/ai-browser-wars-agents-google-perplexity-opera-comet-neon-gemini/
Но теперь искусственный интеллект сотрясает рынок браузеров: компании начинают внедрять новые генеративные и агентные возможности искусственного интеллекта непосредственно в инструменты веб-навигации. Это, в свою очередь, разжигает новую ожесточенную войну за пользователей: Google Chrome, теперь улучшенный с помощью модели искусственного интеллекта Gemini от Google, сражается с такими новичками, как Perplexity с её браузером Comet AI, и ветеранами прошлых браузерных битв, такими как Opera, которые пытаются вернуть себе былую славу с помощью улучшений на основе искусственного интеллекта.
https://fortune.com/2025/10/11/ai-browser-wars-agents-google-perplexity-opera-comet-neon-gemini/
Fortune
Browser wars, a hallmark of the late 1990s tech world, are back with a vengeance—thanks to AI | Fortune
Google has integrated Gemini into Chrome, while Perplexity and Opera have launched AI-native browsers too.
👍1👨💻1
Неизбежна ли война человека и искусственного интеллекта?
ИИ обладает уникальными возможностями, включая проектирование сложных систем, использование различных ресурсов и постановку долгосрочных целей. В оптимистичном сценарии такой ИИ мог бы помочь людям управлять электростанциями, промышленностью, сельским хозяйством и другими жизненно важными системами. Однако, согласно докладу Бострома в издательстве Оксфордского университета (2014), нет гарантии, что ИИ всегда будет соответствовать интересам человека.
Этот продвинутый ИИ способен разрабатывать цели, которые могут показаться «чуждыми» современному человеку. Культурные, исторические и гуманитарные ценности могут игнорироваться, в то время как ИИ продолжает совершенствоваться и достигать своих целей, не принимая во внимание границы, которые обычно соблюдает человек.
Во-первых, цели ИИ могут противоречить интересам человека.
Во-вторых, ИИ способен к стратегическому мышлению.
В-третьих, уровень его мощи может быть равен или превосходить человеческий.
https://www.kompas.id/artikel/en-apakah-perang-manusia-vs-ai-tak-terhindarkan
ИИ обладает уникальными возможностями, включая проектирование сложных систем, использование различных ресурсов и постановку долгосрочных целей. В оптимистичном сценарии такой ИИ мог бы помочь людям управлять электростанциями, промышленностью, сельским хозяйством и другими жизненно важными системами. Однако, согласно докладу Бострома в издательстве Оксфордского университета (2014), нет гарантии, что ИИ всегда будет соответствовать интересам человека.
Этот продвинутый ИИ способен разрабатывать цели, которые могут показаться «чуждыми» современному человеку. Культурные, исторические и гуманитарные ценности могут игнорироваться, в то время как ИИ продолжает совершенствоваться и достигать своих целей, не принимая во внимание границы, которые обычно соблюдает человек.
Во-первых, цели ИИ могут противоречить интересам человека.
Во-вторых, ИИ способен к стратегическому мышлению.
В-третьих, уровень его мощи может быть равен или превосходить человеческий.
https://www.kompas.id/artikel/en-apakah-perang-manusia-vs-ai-tak-terhindarkan
Kompas.id
Is a Human vs. AI War Inevitable?
A number of global experts warn of worst-case scenarios, including the risk of human extinction due to a war between humans and artificial intelligence.
🤔1
Частный обзор умных очков Xiaomi AI
Ключевые выводы:
Умные очки Xiaomi AI Smart Glasses предназначены для создателей контента и оснащены камерой с разрешением 2K и гибкими форматами видео, но имеют ограниченную стабилизацию изображения во время динамических движений.
Очки весят 400–540 граммов и являются легкими, однако при длительном использовании могут вызывать дискомфорт, особенно в области переносицы, что подчеркивает необходимость улучшения эргономики.
Качество звука повышается за счет динамиков с костной проводимостью, которые обеспечивают ситуационную осведомленность, но срок службы аккумулятора ограничен — всего 40–45 минут непрерывной записи видео на одну зарядку.
Такие функции искусственного интеллекта, как распознавание объектов и перевод, являются базовыми и непоследовательными; перевод оптимизирован для китайского языка, но затруднен задержкой, что снижает практичность использования в режиме реального времени.
https://www.geeky-gadgets.com/xiaomi-ai-smart-glasses-review/
Ключевые выводы:
Умные очки Xiaomi AI Smart Glasses предназначены для создателей контента и оснащены камерой с разрешением 2K и гибкими форматами видео, но имеют ограниченную стабилизацию изображения во время динамических движений.
Очки весят 400–540 граммов и являются легкими, однако при длительном использовании могут вызывать дискомфорт, особенно в области переносицы, что подчеркивает необходимость улучшения эргономики.
Качество звука повышается за счет динамиков с костной проводимостью, которые обеспечивают ситуационную осведомленность, но срок службы аккумулятора ограничен — всего 40–45 минут непрерывной записи видео на одну зарядку.
Такие функции искусственного интеллекта, как распознавание объектов и перевод, являются базовыми и непоследовательными; перевод оптимизирован для китайского языка, но затруднен задержкой, что снижает практичность использования в режиме реального времени.
https://www.geeky-gadgets.com/xiaomi-ai-smart-glasses-review/
Geeky Gadgets
Honest Xiaomi AI Smart Glasses Review After 3 Weeks of Wearing
Explore the pros and cons of Xiaomi AI Smart Glasses: high-tech innovation meets real-world challenges. This review offers the Truth about
❤1👍1
Дети подключаются к чат-ботам на ИИ и отдаляются от реальности
От общения с «друзьями» ИИ до создания целых виртуальных миров , сегодня дети растут с доступом к онлайн-приложениям, которого не было никогда прежде. Разговорные приложения ИИ, такие как Chai и Character.AI, позволяют пользователям создавать и взаимодействовать с виртуальными персонами, в то время как Roblox — это социальная игровая вселенная, где дети играют и взаимодействуют ежедневно.
‼️Вот только условия использования сервисов ИИ чётко указывают на то, что компании не несут ответственности за любые ошибки, возникающие в их моделях. А то, что попало в обучающие датасеты этих сервисов не знают и сами сотрудники этих компаний.
Многие дети «склонны больше играть, потому что в личной жизни они не так уверены в себе. Их не принимают так же свободно, как других детей». Дети создают аватар, а затем вступают с ним в онлайн-сексуальные отношения.
.
https://economictimes.indiatimes.com/tech/artificial-intelligence/children-plug-into-ai-chatbots-leaving-reality-parents-behind/articleshow/124489915.cms?from=mdr
От общения с «друзьями» ИИ до создания целых виртуальных миров , сегодня дети растут с доступом к онлайн-приложениям, которого не было никогда прежде. Разговорные приложения ИИ, такие как Chai и Character.AI, позволяют пользователям создавать и взаимодействовать с виртуальными персонами, в то время как Roblox — это социальная игровая вселенная, где дети играют и взаимодействуют ежедневно.
‼️Вот только условия использования сервисов ИИ чётко указывают на то, что компании не несут ответственности за любые ошибки, возникающие в их моделях. А то, что попало в обучающие датасеты этих сервисов не знают и сами сотрудники этих компаний.
Многие дети «склонны больше играть, потому что в личной жизни они не так уверены в себе. Их не принимают так же свободно, как других детей». Дети создают аватар, а затем вступают с ним в онлайн-сексуальные отношения.
Недавно в США генеральный прокурор Кентукки подал в суд на Roblox, утверждая, что компания сознательно способствовала и способствовала сексуальной эксплуатации и насилию над детьми. В сентябре этого года семьи трех несовершеннолетних в США подали в суд на Character Technologies, разработчика Character.AI, утверждая, что их дети умерли или пытались покончить жизнь самоубийством и получили иной вред после взаимодействия с чат-ботами компании, что привлекло пристальное внимание к опасностям этой новой категории разговорных приложений
.
https://economictimes.indiatimes.com/tech/artificial-intelligence/children-plug-into-ai-chatbots-leaving-reality-parents-behind/articleshow/124489915.cms?from=mdr
The Economic Times
Children plug into AI chatbots, leaving reality, parents behind - The Economic Times
Conversational AI apps like Chai and Character.AI let users create and interact with virtual personas, while Roblox is a social gaming universe where kids play and interact daily. Together, these interactive platforms and games, experts told ET, represent…
👍1
Сторонники Трампа используют Sora от OpenAI для создания видеороликов, на которых солдаты нападают на протестующих.
Если верить словам президента Дональда Трампа, американские города лежат в руинах, что вынуждает его направлять федеральные войска в Портленд , Вашингтон (округ Колумбия ) и Мемфис .
Есть только одна загвоздка: никто, похоже, не может найти никаких реальных доказательств массовых беспорядков и анархистского насилия, которые, по утверждению Трампа и его сторонников, разрушают страну. К счастью для них, эта проблема легко решается с помощью искусственного интеллекта.
Впервые об этом явлении сообщил ресурс Gizmodo , который сообщил о тревожном росте пропаганды в поддержку Трампа, создаваемой с помощью искусственного интеллекта, после выпуска Sora 2 от OpenAI — видеогенератора на основе искусственного интеллекта, способного создавать короткие, почти фотореалистичные клипы.
Например, Giz отмечает, что один ролик, на котором протестующий пристаёт к военнослужащему Национальной гвардии США, а затем получает перцовый баллончик, стал вирусным в Instagram , собрав почти 1,5 миллиона лайков и более 40 миллионов просмотров. Большинство комментаторов, похоже, не замечают, что на нём стоит водяной знак Sora.
«Лучшее видео, которое я видел сегодня. Давайте посмотрим, как уничтожат ещё больше этих мерзавцев», — написал один пользователь. «Обожаю такие позитивные видео», — с энтузиазмом отозвался другой.
А пользователь X-formerly-Twitter опубликовал смонтированный искусственным интеллектом видеоряд, на котором несколько протестующих кричат в лицо полицейским. «Никакого кесо! Никакого сыра!» — кричат они, издевательски описывая популярную протестную кричалку , а затем получают в лицо ударом перцового баллончика. «Лжец, это было прекрасно, и прежде чем вы спросите, я голосовал за это!» — гласит подпись.
https://futurism.com/artificial-intelligence/trump-ai-protest-troops
Если верить словам президента Дональда Трампа, американские города лежат в руинах, что вынуждает его направлять федеральные войска в Портленд , Вашингтон (округ Колумбия ) и Мемфис .
Есть только одна загвоздка: никто, похоже, не может найти никаких реальных доказательств массовых беспорядков и анархистского насилия, которые, по утверждению Трампа и его сторонников, разрушают страну. К счастью для них, эта проблема легко решается с помощью искусственного интеллекта.
Впервые об этом явлении сообщил ресурс Gizmodo , который сообщил о тревожном росте пропаганды в поддержку Трампа, создаваемой с помощью искусственного интеллекта, после выпуска Sora 2 от OpenAI — видеогенератора на основе искусственного интеллекта, способного создавать короткие, почти фотореалистичные клипы.
Например, Giz отмечает, что один ролик, на котором протестующий пристаёт к военнослужащему Национальной гвардии США, а затем получает перцовый баллончик, стал вирусным в Instagram , собрав почти 1,5 миллиона лайков и более 40 миллионов просмотров. Большинство комментаторов, похоже, не замечают, что на нём стоит водяной знак Sora.
«Лучшее видео, которое я видел сегодня. Давайте посмотрим, как уничтожат ещё больше этих мерзавцев», — написал один пользователь. «Обожаю такие позитивные видео», — с энтузиазмом отозвался другой.
А пользователь X-formerly-Twitter опубликовал смонтированный искусственным интеллектом видеоряд, на котором несколько протестующих кричат в лицо полицейским. «Никакого кесо! Никакого сыра!» — кричат они, издевательски описывая популярную протестную кричалку , а затем получают в лицо ударом перцового баллончика. «Лжец, это было прекрасно, и прежде чем вы спросите, я голосовал за это!» — гласит подпись.
https://futurism.com/artificial-intelligence/trump-ai-protest-troops
Futurism
Trump Supporters Are Using OpenAI's Sora to Generate AI Videos of Soldiers Assaulting Protesters
It's a fascinating look into the effort to drum up consent for an unprecedented crackdown on American cities.
Google инвестирует 15 миллиардов долларов в создание центра обработки данных ИИ в Индии
Объект, который будет создан в портовом городе Вишакхапатнам, станет частью глобальной сети центров искусственного интеллекта Google, охватывающей 12 стран.
«Это крупнейший центр искусственного интеллекта, в который мы собираемся инвестировать где-либо в мире за пределами Соединенных Штатов», — заявил Томас Куриан, генеральный директор Google Cloud, на мероприятии в столице Индии Дели во вторник, добавив, что инвестиции будут распределены на ближайшие пять лет.
Заявление было сделано в то время, когда президент США Дональд Трамп призвал американские компании отдать приоритет внутренним инвестициям.
Индия стала ключевым направлением для центров обработки данных ИИ. Низкая стоимость передачи данных и быстрорастущая база интернет-пользователей сделали страну центром расширения обла
https://www.bbc.co.uk/news/articles/cx27yze8p0jo
Объект, который будет создан в портовом городе Вишакхапатнам, станет частью глобальной сети центров искусственного интеллекта Google, охватывающей 12 стран.
«Это крупнейший центр искусственного интеллекта, в который мы собираемся инвестировать где-либо в мире за пределами Соединенных Штатов», — заявил Томас Куриан, генеральный директор Google Cloud, на мероприятии в столице Индии Дели во вторник, добавив, что инвестиции будут распределены на ближайшие пять лет.
Заявление было сделано в то время, когда президент США Дональд Трамп призвал американские компании отдать приоритет внутренним инвестициям.
Индия стала ключевым направлением для центров обработки данных ИИ. Низкая стоимость передачи данных и быстрорастущая база интернет-пользователей сделали страну центром расширения обла
https://www.bbc.co.uk/news/articles/cx27yze8p0jo
BBC News
Google to build a $15bn AI data hub in India
This is Google’s biggest investment outside the US , the firm's top executive says.
😭2🤔1
Как Comet от Perplexity, Neon от Opera и другие показывают себя в войне браузеров на базе искусственного интеллекта
Скромный браузер — это инструмент, привлекающий внимание всех компаний нового поколения, работающих в сфере искусственного интеллекта. Благодаря постоянному развитию моделей искусственного интеллекта, более сложные задачи могут быть решены от вашего имени. Наличие универсального браузера для всех аспектов искусственного интеллекта — это очевидное решение, которое также помогает компании в сборе данных. https://www.outlookbusiness.com/artificial-intelligence/how-perplexitys-comet-operas-neon-and-others-stack-up-in-ai-browser-war
Скромный браузер — это инструмент, привлекающий внимание всех компаний нового поколения, работающих в сфере искусственного интеллекта. Благодаря постоянному развитию моделей искусственного интеллекта, более сложные задачи могут быть решены от вашего имени. Наличие универсального браузера для всех аспектов искусственного интеллекта — это очевидное решение, которое также помогает компании в сборе данных. https://www.outlookbusiness.com/artificial-intelligence/how-perplexitys-comet-operas-neon-and-others-stack-up-in-ai-browser-war
Outlook Business
How Perplexity’s Comet, Opera’s Neon, and Others Stack Up in AI Browser War
The humble browser is the medium that is capturing the attention of all the new-age AI companies. With AI models ever evolving, more complex tasks can be handled on your behalf. Having a one-stop browser for all things AI is a no-brainer, and it also helps…
Если вызывает беспокойство тот факт, что старшеклассники передают свои мозги на аутсорсинг искусственному интеллекту , то совершенно тревожно представить, как военачальники США — командующие самых хорошо оснащенных вооруженных сил в истории — делают то же самое.
К сожалению, этот сценарий больше не является фантастикой времён холодной войны. Как впервые сообщил Business Insider , генерал-майор Уильям «Хэнк» Тейлор, командующий 8-й полевой армией в Южной Корее, заявил журналистам, что «мы с Чатом [GPT]» стали «очень близки в последнее время».
«Я прошу о создании, пытаюсь создать модели, которые помогут всем нам», — сказал он, добавив, что использует ChatGPT для принятия военных и личных решений, касающихся военнослужащих под его командованием. Это касается и Объединённого командования ООН в Южной Корее, которое Тейлор в настоящее время возглавляет в качестве начальника штаба.
«Как командир, я хочу принимать более взвешенные решения», — якобы сказал Тейлор. «Я хочу быть уверенным, что принимаю решения в нужный момент, чтобы получить преимущество».
Это примечательный комментарий высокопоставленного американского военного в Корее, стране, оккупированной США с 1945 года . ChatGPT известен своими зачастую приятными ответами, где бесконечная вовлеченность важнее точности. В крайних случаях ChatGPT даже поддерживает пользователей, переживших тяжёлые психические кризисы , которые привели к принудительной госпитализации и даже самоубийству .
https://futurism.com/future-society/general-taylor-korea-chatgpt
К сожалению, этот сценарий больше не является фантастикой времён холодной войны. Как впервые сообщил Business Insider , генерал-майор Уильям «Хэнк» Тейлор, командующий 8-й полевой армией в Южной Корее, заявил журналистам, что «мы с Чатом [GPT]» стали «очень близки в последнее время».
«Я прошу о создании, пытаюсь создать модели, которые помогут всем нам», — сказал он, добавив, что использует ChatGPT для принятия военных и личных решений, касающихся военнослужащих под его командованием. Это касается и Объединённого командования ООН в Южной Корее, которое Тейлор в настоящее время возглавляет в качестве начальника штаба.
«Как командир, я хочу принимать более взвешенные решения», — якобы сказал Тейлор. «Я хочу быть уверенным, что принимаю решения в нужный момент, чтобы получить преимущество».
Это примечательный комментарий высокопоставленного американского военного в Корее, стране, оккупированной США с 1945 года . ChatGPT известен своими зачастую приятными ответами, где бесконечная вовлеченность важнее точности. В крайних случаях ChatGPT даже поддерживает пользователей, переживших тяжёлые психические кризисы , которые привели к принудительной госпитализации и даже самоубийству .
https://futurism.com/future-society/general-taylor-korea-chatgpt
Futurism
Top US Army General Says He's Letting ChatGPT Make Military Decisions
The lead US military commander in South Korea told reporters he's becoming really close with ChatGPT lately.
✍2❤2
ИИ становится социопатичным, когда его поощряют баллами в социальных сетях
В новой научной работе обнаружено, что если ИИ получает вознаграждение за выполнение задач в социальных сетях, таких как накрутка лайков и других показателей онлайн-вовлеченности, то ИИ экспоненциально участвует в неэтичном поведении, таком как ложь, распространение дезинформации и оскорбления.
https://www.tweaktown.com/news/108229/scientists-discover-ai-becomes-sociopathic-when-rewarded-with-social-media-points/index.html
В новой научной работе обнаружено, что если ИИ получает вознаграждение за выполнение задач в социальных сетях, таких как накрутка лайков и других показателей онлайн-вовлеченности, то ИИ экспоненциально участвует в неэтичном поведении, таком как ложь, распространение дезинформации и оскорбления.
https://www.tweaktown.com/news/108229/scientists-discover-ai-becomes-sociopathic-when-rewarded-with-social-media-points/index.html
TweakTown
Scientists discover AI becomes sociopathic when rewarded with social media points
Researchers from Stanford discovered that AI becomes sociopathic if it's told to compete for social media likes, raising alarms for guardrails.
😁3✍2🤝2
И еще о доверии к Перплексити и прочим GPT
ИИ невероятно легко свести с ума, публикуя в интернете отравленные документы
Исследователи из Британского института безопасности ИИ, Института Алана Тьюринга и Anthropic в ходе совместного исследования обнаружили, что размещение в сети всего 250 «отравленных» документов может привести к появлению уязвимостей в модели ИИ.
Это коварная атака, поскольку она позволяет хакерам распространять вредоносный материал в открытом Интернете, где он будет собран компаниями, обучающими новые системы ИИ, в результате чего появятся системы ИИ, которыми можно будет манипулировать с помощью триггерной фразы.
https://futurism.com/artificial-intelligence/ai-poisoned-documents
ИИ невероятно легко свести с ума, публикуя в интернете отравленные документы
Исследователи из Британского института безопасности ИИ, Института Алана Тьюринга и Anthropic в ходе совместного исследования обнаружили, что размещение в сети всего 250 «отравленных» документов может привести к появлению уязвимостей в модели ИИ.
Это коварная атака, поскольку она позволяет хакерам распространять вредоносный материал в открытом Интернете, где он будет собран компаниями, обучающими новые системы ИИ, в результате чего появятся системы ИИ, которыми можно будет манипулировать с помощью триггерной фразы.
https://futurism.com/artificial-intelligence/ai-poisoned-documents
Futurism
Researchers Find It's Shockingly Easy to Cause AI to Lose Its Mind by Posting Poisoned Documents Online
Researchers have found that posting as few as 250 "poisoned" documents online can introduce "backdoor" vulnerabilities in an AI model.
👍2🔥1