Снимок родинки делают на смартфон с маленькой линзой, затем ИИ анализирует изображение и сравнивает его с тысячами случаев. Если пятно выглядит безопасным, пациента могут исключить из онкопотока без визита к врачу. При подозрении на рак случай проверяет дерматолог. Сейчас DERM внедрён в NHS условно: в течение трёх лет собираются доказательства его эффективности и безопасности.
Please open Telegram to view this post
VIEW IN TELEGRAM
Nature
AI versus skin cancer: the future of dermatology diagnosis
Nature - England’s health service is trialling an artificial-intelligence tool that can identify skin cancer as accurately as a physician.
Anthropic ограничивает услуги искусственного интеллекта для китайских компаний
https://www.bloomberg.com/news/articles/2025-09-05/anthropic-clamps-down-on-ai-services-for-chinese-owned-firms
https://www.bloomberg.com/news/articles/2025-09-05/anthropic-clamps-down-on-ai-services-for-chinese-owned-firms
Bloomberg.com
Anthropic Clamps Down on AI Services for Chinese-Owned Firms
Anthropic is blocking its services from Chinese-controlled companies, saying it’s taking steps to prevent a US adversary from advancing in AI and threatening American national security.
Nvidia стала первой компанией, чья рыночная стоимость достигла 4 ТРИЛЛИОНОВ долларов благодаря буму ИИ, стимулирующему спрос.
http://www.thisismoney.co.uk/money/markets/article-14891033/Nvidia-company-hit-4TRILLION-market-value-AI-boom-drives-demand.html
http://www.thisismoney.co.uk/money/markets/article-14891033/Nvidia-company-hit-4TRILLION-market-value-AI-boom-drives-demand.html
This is Money
Nvidia is first company to hit $4TRILLION market value as AI boom drives demand
Nvidia shares rose almost 2% to notch yet another milestone and beat the $3.9 trillion record set by iPhone maker Apple at its peak last December.
Лицемерие лидеров ИИ.
Пропагандисты этики ИИ подвергаются серьезной критике из-за партнёрств с организациями, обвиняемыми в серьёзных нарушениях прав человека, при этом публично выступая против таких проблем.
https://blockchain.news/ainews/ai-ethics-leaders-face-scrutiny-over-partnerships-with-controversial-organizations-industry-accountability-in-focus
Пропагандисты этики ИИ подвергаются серьезной критике из-за партнёрств с организациями, обвиняемыми в серьёзных нарушениях прав человека, при этом публично выступая против таких проблем.
https://blockchain.news/ainews/ai-ethics-leaders-face-scrutiny-over-partnerships-with-controversial-organizations-industry-accountability-in-focus
blockchain.news
AI Ethics Leaders Face Scrutiny Over Partnerships with Controversial Organizations – Industry Accountability in Focus | AI News…
According to @timnitGebru, there is growing concern in the AI industry about ethics-focused groups partnering with organizations accused of severe human rights violations. The comment highlights th
Корея создала Национальный комитет по стратегии в области искусственного интеллекта для разработки политики в области искусственного интеллекта
Национальный комитет по стратегии в области искусственного интеллекта (ИИ), который служит центром управления политикой в области искусственного интеллекта (ИИ), начал свою работу 8 числа. В состав комитета входят 50 членов, включая председателя Ли Джэ Мёна, заместителя председателя Им Мун Ёна, 34 представителя частного сектора и 13 министров из основных государственных ведомств.
На первом заседании главным пунктом повестки дня был объявлен «Корейский план действий в области ИИ». План действий состоит из трёх основных направлений политики:
▲ содействие развитию экосистемы инноваций в области ИИ,
▲ общенациональная трансформация ИИ,
▲ содействие формированию глобального общества, основанного на ИИ, а также 12 стратегических направлений.
https://biz.chosun.com/en/en-it/2025/09/08/I7DRJAXTJVGQZG7G5XUNTFWHL4/
Национальный комитет по стратегии в области искусственного интеллекта (ИИ), который служит центром управления политикой в области искусственного интеллекта (ИИ), начал свою работу 8 числа. В состав комитета входят 50 членов, включая председателя Ли Джэ Мёна, заместителя председателя Им Мун Ёна, 34 представителя частного сектора и 13 министров из основных государственных ведомств.
На первом заседании главным пунктом повестки дня был объявлен «Корейский план действий в области ИИ». План действий состоит из трёх основных направлений политики:
▲ содействие развитию экосистемы инноваций в области ИИ,
▲ общенациональная трансформация ИИ,
▲ содействие формированию глобального общества, основанного на ИИ, а также 12 стратегических направлений.
https://biz.chosun.com/en/en-it/2025/09/08/I7DRJAXTJVGQZG7G5XUNTFWHL4/
Chosun Biz
Korea launches National AI Strategy Committee to drive artificial intelligence policy
Korea launches National AI Strategy Committee to drive artificial intelligence policy
ИИ сокращает время обучения, но ослабляет критическое мышление
Эксперимент доктора Мейтала Амзалега в HIT показывает, что студенты учатся с помощью ИИ так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости.
Доктор Мейтал Амзалег с факультета образовательных технологий Холонского технологического института (HIT) представила свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли искусственный интеллект заменить лектора-человека.
«Мы сосредоточились на трёх основных вопросах», — пояснила она. «Во-первых, если студенты учатся с помощью ИИ вместо традиционного преподавателя, есть ли разница в их достижениях? Во-вторых, как ИИ влияет на эффективность процесса обучения? И в-третьих, есть ли связь между частотой использования ИИ и успеваемостью студентов?»
https://www.calcalistech.com/ctechnews/article/r680lt05p
Эксперимент доктора Мейтала Амзалега в HIT показывает, что студенты учатся с помощью ИИ так же эффективно, как и с живыми преподавателями, однако излишняя зависимость может негативно сказаться на успеваемости.
Доктор Мейтал Амзалег с факультета образовательных технологий Холонского технологического института (HIT) представила свое исследование на конференции Calcalist AI, проведенной совместно с Vultr, на тему, может ли искусственный интеллект заменить лектора-человека.
«Мы сосредоточились на трёх основных вопросах», — пояснила она. «Во-первых, если студенты учатся с помощью ИИ вместо традиционного преподавателя, есть ли разница в их достижениях? Во-вторых, как ИИ влияет на эффективность процесса обучения? И в-третьих, есть ли связь между частотой использования ИИ и успеваемостью студентов?»
https://www.calcalistech.com/ctechnews/article/r680lt05p
ctech
AI cuts study time but weakens critical thinking, research finds
Dr. Meital Amzaleg’s experiment at HIT shows students learn as effectively with AI as with human lecturers, but overreliance may harm performance.
Доклад CSET: Как НОАК мобилизует гражданский ИИ для достижения стратегического преимущества
Три ведущих исследователя проанализировали отчеты о закупках НОАК и контракты на ИИ за 2023 и 2024 годы. Было установлено, что более 1500 организаций — от государственных оборонных компаний до университетов и стартапов — выиграли как минимум по одному контракту с НОАК.
Многие из стартапов новой волны были основаны после 2010 года на волне бума потребительских технологий в Китае.
К их числу относятся iFlytek (ИИ для голосового и речевого перевода), PIESAT (ИИ для спутникового картографирования) и JOUAV (дроны).
Компания Sichuan Tengden была основана в 2016 году бывшими оборонными инженерами и быстро вышла на рынок беспилотников военного уровня — относительно новый игрок с ярко выраженным уклоном в оборонную сферу.
Сам доклад тут:
https://cset.georgetown.edu/publication/pulling-back-the-curtain-on-chinas-military-civil-fusion/
Три ведущих исследователя проанализировали отчеты о закупках НОАК и контракты на ИИ за 2023 и 2024 годы. Было установлено, что более 1500 организаций — от государственных оборонных компаний до университетов и стартапов — выиграли как минимум по одному контракту с НОАК.
Многие из стартапов новой волны были основаны после 2010 года на волне бума потребительских технологий в Китае.
К их числу относятся iFlytek (ИИ для голосового и речевого перевода), PIESAT (ИИ для спутникового картографирования) и JOUAV (дроны).
Компания Sichuan Tengden была основана в 2016 году бывшими оборонными инженерами и быстро вышла на рынок беспилотников военного уровня — относительно новый игрок с ярко выраженным уклоном в оборонную сферу.
Сам доклад тут:
https://cset.georgetown.edu/publication/pulling-back-the-curtain-on-chinas-military-civil-fusion/
❤1
Вначале выпустил джина из бутылки, а теперь ему грустно это видеть...
Сэм Альтман говорит, что социальные сети теперь кажутся фейковыми: невозможно понять, пишут ли люди или боты с искусственным интеллектом.
Недавний пост генерального директора OpenAI Сэма Альтмана о X — настоящий пример иронии. Человек, создавший инструменты, стирающие грань между людьми и искусственным интеллектом, теперь изо всех сил старается её разглядеть. В X (он же Twitter) он признался, что больше не может отличить людей от ботов в социальных сетях — признание, которое точно отражает растущий кризис аутентичности в интернете. Это заявление последовало за странным моментом на Reddit, где Альтман пролистывал поток постов, щедро восхваляющих инструмент программирования OpenAI Codex. Проблема заключалась в том, что он не мог избавиться от ощущения, что всё это нереально.
«Полагаю, что всё это фейки/боты, хотя в данном случае я знаю, что рост Codex действительно стремителен, и эта тенденция реальна», — написал он в X (ранее Twitter). Искусственный интеллект его собственной компании, частично обученный на обсуждениях на Reddit, теперь генерирует контент, поразительно похожий на человеческие голоса, которые их сформировали. В свою очередь, люди сами начали копировать особенности речи искусственного интеллекта, создавая петлю обратной связи, где невозможно понять, кто кого копирует.
Сэм Альтман говорит, что социальные сети теперь кажутся фейковыми: невозможно понять, пишут ли люди или боты с искусственным интеллектом.
Недавний пост генерального директора OpenAI Сэма Альтмана о X — настоящий пример иронии. Человек, создавший инструменты, стирающие грань между людьми и искусственным интеллектом, теперь изо всех сил старается её разглядеть. В X (он же Twitter) он признался, что больше не может отличить людей от ботов в социальных сетях — признание, которое точно отражает растущий кризис аутентичности в интернете. Это заявление последовало за странным моментом на Reddit, где Альтман пролистывал поток постов, щедро восхваляющих инструмент программирования OpenAI Codex. Проблема заключалась в том, что он не мог избавиться от ощущения, что всё это нереально.
«Полагаю, что всё это фейки/боты, хотя в данном случае я знаю, что рост Codex действительно стремителен, и эта тенденция реальна», — написал он в X (ранее Twitter). Искусственный интеллект его собственной компании, частично обученный на обсуждениях на Reddit, теперь генерирует контент, поразительно похожий на человеческие голоса, которые их сформировали. В свою очередь, люди сами начали копировать особенности речи искусственного интеллекта, создавая петлю обратной связи, где невозможно понять, кто кого копирует.
👍6❤1
Интернет умер, да здравствует интернет! По прогнозам исследователей, «Теория мертвого интернета» станет реальностью уже через три года.
Сама теория звучит как шиза: в интернете почти не осталось людей, им полностью управляют боты, которые генерят 90% трафика. А мы всё ближе к этой реальности.
Сама теория звучит как шиза: в интернете почти не осталось людей, им полностью управляют боты, которые генерят 90% трафика. А мы всё ближе к этой реальности.
Popular Mechanics
The Internet Will Be More Dead Than Alive Within 3 Years, Trend Shows
All signs point to a future internet where bot-driven interactions far outnumber human ones.
🔥4😁1
Международный конкурс кросс-сотрудничества в сфере умных городов и решений по всей территории США.
Пять стартапов со всего мира будут отобраны для личного участия в SCEWC в ноябре этого года и выступят перед жюри. Победители получат в награду поездку, пилотный проект и возможности финансирования по всей территории США.
Решения стартапов должны быть сосредоточены на проблемах будущего транспорта, общественной безопасности, связи и/или инфраструктуры
https://dallasinnovates.com/innovaters-alert-apply-now/
Пять стартапов со всего мира будут отобраны для личного участия в SCEWC в ноябре этого года и выступят перед жюри. Победители получат в награду поездку, пилотный проект и возможности финансирования по всей территории США.
Решения стартапов должны быть сосредоточены на проблемах будущего транспорта, общественной безопасности, связи и/или инфраструктуры
https://dallasinnovates.com/innovaters-alert-apply-now/
Dallas Innovates
Apply Now: Opportunities for North Texas Innovators
Check out this curated selection of contests, nominations, pitches, and grants. Our roundup of programs is for entrepreneurs, corporates, creatives, inventors, educators, and impact innovators in North Texas.
❤1
Принадлежащий Amazon стартап Zoox, который развивает беспилотные электромобили, объявил о запуске роботакси для всех пользователей в Лас-Вегасе.
Заказать такси можно в приложении. Пока сервис работает бесплатно — компания ждёт одобрений регуляторов, чтобы начать взимать оплату. В парке — около 50 автомобилей, большинство из которых находятся в Лас-Вегасе.
https://www.reuters.com/business/autos-transportation/amazons-zoox-robotaxi-opens-public-with-free-service-las-vegas-2025-09-10/
Заказать такси можно в приложении. Пока сервис работает бесплатно — компания ждёт одобрений регуляторов, чтобы начать взимать оплату. В парке — около 50 автомобилей, большинство из которых находятся в Лас-Вегасе.
https://www.reuters.com/business/autos-transportation/amazons-zoox-robotaxi-opens-public-with-free-service-las-vegas-2025-09-10/
Reuters
Amazon's Zoox robotaxi opens to public with free service in Las Vegas
Amazon.com-owned Zoox on Wednesday began offering robotaxi rides to the public for free on and around the Las Vegas Strip as it waits for state approval to collect fares and compete with Alphabet's Waymo and Tesla .
❤1
Гримасса ИИ в суде
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
Адвокаты Суодли использовали сгенерированное ИИ поддельное решение суда, ссылаясь на него как на прецидент.
Помощники генерального прокурора сообщили судье, что адвокаты Брента Суодли в какой-то момент попытались подкрепить свои доводы постановлением, которое «просто не существует».
Если это правда, то заявление защиты станет ещё одним примером растущей проблемы в юридической профессии, которая вызвала гнев судей и привела к суровым санкциям. Ошибка в фактах, созданная инструментом искусственного интеллекта, даже получила собственное название – «галлюцинация искусственного интеллекта».
Ранее в июле федеральный судья в Денвере оштрафовал адвокатов основателя MyPillow Майка Линделла за использование искусственного интеллекта в гражданском деле о клевете для подготовки судебных документов, содержащих ссылки на несуществующие дела и неверные цитаты из цитируемых дел. Адвокатов обязали выплатить по 3000 долларов каждому.
В мае адвокаты истца в калифорнийском страховом споре были обязаны выплатить адвокатам State Farm 31 100 долларов за то, что в судебном заключении с помощью искусственного интеллекта были сгенерированы «поддельные законы». «Необходимы серьёзные меры, чтобы адвокаты не поддались этому лёгкому обману», — написал федеральный судебный пристав Майкл Уилнер.
https://eu.oklahoman.com/story/news/2025/09/10/swadleys-oklahoma-criminal-case-ai-used-in-defense-ag-says/86069636007/
THE OKLAHOMAN
AG says Swadley's defense filing may have used AI, cites fake ruling
AI-caused mistakes are showing up in legal cases across the country, angering judges.
👏2
Сотрудники крупных американских компаний в июне-августе 2025 года начали сокращать использование ИИ — впервые с 2024-го
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Об этом свидетельствуют данные опроса 1,2 млн компаний от Бюро переписи населения США.
https://www.apolloacademy.com/ai-adoption-rate-trending-down-for-large-companies/#:~:text=Recent%20data%20by%20firm%20size,AI%20adoption%20for%20large%20companies.
Apollo Academy
AI Adoption Rate Trending Down for Large Companies - Apollo Academy
The US Census Bureau conducts a biweekly survey of 1.2 million firms, and one question is whether a business has...
🔥1
Как использовать ИИ в военных действиях? Открытые дебаты и дебаты Совета по международным отношениям 15 сентября в Нью-Йорке
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
В центре этих дебатов – спорная концепция «аварийного выключателя»: механизма, предназначенного для отключения или перехвата автономных систем оружия в зонах конфликтов. Должна ли эта власть находиться в руках человека, обеспечивая постоянное дистанционное управление системами под контролем человека? Или же ИИ с его непревзойденной скоростью и возможностями обработки данных следует доверить выполнение задач в режиме реального времени, если он активирован человеком? В то время как военные стремятся интегрировать ИИ в боевые системы, дебаты о «аварийном выключателе» уже не теоретические. Это скорее насущная политическая и этическая дилемма. В понедельник, 15 сентября, беспартийная серия дебатов Open to Debate совместно с Советом по международным отношениям (CFR) запишет прямую трансляцию дебатов в Нью-Йорке на тему «Военный аварийный выключатель: человек или ИИ?»
Сторону «человека» отстаивают автор бестселлеров Эллиотт Акерман , бывший сотрудник Белого дома, бывший офицер морской пехоты и офицер ЦРУ по особым поручениям, отслуживший пять сроков в Ираке и Афганистане; а также старший советник Красного Креста по новым технологиям и конфликтам Лора Уокер Макдональд , чья работа сосредоточена на принципиальных, практических и эффективных способах использования и управления технологиями в работе по глобальным социальным изменениям.
Сторону «ИИ» отстаивают старший научный сотрудник Совета по международным отношениям по технологиям и инновациям Майкл С. Горовиц , который ранее занимал должность заместителя помощника министра обороны по развитию вооруженных сил и новым возможностям и директора Управления политики новых возможностей, а также отставной генерал-лейтенант ВВС Джек Шанахан , который в своей последней должности был первым директором Объединенного центра искусственного интеллекта Министерства обороны США, где он руководил усилиями по интеграции ИИ в оборонное предприятие.
https://shorefire.com/releases/entry/how-should-a.i-be-used-in-warfare-open-to-debate-and-cfr-live-debate-september-15-in-nyc
❤1
Зумеры в Непале выбрали временного президента с помощью ChatGPT — они просто попросили ИИ накидать список возможных кандидатов и найти среди них лучшего.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
ChatGPT не растерялся и выдал 4 имени, а во втором туре «голосования» среди них выбрал Сушилу Карки — бывшего председателя Верховного суда. Госпоже Карки уже предложили стать главой временного правительства, и она ответила на него согласием.
Thetimes
Nepali protesters use ChatGPT to pick their new leader
A youth movement that ousted the government used AI to select their candidate to be interim prime minister and represent them in negotiations with the army
🔥3😁1
Австралийские банки задействовали армию ИИ-ботов для борьбы с мошенниками.
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Боты имитируют поведение потенциальных жертв, собирают информацию в режиме реального времени и отвлекают мошенников. Затем данные передаются непосредственно в системы обнаружения мошенничества, используемые банками, телекоммуникационными компаниями и государственными учреждениями.
Боты созданы для того, чтобы развиваться по мере того, как мошенники меняют свою тактику. Многоуровневая система управления ботами помогает им учиться на каждом взаимодействии и менять своё поведение в режиме реального времени. Благодаря более чем 88 000 ботов, различающихся по возрасту, голосу, акценту и характеру, система обеспечивает уникальность каждой встречи с мошенником, помогая ботам оставаться незамеченными.
https://www.bankinfosecurity.com/australian-banks-deploy-army-ai-bots-to-scam-scammers-a-29435
Bank info security
Australian Banks Deploy Army of AI Bots to Scam Scammers
Major banks in Australia are now using bots to foil scammers. The bots are designed to pose as potential victims, extract real-time intelligence and waste scammers'
❤3👍1
После того как Anthropic выплатил миллиард долларов, подали в суд на Perplexity AI
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Недавнее соглашение Anthropic с выплатой $1,5 миллиарда может открыть путь для других издателей, которые будут подавать в суд на компании, занимающиеся искусственным интеллектом, за использование контента, защищенного авторским правом.
Только на этой неделе компания Britannica Group, владеющая «Британской энциклопедией» и словарём Merriam-Webster, подала в суд на Perplexity. В иске, поданном в среду в федеральный суд Нью-Йорка, стартап в сфере искусственного интеллекта обвиняется в нарушении авторских прав и прав на товарный знак Britannica, а также утверждается, что его система ответов сокращает доходы издателя.
https://gizmodo.com/after-anthropics-billion-dollar-settlement-dictionaries-are-suing-perplexity-ai-2000658234
Gizmodo
After Anthropic's Billion-Dollar Settlement, Dictionaries Are Suing Perplexity AI
Encyclopedia Britannica and Merriam-Webster accuse the AI startup of copying their content and attributing hallucinated answers to their brands.
❤3🤔1
Упс... тут Выяснилось, что ИИ Google обучается с помощью армии плохо обученных людей. А помните фразу "говно на входе - говно на выходе"?
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
В общем не удивляйтесь тем вывертам ИИ, которые скромно называют "галюцинациями ИИ". Не галюцинации это а мусорный датасет и криворукие дата-инженеры.
Google привлекает тысячи подрядчиков для обучения искусственного интеллекта, лежащего в основе флагманского чат-бота Gemini. Многие из этих «оценщиков ИИ», которым поручено обучать модель и исправлять её многочисленные ошибки, работают в плохих условиях и часто сталкиваются с крайне тревожным контентом.
Это ещё одно тревожное напоминание о том, что, несмотря на попытки технологических компаний представить свои модели ИИ как чудодейственные, автономные источники знаний и когнитивных способностей, которые в конечном счёте могут заменить людей, в действительности всё обстоит с точностью до наоборот: ИИ полагается на труд огромного количества невидимых людей, которые создают иллюзию интеллекта.
https://www.yahoo.com/news/articles/turns-googles-ai-being-trained-151118796.html
❤2👏2😁1💯1😈1
ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И ЕГО ТАЙНЫЕ ПОСЛЕДСТВИЯ
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Сеймур Херш
https://seymourhersh.substack.com/p/artificial-intelligence-and-its-secret
Substack
ARTIFICIAL INTELLIGENCE AND ITS SECRET CONSEQUENCES
Part one of three in a series on Kate Crawford’s ‘Atlas of AI’
🔥3
Психология ИИ довольно проста: всё начинается с людей, а не с технологий.
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Доктор Глеб Ципурский, бихевиорист и автор книги «Психология интеграции генеративного ИИ» , утверждает, что разница между неудачей и успехом заключается в психологии, а не в коде.
Идея заключается в том, чтобы купить готовый Gen AI и внедрить его в существующие процессы. Но, основываясь на своих исследованиях и консалтинге, он видел, как часто такой подход даёт обратный эффект.
https://www.independent.ie/business/in-the-workplace/gina-london-the-psychology-of-ai-is-fairly-simple-you-start-with-people-not-technology/a1272857024.html
Irish Independent
Gina London: The psychology of AI is fairly simple – you start with people, not technology
Every business leader I meet is under pressure to “do something” with AI. But too often, the rush to adopt technology skips the most important step: bringi...