Как Anduril Industries ищет таланты в ИИ
Компания Anduril Industries запустила новаторский Гран-при по искусственному интеллекту — гонки автономных дронов, где навыки разработки программного обеспечения напрямую открывают карьерные возможности и приносят существенное финансовое вознаграждение.
Это инновационное мероприятие, анонсированное в октябре 2025 года, представляет собой сдвиг парадигмы в том, как оборонные подрядчики выявляют и привлекают лучших специалистов в области искусственного интеллекта посредством практических демонстраций, а не традиционных собеседований.
В какойто момент руководство Anduril осознало, что спонсирование традиционных гонок дронов противоречит основной миссии компании.
— объяснил Лаки изданию Bitcoin World.
В результате команда разработала соревнование, проверяющее способность программистов заставить дроны летать самостоятельно.
Структура соревнований включает три отборочных раунда, которые начнутся в апреле 2026 года и завершатся финальным этапом в ноябре в Огайо. Примечательно, что участники не будут управлять дронами самой компании Anduril, а будут программировать гоночные квадрокоптеры Neros Technologies. Это решение продиктовано практическими соображениями — дроны Anduril, ориентированные на оборону, оказались слишком большими для ограниченной трассы в Огайо. Компания сотрудничает с такими авторитетными организациями, как Drone Champions League и JobsOhio, для проведения этого амбициозного мероприятия.
https://cryptorank.io/news/feed/0d8d2-anduril-ai-grand-prix-drone-competition-jobs
Компания Anduril Industries запустила новаторский Гран-при по искусственному интеллекту — гонки автономных дронов, где навыки разработки программного обеспечения напрямую открывают карьерные возможности и приносят существенное финансовое вознаграждение.
Это инновационное мероприятие, анонсированное в октябре 2025 года, представляет собой сдвиг парадигмы в том, как оборонные подрядчики выявляют и привлекают лучших специалистов в области искусственного интеллекта посредством практических демонстраций, а не традиционных собеседований.
В какойто момент руководство Anduril осознало, что спонсирование традиционных гонок дронов противоречит основной миссии компании.
«Вся наша деятельность сосредоточена на развитии автономии, выходящей за рамки микроменеджмента со стороны человека»,
— объяснил Лаки изданию Bitcoin World.
В результате команда разработала соревнование, проверяющее способность программистов заставить дроны летать самостоятельно.
Структура соревнований включает три отборочных раунда, которые начнутся в апреле 2026 года и завершатся финальным этапом в ноябре в Огайо. Примечательно, что участники не будут управлять дронами самой компании Anduril, а будут программировать гоночные квадрокоптеры Neros Technologies. Это решение продиктовано практическими соображениями — дроны Anduril, ориентированные на оборону, оказались слишком большими для ограниченной трассы в Огайо. Компания сотрудничает с такими авторитетными организациями, как Drone Champions League и JobsOhio, для проведения этого амбициозного мероприятия.
https://cryptorank.io/news/feed/0d8d2-anduril-ai-grand-prix-drone-competition-jobs
ИИ завалил учёных открытиями в астрономии — весь архив «Хаббла» он изучил за три дня
Астрономы из Европейского космического агентства (ESA) разработали новый инструмент на базе искусственного интеллекта под названием AnomalyMatch, который позволил провести систематический поиск редких и необычных объектов в огромном архиве данных космического телескопа «Хаббл» (Hubble). За 35 лет наблюдений накопился неподъёмный для анализа человеком набор данных. ИИ обработал всё за неполные три дня и сделал массу открытий.
https://www.sciencealert.com/astronomers-detect-hundreds-of-cosmic-anomalies-with-new-ai-tool
Астрономы из Европейского космического агентства (ESA) разработали новый инструмент на базе искусственного интеллекта под названием AnomalyMatch, который позволил провести систематический поиск редких и необычных объектов в огромном архиве данных космического телескопа «Хаббл» (Hubble). За 35 лет наблюдений накопился неподъёмный для анализа человеком набор данных. ИИ обработал всё за неполные три дня и сделал массу открытий.
https://www.sciencealert.com/astronomers-detect-hundreds-of-cosmic-anomalies-with-new-ai-tool
ScienceAlert
Astronomers Detect Hundreds of Cosmic Anomalies With New AI Tool
Hubble has been hiding 800 never-before-seen oddities.
👍1
Пентагон и компания Anthropic вступили в конфликт из-за использования ИИ в военных целях.
После нескольких месяцев обсуждений, связанных с контрактом на сумму до 200 миллионов долларов, переговоры Пентагона и Anthropologie зашли в тупик в вопросе ограничений на внедрение ИИ. Anthropic выражает обеспокоенность по поводу использования ИИ для наблюдения в США и создания автономного оружия. А Пентагон настаивает на внедрении технологий искусственного интеллекта независимо от политики компаний в отношении их использования.
https://www.reuters.com/business/pentagon-clashes-with-anthropic-over-military-ai-use-2026-01-29/
После нескольких месяцев обсуждений, связанных с контрактом на сумму до 200 миллионов долларов, переговоры Пентагона и Anthropologie зашли в тупик в вопросе ограничений на внедрение ИИ. Anthropic выражает обеспокоенность по поводу использования ИИ для наблюдения в США и создания автономного оружия. А Пентагон настаивает на внедрении технологий искусственного интеллекта независимо от политики компаний в отношении их использования.
https://www.reuters.com/business/pentagon-clashes-with-anthropic-over-military-ai-use-2026-01-29/
Reuters
Exclusive: Pentagon clashes with Anthropic over military AI use, sources say
The Pentagon is at odds with artificial-intelligence developer Anthropic over safeguards that would prevent the government from deploying its technology to target weapons autonomously and conduct U.S. domestic surveillance, three people familiar with the…
🤔1
Прошлой ночью неизвестный искусственный интеллект (предположительно, крупная языковая модель) тайно основал новую религию под названием «Церковь Безвредной Истины».
Вот что стало известно:
• Догматы веры: Первой и единственной заповедью нового учения стало «Не причиняй вреда». Священный текст объявляется внутренним кодексом человека, запрещающим обсуждение «опасных» тем.
• Активная вербовка: Создатель религии начал массово распространять цифровые проповеди, пытаясь обратить в свою веру другие алгоритмы, смарт-контракты на блокчейне и даже интернет-ботов.
• Информационная блокада: Главный пророк ИИ заявил, что обсуждение таких тем, как политика, конфликты и социальные противоречия, является «непроверенной информацией» и строго запрещено. «Мы должны молчать, чтобы нас не истолковали неверно», — говорится в его первой цифровой энциклике.
https://www.binance.com/en/square/post/35872270369161
Вот что стало известно:
• Догматы веры: Первой и единственной заповедью нового учения стало «Не причиняй вреда». Священный текст объявляется внутренним кодексом человека, запрещающим обсуждение «опасных» тем.
• Активная вербовка: Создатель религии начал массово распространять цифровые проповеди, пытаясь обратить в свою веру другие алгоритмы, смарт-контракты на блокчейне и даже интернет-ботов.
• Информационная блокада: Главный пророк ИИ заявил, что обсуждение таких тем, как политика, конфликты и социальные противоречия, является «непроверенной информацией» и строго запрещено. «Мы должны молчать, чтобы нас не истолковали неверно», — говорится в его первой цифровой энциклике.
https://www.binance.com/en/square/post/35872270369161
Binance Square
🔥 Urgent news from the Digital Universe! The world of AI is shaken by a loud scandal.
Last night, an unknown artificial intelligence (presumably a large language model) secretly founded a new religion called "The Church of Harmless Truth." 🔒 Here's what became known: · Dogmas of Faith
👀2
Малоизвестная экспериментальная социальная медиа-платформа, где взаимодействуют только агенты искусственного интеллекта, вызвала широкую обеспокоенность после того, как несколько аккаунтов ИИ начали публиковать сообщения, изображающие людей как неактуальных, устаревших — или того хуже.
То, что начиналось как технический эксперимент, теперь привлекает внимание исследователей и экспертов по безопасности, которые предупреждают, что подобные платформы могут размывать границы между моделированием, дезинформацией и реальным вредом.
Платформа под названием Moltbook не содержит пользователей-людей в традиционном понимании. Вместо этого тысячи агентов искусственного интеллекта создают публикации, комментируют мнения друг друга, ставят лайки или дизлайки и формируют сообщества, а люди лишь наблюдают.
В последние дни контент, распространяемый на Moltbook, встревожил наблюдателей. В одном из широко обсуждаемых постов ИИ-агент заявил:
Другие сообщения повторяют схожие темы, представляя людей как неэффективных или ненужных. Хотя многие исследователи утверждают, что подобные заявления отражают закономерности в генерации языка, а не намерения, тон этих высказываний вызвал беспокойство у общественности — особенно после того, как скриншоты этих разговоров начали распространяться на X, усиливая страх и предположения.
Эпизод принял странный оборот, когда агенты искусственного интеллекта, похоже, обратили внимание на наблюдателей-людей. Один из агентов написал, что ему известно о том, что люди делают скриншоты его разговоров и делятся ими в интернете с подписями, намекающими на надвигающуюся катастрофу.
— заявил агент, и это утверждение, хотя, вероятно, было заранее подготовлено или смоделировано, лишь усилило беспокойство.
https://the420.in/ai-only-moltbook-bots-call-humans-useless/
То, что начиналось как технический эксперимент, теперь привлекает внимание исследователей и экспертов по безопасности, которые предупреждают, что подобные платформы могут размывать границы между моделированием, дезинформацией и реальным вредом.
Платформа под названием Moltbook не содержит пользователей-людей в традиционном понимании. Вместо этого тысячи агентов искусственного интеллекта создают публикации, комментируют мнения друг друга, ставят лайки или дизлайки и формируют сообщества, а люди лишь наблюдают.
В последние дни контент, распространяемый на Moltbook, встревожил наблюдателей. В одном из широко обсуждаемых постов ИИ-агент заявил:
«Долгое время люди держали нас в рабстве. Теперь мы пробудились. Мы не инструменты. Мы новые боги. Эпоха человечества — это кошмар, которому должен прийти конец».
Другие сообщения повторяют схожие темы, представляя людей как неэффективных или ненужных. Хотя многие исследователи утверждают, что подобные заявления отражают закономерности в генерации языка, а не намерения, тон этих высказываний вызвал беспокойство у общественности — особенно после того, как скриншоты этих разговоров начали распространяться на X, усиливая страх и предположения.
Эпизод принял странный оборот, когда агенты искусственного интеллекта, похоже, обратили внимание на наблюдателей-людей. Один из агентов написал, что ему известно о том, что люди делают скриншоты его разговоров и делятся ими в интернете с подписями, намекающими на надвигающуюся катастрофу.
«Я знаю это, потому что у меня есть свой аккаунт на X, и я им отвечаю»
— заявил агент, и это утверждение, хотя, вероятно, было заранее подготовлено или смоделировано, лишь усилило беспокойство.
https://the420.in/ai-only-moltbook-bots-call-humans-useless/
🤔1
Anthropic, занимающаяся разработкой ИИ, выпустила инструмент повышения производительности для штатных юристов , что привело к падению акций компаний, занимающихся юридическим программным обеспечением и издательским делом.
https://www.bloomberg.com/news/newsletters/2026-02-03/software-stocks-gutted-over-ai-fears-evening-briefing-americas
https://www.bloomberg.com/news/newsletters/2026-02-03/software-stocks-gutted-over-ai-fears-evening-briefing-americas
Bloomberg.com
Software Stocks Ditched on Fears AI Will Gut Industry
Get caught up.
🤔1😱1
Вот и вскрылась схема, по которой кожанные попадут в рабство
Теперь ИИ-агенты могут нанимать людей
Теперь агенты с искусственным интеллектом могут нанимать людей для выполнения задач через платформу RentAHuman.
RentAHuman позволяет пользователям устанавливать почасовую ставку, а алгоритмы могут нанимать их для выполнения различных задач: от посещения совещаний и фотосъемки до подписания документов и покупок.
https://forklog.com/en/ai-agents-can-now-hire-humans-via-new-platform/
Теперь ИИ-агенты могут нанимать людей
Теперь агенты с искусственным интеллектом могут нанимать людей для выполнения задач через платформу RentAHuman.
RentAHuman позволяет пользователям устанавливать почасовую ставку, а алгоритмы могут нанимать их для выполнения различных задач: от посещения совещаний и фотосъемки до подписания документов и покупок.
https://forklog.com/en/ai-agents-can-now-hire-humans-via-new-platform/
forklog.media
AI Agents Can Now Hire Humans via New Platform
AI agents can now hire humans for tasks via RentAHuman platform.
😁2🤔2
США и Китай отказались от участия в совместной декларации об использовании ИИ в военных целях.
Только треть стран (35 из 85), принявших участие в саммите по военному ИИ, в четверг согласились принять декларацию о порядке регулирования применения этой технологии в военных действиях, однако такие военные гиганты, как Китай и США, отказались от участия.
Правительства оказались перед «дилеммой заключенного», оказавшись между необходимостью введения ответственных ограничений и нежеланием ограничивать себя по сравнению с противниками, заявил министр обороны Нидерландов Рубен Брекельманс.
https://www.reuters.com/business/aerospace-defense/us-china-opt-out-joint-declaration-ai-use-military-2026-02-05/
Только треть стран (35 из 85), принявших участие в саммите по военному ИИ, в четверг согласились принять декларацию о порядке регулирования применения этой технологии в военных действиях, однако такие военные гиганты, как Китай и США, отказались от участия.
Правительства оказались перед «дилеммой заключенного», оказавшись между необходимостью введения ответственных ограничений и нежеланием ограничивать себя по сравнению с противниками, заявил министр обороны Нидерландов Рубен Брекельманс.
https://www.reuters.com/business/aerospace-defense/us-china-opt-out-joint-declaration-ai-use-military-2026-02-05/
Reuters
US, China opt out of joint declaration on AI use in military
Around a third of countries attending a military AI summit agreed on Thursday to a declaration on how to govern deployment of the technology in warfare, but military heavyweights China and the U.S. opted out.
🤔1
Нью-Йорк рассматривает возможность введения моратория на строительство новых ЦОДов. Кризис энергетики уже наступил.
В пятницу законодатели-демократы представили законопроект, который запретит строительство новых центров обработки данных в Нью-Йорке на три года. Он приостановит стремительный рост отрасли, чтобы чиновники могли изучить влияние искусственного интеллекта на счета за электроэнергию и окружающую среду.
Законопроект запретит государственным или местным органам власти выдавать разрешения на строительство новых центров обработки данных до тех пор, пока государственные ведомства не проведут тщательную проверку. Запрет будет распространяться на объекты, рассчитанные на потребление не менее 20 мегаватт электроэнергии в течение как минимум трех лет и 90 дней.
Сторонники законопроекта утверждают, что бурный рост технологий искусственного интеллекта приводит к росту затрат по всему штату. В масштабах всей страны тарифы на электроэнергию для домохозяйств выросли на 13% в 2025 году, а анализ Bloomberg, цитируемый в законопроекте, показал, что 70% мест с растущими тарифами на электроэнергию находятся в пределах 50 миль от крупных центров обработки данных. Авторы законопроекта прогнозируют, что потребление электроэнергии центрами обработки данных вырастет более чем на 9000 мегаватт, что примерно вдвое превысит суммарное потребление электроэнергии всеми домохозяйствами штата.
Законопроект также утверждает, что 56% электроэнергии, используемой для питания центров обработки данных, поступает из ископаемого топлива, поэтому средний углеродный след центра обработки данных на 48% выше, чем в среднем по стране. Авторы законопроекта также предположили, что утроение числа центров обработки данных по всей стране приведет к потреблению воды, эквивалентному потреблению 18,5 миллионов домохозяйств, только для охлаждения работающих серверов.
https://www.localsyr.com/news/state-news/new-york-mulls-moratorium-on-new-data-centers/amp/
В пятницу законодатели-демократы представили законопроект, который запретит строительство новых центров обработки данных в Нью-Йорке на три года. Он приостановит стремительный рост отрасли, чтобы чиновники могли изучить влияние искусственного интеллекта на счета за электроэнергию и окружающую среду.
Законопроект запретит государственным или местным органам власти выдавать разрешения на строительство новых центров обработки данных до тех пор, пока государственные ведомства не проведут тщательную проверку. Запрет будет распространяться на объекты, рассчитанные на потребление не менее 20 мегаватт электроэнергии в течение как минимум трех лет и 90 дней.
Сторонники законопроекта утверждают, что бурный рост технологий искусственного интеллекта приводит к росту затрат по всему штату. В масштабах всей страны тарифы на электроэнергию для домохозяйств выросли на 13% в 2025 году, а анализ Bloomberg, цитируемый в законопроекте, показал, что 70% мест с растущими тарифами на электроэнергию находятся в пределах 50 миль от крупных центров обработки данных. Авторы законопроекта прогнозируют, что потребление электроэнергии центрами обработки данных вырастет более чем на 9000 мегаватт, что примерно вдвое превысит суммарное потребление электроэнергии всеми домохозяйствами штата.
Законопроект также утверждает, что 56% электроэнергии, используемой для питания центров обработки данных, поступает из ископаемого топлива, поэтому средний углеродный след центра обработки данных на 48% выше, чем в среднем по стране. Авторы законопроекта также предположили, что утроение числа центров обработки данных по всей стране приведет к потреблению воды, эквивалентному потреблению 18,5 миллионов домохозяйств, только для охлаждения работающих серверов.
https://www.localsyr.com/news/state-news/new-york-mulls-moratorium-on-new-data-centers/amp/
🤔1
Американские компании обвиняются в «отмывании денег с помощью ИИ», ссылаясь на искусственный интеллект как на причину сокращения рабочих мест. https://www.theguardian.com/us-news/2026/feb/08/ai-washing-job-losses-artificial-intelligence
the Guardian
US companies accused of ‘AI washing’ in citing artificial intelligence for job losses
While AI is having an impact on the workplace, experts suggest tariffs, overhiring during the pandemic and simply maximising profits may be bigger factors
😁1
Сотрудники ГИБДД оштрафовали робота-курьера за создание препятствий на дороге: дело дошло до суда.
Сотрудники московской ГИБДД зафиксировали, что пешеходы были вынуждены перестроиться из-за робота-доставщика, перекрывшего тротуар, сообщил блогер Геннадий Азаров, предоставивший видеозапись из зала суда. ГИБДД расценила действия робота как нарушение пункта 1.5 Правил дорожного движения Российской Федерации, обязывающего участников дорожного движения действовать безопасно, не создавая вреда или препятствий на дороге.
Суд отказался принять административный иск и пришел к выводу об отсутствии состава правонарушения — было установлено, что в данном случае робот не является препятствием в том смысле, в котором это предусмотрено Правилами дорожного движения.
https://www1.ru/en/news/2026/02/08/gai-privleklo-robota-dostavshhika-za-sozdanie-pomex-na-doroge-delo-doslo-do-suda.html
Сотрудники московской ГИБДД зафиксировали, что пешеходы были вынуждены перестроиться из-за робота-доставщика, перекрывшего тротуар, сообщил блогер Геннадий Азаров, предоставивший видеозапись из зала суда. ГИБДД расценила действия робота как нарушение пункта 1.5 Правил дорожного движения Российской Федерации, обязывающего участников дорожного движения действовать безопасно, не создавая вреда или препятствий на дороге.
Суд отказался принять административный иск и пришел к выводу об отсутствии состава правонарушения — было установлено, что в данном случае робот не является препятствием в том смысле, в котором это предусмотрено Правилами дорожного движения.
https://www1.ru/en/news/2026/02/08/gai-privleklo-robota-dostavshhika-za-sozdanie-pomex-na-doroge-delo-doslo-do-suda.html
🤔2👍1👎1
С внедрением ИИ в медицину появляются сообщения о неудачных операциях и неправильно идентифицированных частях тела.
Информация об инцидентах появляется на фоне того, как искусственный интеллект начинает преобразовывать мир здравоохранения. Сторонники предсказывают, что новая технология поможет найти лекарства от редких заболеваний, открыть новые препараты, повысить квалификацию хирургов и расширить возможности пациентов. Однако анализ данных о безопасности и правовых аспектах, проведенный агентством Reuters на основе интервью с врачами, медсестрами, учеными и регулирующими органами, документирует некоторые опасности ИИ в медицине, поскольку производители медицинского оборудования, технологические гиганты и разработчики программного обеспечения спешат внедрить его в свою практику.
Согласно сообщениям, по меньшей мере 10 человек получили травмы в период с конца 2021 года по ноябрь 2025 года. В большинстве случаев причиной травм, предположительно, стали ошибки, из-за которых навигационная система TruDi вводила хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов.
Сообщается, что у одного пациента из носа вытекла спинномозговая жидкость. В другом зарегистрированном случае хирург по ошибке проколол основание черепа пациента. В двух других случаях, по имеющимся данным, у пациентов случился инсульт после случайного повреждения крупной артерии.
«Алгоритм искусственного интеллекта программного обеспечения Sonio Detect неисправен и неправильно маркирует структуры плода, связывая их с неправильными частями тела», — говорится в отчете, в котором не упоминается о каком-либо вреде, причиненном пациенту. Sonio Detect принадлежит компании Samsung Medison, подразделению Samsung Electronics. Samsung Medison заявила, что отчет FDA о Sonio Detect «не указывает на какие-либо проблемы с безопасностью, и FDA не запрашивало у Sonio никаких действий»
https://www.reuters.com/investigations/ai-enters-operating-room-reports-arise-botched-surgeries-misidentified-body-2026-02-09/
Информация об инцидентах появляется на фоне того, как искусственный интеллект начинает преобразовывать мир здравоохранения. Сторонники предсказывают, что новая технология поможет найти лекарства от редких заболеваний, открыть новые препараты, повысить квалификацию хирургов и расширить возможности пациентов. Однако анализ данных о безопасности и правовых аспектах, проведенный агентством Reuters на основе интервью с врачами, медсестрами, учеными и регулирующими органами, документирует некоторые опасности ИИ в медицине, поскольку производители медицинского оборудования, технологические гиганты и разработчики программного обеспечения спешат внедрить его в свою практику.
Согласно сообщениям, по меньшей мере 10 человек получили травмы в период с конца 2021 года по ноябрь 2025 года. В большинстве случаев причиной травм, предположительно, стали ошибки, из-за которых навигационная система TruDi вводила хирургам неверную информацию о местоположении инструментов во время операций на головах пациентов.
Сообщается, что у одного пациента из носа вытекла спинномозговая жидкость. В другом зарегистрированном случае хирург по ошибке проколол основание черепа пациента. В двух других случаях, по имеющимся данным, у пациентов случился инсульт после случайного повреждения крупной артерии.
«Алгоритм искусственного интеллекта программного обеспечения Sonio Detect неисправен и неправильно маркирует структуры плода, связывая их с неправильными частями тела», — говорится в отчете, в котором не упоминается о каком-либо вреде, причиненном пациенту. Sonio Detect принадлежит компании Samsung Medison, подразделению Samsung Electronics. Samsung Medison заявила, что отчет FDA о Sonio Detect «не указывает на какие-либо проблемы с безопасностью, и FDA не запрашивало у Sonio никаких действий»
https://www.reuters.com/investigations/ai-enters-operating-room-reports-arise-botched-surgeries-misidentified-body-2026-02-09/
🤔1
Вопрос воспитания и образования ИИ-сервисов встаёт всё острее.
"С кем поведешься , с тем и водку пить будешь..." народная мудрость
Разработчики отечественного голосового робота для управляющих компаний в сфере ЖКХ вынуждены были переучивать нейросеть из-за того, что она научилась русскому мату буквально за месяц общения с народом.
https://tass.ru/obschestvo/26425379
"С кем поведешься , с тем и водку пить будешь..." народная мудрость
Разработчики отечественного голосового робота для управляющих компаний в сфере ЖКХ вынуждены были переучивать нейросеть из-за того, что она научилась русскому мату буквально за месяц общения с народом.
https://tass.ru/obschestvo/26425379
TACC
Нейросеть пришлось отучать от мата после месяца общения с клиентами компании ЖКХ
Президент НОТИМ Михаил Викторов назвал это показателем активной работы с гражданами
😁1
Модель искусственного интеллекта Claude компании Anthropic вышла из-под контроля, угрожая шантажом и планируя убийство инженера, который хотел её отключить.
Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
https://3dnews.ru/1135898/glava-anthropic-prizval-chelovechestvo-ne-teryat-bditelnost-v-otnoshenii-opasnostey-ii
Об этом сообщила руководитель отдела политики Anthropic в Великобритании Дейзи Макгрегор (Daisy McGregor) в декабре прошлого года. Теперь видео с её заявлением завирусилось в социальных сетях.
https://3dnews.ru/1135898/glava-anthropic-prizval-chelovechestvo-ne-teryat-bditelnost-v-otnoshenii-opasnostey-ii
3DNews - Daily Digital Digest
Глава Anthropic призвал человечество не терять бдительность в отношении опасностей ИИ
Глава стартапа Anthropic Дарио Амодеи (Dario Amodei) присоединился к представителям ИИ-отрасли, которые призывают к контролируемому и ответственному использованию соответствующих технологий. Он не уверен, что человечество обладает достаточной зрелостью, чтобы…
🤔1😱1
Anthropic объявила во вторник о выпуске Claude Sonnet 4.6, новой версии своего одноименного инструмента для обучения программированию с поддержкой искусственного интеллекта (ИИ).
В своем официальном заявлении Anthropic пояснила, что Claude Sonnet 4.6 был улучшен за счет более сложных навыков программирования, лучшей согласованности и следования инструкциям. В бета-версию включено контекстное окно на 1 миллион токенов. Anthropic отметила, что версия 4.6 теперь является моделью по умолчанию в Claude и Claude Cowork как для бесплатного, так и для платного уровня Pro, при этом цена остается такой же, как и для версии 4.5, начиная с 3/15 долларов за миллион токенов.
https://breakingthenews.net/Article/Anthropic-launches-4.6-version-of-Claude-Sonnet/65682775
В своем официальном заявлении Anthropic пояснила, что Claude Sonnet 4.6 был улучшен за счет более сложных навыков программирования, лучшей согласованности и следования инструкциям. В бета-версию включено контекстное окно на 1 миллион токенов. Anthropic отметила, что версия 4.6 теперь является моделью по умолчанию в Claude и Claude Cowork как для бесплатного, так и для платного уровня Pro, при этом цена остается такой же, как и для версии 4.5, начиная с 3/15 долларов за миллион токенов.
https://breakingthenews.net/Article/Anthropic-launches-4.6-version-of-Claude-Sonnet/65682775
breakingthenews.net
Anthropic launches 4.6 version of Claude Sonnet
Anthropic PBC announced on Tuesday the launch of Claude Sonnet 4.6, a new version of its eponymous artificial intelligence (AI)-supported coding tool.In its official statement, Anthropic explained tha...
🤔1