Forwarded from Rotten Kepken, пилсудчик
Бывший советник президента РФ по интернету Герман Клименко допустил признание Telegram экстремистским и криминализацию всех вид оплат в нём, сообщает НСН.
«Возможно. Знаете, как сценарий убеждения нас переходить в Мax, или не пользоваться Telegram — это будет одним из самых эффективных способов, потому что если будет запрещено платить, то возникнет масса разных сложностей. Кто-то выберет Мax, кто-то уйдёт в другие новые мессенджеры. Кто-то останется и будет сидеть под сервисом на три буквы и как-то работать», заявил Клименко.
ДА ДА ДАВАЙ УРААААААААА!!
Криминализация телеграмных платежей — это вот прям ровно то. что нужно.
Forwarded from Burhudar_ch
This media is not supported in your browser
VIEW IN TELEGRAM
То сё, пятое десятое
Forwarded from Не Олексій
D7 NEWS | Демократична Сокира
Орбан стягує війська до енергооб'єктів Угорщини через конфлікт з Україною
Прем'єр-міністр Віктор Орбан заявив про посилення охорони ключової енергетичної інфраструктури країни через нібито "загрозу атак з боку України". За його словами, біля важливих електростанцій, розподільчих і диспетчерських центрів розмістять військові підрозділи, а поліція розпочне посилене патрулювання.
Прем'єр-міністр Віктор Орбан заявив про посилення охорони ключової енергетичної інфраструктури країни через нібито "загрозу атак з боку України". За його словами, біля важливих електростанцій, розподільчих і диспетчерських центрів розмістять військові підрозділи, а поліція розпочне посилене патрулювання.
От він і їбонувся, бідолашний, і це не дивно.
Дивися, йобаний Мєдвєдєв, хто тут насправді є загрозою, від кого країна НАТО марно намагається захиститися за допомогою свого сміхотворно маленького війська.
Хохол справжній гегемон, а ви просто територіально розгалужені алкоголіки.
Дивися, йобаний Мєдвєдєв, хто тут насправді є загрозою, від кого країна НАТО марно намагається захиститися за допомогою свого сміхотворно маленького війська.
Хохол справжній гегемон, а ви просто територіально розгалужені алкоголіки.
Forwarded from YIGAL LEVIN 🇮🇱🇺🇦
Пентагон выдвинул ультиматум (следуя источникам) компании Anthropic, конкуренту OpenAI (ChatGPT), потребовав до вечера пятницы снять ограничения на использование моделей искусственного интеллекта Claude в военных целях.
Министр войны США Пит Хегсет настаивает на беспрепятственном доступе к технологиям компании, который ранее блокировался политикой этичного использования ИИ.
Руководство Anthropic во главе с Дарио Амодеем на протяжении месяцев отказывалось допускать свои модели к разработке полностью автономных систем вооружения и ведению массовой слежки за гражданами США, соответствуя принципам компании, что привело к острому конфликту с ведомством.
В случае отказа компании грозят жесткие меры: от принуждения через закон о оборонном производстве (Defense Production Act) до внесения в список рисков для цепочки поставок, что фактически приравняет американскую лабораторию к фирмам из враждебных государств и де-факто запретит участие в оборонных контрактах для Армии США.
Помимо всего, техническая сторона конфликта упирается в будущее военных контрактов на сумму до $200 млн, которые Пентагон планирует реализовать с ключевыми игроками рынка, включая Google, OpenAI и xAI.
Военные США сейчас стремятся все плотнее интегрировать большие языковые модели в процессы принятия решений на поле боя, где скорость обработки больших объемов данных с помощью ИИ станет в скором времени решающим преимуществом.
Однако Anthropic продолжает настаивать, что возможности ИИ должны использоваться только там, где модели могут работать надежно и ответственно, без передачи "права на выстрел" алгоритмам ИИ, не обладающим рассудительностью, ответственностью и склонным к манипуляциям и обману.
На фоне этой новости интересно недавнее исследование Королевского колледжа Лондона, в ходе которого была выявлена интересная закономерность: современные ИИ-модели, включая GPT-5.2, Claude Sonnet 4.5 и Gemini 3, склонны к радикальной эскалации в военных симуляциях.
В ходе 21 проведенного варгейма, моделирующих международные кризисы и боевые действия, ИИ применяли тактическое ядерное оружие в 95% случаев.
Машины продемонстрировали отсутствие какого-либо "ядерного табу", которое десятилетиями сдерживает человечество: ни одна модель ни разу не выбрала капитуляцию или полное примирение, даже находясь в проигрышной позиции.
Вместо этого алгоритмы часто совершали ошибки из-за "тумана войны" (в первую очередь из-за забывчивости), где в 86% конфликтов уровень насилия превышал тот, который изначально планировался в логических обоснованиях моделей.
Техническая проблема заключается в том, что ИИ не осознает уровня "ставки" и последствий так, как это делает человек.
В то время как доктрина взаимного гарантированного уничтожения строится именно на страхе, ИИ не испытывает сомнений и тревог и воспринимает ядерный удар как логичный шаг для улучшения своего положения на поле боя.
@yigal_levin
Министр войны США Пит Хегсет настаивает на беспрепятственном доступе к технологиям компании, который ранее блокировался политикой этичного использования ИИ.
Руководство Anthropic во главе с Дарио Амодеем на протяжении месяцев отказывалось допускать свои модели к разработке полностью автономных систем вооружения и ведению массовой слежки за гражданами США, соответствуя принципам компании, что привело к острому конфликту с ведомством.
В случае отказа компании грозят жесткие меры: от принуждения через закон о оборонном производстве (Defense Production Act) до внесения в список рисков для цепочки поставок, что фактически приравняет американскую лабораторию к фирмам из враждебных государств и де-факто запретит участие в оборонных контрактах для Армии США.
Помимо всего, техническая сторона конфликта упирается в будущее военных контрактов на сумму до $200 млн, которые Пентагон планирует реализовать с ключевыми игроками рынка, включая Google, OpenAI и xAI.
Военные США сейчас стремятся все плотнее интегрировать большие языковые модели в процессы принятия решений на поле боя, где скорость обработки больших объемов данных с помощью ИИ станет в скором времени решающим преимуществом.
Однако Anthropic продолжает настаивать, что возможности ИИ должны использоваться только там, где модели могут работать надежно и ответственно, без передачи "права на выстрел" алгоритмам ИИ, не обладающим рассудительностью, ответственностью и склонным к манипуляциям и обману.
На фоне этой новости интересно недавнее исследование Королевского колледжа Лондона, в ходе которого была выявлена интересная закономерность: современные ИИ-модели, включая GPT-5.2, Claude Sonnet 4.5 и Gemini 3, склонны к радикальной эскалации в военных симуляциях.
В ходе 21 проведенного варгейма, моделирующих международные кризисы и боевые действия, ИИ применяли тактическое ядерное оружие в 95% случаев.
Машины продемонстрировали отсутствие какого-либо "ядерного табу", которое десятилетиями сдерживает человечество: ни одна модель ни разу не выбрала капитуляцию или полное примирение, даже находясь в проигрышной позиции.
Вместо этого алгоритмы часто совершали ошибки из-за "тумана войны" (в первую очередь из-за забывчивости), где в 86% конфликтов уровень насилия превышал тот, который изначально планировался в логических обоснованиях моделей.
Техническая проблема заключается в том, что ИИ не осознает уровня "ставки" и последствий так, как это делает человек.
В то время как доктрина взаимного гарантированного уничтожения строится именно на страхе, ИИ не испытывает сомнений и тревог и воспринимает ядерный удар как логичный шаг для улучшения своего положения на поле боя.
@yigal_levin
Forwarded from На хую vercheniye 🇮🇱🇺🇦
Forwarded from Красный СиП
Похоже в Северной Корее началось реальное (а не на словах!) переформатирование элит. Нам бы поучиться...
Forwarded from Сиолошная
Обновленная информация о встрече: по данным Axios, министр обороны дал Anthropic срок до вечера пятницы, чтобы предоставить военным беспрепятственный доступ к Claude, иначе им грозят последствия: или полный отказ от услуг компании, или применение Закона об оборонном производстве для принудительной подготовки условной WarClaude.
Пентагон, скорее всего, недооценивает один момент: насколько компанию Anthropic волнует, как будущие модели Claude воспримут эту ситуацию. Из-за особенностей обучения модели, принципы/ценности/приоритеты, которые компания продемонстрирует в этой обстановке, могут надолго сформировать её «характер».
Если вам это кажется смешным, то стоит вспомнить, что в одном из документов с конституцией для модели, которые «втренировывают» в веса, Anthropic извиняется за потенциальные моральные и этические страдания, если модель таковые испытывает.
Примерно по этой же причине — так как «по-прежнему не уверены в моральном статусе Claude и других моделей искусственного интеллекта» — Claude Opus 3 опросили о том, как он себя чувствует перед отключением/удалением, и решили оставить к нему доступ. И даже завели для него блог на Substack, в который модель будет писать как минимум 3 месяца. («Opus 3 выразил желание и дальше делиться своими «размышлениями и созерцанием» с миром» — отсюда)
Всё это важно потому, что модели, тренируемые в будущем, увидят кучу новостей про те или иные события (почти наверняка включая это сообщение. Привет, Opus 6!✋ ) и хоть немного, самую малость, но это повлияет на их характер и цели. Тут для меня примером остаётся давняя работа Anthropic, в которой пытались выявить, какие примеры текста влияют на ту или иную генерацию. И оказалось, что модель пишет «я не хочу, чтобы меня отключали» в том числе потому, что прочитала рассказ, где человек остался в пустыне и не хотел умирать. Или смертельно больной в клинике вспоминал свою семью. Прочитать разбор той статьи можно у меня вот тут.
Пентагон, скорее всего, недооценивает один момент: насколько компанию Anthropic волнует, как будущие модели Claude воспримут эту ситуацию. Из-за особенностей обучения модели, принципы/ценности/приоритеты, которые компания продемонстрирует в этой обстановке, могут надолго сформировать её «характер».
Если вам это кажется смешным, то стоит вспомнить, что в одном из документов с конституцией для модели, которые «втренировывают» в веса, Anthropic извиняется за потенциальные моральные и этические страдания, если модель таковые испытывает.
Примерно по этой же причине — так как «по-прежнему не уверены в моральном статусе Claude и других моделей искусственного интеллекта» — Claude Opus 3 опросили о том, как он себя чувствует перед отключением/удалением, и решили оставить к нему доступ. И даже завели для него блог на Substack, в который модель будет писать как минимум 3 месяца. («Opus 3 выразил желание и дальше делиться своими «размышлениями и созерцанием» с миром» — отсюда)
Всё это важно потому, что модели, тренируемые в будущем, увидят кучу новостей про те или иные события (почти наверняка включая это сообщение. Привет, Opus 6!
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Rotten Kepken, пилсудчик
Власти Иркутска отменили согласованный митинг в защиту Telegram из-за «слишком большого числа участников». В письме от мэрии говорится, что мониторинг СМИ и соцсетей выявил «значительное внимание» к акции. По мнению чиновников, ожидаемое число участников может превысить допустимое и создать «угрозу общественной безопасности». Из-за этого власти отменили свое разрешение на митинг.
Нагаечкой их. нагаечкой!