Media is too big
VIEW IN TELEGRAM
Cursor добавили режим, где облачные агенты работают в изолированных виртуальных машинах с полноценной средой разработки.
теперь они могут сами запускать код, тестировать изменения, делать скриншоты, видео и логи. агенты не просто пишут код — они взаимодействуют с браузером, ui и другими приложениями внутри своей среды.
https://cursor.com/blog/agent-computer-use
теперь они могут сами запускать код, тестировать изменения, делать скриншоты, видео и логи. агенты не просто пишут код — они взаимодействуют с браузером, ui и другими приложениями внутри своей среды.
https://cursor.com/blog/agent-computer-use
🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
вчера в браузере Comet обновили войсмод
под капотом openai gpt-realtime-1.5 model, которую выпустили позавчера
под капотом openai gpt-realtime-1.5 model, которую выпустили позавчера
This media is not supported in your browser
VIEW IN TELEGRAM
в Claude подписку за €200 добавили возможность трогать траву во время клод-кодинга — то есть удаленный режим в терминале, ну почти openclaw
❤2
Media is too big
VIEW IN TELEGRAM
Perplexity запустили свой Computer
звучит как Manus Computer, на его поле и играет
computer сам строит план, запускает нужные шаги и ведёт работу до результата: поиск → черновики → код → деплой → правки. оркестрирует разные модели под капотом.
доступно в подписке за 200, как обычно :(
звучит как Manus Computer, на его поле и играет
computer сам строит план, запускает нужные шаги и ведёт работу до результата: поиск → черновики → код → деплой → правки. оркестрирует разные модели под капотом.
доступно в подписке за 200, как обычно :(
съехал с Readymag. планировал еще в прошлом году, думал про Framer и Figma Sites
в этом году понял, что навайбкодить тоже самое и захостить просто на GitHub Pages, будет в 3-4 раза дешевле. экспорт кода редимаг закрыл на дешевом тарифе, хотя кажется, что раньше он был. окей, пересобрал на выходных за часок, по дороге еще пару багов починил, что не давал сделать конструктор.
manuilov.com — сайт простой и по итогу экономия больше €100 в год. переживаю теперь за будущее редимаг, там все еще агентов не встроили
(тачи еще дочиню, сейчас анимация не оч)
в этом году понял, что навайбкодить тоже самое и захостить просто на GitHub Pages, будет в 3-4 раза дешевле. экспорт кода редимаг закрыл на дешевом тарифе, хотя кажется, что раньше он был. окей, пересобрал на выходных за часок, по дороге еще пару багов починил, что не давал сделать конструктор.
manuilov.com — сайт простой и по итогу экономия больше €100 в год. переживаю теперь за будущее редимаг, там все еще агентов не встроили
(тачи еще дочиню, сейчас анимация не оч)
❤8🔥2
коротко:
— xcode 26.3 с улучшенной интеграцией агентов наконец раскатывают на всех
— claude code научился auto memory, то есть протаскивать контекст между чатами
— cursor научился искать баги в репозитории после коммитов и чинить сам
— perplexity поставят системным ии на samsung s26
— джек дорси уволил одним твитом 4к из 10к человек, оптимизации процессов во времена ии, акции компании выросли
— первого мая выйдет новый альбом моей любимой группы, вот новый клип
— xcode 26.3 с улучшенной интеграцией агентов наконец раскатывают на всех
— claude code научился auto memory, то есть протаскивать контекст между чатами
— cursor научился искать баги в репозитории после коммитов и чинить сам
— perplexity поставят системным ии на samsung s26
— джек дорси уволил одним твитом 4к из 10к человек, оптимизации процессов во времена ии, акции компании выросли
— первого мая выйдет новый альбом моей любимой группы, вот новый клип
❤2
Forwarded from Сиолошная
Промежуточное состояние ситуации Anthropic <-> Минобороны <-> OpenAI:
— Президент США заявил, что не допустит, что частная компания будет диктовать свои условия в вопросах нац. безопасности. Поэтому все агентства должны отказаться от использования продуктов Anthropic в ближайшее время. Хоть формулировки были жёсткие (в духе Трампа), это был достаточно мягкий исход — просто разрыв контракта.
— Однако глава Минобороны США пошёл дальше и объявил Anthropic риском для цепочки поставок — статус, который никогда до этого не применялся к американским компаниям. Он предназначен для компаний из враждебных стран, таких как китайский технологический гигант Huawei. Это выглядит явной эскалацией по сравнению с «мягким» путём, который был описан Трампом.
— Но на этом он не остановился: кроме этого он указал, что ни один из подрядчиков Минобороны не может использовать продукты Anthropic. Прямая трактовка формулировки из его заявления означает, что условный Amazon или Google не могут предоставлять их модели на своих облаках — ведь обе компании работают с Пентагоном. Инженеры также не могут использовать условный Claude Code в работе.
— Однако эти ограничения не следуют из статуса риска для цепочки поставок. По закону, который описывает статус, выходит, что запрещается использовать продукты компании лишь при исполнении контактной деятельности непосредственно для государства. То есть один и тот же инженер в Amazon может использовать Claude Code, чтобы сделать задачу по улучшению веб-сайта, но не может использовать при разработке ПО для Минобороны.
— Anthropic заявили, что будут оспаривать присвоение статуса в суде. Я думаю, что у них хорошие шансы на победу, но процесс может затянуться.
— после этого стало известно, что OpenAI подписали контракт с Минобороны. Он отличается от того, который ранее был у Anthropic. По словам источников, OpenAI подписали договор с формулировкой, от которой отказались Anthropic.
— В контракте с OpenAI, вероятно, указано что-то вроде: «Министерство обороны уполномочено использовать наши модели для всех законных целей (all lawful purposes, то, что не хотели добавлять Anthropic). Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
— Контракт с OpenAI также включает в себя различные механизмы обеспечения безопасности, в том числе средства защиты для ограничения работы моделей в описанных выше сценариях. OpenAI может тренировать модели и отдельные классификаторы, чтобы обнаруживать запросы, потенциально подпадающие под ограничение. Кроме этого, модели будут развёрнуты в облаке, агентства не получат доступ к весам.
В чём же разница между позициями OpenAI и Anthropic?
Anthropic хотели чего-то вроде: «Правительство США не может использовать наши модели для массовой слежки внутри страны или для создания автономного оружия на основе искусственного интеллекта без нашего согласия». Механизм запрета — мнение Anthropic о том, что является и не является легитимным.
OpenAI частично остаются в этом цикле, формируя меры ограничения работы моделей, но определение легитимности в большей степени переходит государству и его институтам. Именно государство будет определять, что входит в такие термины, как «массовая слежка» и так далее — что является «законным», а что нет.
Потенциально это открывает дорогу к сценариям, где высокопоставленные чины принимают решение в спешке (например, в ходе конфликта), а затем пост-фактум в суде доказывают, что это было законным.
Также существует информация, что договор содержал возможность экстренного отключения механизмов обеспечения ограничений (например, в случае их неправильной работы) — и что эта часть очень не понравилась Anthropic. Однако я не нашёл источника этой инфомрации, которому можно доверять.
В любом случае я думаю, что общественности было бы полезно узнать все подробности контракта и ограничений. Некоторые из сотрудников (бывших и настоящих) OpenAI уже выразили желание изучить документы, чтобы понять, во что вписалась компания.
— Президент США заявил, что не допустит, что частная компания будет диктовать свои условия в вопросах нац. безопасности. Поэтому все агентства должны отказаться от использования продуктов Anthropic в ближайшее время. Хоть формулировки были жёсткие (в духе Трампа), это был достаточно мягкий исход — просто разрыв контракта.
— Однако глава Минобороны США пошёл дальше и объявил Anthropic риском для цепочки поставок — статус, который никогда до этого не применялся к американским компаниям. Он предназначен для компаний из враждебных стран, таких как китайский технологический гигант Huawei. Это выглядит явной эскалацией по сравнению с «мягким» путём, который был описан Трампом.
— Но на этом он не остановился: кроме этого он указал, что ни один из подрядчиков Минобороны не может использовать продукты Anthropic. Прямая трактовка формулировки из его заявления означает, что условный Amazon или Google не могут предоставлять их модели на своих облаках — ведь обе компании работают с Пентагоном. Инженеры также не могут использовать условный Claude Code в работе.
— Однако эти ограничения не следуют из статуса риска для цепочки поставок. По закону, который описывает статус, выходит, что запрещается использовать продукты компании лишь при исполнении контактной деятельности непосредственно для государства. То есть один и тот же инженер в Amazon может использовать Claude Code, чтобы сделать задачу по улучшению веб-сайта, но не может использовать при разработке ПО для Минобороны.
— Anthropic заявили, что будут оспаривать присвоение статуса в суде. Я думаю, что у них хорошие шансы на победу, но процесс может затянуться.
— после этого стало известно, что OpenAI подписали контракт с Минобороны. Он отличается от того, который ранее был у Anthropic. По словам источников, OpenAI подписали договор с формулировкой, от которой отказались Anthropic.
— В контракте с OpenAI, вероятно, указано что-то вроде: «Министерство обороны уполномочено использовать наши модели для всех законных целей (all lawful purposes, то, что не хотели добавлять Anthropic). Во избежание сомнений, под «законными целями» не подразумеваются [список законов и нормативных актов, запрещающих внутреннее массовое наблюдение и автономное оружие на основе ИИ]».
— Контракт с OpenAI также включает в себя различные механизмы обеспечения безопасности, в том числе средства защиты для ограничения работы моделей в описанных выше сценариях. OpenAI может тренировать модели и отдельные классификаторы, чтобы обнаруживать запросы, потенциально подпадающие под ограничение. Кроме этого, модели будут развёрнуты в облаке, агентства не получат доступ к весам.
В чём же разница между позициями OpenAI и Anthropic?
Anthropic хотели чего-то вроде: «Правительство США не может использовать наши модели для массовой слежки внутри страны или для создания автономного оружия на основе искусственного интеллекта без нашего согласия». Механизм запрета — мнение Anthropic о том, что является и не является легитимным.
OpenAI частично остаются в этом цикле, формируя меры ограничения работы моделей, но определение легитимности в большей степени переходит государству и его институтам. Именно государство будет определять, что входит в такие термины, как «массовая слежка» и так далее — что является «законным», а что нет.
Потенциально это открывает дорогу к сценариям, где высокопоставленные чины принимают решение в спешке (например, в ходе конфликта), а затем пост-фактум в суде доказывают, что это было законным.
Также существует информация, что договор содержал возможность экстренного отключения механизмов обеспечения ограничений (например, в случае их неправильной работы) — и что эта часть очень не понравилась Anthropic. Однако я не нашёл источника этой инфомрации, которому можно доверять.
В любом случае я думаю, что общественности было бы полезно узнать все подробности контракта и ограничений. Некоторые из сотрудников (бывших и настоящих) OpenAI уже выразили желание изучить документы, чтобы понять, во что вписалась компания.
разбираем новое интервью Дженни Вэн (Head of design в Claude/Anthropic), здесь больше подробностей о её текущем процессе, почему старый дизайн-процесс мёртв и для хайпа — как работать с инженерами и не сойти с ума
видео
предыдущее интервью
видео
Дженни говорит, что классический процесс «исследование → мокапы → итерации» почти умер, и описывает, чем его заменяет новая реальность.
1. Почему «старый» дизайн‑процесс мёртв
Инженеры с ИИ (Claude Code, v0 и т.п.) сами быстро клепают прототипы и фичи, у дизайнера уже нет времени «рисовать идеальные макеты» и блокировать скорость.
Большие 2–5‑летние «визии» теряют смысл: всё слишком быстро меняется, сейчас горизонт — 3–6 месяцев и скорее рабочий прототип, чем красивый дек.
2. Два типа дизайн‑работы сейчас
Поддержка имплементации: помогать инженерам, полировать, собирать всё в цельный опыт, а не приносить «единственно верный макет» сверху.
Краткосрочная визия: задать направление на ближайшие месяцы, показать прототипы, которые выравнивают команду и предотвращают хаос из «семи агентов, которые постоянно что‑то делают».
3. Как выглядит её работа в Anthropic
Много времени — разбор внутреннего Slack, прототипов, ресёрч‑апдейтов, чтобы понимать, что вообще происходит и куда всё движется.
Остальное — созвон/whiteboard с инженерами, ревью их решений, доработка интерфейса прямо в коде, плюс немного «классической» Figma для исследования вариантов.
4. Инструменты и роль Figma
Основной стек: Claude Chat, Claude Co‑work для длинных задач, Claude Code в VS Code (и через Slack/мобилу), где ИИ помогает править фронт.
Figma остаётся важной для исследования множества вариантов и тонкой визуальной доводки — код и агенты пока слишком линейны и не удобны для параллельного перебора решений.
5. Как работать с инженерами и не сойти с ума
Вместо «нет, сделай по‑другому» она проговаривает принципы и объясняет, почему так лучше (ссылаясь на ресёрч, дизайн‑систему), чтобы прокачивать вкус и насмотренность инженеров.
Все (и инженеры, и дизайнеры) чувствуют, что «не успевают за собой и своими агентами», так что задача — не тормозить поток, а направлять его и помогать делать вещи связными.
6. Качество, доверие и быстрые релизы
Они спокойно выпускают «сырые» вещи как research preview (пример — Claude Co‑work), но с явным обещанием быстро фиксить и улучшать продукт по фидбеку.
Доверие строится скоростью и реакцией: вы выкатываете, слушаете пользователей, быстро чините и показываете, что продукт не «бросили после лончей».
7. Будущее вкуса и роли человека
Она считает, что ИИ будет становиться лучше во «вкусе» и дизайне; дизайнеры, возможно, слишком держатся за мысль, что вкус — их эксклюзивный актив.
Но в итоге человеку всё равно нужно решать, что реально строить, какие компромиссы делать и как разруливать конфликты между людьми — ИИ тут советник, а не финальный арбитр.
8. Кого она нанимает и чему советует учиться
Ей интересны дизайнеры, которые умеют: жить в коде/с агентами, задавать направление продукту и быть продакт‑партнёром, а не «Figma‑оператором».
Совет: меньше цепляться за ритуалы старого процесса и качать способность быстро экспериментировать, работать с ИИ‑инструментами и собирать из этого целостный продукт.
предыдущее интервью
YouTube
The design process is dead. Here’s what’s replacing it. | Jenny Wen (head of design at Claude)
Jenny Wen leads design for Claude at Anthropic. Prior to this, she was Director of Design at Figma, where she led the teams behind FigJam and Slides. Before that, she was a designer at Dropbox, Square, and Shopify.
*We discuss:*
1. Why the classic discovery…
*We discuss:*
1. Why the classic discovery…
❤5
This media is not supported in your browser
VIEW IN TELEGRAM
говорят телеграмм теперь поддерживает стриминг текста
👍1