This media is not supported in your browser
VIEW IN TELEGRAM
Обновление Manus.im
Manus 1.6 привёз три главных штуки: новый агент Manus 1.6 Max (существенный буст в качестве и автономности), полноценную мобильную разработку (iOS/Android‑приложения по описанию) и Design View — интерактивный визуальный редактор картинок прямо внутри Manus.
Manus 1.6 привёз три главных штуки: новый агент Manus 1.6 Max (существенный буст в качестве и автономности), полноценную мобильную разработку (iOS/Android‑приложения по описанию) и Design View — интерактивный визуальный редактор картинок прямо внутри Manus.
👍2
Это интервью a16z с Ryo Lu из Cursor — и важно, что оно вышло три недели назад, до большого апдейта Cursor.
YouTube
YouTube
О чём говорят
• Как индустрия сначала разделила софт на «дизайн» и «инженерию», а теперь AI снова склеивает это в один поток — от идеи до живого интерфейса в коде.
• Почему в мире AI-редакторов важнее не «красивый дрибббл», а системы, в которых пользователи сами создают и меняют продукт.
• Что «вкус» всё ещё важен, но становится надстройкой над мощными инструментами и рабочими пайплайнами, а не главной ценностью сам по себе.
Дизайнер как девелопер
• Рё рассказывает, как раньше его макеты «умирали» на передаче разработчикам, а теперь с Cursor дизайнер может сам собирать рабочие прототипы и фичи.
• AI в редакторе сокращает цикл: идея → прототип → проверка → итерация — за минуты, а не недели.
• Роли размываются: появляется фигура «full builder» — человек, который держит в руках и продукт, и UX, и реализацию.
Философия и личный OS
• Дизайн описывают не как про «красиво», а как про структуру, ограничения и систему, которая задаёт рамки для хороших решений.
• Рё показывает свой персональный «ryOS» — кастомную ретро-операционку, которую он собрал на Cursor как соло-дизайнер с AI.
• Это хороший пример того, как один человек с AI-инструментами может делать то, что раньше требовало команды.
YouTube
Ryo Lu (Cursor): AI Turns Designers to Developers
Ryo Lu spent years watching his designs die in meetings. Then he discovered the tool that lets designers ship code at the speed of thought: Cursor, the company where Ryo is now Head of Design. In this episode, a16z General Partner Jennifer Li sits down with…
🔥2
Это второе интервью с Ryo Lu, на этот раз у YC, и оно хорошо дополняет его разговор с a16z. И вышло всего 3 дня назад. Тут меньше про визионерство и больше про конкретный дизайн‑процесс и то, как именно он перестраивал Cursor под мир агентов.
https://youtu.be/3JiVDYL20G4?si=gNHBESFzwvdslEes
https://youtu.be/3JiVDYL20G4?si=gNHBESFzwvdslEes
KPI: превратить дизайнеров в кодеров
Ryo прямо формулирует личный KPI в Cursor: «в этом году моя задача — превратить всех дизайнеров в кодеров». Не в смысле «идите учите синтаксис и Git», а в том, что общим языком команды становится код, а не фреймы в Figma. Дизайнеры начинают собирать живые вещи сами, а агенты закрывают им дырки в low‑level знаниях и ресёрче.
Он чётко проговаривает сдвиг: раньше дизайнеры годами жили в коробке «ты вот тут про пиксели и UX, дальше — не твоё». Сейчас с агентами вход в прототипирование и разработку становится значительно менее страшным: можно начать «кодить, не умея кодить», и уже по ходу разбираться, как всё устроено.
Учиться, пока строишь
Вместо классического пути «сначала курс, потом pet‑project» Ryo топит за формат «learning by building». Он сам так учился: сначала сайт, потом комьюнити, потом стартапы — и только потом формальные термины из CS. В мире с Cursor и агентами это радикализируется: ты можешь стартовать с расплывчатой идеи, отдать её агенту и быстро получить 60–70% результата.
Дальше начинается самое интересное: именно доводка этого «сырого» результата — зона мастерства дизайнера. Не модель решает, что красиво, уместно и системно, а человек, который видит продукт целиком, понимает контекст и может направлять агента, а не просто принимать его выводы.
Как устроен дизайн в Cursor
Внутри Cursor дизайн‑команда крошечная по сравнению с общей компанией, но все в ней пишут код. Параллельно множество инженеров «дизайнит» продукт, потому что Cursor — инструмент для разработчиков, и почти каждый сотрудник сам его power‑user. Из‑за этого нагрузка на дизайн — не в том, чтобы «рисовать экраны», а в том, чтобы держать систему целостной.
Ryo рассказывает, как Cursor буквально раз в несколько месяцев приходится «пересобирать» изнутри: фичи множатся, разработчики экспериментируют, появляются новые кнопки и режимы. Задача дизайна — вычленять общие примитивы, сшивать похожие сущности, убирать лишние уровни навигации и не давать продукту превратиться в свалку режимов «для всех и ни для кого».
От VS Code‑надстройки к миру агентов
Он очень конкретно описывает путь продукта. В начале Cursor был скорее набором фич поверх VS Code: таб‑completion, чат‑панель, composer, какой‑то скрытый агент, отдельный bug finder. Всё это жило в разных местах, с разной логикой и даже разными терминами. Пользователь по сути пользовался «кусочком магии» поверх привычного IDE.
Первый большой шаг Ryo — объединить всё это в одну сущность: агент. Чат, composer, режимы — это не отдельные продукты, а разные «маски» одного и того же агента с чуть разными настройками и ограничениями. Второй шаг — сделать агента дефолтом: открыть Cursor и сразу «говорить с системой», а не искать чекбокс «включить магию».
Следующий перелом — Cursor 2.0: переворот иерархии интерфейса. Вместо файлового дерева в центре и агента сбоку — один агент как главный экран, а код и структура проекта становятся вторым слоем, который открывается по мере надобности. Это принципиально другая модель: ты смотришь не на «файлы», а на «работу агентов» и состояние задач.
Baby Cursor и прототипирование в коде
Один из самых показательных моментов выпуска — «Baby Cursor». Это мини‑версия Cursor, которую Ryo собрал за несколько часов как личную песочницу. Там есть горячие клавиши, мультиагентные сценарии, встроенный браузер, превью кода — всё, что нужно, чтобы почувствовать будущее поведения, не лезя в огромный прод‑код.
Он честно говорит: сложные живые состояния, особенно с AI, невозможно адекватно прожить в статичных макетах. В Figma ты либо рисуешь фейковое состояние, либо тонешь в вариациях. В Baby Cursor он строит настоящее взаимодействие: пара промптов агенту — и у тебя уже рабочий прототип новой концепции, который можно прожать до ощущения «круто / не круто».
YouTube
The End of the Designer–Engineer Divide
In less than a year, designer Ryo Lu helped transform Cursor from a feature-layer on top of VS Code into one of the world's leading AI code editors.
He joins YC's Aaron Epstein on Design Review to talk about the path that brought him to Cursor, how rapid…
He joins YC's Aaron Epstein on Design Review to talk about the path that brought him to Cursor, how rapid…
🔥2
Продолжение суммаризации:
Дизайн как скульптура
Очень яркая метафора из этого интервью — переход от «рисования» к «скульптуре». Старый pipeline: рисуем вайрфреймы, красим их слоями визуала, передаём в разработку, потом когда‑то там появляется «настоящий» продукт. Ты всё время работаешь с артефактом, а не с живой системой.
Новый подход: ты просишь агента собрать «ком», сырой, несовершенный объект, но это уже реальное приложение. Дальше работа дизайнера — отсечь лишнее, переформулировать, заскоупить, объединить части, пока форма не станет правильной. Это принципиально другой навык: не «как красиво нарисовать state», а «как направить систему туда, куда нужно продукту».
Системы, а не фичи
В какой‑то момент разговор уходит в чистый системный дизайн. Ryo противопоставляет подходу «human‑centered как чек‑лист фич» мышление через устойчивые примитивы. Ты не добавляешь новую кнопку под каждый сценарий — ты находишь базовые элементы, которые будут жить и через 10 лет, а потом конфигурируешь их под задачи.
В качестве примера он приводит Notion: блоки, страницы, базы, люди и команды. Всё, что мы видим как «функции», на самом деле комбинации этих штук. В Cursor он стремится к такой же модели: меньше именованных режимов и отдельных экранов, больше продуманной системы примитивов, которые можно пересобирать и расширять без визуального хаоса.
Будущее ролей и интерфейсов
Финальный слой — про будущее профессий. По его картине, дизайнеры, PM и инженеры постепенно сходятся в одном поле: вокруг кода и агентов. Главное преимущество — не в том, чтобы идеально знать инструмент, а в способности системно мыслить, чувствовать ограничения прод‑среды и использовать агента как усилитель, а не как чёрный ящик.
По интерфейсам он ожидает, что привычные «функциональные» приложения (доки, таск‑менеджеры, борды) будут всё сильнее распадаться на компоненты. Агент станет тем, кто подбирает, комбинирует и отображает нужные представления под конкретного человека и конкретную задачу. При этом стабильными останутся базовые структуры данных и примитивы, а UI поверх них станет намного пластичнее и индивидуальнее.
Так что если резюмировать в одну фразу: это видео — хороший манифест того, как выглядит дизайн‑процесс в мире, где твой основной инструмент — не Figma, а агент, которому ты умеешь объяснять, чего именно хочешь от живого продукта, а не от картинки.
🔥2
Media is too big
VIEW IN TELEGRAM
ChatGPT Images
Аламан объявлял красный код из-за двух причин — обгон Google в основной модели и картиночной, ChatGPT генерацию изображений не обновляли пол-года. Первое решили GPT 5.2, а вот и ответ на второе подоспел.
https://openai.com/index/new-chatgpt-images-is-here/
Аламан объявлял красный код из-за двух причин — обгон Google в основной модели и картиночной, ChatGPT генерацию изображений не обновляли пол-года. Первое решили GPT 5.2, а вот и ответ на второе подоспел.
https://openai.com/index/new-chatgpt-images-is-here/
Forwarded from эйай ньюз
SAM-Audio: находка для шпиона
Meta продолжает расширять возможности SAM (Segment Anything Model), и теперь туда добавилась аудиомодальность.
Выделяешь объект на видео и получаешь звук, который исходит исключительно из этой точки. Как вы понимаете, это просто находка для шпиона, ведь можно выделить диалог двух людей на видео и слышать только его, отделив от всего остального шума. Какие у этого другие применения — думайте сами. А так проект выглядит довольно интересно.
В основе лежит Perception Encoder Audiovisual (PE-AV), который выступает в роли ушей системы. Сама же архитектура построена на flow-matching diffusion transformer, который принимает на вход аудиомикс и промпт, а на выходе генерирует целевой и остаточный аудиотреки.
Модель умеет отделять звук по трём типам промптов, которые можно комбинировать. Это текстовый, визуальный (клик на объект в видео), span prompting (выделение временного отрезка, когда появляется звук). Но вот выделить что-то совсем похожее пока не удастся, например, одного певца из хора вырезать не получится.
При этом модель работает быстрее реального времени (RTF ≈ 0.7) и скейлится от 500M до 3B параметров.
Веса и код выложены в опенсорс, но под некоммерческой лицензией (CC-BY-NC 4.0).
Блогпост
Демо
GitHub
@ai_newz
Meta продолжает расширять возможности SAM (Segment Anything Model), и теперь туда добавилась аудиомодальность.
Выделяешь объект на видео и получаешь звук, который исходит исключительно из этой точки. Как вы понимаете, это просто находка для шпиона, ведь можно выделить диалог двух людей на видео и слышать только его, отделив от всего остального шума. Какие у этого другие применения — думайте сами. А так проект выглядит довольно интересно.
В основе лежит Perception Encoder Audiovisual (PE-AV), который выступает в роли ушей системы. Сама же архитектура построена на flow-matching diffusion transformer, который принимает на вход аудиомикс и промпт, а на выходе генерирует целевой и остаточный аудиотреки.
Модель умеет отделять звук по трём типам промптов, которые можно комбинировать. Это текстовый, визуальный (клик на объект в видео), span prompting (выделение временного отрезка, когда появляется звук). Но вот выделить что-то совсем похожее пока не удастся, например, одного певца из хора вырезать не получится.
При этом модель работает быстрее реального времени (RTF ≈ 0.7) и скейлится от 500M до 3B параметров.
Веса и код выложены в опенсорс, но под некоммерческой лицензией (CC-BY-NC 4.0).
Блогпост
Демо
GitHub
@ai_newz
🤯2
Forwarded from Яндекс
Media is too big
VIEW IN TELEGRAM
Что, опять нейросети? Да, в 2025 году весь бигтех, включая Яндекс, говорит об искусственном интеллекте больше, чем когда-либо, потому что он стал ещё полезнее. Доказываем и показываем — в этом фильме.
Что внутри:
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
В ChatGPT добавили интеграцию Apple Music и сделали страничку со всеми апками. Можно добавлять свои и монетизировать
https://developers.openai.com/apps-sdk
https://developers.openai.com/apps-sdk
⚡2
Яндекс
«Яндекс Дропс» — беспроводные наушники с ИИ-ассистентом «Алисой». С помощью устройства можно будет получать доступ к нейросетевым функциям голосом в любой момент. В наушниках можно будет на ходу задавать «Алисе AI» любые вопросы и получать ответы, занимаясь другими делами. Кроме этого, пользователи смогут использовать привычные возможности ИИ-ассистента, как на «Станциях», например, управлять музыкой.
В «Дропс» будет доступна функция «Моя память». Всё, что пользователь просит Алису зафиксировать — планы, дела или просто случайные мысли — сохранится в чате с Алисой AI в виде структурированных записей и напоминаний. Устройство может стать виртуальным секретарём, который фиксирует идеи и записывает информацию о важных событиях. Доступ к самим записям можно получить в чате с «Алисой AI» или через голосовой интерфейс.
Источник
❤1
Кроме того, компания показала диктофон с «Алисой Про» — его тоже анонсировали в октябре 2025 года. На него можно записывать, к примеру, деловые встречи или лекции. «Алиса Про» подготовит расшифровку и конспект и ответит на вопросы по содержанию.
Источник
❤2
Codex 5.2 вышел, ну теперь все баги починю в своих поделках
https://openai.com/index/introducing-gpt-5-2-codex/
https://openai.com/index/introducing-gpt-5-2-codex/
👍3
Плагин Claude для управления браузером
claude.com/chrome
https://youtu.be/rBJnWMD0Pho?si=vWk-faZMztHYZCNj
claude.com/chrome
https://youtu.be/rBJnWMD0Pho?si=vWk-faZMztHYZCNj
YouTube
Let Claude handle work in your browser
See Claude for Chrome handle three complete workflows in your browser.
Pull data from dashboards into one analysis doc
Address slide comments automatically
Build with Claude Code, test in Chrome
Claude for Chrome is a browser extension that lets Claude see…
Pull data from dashboards into one analysis doc
Address slide comments automatically
Build with Claude Code, test in Chrome
Claude for Chrome is a browser extension that lets Claude see…
👍1😁1
Google выносит историю чатов с поисковым AI Mode в кнопку на главной Google app
👍1
Google интегрирует свой вайбкод эксперимент Opal внутрь Gemini
https://techcrunch.com/2025/12/17/googles-vibe-coding-tool-opal-comes-to-gemini/
https://techcrunch.com/2025/12/17/googles-vibe-coding-tool-opal-comes-to-gemini/
👍1🤔1