📗 Нейронный Прорыв: Часть II. Цена мечты
Кемерово, 1995
Двенадцатилетняя Катя сидела у больничной кровати и держала маму за холодную руку. Рак молочной железы, четвёртая стадия. Врачи разводили руками — в девяностые онкология была приговором, особенно в провинции.
— Катенька, — прошептала мама, — обещай мне... учись. Стань учёным. Сделай так, чтобы другие дети... не теряли своих мам.
Через неделю её не стало. Отец запил. Катю взяла бабушка.
В школе она была странной. Пока одноклассницы обсуждали мальчиков, Катя читала медицинские энциклопедии из районной библиотеки. Искала ответ на вопрос, который мучил её каждую ночь: почему медицина не смогла спасти маму?
Новосибирск, 2005
Красный диплом НГУ по биофизике. Катерине двадцать два, и она уже понимает: традиционная медицина движется слишком медленно. Клинические испытания, бюрократия, консервативность. Разработка нового лекарства — десять-пятнадцать лет.
Её мама умерла десять лет назад. За это время появились новые препараты, но миллионы всё ещё умирают. Слишком медленно. Слишком дорого.
На защите диссертации профессор Громов спросил:
— Зачем вы занялись нейроинтерфейсами? Это же не онкология.
— Потому что будущее медицины — в вычислениях, — ответила Катя. — Чтобы моделировать молекулы, предсказывать мутации, персонализировать лечение, нужны колоссальные вычислительные мощности. Искусственный интеллект может сократить разработку лекарства с пятнадцати лет до пятнадцати месяцев. Но для этого нужно научить ИИ думать быстрее.
Громов улыбнулся:
— Амбициозно. Безумно. Мне нравится.
Академгородок, 2019
Грант закончился. Третий за год. Катерине тридцать шесть, седая прядь в тёмных волосах, хроническое недосыпание. Лаборатория на грани закрытия.
Максим, её лучший аспирант, принёс кофе:
— Катерина Владимировна, может, пора остановиться? Вы четырнадцать лет пытаетесь научить компьютеры читать мозг парализованных. Это тупик.
Она посмотрела на него усталыми глазами:
— Мой отец умер пять лет назад. Знаешь, что он сказал перед смертью? «Прости, что не смог». Он не смог справиться с потерей мамы. Я не смогла спасти её. Но я смогу сделать так, чтобы миллионы других не умирали, потому что наука слишком медленная.
— Но нейроинтерфейсы...
— Это ключ! — она вскочила, глаза загорелись. — Мозг — самая совершенная вычислительная машина во Вселенной. Сто миллиардов нейронов, триллион связей. Nvidia строит суперкомпьютеры за миллиарды долларов, а у каждого человека есть биокомпьютер, который работает на двадцати ваттах! Нужно только научиться его использовать.
Ночь открытия, 2025
Эксперимент № 1247. Катерина сама легла в капсулу. Добровольцы закончились, деньги кончились, но она не могла остановиться.
Максим подключил электроды к её голове. Новый протокол: не считывание сигналов мозга, а использование нейронных сетей для параллельных вычислений во время фазы медленного сна.
— Если что-то пойдёт не так...
— Максим, мне сорок два. Я потратила двадцать лет на эту идею. Запускай.
Она закрыла глаза. Провалилась в темноту. И вдруг — вспышка. Нет света, но понимание. Она чувствовала, как её мозг стал частью чего-то большего. Нейроны синхронизировались с квантовым процессором, создавая гибридную систему. Не человек управляет машиной. Не машина управляет человеком. Симбиоз.
Проснулась через восемь часов. Монитор показывал результаты: нейросеть обучилась в 180 тысяч раз быстрее, чем на обычном железе.
Максим плакал от счастья.
Катерина смотрела на цифры и впервые за тридцать лет позволила себе подумать: «Мама, я сделала это».
Продолжение в коментариях >>>
---
Предыдущая часть
#neuroscifi
@pavlenkodev
Кемерово, 1995
Двенадцатилетняя Катя сидела у больничной кровати и держала маму за холодную руку. Рак молочной железы, четвёртая стадия. Врачи разводили руками — в девяностые онкология была приговором, особенно в провинции.
— Катенька, — прошептала мама, — обещай мне... учись. Стань учёным. Сделай так, чтобы другие дети... не теряли своих мам.
Через неделю её не стало. Отец запил. Катю взяла бабушка.
В школе она была странной. Пока одноклассницы обсуждали мальчиков, Катя читала медицинские энциклопедии из районной библиотеки. Искала ответ на вопрос, который мучил её каждую ночь: почему медицина не смогла спасти маму?
Новосибирск, 2005
Красный диплом НГУ по биофизике. Катерине двадцать два, и она уже понимает: традиционная медицина движется слишком медленно. Клинические испытания, бюрократия, консервативность. Разработка нового лекарства — десять-пятнадцать лет.
Её мама умерла десять лет назад. За это время появились новые препараты, но миллионы всё ещё умирают. Слишком медленно. Слишком дорого.
На защите диссертации профессор Громов спросил:
— Зачем вы занялись нейроинтерфейсами? Это же не онкология.
— Потому что будущее медицины — в вычислениях, — ответила Катя. — Чтобы моделировать молекулы, предсказывать мутации, персонализировать лечение, нужны колоссальные вычислительные мощности. Искусственный интеллект может сократить разработку лекарства с пятнадцати лет до пятнадцати месяцев. Но для этого нужно научить ИИ думать быстрее.
Громов улыбнулся:
— Амбициозно. Безумно. Мне нравится.
Академгородок, 2019
Грант закончился. Третий за год. Катерине тридцать шесть, седая прядь в тёмных волосах, хроническое недосыпание. Лаборатория на грани закрытия.
Максим, её лучший аспирант, принёс кофе:
— Катерина Владимировна, может, пора остановиться? Вы четырнадцать лет пытаетесь научить компьютеры читать мозг парализованных. Это тупик.
Она посмотрела на него усталыми глазами:
— Мой отец умер пять лет назад. Знаешь, что он сказал перед смертью? «Прости, что не смог». Он не смог справиться с потерей мамы. Я не смогла спасти её. Но я смогу сделать так, чтобы миллионы других не умирали, потому что наука слишком медленная.
— Но нейроинтерфейсы...
— Это ключ! — она вскочила, глаза загорелись. — Мозг — самая совершенная вычислительная машина во Вселенной. Сто миллиардов нейронов, триллион связей. Nvidia строит суперкомпьютеры за миллиарды долларов, а у каждого человека есть биокомпьютер, который работает на двадцати ваттах! Нужно только научиться его использовать.
Ночь открытия, 2025
Эксперимент № 1247. Катерина сама легла в капсулу. Добровольцы закончились, деньги кончились, но она не могла остановиться.
Максим подключил электроды к её голове. Новый протокол: не считывание сигналов мозга, а использование нейронных сетей для параллельных вычислений во время фазы медленного сна.
— Если что-то пойдёт не так...
— Максим, мне сорок два. Я потратила двадцать лет на эту идею. Запускай.
Она закрыла глаза. Провалилась в темноту. И вдруг — вспышка. Нет света, но понимание. Она чувствовала, как её мозг стал частью чего-то большего. Нейроны синхронизировались с квантовым процессором, создавая гибридную систему. Не человек управляет машиной. Не машина управляет человеком. Симбиоз.
Проснулась через восемь часов. Монитор показывал результаты: нейросеть обучилась в 180 тысяч раз быстрее, чем на обычном железе.
Максим плакал от счастья.
Катерина смотрела на цифры и впервые за тридцать лет позволила себе подумать: «Мама, я сделала это».
Продолжение в коментариях >>>
---
Предыдущая часть
#neuroscifi
@pavlenkodev
👍6🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Сейчас отличное время, чтобы начать изучать программирование и создавать собственные проекты.
Попробуйте обучающий режим в Claude Code: откройте CC, выполните команду
В этом режиме Claude Code будет объяснять свои действия, а вы сможете учиться прямо в процессе разработки.
---------
#claudecode #aicode
@pavlenkodev
Попробуйте обучающий режим в Claude Code: откройте CC, выполните команду
/config, затем выберите Output Style > Learning. В этом режиме Claude Code будет объяснять свои действия, а вы сможете учиться прямо в процессе разработки.
---------
#claudecode #aicode
@pavlenkodev
👍2
Посмотрел свежее видео с руководителем GitHub Next. Вот что он думает о будущем разработки:
- TypeScript в 2025 году впервые обогнал Python и JavaScript по популярности на GitHub. Это объясняется тем, что платформы типа WebAssembly делают языки вроде TypeScript универсальными для фронта и бэка, а Python сохраняет ключевую роль в ИИ, благодаря богатой экосистеме библиотек и фреймворков.
- Рост и распространение ИИ (Copilot, агенты и автокомплиты) меняет культуру программирования: теперь разработчикам все чаще приходится фокусироваться не на написании кода, а на оценке его корректности и смысла решений, предложенных ИИ.
- AI лучше работает с популярными языками и фреймворками (например, TypeScript, React), что создает позитивный замкнутый цикл: популярность — больше данных для ИИ — ещё лучше поддержка — новое усиление популярности.
- Статически типизированные языки становятся более востребованными, так как для ИИ проще генерировать корректный код, имея возможность сделать проверку типов при компиляции.
- Новым или нишевым языкам и фреймворкам становится сложнее конкурировать — ИИ всегда “лучше” работает с популярными языками, так как примеров кода на этих языках больше.
- ИИ-средства, такие как Copilot, резко снижают порог входа для изучения даже сложных языков.
- На развивающихся рынках разработчики намного быстрее адаптируют ИИ-инструменты, что дает им преимущество.
- Для компаний основные выгоды — ускорение работы младших разработчиков и снижение рутины для сеньоров, что позволяет сосредоточиться на архитектурных задачах.
Какие можно сделать выводы: ИИ-инструменты меняют сам подход к выбору языков и архитектуры ПО, закрепляя успех тех стэков, с которыми ИИ работает особенно эффективно — сейчас это TypeScript, Python и ведущие популярные фреймворки.
#aicode
@pavlenkodev
- TypeScript в 2025 году впервые обогнал Python и JavaScript по популярности на GitHub. Это объясняется тем, что платформы типа WebAssembly делают языки вроде TypeScript универсальными для фронта и бэка, а Python сохраняет ключевую роль в ИИ, благодаря богатой экосистеме библиотек и фреймворков.
- Рост и распространение ИИ (Copilot, агенты и автокомплиты) меняет культуру программирования: теперь разработчикам все чаще приходится фокусироваться не на написании кода, а на оценке его корректности и смысла решений, предложенных ИИ.
- AI лучше работает с популярными языками и фреймворками (например, TypeScript, React), что создает позитивный замкнутый цикл: популярность — больше данных для ИИ — ещё лучше поддержка — новое усиление популярности.
- Статически типизированные языки становятся более востребованными, так как для ИИ проще генерировать корректный код, имея возможность сделать проверку типов при компиляции.
- Новым или нишевым языкам и фреймворкам становится сложнее конкурировать — ИИ всегда “лучше” работает с популярными языками, так как примеров кода на этих языках больше.
- ИИ-средства, такие как Copilot, резко снижают порог входа для изучения даже сложных языков.
- На развивающихся рынках разработчики намного быстрее адаптируют ИИ-инструменты, что дает им преимущество.
- Для компаний основные выгоды — ускорение работы младших разработчиков и снижение рутины для сеньоров, что позволяет сосредоточиться на архитектурных задачах.
Какие можно сделать выводы: ИИ-инструменты меняют сам подход к выбору языков и архитектуры ПО, закрепляя успех тех стэков, с которыми ИИ работает особенно эффективно — сейчас это TypeScript, Python и ведущие популярные фреймворки.
#aicode
@pavlenkodev
👍1
This media is not supported in your browser
VIEW IN TELEGRAM
Скачал себе Antigravity. Вечером буду пробовать.
Кто еще не в курсе - вчера Google презентовали новую модель Gemini 3 и вместе с ней свою IDE Antigravity. В бенчах новая модель рвет всех – интересно проверить, насколько она хороша в коде.
Почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.
UPD: Под моим Google-аккаунтом не дает доступ. Пишет, что не доступно в моей локации под этим аккаунтом. Ну ок, будем юзать в Cursor.
Кто еще не в курсе - вчера Google презентовали новую модель Gemini 3 и вместе с ней свою IDE Antigravity. В бенчах новая модель рвет всех – интересно проверить, насколько она хороша в коде.
Почему стоит хотя бы попробовать: Antigravity пока что доступна со всем своим функционалом абсолютно бесплатно на MacOS, Windows и Linux. Дают 50 запросов каждые 5 часов. Google знают, как привлечь внимание.
Функционал:
– Есть привычный editor и тут в целом ничего нового: можно вручную писать и править код, включать автокомплит, общаться с агентом и тд. Хорошо прокачано планирование и работа с артефактами.
– Что интересно, так это режим асинхронного программирования Inbox. Это панель оркестрации агентов. Выглядит реально как почта, в которой вы ставите задачи разным агентам и можете отслеживать результат в рамках единого окна коммуникации, за рамками основного кода.
Таким образом можно работать даже с несколькими проектами одновременно. А задачи можно назначать как параллельно, так и упорядочить в очередь.
– Еще одна приятная фича: интеграция с Chrome. Это расширение, в котором агент начинает работать в режиме computer use. Он может запустить приложение локально, поднять сервер, автоматически пройтись по страницам, проверить наличие элементов, что-то потестить, сделать скриншоты и тд.
UPD: Под моим Google-аккаунтом не дает доступ. Пишет, что не доступно в моей локации под этим аккаунтом. Ну ок, будем юзать в Cursor.
👍1🍌1
Нашел способ как изменить страну Google-аккаунта, чтобы Antigravity не ругался, что в вашей стране этот продукт не доступен.
Способ
Заходите по ссылке и меняете страну https://policies.google.com/country-association-form
Я указал в причинах
Вечером подал заявку - утром уже сменили. Менял с включенным VPN.
Входил в Antigravity с включенным VPN.
Пользуйтесь, ваш @pavlenkodev 🙂
Способ
Я указал в причинах
I work or study in a different region from where I liveВечером подал заявку - утром уже сменили. Менял с включенным VPN.
Входил в Antigravity с включенным VPN.
Пользуйтесь, ваш @pavlenkodev 🙂
👍8
Я тут обычно не публикую новости, связанные с Giga.Chat, но сегодня они порадовали - молодцы ребята!
Яндекс, твой ход!
Яндекс, твой ход!
Telegram
GigaChat
🔥МЫ ПРЕДСТАВЛЯЕМ КРУПНЕЙШИЙ OPEN-SOURCE AI В ЕВРОПЕ 🔥
Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей
Что появилось в открытом доступе ↓
🔷 GigaChat Ultra Preview…
Мы стремимся не замыкаться в «закрытой» технологии, а строить открытую платформу для всей страны, поэтому мы публикуем веса наших моделей
Что появилось в открытом доступе ↓
🔷 GigaChat Ultra Preview…
👍2🔥1🍌1
У меня в ChatGPT прописан кастомный системный промпт и один из нюансов, что в начале он должен сымитировать лучшего специалиста в конкретной предметной области. И каждый раз это шедевр 😆😆😆
Промпт подсмотрел у Ширяева
👍2
Пока корпорации меряются закрытыми "черными ящиками", Allen Institute for AI (Ai2) пошли другим путем. Они выкатили Olmo 3 — и это, пожалуй, самый прозрачный релиз за последнее время.
В паблик выложили абсолютно всё "мясо":
1. Веса и чекпоинты (само собой).
2. Датасеты (Dolma — микс из кода, книг и статей).
3. Логи и инструменты (вплоть до утилит очистки данных Paloma).
Сама модель "тащит" программирование и математику, умеет работать с длинным контекстом. Для энтузиастов подготовили легкую версию на 7B, а для сложных задач — модель с chain-of-thought рассуждениями.
Если хотели посмотреть, как на самом деле выглядят внутренности современной LLM — это оно.
👉 Ссылка на проект: https://allenai.org/olmo
#Ai2 #Olmo #Dev #TechNews
@pavlenkodev
В паблик выложили абсолютно всё "мясо":
1. Веса и чекпоинты (само собой).
2. Датасеты (Dolma — микс из кода, книг и статей).
3. Логи и инструменты (вплоть до утилит очистки данных Paloma).
Сама модель "тащит" программирование и математику, умеет работать с длинным контекстом. Для энтузиастов подготовили легкую версию на 7B, а для сложных задач — модель с chain-of-thought рассуждениями.
Если хотели посмотреть, как на самом деле выглядят внутренности современной LLM — это оно.
👉 Ссылка на проект: https://allenai.org/olmo
#Ai2 #Olmo #Dev #TechNews
@pavlenkodev
🔥2👍1
24 ноября администрация Дональда Трампа запустила инициативу Genesis Mission — по сути «манхэттенский проект» в области искусственного интеллекта для науки и технологий США. Ее цель — радикально ускорить научные открытия с помощью больших моделей и ИИ‑агентов, работающих на объединённых федеральных датасетах и суперкомпьютерах Министерства энергетики (DOE).
Genesis Mission должна одновременно усилить научный прогресс, военную и экономическую мощь США, энергетическое лидерство и отдачу от многолетних вложений в НИОКР.
Ключевая инфраструктура: American Science and Security Platform
В центре инициативы — American Science and Security Platform: единая национальная платформа, на которой собираются вычисления, данные и модели для всего проекта.
Платформа включает суперкомпьютеры национальных лабораторий DOE, закрытые облачные окружения для тренировки и инференса, библиотеки ИИ‑агентов, симуляционные и оптимизационные инструменты, а также доменные foundation‑модели по разным областям науки.
Особый акцент делается на безопасном доступе к данным: от закрытых федеральных наборов до открытых и синтетических датасетов, с соблюдением требований по секретности, приватности, IP и кибербезопасности.
Сроки и организационная структура
За реализацию отвечает министр энергетики США, который должен собрать все ресурсы DOE в единую защищённую платформу и может назначить отдельного политического куратора для операционного управления.
В течение первых 90–270 дней DOE обязан инвентаризировать вычислительные ресурсы, собрать стартовый пул данных и моделей, описать планы интеграции внешних датасетов и показать хотя бы одну «инициальную работоспособность» платформы по одному из приоритетных челленджей.
Общим политическим руководством занимается помощник президента по науке и технологиям (APST) через Национальный совет по науке и технологиям (NSTC), который обеспечивает выравнивание Genesis Mission с общенациональными приоритетами.
Приоритетные научные задачи
В течение 60 дней министр энергетики должен предложить минимум 20 научно‑технологических задач национального уровня, которые потенциально можно решать через Genesis Mission.
Базовые домены уже заданы: передовое производство, биотехнологии, критические материалы, ядерная энергия (деление и синтез), квантовые технологии, полупроводники и микроэлектроника.
Далее APST и NSTC расширяют и финализируют этот список, после чего все вовлечённые агентства обязаны использовать платформу для R&D по этим челленджам, регулярно пересматривая перечень задач раз в год.
Экосистема партнёрств и кадровый контур
Genesis Mission предполагает плотную координацию федеральных агентств, выравнивание их ИИ‑программ и датасетов, запуск совместных грантов и призовых конкурсов для привлечения бизнеса к ИИ‑ускоренным исследованиям.
Параллельно создаются программы стажировок, стипендий и apprenticeship в национальных лабораториях, чтобы выращивать новое поколение исследователей, умеющих работать с ИИ‑платформой.
DOE вместе с Белым домом формирует типовые рамки сотрудничества с частными компаниями и университетами: договоры по совместным разработкам, обмену данными и моделями, лицензированию и защите коммерческой тайны, плюс жёсткие требования к кибербезопасности и проверке партнёров.
Метрики успеха и политический контекст
Министр энергетики обязан раз в год отчитываться перед президентом о статусе платформы, уровне интеграции лабораторий, вовлечённости пользователей, научных результатах, прототипах технологий и коммерциализации, а также о состоянии публично‑частных партнёрств.
Юридически указ подчёркивает, что не создаёт новых прав для частных лиц и реализуется только в рамках существующих законов и доступных бюджетных ассигнований; расходы на публикацию документа напрямую возлагаются на DOE.
В сухом остатке Genesis Mission — это попытка централизованно собрать все вычисления, данные и ИИ‑компетенции федерального уровня в одну «операционную систему науки», заточенную под ускоренный прогресс в стратегических отраслях и сохранение технологического лидерства США.
#ai #гонкавооружений
@pavlenkodev
Genesis Mission должна одновременно усилить научный прогресс, военную и экономическую мощь США, энергетическое лидерство и отдачу от многолетних вложений в НИОКР.
Ключевая инфраструктура: American Science and Security Platform
В центре инициативы — American Science and Security Platform: единая национальная платформа, на которой собираются вычисления, данные и модели для всего проекта.
Платформа включает суперкомпьютеры национальных лабораторий DOE, закрытые облачные окружения для тренировки и инференса, библиотеки ИИ‑агентов, симуляционные и оптимизационные инструменты, а также доменные foundation‑модели по разным областям науки.
Особый акцент делается на безопасном доступе к данным: от закрытых федеральных наборов до открытых и синтетических датасетов, с соблюдением требований по секретности, приватности, IP и кибербезопасности.
Сроки и организационная структура
За реализацию отвечает министр энергетики США, который должен собрать все ресурсы DOE в единую защищённую платформу и может назначить отдельного политического куратора для операционного управления.
В течение первых 90–270 дней DOE обязан инвентаризировать вычислительные ресурсы, собрать стартовый пул данных и моделей, описать планы интеграции внешних датасетов и показать хотя бы одну «инициальную работоспособность» платформы по одному из приоритетных челленджей.
Общим политическим руководством занимается помощник президента по науке и технологиям (APST) через Национальный совет по науке и технологиям (NSTC), который обеспечивает выравнивание Genesis Mission с общенациональными приоритетами.
Приоритетные научные задачи
В течение 60 дней министр энергетики должен предложить минимум 20 научно‑технологических задач национального уровня, которые потенциально можно решать через Genesis Mission.
Базовые домены уже заданы: передовое производство, биотехнологии, критические материалы, ядерная энергия (деление и синтез), квантовые технологии, полупроводники и микроэлектроника.
Далее APST и NSTC расширяют и финализируют этот список, после чего все вовлечённые агентства обязаны использовать платформу для R&D по этим челленджам, регулярно пересматривая перечень задач раз в год.
Экосистема партнёрств и кадровый контур
Genesis Mission предполагает плотную координацию федеральных агентств, выравнивание их ИИ‑программ и датасетов, запуск совместных грантов и призовых конкурсов для привлечения бизнеса к ИИ‑ускоренным исследованиям.
Параллельно создаются программы стажировок, стипендий и apprenticeship в национальных лабораториях, чтобы выращивать новое поколение исследователей, умеющих работать с ИИ‑платформой.
DOE вместе с Белым домом формирует типовые рамки сотрудничества с частными компаниями и университетами: договоры по совместным разработкам, обмену данными и моделями, лицензированию и защите коммерческой тайны, плюс жёсткие требования к кибербезопасности и проверке партнёров.
Метрики успеха и политический контекст
Министр энергетики обязан раз в год отчитываться перед президентом о статусе платформы, уровне интеграции лабораторий, вовлечённости пользователей, научных результатах, прототипах технологий и коммерциализации, а также о состоянии публично‑частных партнёрств.
Юридически указ подчёркивает, что не создаёт новых прав для частных лиц и реализуется только в рамках существующих законов и доступных бюджетных ассигнований; расходы на публикацию документа напрямую возлагаются на DOE.
В сухом остатке Genesis Mission — это попытка централизованно собрать все вычисления, данные и ИИ‑компетенции федерального уровня в одну «операционную систему науки», заточенную под ускоренный прогресс в стратегических отраслях и сохранение технологического лидерства США.
#ai #гонкавооружений
@pavlenkodev
👍3
🤖 Magentic-UI: открытый человеко-центричный веб-агент от Microsoft
Microsoft Research выпустила Magentic-UI — исследовательский прототип многоагентной системы для автоматизации сложных веб-задач с обязательным участием человека. Проект open-source под MIT-лицензией.
🎯 Что это умеет
Веб-автоматизация: навигация по сайтам, заполнение форм, скрэйпинг данных — всё как в других web-агентах, но с философией *человек в центре*.
Анализ данных & код: генерирует и запускает Python/shell-код в Docker, строит графики, обрабатывает файлы.
Долгие мониторинговые задачи: новая фишка — SentinelStep ("Tell me when"). Агент может мониторить событие часами/днями, автоматически подстраивая частоту запросов и не сжигая токены на пустые проверки. Например: ждёт, когда цена на билет упадёт ниже X, звезды на GitHub достигнут N, или придёт срочное сообщение.
MCP-интеграции: подключайте специализированные MCP-сервера (AirBnB, GitHub и т.п.) прямо в UI.
👥 Главное отличие: Human-in-the-Loop
В отличие от чёрных ящиков вроде Devin AI, Magentic-UI делает ставку на прозрачность и контроль:
Co-Planning: агент строит пошаговый план, вы его редактируете и одобряете.
Co-Tasking: во время выполнения видите каждый шаг, можете приостановить или взять управление браузером.
Action Guards: опасные действия требуют явного подтверждения.
Plan Learning: сохраняет успешные планы и переиспользует для похожих задач.
GitHub проекта: https://github.com/microsoft/magentic-ui
Microsoft Research выпустила Magentic-UI — исследовательский прототип многоагентной системы для автоматизации сложных веб-задач с обязательным участием человека. Проект open-source под MIT-лицензией.
🎯 Что это умеет
Веб-автоматизация: навигация по сайтам, заполнение форм, скрэйпинг данных — всё как в других web-агентах, но с философией *человек в центре*.
Анализ данных & код: генерирует и запускает Python/shell-код в Docker, строит графики, обрабатывает файлы.
Долгие мониторинговые задачи: новая фишка — SentinelStep ("Tell me when"). Агент может мониторить событие часами/днями, автоматически подстраивая частоту запросов и не сжигая токены на пустые проверки. Например: ждёт, когда цена на билет упадёт ниже X, звезды на GitHub достигнут N, или придёт срочное сообщение.
MCP-интеграции: подключайте специализированные MCP-сервера (AirBnB, GitHub и т.п.) прямо в UI.
👥 Главное отличие: Human-in-the-Loop
В отличие от чёрных ящиков вроде Devin AI, Magentic-UI делает ставку на прозрачность и контроль:
Co-Planning: агент строит пошаговый план, вы его редактируете и одобряете.
Co-Tasking: во время выполнения видите каждый шаг, можете приостановить или взять управление браузером.
Action Guards: опасные действия требуют явного подтверждения.
Plan Learning: сохраняет успешные планы и переиспользует для похожих задач.
GitHub проекта: https://github.com/microsoft/magentic-ui
👍1
Anthropic объявила о покупке JavaScript‑рантайма Bun.sh, чтобы ускорить развитие своего агентного инструмента для разработчиков Claude Code и улучшить его производительность и стабильность.
В рамках сделки Bun, сочетающий рантайм, пакетный менеджер, бандлер и тест‑раннер, остаётся открытым и распространяется по лицензии MIT, а Anthropic планирует дальше инвестировать в него как в основной инструмент для JavaScript‑ и TypeScript‑разработчиков. Claude Code за шесть месяцев с момента общей доступности в мае 2025 года вышел на годовую выручку в 1 млрд долларов и уже используется такими компаниями, как Netflix, Spotify, KPMG, L’Oreal и Salesforce. В Anthropic подчёркивают, что интеграция команды Bun позволит строить инфраструктуру для следующего поколения ИИ‑помощников и закрепить позиции компании как лидера в enterprise‑AI, а разработчики получат более быстрые, надёжные и удобные инструменты для создания и тестирования приложений с активным использованием ИИ.
Что такое Bun.sh
Bun — это быстрая среда выполнения JavaScript/TypeScript, написанная на Zig, которая заменяет Node.js и объединяет рантайм, пакетный менеджер, бандлер и тест-раннер в одном бинарнике.
Где использовать
• Запуск серверов (HTTP/WebSocket) с Bun.serve() — быстрее Node.js в 4 раза по throughput.
• Установка пакетов ( bun install ) — до 33 раз быстрее npm/yarn за счёт глобального кэша и системных вызовов.
• Тестирование ( bun test ) — аналог Jest/Vitest, но быстрее.
• Сборка и транспиляция TS/JSX нативно, без доп. шагов.
• Работа с файлами/SQLite — чтение в 10 раз, запись в 3 раза быстрее Node.js.
Идеален для стартапов, AI-инструментов (как Claude Code) и dev-сред.
#ai #anthropic #claudecode
@pavlenkodev
В рамках сделки Bun, сочетающий рантайм, пакетный менеджер, бандлер и тест‑раннер, остаётся открытым и распространяется по лицензии MIT, а Anthropic планирует дальше инвестировать в него как в основной инструмент для JavaScript‑ и TypeScript‑разработчиков. Claude Code за шесть месяцев с момента общей доступности в мае 2025 года вышел на годовую выручку в 1 млрд долларов и уже используется такими компаниями, как Netflix, Spotify, KPMG, L’Oreal и Salesforce. В Anthropic подчёркивают, что интеграция команды Bun позволит строить инфраструктуру для следующего поколения ИИ‑помощников и закрепить позиции компании как лидера в enterprise‑AI, а разработчики получат более быстрые, надёжные и удобные инструменты для создания и тестирования приложений с активным использованием ИИ.
Что такое Bun.sh
Bun — это быстрая среда выполнения JavaScript/TypeScript, написанная на Zig, которая заменяет Node.js и объединяет рантайм, пакетный менеджер, бандлер и тест-раннер в одном бинарнике.
Где использовать
• Запуск серверов (HTTP/WebSocket) с Bun.serve() — быстрее Node.js в 4 раза по throughput.
• Установка пакетов ( bun install ) — до 33 раз быстрее npm/yarn за счёт глобального кэша и системных вызовов.
• Тестирование ( bun test ) — аналог Jest/Vitest, но быстрее.
• Сборка и транспиляция TS/JSX нативно, без доп. шагов.
• Работа с файлами/SQLite — чтение в 10 раз, запись в 3 раза быстрее Node.js.
Идеален для стартапов, AI-инструментов (как Claude Code) и dev-сред.
#ai #anthropic #claudecode
@pavlenkodev
👍1🔥1
Apple представила CLaRa-7B-Instruct — модель на базе Mistral-7B, которая объединяет поиск (retrieval) и генерацию текста в единую систему с встроенной семантической компрессией документов до 16× или даже 128× без потери точности. Вместо классического RAG (Retrieval-Augmented Generation), где сначала извлекаются большие куски текста, а потом модель их перечитывает, CLaRa переводит документы в компактные латентные представления (continuous latent space), оптимизируя всё одной функцией потерь.
Как это работает
Модель сжимает текст в семантически богатые векторы с помощью Semantic Compression Pipeline (SCP), что позволяет хранить огромные базы знаний компактно. При запросе она извлекает и генерирует ответ напрямую из этих сжатых данных, без дискретного top-k отбора, пропуская градиенты между retrieval и generation. Код и модели открыты на GitHub (apple/ml-clara) и Hugging Face.
Преимущества над RAG
- Эффективность: Снижает память и задержки в 16 раз, идеально для GPU с малым объёмом VRAM или мобильных устройств; обходит PISCO и LLMLingua-2 по сжатию и качеству поиска.
- Точность: Лучше базовых RAG на QA-бенчмарках (single/multi-hop), превосходит даже full-text fine-tuned модели на Mistral-7B и Phi-4B.
- Единая оптимизация: Устраняет разрыв между retriever (cosine similarity) и generator (log-likelihood), повышая общую производительность.
Где применять
- RAG-системы для чат-ботов, QA над большими корпусами (Wikipedia, docs) с низкими ресурсами.
- On-device AI на смартфонах/ноутбуках (Apple Silicon), где важны приватность и скорость.
- Масштабные базы знаний: overlanding-гиды, техдокументы по авто, ML-туториалы — сжимайте в 128× и отвечайте мгновенно.
#ai #apple #rag #llm
@pavlenkodev
Как это работает
Модель сжимает текст в семантически богатые векторы с помощью Semantic Compression Pipeline (SCP), что позволяет хранить огромные базы знаний компактно. При запросе она извлекает и генерирует ответ напрямую из этих сжатых данных, без дискретного top-k отбора, пропуская градиенты между retrieval и generation. Код и модели открыты на GitHub (apple/ml-clara) и Hugging Face.
Преимущества над RAG
- Эффективность: Снижает память и задержки в 16 раз, идеально для GPU с малым объёмом VRAM или мобильных устройств; обходит PISCO и LLMLingua-2 по сжатию и качеству поиска.
- Точность: Лучше базовых RAG на QA-бенчмарках (single/multi-hop), превосходит даже full-text fine-tuned модели на Mistral-7B и Phi-4B.
- Единая оптимизация: Устраняет разрыв между retriever (cosine similarity) и generator (log-likelihood), повышая общую производительность.
Где применять
- RAG-системы для чат-ботов, QA над большими корпусами (Wikipedia, docs) с низкими ресурсами.
- On-device AI на смартфонах/ноутбуках (Apple Silicon), где важны приватность и скорость.
- Масштабные базы знаний: overlanding-гиды, техдокументы по авто, ML-туториалы — сжимайте в 128× и отвечайте мгновенно.
#ai #apple #rag #llm
@pavlenkodev
🔥4👍1
Google запустил Advent of Agents 2025 — 25-дневный адвент-календарь с туториалами по разработке AI-агентов. Каждый день до 25 декабря на https://adventofagents.com/ выходит короткий гайд (5 минут чтения) с примерами на Gemini 3, Agent Development Kit (ADK) на Python и Vertex AI.
Первая "карточка" уже вышла: агент на Gemini за 5 строк YAML — просто и красиво, можно повторить локально без Google Cloud. В программе контекстная инженерия, Computer Use и деплой до production-ready. ADK работает независимо, но курс заточен под экосистему Google (Vertex AI может быть недоступен в РФ).
Идеально для быстрой прокачки скиллов в разработке агентов.
#Gemini #ADK #AIагенты #aiagents
@pavlenkodev
Первая "карточка" уже вышла: агент на Gemini за 5 строк YAML — просто и красиво, можно повторить локально без Google Cloud. В программе контекстная инженерия, Computer Use и деплой до production-ready. ADK работает независимо, но курс заточен под экосистему Google (Vertex AI может быть недоступен в РФ).
Идеально для быстрой прокачки скиллов в разработке агентов.
#Gemini #ADK #AIагенты #aiagents
@pavlenkodev
🔥1
🔬 Прочитал свежий whitepaper от Google "Introduction to Agents" (ноябрь 2025) — делюсь главным
Google выкатили 54-страничный гайд по агентным системам. Не маркетинг, а архитектурный документ для тех, кто строит production-решения. Разобрал — рассказываю, что важно.
Что такое агент по версии Google
Формула простая: Модель + Инструменты + Оркестрация + Деплой = Агент.
Ключевое отличие от обычного ChatGPT: агент сам определяет следующий шаг. Не ждёт, пока ты напишешь "а теперь сделай вот это". Получил цель → спланировал → выполнил → проверил результат → повторил.
Цикл работы: Think → Act → Observe. И так по кругу, пока задача не решена.
5 уровней зрелости агентов
Google предлагает таксономию — полезно для понимания, что вы реально строите:
🔹 Level 0 — голая LLM, никаких инструментов
🔹 Level 1 — LLM + инструменты (поиск, API, базы)
🔹 Level 2 — многошаговое планирование, контекстная инженерия
🔹 Level 3 — команда агентов с делегированием задач
🔹 Level 4 — агент сам создаёт новые инструменты и агентов
Большинство текущих решений на рынке — Level 1, максимум Level 2. До Level 3-4 дошли единицы.
Архитектура: три кита
1️⃣ Model ("Мозг") — выбирайте не по бенчмаркам, а по задаче. Можно комбинировать: мощная модель для планирования, дешёвая для рутины.
2️⃣ Tools ("Руки") — RAG, API, генерация кода, Human-in-the-Loop. Подключение через OpenAPI или новый стандарт MCP.
3️⃣ Orchestration ("Нервная система") — управление циклом, память (короткая и длинная), системный промпт как "конституция" агента.
Что меня зацепило
📌 Смена парадигмы разработки. Цитата: "Разработчик агентов — уже не каменщик, а режиссёр". Ты не пишешь код для каждого шага. Ты задаёшь сцену, выбираешь актёров (инструменты), обеспечиваешь контекст. И направляешь автономного исполнителя.
📌 Agent Ops как новая дисциплина. Классические unit-тесты не работают —
📌 Безопасность переосмыслена. Агент — это не пользователь и не сервис. Это третий тип principal с делегированными полномочиями. Требует отдельной модели identity, политик доступа, guardrails в коде.
📌 A2A протокол. Agent-to-Agent — открытый стандарт для взаимодействия агентов между собой. Agent Card как "визитка" с описанием возможностей. Это заявка на экосистему.
Мои выводы для практики
1. Начинать с Level 1-2 — подключить инструменты к LLM, отработать цикл Think-Act-Observe. Не прыгать сразу в мультиагентность.
2. Инвестировать в оценку — без автоматизированных eval-датасетов вы слепы. Каждый баг от пользователя = новый тест-кейс.
3. Думать про governance сразу — когда агентов станет много, нужен централизованный gateway. Иначе получите "agent sprawl" — хаос из несвязанных ботов.
4. Следить за MCP и A2A — это становится стандартом. Anthropic, Google, OpenAI движутся в одном направлении.
Что дальше
Google обещает ещё 4 whitepaper в серии: по инструментам, памяти, качеству и безопасности агентов. Буду разбирать по мере выхода.
Документ рекомендую всем, кто серьёзно занимается агентами — не хайпом, а инженерией. Это не "5 промптов для ChatGPT", это архитектурный фреймворк.
Ссылка на PDF
P.S. Сейчас на очереди ресёрч похожего по тематике whitepaper от ByteDance, объёмом в 300 страниц.
#ai #AIагенты #aiagents
@pavlenkodev
Google выкатили 54-страничный гайд по агентным системам. Не маркетинг, а архитектурный документ для тех, кто строит production-решения. Разобрал — рассказываю, что важно.
Что такое агент по версии Google
Формула простая: Модель + Инструменты + Оркестрация + Деплой = Агент.
Ключевое отличие от обычного ChatGPT: агент сам определяет следующий шаг. Не ждёт, пока ты напишешь "а теперь сделай вот это". Получил цель → спланировал → выполнил → проверил результат → повторил.
Цикл работы: Think → Act → Observe. И так по кругу, пока задача не решена.
5 уровней зрелости агентов
Google предлагает таксономию — полезно для понимания, что вы реально строите:
🔹 Level 0 — голая LLM, никаких инструментов
🔹 Level 1 — LLM + инструменты (поиск, API, базы)
🔹 Level 2 — многошаговое планирование, контекстная инженерия
🔹 Level 3 — команда агентов с делегированием задач
🔹 Level 4 — агент сам создаёт новые инструменты и агентов
Большинство текущих решений на рынке — Level 1, максимум Level 2. До Level 3-4 дошли единицы.
Архитектура: три кита
1️⃣ Model ("Мозг") — выбирайте не по бенчмаркам, а по задаче. Можно комбинировать: мощная модель для планирования, дешёвая для рутины.
2️⃣ Tools ("Руки") — RAG, API, генерация кода, Human-in-the-Loop. Подключение через OpenAPI или новый стандарт MCP.
3️⃣ Orchestration ("Нервная система") — управление циклом, память (короткая и длинная), системный промпт как "конституция" агента.
Что меня зацепило
📌 Смена парадигмы разработки. Цитата: "Разработчик агентов — уже не каменщик, а режиссёр". Ты не пишешь код для каждого шага. Ты задаёшь сцену, выбираешь актёров (инструменты), обеспечиваешь контекст. И направляешь автономного исполнителя.
📌 Agent Ops как новая дисциплина. Классические unit-тесты не работают —
assert output == expected бессмысленно для генеративного AI. Нужны: LLM-as-Judge, golden datasets, метрики бизнес-влияния, трейсы через OpenTelemetry.📌 Безопасность переосмыслена. Агент — это не пользователь и не сервис. Это третий тип principal с делегированными полномочиями. Требует отдельной модели identity, политик доступа, guardrails в коде.
📌 A2A протокол. Agent-to-Agent — открытый стандарт для взаимодействия агентов между собой. Agent Card как "визитка" с описанием возможностей. Это заявка на экосистему.
Мои выводы для практики
1. Начинать с Level 1-2 — подключить инструменты к LLM, отработать цикл Think-Act-Observe. Не прыгать сразу в мультиагентность.
2. Инвестировать в оценку — без автоматизированных eval-датасетов вы слепы. Каждый баг от пользователя = новый тест-кейс.
3. Думать про governance сразу — когда агентов станет много, нужен централизованный gateway. Иначе получите "agent sprawl" — хаос из несвязанных ботов.
4. Следить за MCP и A2A — это становится стандартом. Anthropic, Google, OpenAI движутся в одном направлении.
Что дальше
Google обещает ещё 4 whitepaper в серии: по инструментам, памяти, качеству и безопасности агентов. Буду разбирать по мере выхода.
Документ рекомендую всем, кто серьёзно занимается агентами — не хайпом, а инженерией. Это не "5 промптов для ChatGPT", это архитектурный фреймворк.
Ссылка на PDF
#ai #AIагенты #aiagents
@pavlenkodev
👍3
Сегодня потратил 4 часа работы в Cursor, пытаясь внести правки в проект и добавить новые фичи. Использовал бесплатную (до 11 декабря) модель GPT-5-Codex-Max-High (с неймингом у ребят в OpenAI явно проблемки). Также иногда Курсор незаметно переключался в режим Auto. Другие платные модели в Курсоре мне не доступны, так как исчерпал свои лимиты. И по ощущениям модели в Курсоре вели себя как очень очень тупые: плодили лишний код, не проверяли текущее состояние проекта, плохо следовали промпту, ленились в буквальном смысле слова (например модель составляла себе план на 5 шагов, а делала 1 шаг и про остальные забывала).
В итоге я плюнул и открыл проект в Claude Code. Он нашел проблему и все поправил за 20 минут.
У меня всё.
В итоге я плюнул и открыл проект в Claude Code. Он нашел проблему и все поправил за 20 минут.
У меня всё.
🔥5👍3🍌1🏆1
🚀 Mistral AI выпустила Devstral 2 и Mistral Vibe CLI — новый лидер в открытых моделях для кодинга!
Mistral AI анонсировала семейство моделей Devstral 2: флагманскую Devstral 2 (123B параметров, modified MIT) и компактную Devstral Small 2 (24B, Apache 2.0). Они лидируют среди открытых моделей на SWE-bench Verified — 72.2% и 68.0% соответственно, обходя конкурентов вроде DeepSeek V3.2 по эффективности (в 5–41 раз меньше параметров). Модели поддерживают 256K контекст, идеальны для агентных задач: анализ кодбейсов, фикс багов, рефакторинг нескольких файлов.
Mistral Vibe CLI — это open-source (Apache 2.0) терминал-агент на базе Devstral. Автономно решает задачи: сканирует проект, редактирует файлы, интегрируется с Git, поддерживает @-ссылки на файлы, !команды shell и slash-команды. Работает в терминале или IDE (Zed extension), с автокомплитом, историей и конфигом в toml.
Devstral 2 бесплатно в API (позже $0.40/$2.00/M токенов), Small 2 — $0.10/$0.30. Деплой: Devstral на 4x H100, Small на consumer GPU/CPU. Установка Vibe:
Подробнее: https://mistral.ai/news/devstral-2-vibe-cli. Идеально для DevOps, AI-агентов и локальных setup'ов — попробуйте в своих проектах!🔥
Mistral AI анонсировала семейство моделей Devstral 2: флагманскую Devstral 2 (123B параметров, modified MIT) и компактную Devstral Small 2 (24B, Apache 2.0). Они лидируют среди открытых моделей на SWE-bench Verified — 72.2% и 68.0% соответственно, обходя конкурентов вроде DeepSeek V3.2 по эффективности (в 5–41 раз меньше параметров). Модели поддерживают 256K контекст, идеальны для агентных задач: анализ кодбейсов, фикс багов, рефакторинг нескольких файлов.
Mistral Vibe CLI — это open-source (Apache 2.0) терминал-агент на базе Devstral. Автономно решает задачи: сканирует проект, редактирует файлы, интегрируется с Git, поддерживает @-ссылки на файлы, !команды shell и slash-команды. Работает в терминале или IDE (Zed extension), с автокомплитом, историей и конфигом в toml.
Devstral 2 бесплатно в API (позже $0.40/$2.00/M токенов), Small 2 — $0.10/$0.30. Деплой: Devstral на 4x H100, Small на consumer GPU/CPU. Установка Vibe:
curl -sS https://ral.ai/vibe/install.sh | sh.Подробнее: https://mistral.ai/news/devstral-2-vibe-cli. Идеально для DevOps, AI-агентов и локальных setup'ов — попробуйте в своих проектах!
Please open Telegram to view this post
VIEW IN TELEGRAM
🍌1
Media is too big
VIEW IN TELEGRAM
🚀 Только я собрался отказаться от подписки на Cursor (в очередной раз), как они завезли визуальный редактор для Browser — теперь можно править интерфейс прямо на живом приложении, а код за вас дописывает агент.
Что умеет новый режим:
- Перетаскивать элементы по DOM как в конструкторе: менять порядок блоков, крутить секции, играться с гридом и флексами — а потом одним действием применить изменения к коду.
- Легко редактировать React-компоненты: в сайдбаре доступны пропсы и состояния, можно быстро щёлкать варианты одного и того же компонента.
- Тонко настраивать стили: цвета, типографика, сетки, флекс — всё через визуальные контролы, с живым превью.
- Point & prompt: кликаете по элементу и пишете «сделай больше», «покрась в красный», «поменяй местами» — несколько агентов параллельно вносят правки в UI и код.
Cursor явно двигается к миру, где дизайн и код сливаются в один слой, а интерфейс становится главным способом объяснить агентам, что вы хотите от продукта.
Ссылка на анонс и детали: https://cursor.com/blog/browser-visual-editor
Что умеет новый режим:
- Перетаскивать элементы по DOM как в конструкторе: менять порядок блоков, крутить секции, играться с гридом и флексами — а потом одним действием применить изменения к коду.
- Легко редактировать React-компоненты: в сайдбаре доступны пропсы и состояния, можно быстро щёлкать варианты одного и того же компонента.
- Тонко настраивать стили: цвета, типографика, сетки, флекс — всё через визуальные контролы, с живым превью.
- Point & prompt: кликаете по элементу и пишете «сделай больше», «покрась в красный», «поменяй местами» — несколько агентов параллельно вносят правки в UI и код.
Cursor явно двигается к миру, где дизайн и код сливаются в один слой, а интерфейс становится главным способом объяснить агентам, что вы хотите от продукта.
Ссылка на анонс и детали: https://cursor.com/blog/browser-visual-editor
🔥4👍2🤯1
Вы сейчас офигеете – я конкретно офигел! Есть такой железный грувбокс знаменитой шведской компании Elektron. Называется Model:Samples.
Вот так вот выглядит. Его уникальность в том, что компания Электрон придумала необычнный флоу работы с секвенцией - так называемые Parameter Locks, когда на каждый шаг в секвенции, на любой звучек, вы можете накрутить индивидуальные параметры эффектов - в итоге это дает большие возможности для творчества и риалтайм выступлений.
Некоторые из вас могли видеть такую коробочку в моих джемах.
И сижу я такой вечером и думаю, а что если повторить этот грувбокс софтверно. Написал ТЗ, навайбкодил прототип. А затем и все приложение - и это у меня заняло всего 5 часов.
Уникальность приложухи в том, что она работает в браузере на компе и свои проекты можно шэрить с кем угодно по короткой ссылке.
А завтра еще прикручу фичу на основе AI. Я ее назвал Structure Builder -> "Написал луп, застрял — как сделать трек?" жмакаем кнопочку "AI помоги" и он из лупа собирает полноценный трек, со структурой, где есть Интро, Куплет, Прехорус, яркий Припев, инструментальный Проигрыш, и Аутро. Ну а ты потом уже любую часть в треке можешь поправить.
Короче, все уже работает и можно попробовать в браузере на компе! 5 часов, Карл! Раньше такой проект я бы делал год, и не факт что сделал бы, потому что предметную область знаю плохо! А сейчас - 5 часов и готово! Боже храни вайбкодинг.
👉 https://berezka.makeitbeta.ru/
Вот так вот выглядит. Его уникальность в том, что компания Электрон придумала необычнный флоу работы с секвенцией - так называемые Parameter Locks, когда на каждый шаг в секвенции, на любой звучек, вы можете накрутить индивидуальные параметры эффектов - в итоге это дает большие возможности для творчества и риалтайм выступлений.
Некоторые из вас могли видеть такую коробочку в моих джемах.
И сижу я такой вечером и думаю, а что если повторить этот грувбокс софтверно. Написал ТЗ, навайбкодил прототип. А затем и все приложение - и это у меня заняло всего 5 часов.
Уникальность приложухи в том, что она работает в браузере на компе и свои проекты можно шэрить с кем угодно по короткой ссылке.
А завтра еще прикручу фичу на основе AI. Я ее назвал Structure Builder -> "Написал луп, застрял — как сделать трек?" жмакаем кнопочку "AI помоги" и он из лупа собирает полноценный трек, со структурой, где есть Интро, Куплет, Прехорус, яркий Припев, инструментальный Проигрыш, и Аутро. Ну а ты потом уже любую часть в треке можешь поправить.
Короче, все уже работает и можно попробовать в браузере на компе! 5 часов, Карл! Раньше такой проект я бы делал год, и не факт что сделал бы, потому что предметную область знаю плохо! А сейчас - 5 часов и готово! Боже храни вайбкодинг.
👉 https://berezka.makeitbeta.ru/
🔥12🍌2👍1🤯1
На Хабре вышел перевод статьи от OpenAI, как они за месяц навайбкодили приложение Sora для Android
Хабр
Как мы использовали Codex, чтобы запустить приложение Sora под Android за 28 дней четырьмя инженерами
Это статья из официального блога OpenAI, но подход меня так зацепил, что решил перевести для всех. Я тоже часто переношу веб-приложения на мобилки примерно таким же способом и было очень здорово...
👍1🍌1