Грязный ноукодер
ИИ-решения по вашим заявкам На прошлой неделе я спросил у подписчиков, что можно полезного построить на основе их идей. Было много разных вариантов, но большая часть слишком большие и сложные для реализации. Я, конечно же, выбрал самый простой и очевидный…
Приложение/автоматизация по вашему заказу
Продолжаем рубрику, в которой я сделаю автоматизацию/приложение любого типа на основе вашей простой идеи и отдам его вам в пользование и/или покажу как повторить за мной.
В прошлый раз удалось сделать для одного из подписчиков ИИ-агента для записи задач в календарь.
⬇️ Накидывайте идеи в комментариях - что болит, о чем давно мечтаете, за что не охото платить много денег и тд.
К примеру, последнее с чем ко мне обращались - парсинг ТГ каналов и групп с последующей переработкой материалов и постингом в своем канале.
Продолжаем рубрику, в которой я сделаю автоматизацию/приложение любого типа на основе вашей простой идеи и отдам его вам в пользование и/или покажу как повторить за мной.
В прошлый раз удалось сделать для одного из подписчиков ИИ-агента для записи задач в календарь.
⬇️ Накидывайте идеи в комментариях - что болит, о чем давно мечтаете, за что не охото платить много денег и тд.
К примеру, последнее с чем ко мне обращались - парсинг ТГ каналов и групп с последующей переработкой материалов и постингом в своем канале.
🔥7
Я наконец-то уговорил своих друзей сделать вечер презентаций, заранее сгенерировав набор странных интересных тем с Gemini, который справился на голову лучше, чем OpenAI.
Презентацию, конечно, лучше собирать самому, но я решил пройтись по нейронкам и посмотреть на что они способны.
Я попробовал ChatGPT, Genspark и Kimi slides.
Kimi сделал невероятную презентацию из картинок новой нано бананы - если вы делаете презентации, то это лучший инструмент.
Genspark собрал много информации из различных источников, много картинок и собрал это все в единое повествование.
ChatGPT собрал жалкую pptx презентацию из простых буллетов на каждом слайде.
Презентацию, конечно, лучше собирать самому, но я решил пройтись по нейронкам и посмотреть на что они способны.
Я попробовал ChatGPT, Genspark и Kimi slides.
Kimi сделал невероятную презентацию из картинок новой нано бананы - если вы делаете презентации, то это лучший инструмент.
Genspark собрал много информации из различных источников, много картинок и собрал это все в единое повествование.
ChatGPT собрал жалкую pptx презентацию из простых буллетов на каждом слайде.
🔥9⚡7❤2
Мини-лайфхак по n8n
В документации n8n почему-то не указан верный способ настройки прокси для HTTP запроса.
Чтобы оно работало и логинилось в ваше прокси по логину и паролю, нужно использовать такую строку:
Я использую прокси для парсинга ВБ, который плохо открывается с моего n8n с хостом в США.
Я беру прокси тут - https://proxy-seller.com/
⬇️ Напишите в комментариях, используете ли вы прокси и для каких случаев
___
Если хочешь научиться работать в n8n - вступай в наше сообщество
В документации n8n почему-то не указан верный способ настройки прокси для HTTP запроса.
Чтобы оно работало и логинилось в ваше прокси по логину и паролю, нужно использовать такую строку:
http://<username>:<password>@<ip>:<port>Я использую прокси для парсинга ВБ, который плохо открывается с моего n8n с хостом в США.
Я беру прокси тут - https://proxy-seller.com/
⬇️ Напишите в комментариях, используете ли вы прокси и для каких случаев
___
Если хочешь научиться работать в n8n - вступай в наше сообщество
👍5🔥5❤3
Обновление ноды OpenAI в n8n
Недавно в n8n наконец-то обновили ноду OpenAI и добавили туда множество функций, ранее недоступных, но существовавших в API.
1️⃣ Переход от Assistant API к Response API.
Если раньше вы могли указывать thread_id и ассистент общался в рамках одного треда, то теперь каждый ответ имеет свой response_id, который нужно записывать и использовать при следующем вызове ассистента, чтобы он “помнил” ветку диалога. Это значит, что каждый раз нужно дополнительно сохранять response_id и вызывать его из БД для указания в агенте.
2️⃣ Добавление Structured Output.
Ранее для использования SO приходилось брать HTTP ноду, теперь же функционал встроили в агента.
Советую ознакомиться с правилами SO для OpenAI - там много интересных фишек, к примеру опциональные значения и enum листы.
3️⃣ Добавление нативных тулов
Теперь можно выбрать, какими нативными тулами будет располагать агент - поиск по вебу, код-интерпретер, поиск по файлам.
К примеру, я использую в проекте встроенный поиск по вебу, чтобы найти информацию о ЛПР компании.
___
Если вы хочешь узнать больше про работу с ИИ в n8n - пройди наш курс в сообществе
Недавно в n8n наконец-то обновили ноду OpenAI и добавили туда множество функций, ранее недоступных, но существовавших в API.
1️⃣ Переход от Assistant API к Response API.
Если раньше вы могли указывать thread_id и ассистент общался в рамках одного треда, то теперь каждый ответ имеет свой response_id, который нужно записывать и использовать при следующем вызове ассистента, чтобы он “помнил” ветку диалога. Это значит, что каждый раз нужно дополнительно сохранять response_id и вызывать его из БД для указания в агенте.
2️⃣ Добавление Structured Output.
Ранее для использования SO приходилось брать HTTP ноду, теперь же функционал встроили в агента.
Советую ознакомиться с правилами SO для OpenAI - там много интересных фишек, к примеру опциональные значения и enum листы.
3️⃣ Добавление нативных тулов
Теперь можно выбрать, какими нативными тулами будет располагать агент - поиск по вебу, код-интерпретер, поиск по файлам.
К примеру, я использую в проекте встроенный поиск по вебу, чтобы найти информацию о ЛПР компании.
___
Если вы хочешь узнать больше про работу с ИИ в n8n - пройди наш курс в сообществе
🔥6👍4
Еще один полезный трюк для n8n
Бывает, нужно получить прямую ссылку на файл, чтобы передать его в другой сервис - например, для генерации контента.
Проблема: файл лежит там, где нет прямых публичных ссылок, как в том же Google Drive.
Да, у Google Drive есть ссылки на файлы, но чтобы они работали без авторизации, нужно расшаривать каждый файл. Утомительно и небезопасно.
Есть решение намного проще - отдавать файл через вебхук n8n, без всякого шеринга.
Как сделать:
1️⃣ Создаёшь workflow с Webhook Trigger.
2️⃣ Из query-параметра берёшь id нужного файла.
3️⃣ Достаёшь этот файл из Google Drive.
4️⃣ Возвращаешь файл прямо через ответ вебхука.
Теперь, чтобы получить файл, достаточно перейти по ссылке вида:
И n8n сам отдаст нужный файл.
Фишка в том, что так можно работать не только с Google Drive - этим способом можно доставать файлы из любых источников и не хранить их во временных хранилищах.
___
Если хочешь узнать больше про n8n - пройди наш курс в сообществе
Бывает, нужно получить прямую ссылку на файл, чтобы передать его в другой сервис - например, для генерации контента.
Проблема: файл лежит там, где нет прямых публичных ссылок, как в том же Google Drive.
Да, у Google Drive есть ссылки на файлы, но чтобы они работали без авторизации, нужно расшаривать каждый файл. Утомительно и небезопасно.
Есть решение намного проще - отдавать файл через вебхук n8n, без всякого шеринга.
Как сделать:
1️⃣ Создаёшь workflow с Webhook Trigger.
2️⃣ Из query-параметра берёшь id нужного файла.
3️⃣ Достаёшь этот файл из Google Drive.
4️⃣ Возвращаешь файл прямо через ответ вебхука.
Теперь, чтобы получить файл, достаточно перейти по ссылке вида:
http://n8n.domain.com/webhook/123456?id=<google_drive_id>И n8n сам отдаст нужный файл.
Фишка в том, что так можно работать не только с Google Drive - этим способом можно доставать файлы из любых источников и не хранить их во временных хранилищах.
___
Если хочешь узнать больше про n8n - пройди наш курс в сообществе
🔥19😈2
Удаление субтитров на видео
На днях ко мне пришли с интересной задачей - удалить с оригинального видео субтитры на английском, наложить российскую озвучку и субтитры.
С озвучкой и субтитрами все просто - используем Elevenlabs и Zapcup/Captions/любой другой инструмент.
Но вот с удалением субтитров пришлось попотеть - в интернете практически невозможно найти умный ИИ инструмент для удаления захардкоженных субтитров по API.
Я все же нашел - https://a2e.ai/
Отлично удаляет субтитры, но может зацепить и другой текст с видео.
Знаете ли вы другие подходы к этой задаче? Покадрово перерисовывать с нанобананой?
___
Больше интересных лайфхаков и курс по контент-заводу скоро в нашем сообществе
На днях ко мне пришли с интересной задачей - удалить с оригинального видео субтитры на английском, наложить российскую озвучку и субтитры.
С озвучкой и субтитрами все просто - используем Elevenlabs и Zapcup/Captions/любой другой инструмент.
Но вот с удалением субтитров пришлось попотеть - в интернете практически невозможно найти умный ИИ инструмент для удаления захардкоженных субтитров по API.
Я все же нашел - https://a2e.ai/
Отлично удаляет субтитры, но может зацепить и другой текст с видео.
Знаете ли вы другие подходы к этой задаче? Покадрово перерисовывать с нанобананой?
___
Больше интересных лайфхаков и курс по контент-заводу скоро в нашем сообществе
🔥7👍4
Media is too big
VIEW IN TELEGRAM
Пока нечего рассказывать зацените рилз, который я сделал для бренда знакомого.
Однажды видео можно будет создавать силой мысли и я вернусь в эту стезю…
Однажды видео можно будет создавать силой мысли и я вернусь в эту стезю…
🔥12🤷♂4👎3
Курс по контент-заводам и создание субтитров
Мы финалим проект с контент-заводом, где получилось собрать универсальную махину для создания сотен единиц контента. Она уже дает ролики на десятки и сотни тысяч просмотров, а я начинаю потихоньку собирать в сообществе новый курс, в котором расскажу все, что узнал при реализации данного проекта.
Сегодня поговорим о субтитрах - я делаю их с помощью сервиса Zapcap.
Он позволяет накладывать субтитры разных форматов, менять стиль субтитров, расположение субтитров и умеет распознавать различные языки.
Процесс достаточно простой - нужно загрузить файл отдельным HTTP методом и далее создать задачу, статус которой нужно проверять пока не будет сгенерирован окончательный вариант.
Стоимость 30 секундного ролика выходит всего в пару центов.
А каким сервисом для субтитров пользуетесь вы?
____
Если хотите изучить этот и другие курсы - присоединяйтесь к сообществу
Мы финалим проект с контент-заводом, где получилось собрать универсальную махину для создания сотен единиц контента. Она уже дает ролики на десятки и сотни тысяч просмотров, а я начинаю потихоньку собирать в сообществе новый курс, в котором расскажу все, что узнал при реализации данного проекта.
Сегодня поговорим о субтитрах - я делаю их с помощью сервиса Zapcap.
Он позволяет накладывать субтитры разных форматов, менять стиль субтитров, расположение субтитров и умеет распознавать различные языки.
Процесс достаточно простой - нужно загрузить файл отдельным HTTP методом и далее создать задачу, статус которой нужно проверять пока не будет сгенерирован окончательный вариант.
Стоимость 30 секундного ролика выходит всего в пару центов.
А каким сервисом для субтитров пользуетесь вы?
____
Если хотите изучить этот и другие курсы - присоединяйтесь к сообществу
🔥5❤1
Вчера для клиента с одного промпта сделал интересную штуку для владельцев сайтов с мебелью - загружаем фото, выбираем что поменять (в нашем случае цвет столешницы) и на выходе получаем картинку с до/после.
При этом референс, с которого это было слизано, грузится долго и ломается, возможно сделан на серьезном коде😬
При этом референс, с которого это было слизано, грузится долго и ломается, возможно сделан на серьезном коде
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10🤷♂1❤1
Хакатон для ВШЭ
Совсем забыл написать, что на прошлых выходных провел хакатон для ВШЭ.
10 лет назад я мечтал поступить в ВШЭ, сначала на бакалавриат, потом думал идти на магистратуру, но судьба решила иначе.
Теперь я сам был преподавателем для магистрантов и закрыл некий гештальт по этому направлению.
Мы собрали около 50 человек и 15 команд, каждая из которых успела собрать работающее решение на стеке Bolt + Supabase + n8n (потому что Lovable вероломно перестал открываться за день до хакатона)
Наш 2-ух часовой хакатон по итогу вышел даже более живым и продуктивным, чем часовой хакатон хегай, на котором я был в жюри неделей ранее.
Это отличный пример того, что в наше время человек с минимальным техническим опытом может разработать MVP продукта в течении всего пары часов.
Может быть организовать свой хакатон или интенсив по контент-заводам, что думаете?
____
Если хотите изучить этот стэк - присоединяйтесь к сообществу
Совсем забыл написать, что на прошлых выходных провел хакатон для ВШЭ.
10 лет назад я мечтал поступить в ВШЭ, сначала на бакалавриат, потом думал идти на магистратуру, но судьба решила иначе.
Теперь я сам был преподавателем для магистрантов и закрыл некий гештальт по этому направлению.
Мы собрали около 50 человек и 15 команд, каждая из которых успела собрать работающее решение на стеке Bolt + Supabase + n8n (потому что Lovable вероломно перестал открываться за день до хакатона)
Наш 2-ух часовой хакатон по итогу вышел даже более живым и продуктивным, чем часовой хакатон хегай, на котором я был в жюри неделей ранее.
Это отличный пример того, что в наше время человек с минимальным техническим опытом может разработать MVP продукта в течении всего пары часов.
Может быть организовать свой хакатон или интенсив по контент-заводам, что думаете?
____
Если хотите изучить этот стэк - присоединяйтесь к сообществу
❤15👍7🔥1
Самообучающиеся агенты
На днях разбирал winning solution с конкурса ERC3 по построению ИИ-агентов. Парень выиграл с системой, где агенты сами себя улучшают - без человека.
Архитектура довольно простая: основной агент на Anthropic SDK с Claude Opus 4.5, все инструменты описаны в одном файле, динамические HTTP-запросы к API бенчмарка. Ничего сложного.
Системный промпт собрал все правила из корпоративной вики в компактный алгоритм: проверить личность, верифицировать права, собрать данные, вернуть результат.
Но самое интересное - это три агента, которые работают в связке.
Первый агент запускает бенчмарк и решает задачи, логирует всё подряд. Второй анализирует логи проваленных задач и формулирует гипотезы, что пошло не так. Третий читает эти гипотезы, решает что внедрить и генерирует новую версию промпта.
Получается замкнутый цикл: прогнал бенчмарк → проанализировал ошибки → пропатчил промпт → повторил.
Финальный промпт, который пошел в продакшн, был 80-й генерацией. Он автоматически эволюционировал из базовой версии через десятки итераций, каждая из которых фиксила конкретные паттерны ошибок.
Никакого ручного prompt engineering. Просто агенты, улучшающие агентов.
Как вам такой подход? Пробовали что-то похожее?
На днях разбирал winning solution с конкурса ERC3 по построению ИИ-агентов. Парень выиграл с системой, где агенты сами себя улучшают - без человека.
Архитектура довольно простая: основной агент на Anthropic SDK с Claude Opus 4.5, все инструменты описаны в одном файле, динамические HTTP-запросы к API бенчмарка. Ничего сложного.
Системный промпт собрал все правила из корпоративной вики в компактный алгоритм: проверить личность, верифицировать права, собрать данные, вернуть результат.
Но самое интересное - это три агента, которые работают в связке.
Первый агент запускает бенчмарк и решает задачи, логирует всё подряд. Второй анализирует логи проваленных задач и формулирует гипотезы, что пошло не так. Третий читает эти гипотезы, решает что внедрить и генерирует новую версию промпта.
Получается замкнутый цикл: прогнал бенчмарк → проанализировал ошибки → пропатчил промпт → повторил.
Финальный промпт, который пошел в продакшн, был 80-й генерацией. Он автоматически эволюционировал из базовой версии через десятки итераций, каждая из которых фиксила конкретные паттерны ошибок.
Никакого ручного prompt engineering. Просто агенты, улучшающие агентов.
Как вам такой подход? Пробовали что-то похожее?
🔥19
Прочитали пост выше? А теперь самое интересное - я написал его с помощью самообучившегося ИИ-агента. ХА
В чем вообще фишка - когда вы просите улучшить что-то в ChatGPT, то он запоминает это лишь на ближайшее время, далее память сжимает все что было до короткого саммари.
Таким образом “обучение” ИИ-агента возможно через память, системный промпт или файнтюнинг. К файнтюнингу прибегают очень редко, а вот память и промпт являются по сути главным рычагом влияния на агента. При этом и память, и системный ромпт одно и то же - это инпут, который вы отправляете вместе со своим сообщением.
Системный промпт в итоге остается мозгом ИИ-агента и именно через его улучшение вы можете добиться более хороших результатов.
Поэтому так важны разработки самообучающихся агентов, которые могут улучшать свой промпт по ходу разговора.
Я решил собрать такого бота на n8n - это достаточно просто. Я вручил агенту инструмент, который является еще одним агентом для обработки изменений и обновления системного промпта.
Каждый раз, когда мне что-то не нравится, агент идет менять свой “мозг” и далее выдает более релевантные результаты “навсегда”, а не только насколько хватит ему памяти.
В итоге, используя систему с такими агентом, каждый ваш чат будет автоматически затачиваться под определенную задачу и самообучаться на вашей обратной связи.
Так и вышел предыдущий пост - сначала я скормил решение и попросил сделать пост, а далее дал обратную связь и пример моего поста, чтобы скорректировать формат. ИИ-агент скорректировал не только сам текст, но и свой промпт и теперь в следующий раз он будет писать как надо.
UPD: мини-гайд https://www.loom.com/share/4cb014a8894b4ab2b81755031e8020e6
____
Готовый шаблон уже в сообществе
В чем вообще фишка - когда вы просите улучшить что-то в ChatGPT, то он запоминает это лишь на ближайшее время, далее память сжимает все что было до короткого саммари.
Таким образом “обучение” ИИ-агента возможно через память, системный промпт или файнтюнинг. К файнтюнингу прибегают очень редко, а вот память и промпт являются по сути главным рычагом влияния на агента. При этом и память, и системный ромпт одно и то же - это инпут, который вы отправляете вместе со своим сообщением.
Системный промпт в итоге остается мозгом ИИ-агента и именно через его улучшение вы можете добиться более хороших результатов.
Поэтому так важны разработки самообучающихся агентов, которые могут улучшать свой промпт по ходу разговора.
Я решил собрать такого бота на n8n - это достаточно просто. Я вручил агенту инструмент, который является еще одним агентом для обработки изменений и обновления системного промпта.
Каждый раз, когда мне что-то не нравится, агент идет менять свой “мозг” и далее выдает более релевантные результаты “навсегда”, а не только насколько хватит ему памяти.
В итоге, используя систему с такими агентом, каждый ваш чат будет автоматически затачиваться под определенную задачу и самообучаться на вашей обратной связи.
Так и вышел предыдущий пост - сначала я скормил решение и попросил сделать пост, а далее дал обратную связь и пример моего поста, чтобы скорректировать формат. ИИ-агент скорректировал не только сам текст, но и свой промпт и теперь в следующий раз он будет писать как надо.
UPD: мини-гайд https://www.loom.com/share/4cb014a8894b4ab2b81755031e8020e6
____
Готовый шаблон уже в сообществе
6👍12🔥4❤2🗿1