Грязный ноукодер – Telegram
Грязный ноукодер
4.09K subscribers
179 photos
26 videos
8 files
235 links
Пишу про AI, no-code и бизнес процессы.
Сообщество - https://news.1rj.ru/str/tribute/app?startapp=sEs5
@low_code - для связи
Видео гайды - https://www.youtube.com/@dirty_nocoder
Download Telegram
Я наконец-то уговорил своих друзей сделать вечер презентаций, заранее сгенерировав набор странных интересных тем с Gemini, который справился на голову лучше, чем OpenAI.

Презентацию, конечно, лучше собирать самому, но я решил пройтись по нейронкам и посмотреть на что они способны.

Я попробовал ChatGPT, Genspark и Kimi slides.

Kimi сделал невероятную презентацию из картинок новой нано бананы - если вы делаете презентации, то это лучший инструмент.

Genspark собрал много информации из различных источников, много картинок и собрал это все в единое повествование.

ChatGPT собрал жалкую pptx презентацию из простых буллетов на каждом слайде.
🔥972
Мини-лайфхак по n8n

В документации n8n почему-то не указан верный способ настройки прокси для HTTP запроса.

Чтобы оно работало и логинилось в ваше прокси по логину и паролю, нужно использовать такую строку:

http://<username>:<password>@<ip>:<port>

Я использую прокси для парсинга ВБ, который плохо открывается с моего n8n с хостом в США.

Я беру прокси тут - https://proxy-seller.com/

⬇️ Напишите в комментариях, используете ли вы прокси и для каких случаев

___

Если хочешь научиться работать в n8n - вступай в наше сообщество
👍5🔥53
Обновление ноды OpenAI в n8n

Недавно в n8n наконец-то обновили ноду OpenAI и добавили туда множество функций, ранее недоступных, но существовавших в API.

1️⃣ Переход от Assistant API к Response API.

Если раньше вы могли указывать thread_id и ассистент общался в рамках одного треда, то теперь каждый ответ имеет свой response_id, который нужно записывать и использовать при следующем вызове ассистента, чтобы он “помнил” ветку диалога. Это значит, что каждый раз нужно дополнительно сохранять response_id и вызывать его из БД для указания в агенте.

2️⃣ Добавление Structured Output.

Ранее для использования SO приходилось брать HTTP ноду, теперь же функционал встроили в агента.
Советую ознакомиться с правилами SO для OpenAI - там много интересных фишек, к примеру опциональные значения и enum листы.

3️⃣ Добавление нативных тулов

Теперь можно выбрать, какими нативными тулами будет располагать агент - поиск по вебу, код-интерпретер, поиск по файлам.
К примеру, я использую в проекте встроенный поиск по вебу, чтобы найти информацию о ЛПР компании.

___

Если вы хочешь узнать больше про работу с ИИ в n8n - пройди наш курс в сообществе
🔥6👍4
Еще один полезный трюк для n8n

Бывает, нужно получить прямую ссылку на файл, чтобы передать его в другой сервис - например, для генерации контента.
Проблема: файл лежит там, где нет прямых публичных ссылок, как в том же Google Drive.

Да, у Google Drive есть ссылки на файлы, но чтобы они работали без авторизации, нужно расшаривать каждый файл. Утомительно и небезопасно.

Есть решение намного проще - отдавать файл через вебхук n8n, без всякого шеринга.

Как сделать:

1️⃣ Создаёшь workflow с Webhook Trigger.

2️⃣ Из query-параметра берёшь id нужного файла.

3️⃣ Достаёшь этот файл из Google Drive.

4️⃣ Возвращаешь файл прямо через ответ вебхука.

Теперь, чтобы получить файл, достаточно перейти по ссылке вида:
http://n8n.domain.com/webhook/123456?id=<google_drive_id>

И n8n сам отдаст нужный файл.

Фишка в том, что так можно работать не только с Google Drive - этим способом можно доставать файлы из любых источников и не хранить их во временных хранилищах.

___

Если хочешь узнать больше про n8n - пройди наш курс в сообществе
🔥19😈2
Удаление субтитров на видео

На днях ко мне пришли с интересной задачей - удалить с оригинального видео субтитры на английском, наложить российскую озвучку и субтитры.

С озвучкой и субтитрами все просто - используем Elevenlabs и Zapcup/Captions/любой другой инструмент.

Но вот с удалением субтитров пришлось попотеть - в интернете практически невозможно найти умный ИИ инструмент для удаления захардкоженных субтитров по API.

Я все же нашел - https://a2e.ai/

Отлично удаляет субтитры, но может зацепить и другой текст с видео.

Знаете ли вы другие подходы к этой задаче? Покадрово перерисовывать с нанобананой?
___

Больше интересных лайфхаков и курс по контент-заводу скоро в нашем сообществе
🔥7👍4
Media is too big
VIEW IN TELEGRAM
Пока нечего рассказывать зацените рилз, который я сделал для бренда знакомого.

Однажды видео можно будет создавать силой мысли и я вернусь в эту стезю…
🔥12🤷‍♂4👎3
Курс по контент-заводам и создание субтитров

Мы финалим проект с контент-заводом, где получилось собрать универсальную махину для создания сотен единиц контента. Она уже дает ролики на десятки и сотни тысяч просмотров, а я начинаю потихоньку собирать в сообществе новый курс, в котором расскажу все, что узнал при реализации данного проекта.

Сегодня поговорим о субтитрах - я делаю их с помощью сервиса Zapcap.

Он позволяет накладывать субтитры разных форматов, менять стиль субтитров, расположение субтитров и умеет распознавать различные языки.

Процесс достаточно простой - нужно загрузить файл отдельным HTTP методом и далее создать задачу, статус которой нужно проверять пока не будет сгенерирован окончательный вариант.

Стоимость 30 секундного ролика выходит всего в пару центов.

А каким сервисом для субтитров пользуетесь вы?

____

Если хотите изучить этот и другие курсы - присоединяйтесь к сообществу
🔥51
Вчера для клиента с одного промпта сделал интересную штуку для владельцев сайтов с мебелью - загружаем фото, выбираем что поменять (в нашем случае цвет столешницы) и на выходе получаем картинку с до/после.

При этом референс, с которого это было слизано, грузится долго и ломается, возможно сделан на серьезном коде 😬
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥10🤷‍♂11
Хакатон для ВШЭ

Совсем забыл написать, что на прошлых выходных провел хакатон для ВШЭ.

10 лет назад я мечтал поступить в ВШЭ, сначала на бакалавриат, потом думал идти на магистратуру, но судьба решила иначе.

Теперь я сам был преподавателем для магистрантов и закрыл некий гештальт по этому направлению.

Мы собрали около 50 человек и 15 команд, каждая из которых успела собрать работающее решение на стеке Bolt + Supabase + n8n (потому что Lovable вероломно перестал открываться за день до хакатона)

Наш 2-ух часовой хакатон по итогу вышел даже более живым и продуктивным, чем часовой хакатон хегай, на котором я был в жюри неделей ранее.

Это отличный пример того, что в наше время человек с минимальным техническим опытом может разработать MVP продукта в течении всего пары часов.

Может быть организовать свой хакатон или интенсив по контент-заводам, что думаете?
____

Если хотите изучить этот стэк - присоединяйтесь к сообществу
15👍7🔥1
Самообучающиеся агенты

На днях разбирал winning solution с конкурса ERC3 по построению ИИ-агентов. Парень выиграл с системой, где агенты сами себя улучшают - без человека.

Архитектура довольно простая: основной агент на Anthropic SDK с Claude Opus 4.5, все инструменты описаны в одном файле, динамические HTTP-запросы к API бенчмарка. Ничего сложного.

Системный промпт собрал все правила из корпоративной вики в компактный алгоритм: проверить личность, верифицировать права, собрать данные, вернуть результат.

Но самое интересное - это три агента, которые работают в связке.

Первый агент запускает бенчмарк и решает задачи, логирует всё подряд. Второй анализирует логи проваленных задач и формулирует гипотезы, что пошло не так. Третий читает эти гипотезы, решает что внедрить и генерирует новую версию промпта.

Получается замкнутый цикл: прогнал бенчмарк → проанализировал ошибки → пропатчил промпт → повторил.

Финальный промпт, который пошел в продакшн, был 80-й генерацией. Он автоматически эволюционировал из базовой версии через десятки итераций, каждая из которых фиксила конкретные паттерны ошибок.

Никакого ручного prompt engineering. Просто агенты, улучшающие агентов.

Как вам такой подход? Пробовали что-то похожее?
🔥19
Прочитали пост выше? А теперь самое интересное - я написал его с помощью самообучившегося ИИ-агента. ХА

В чем вообще фишка - когда вы просите улучшить что-то в ChatGPT, то он запоминает это лишь на ближайшее время, далее память сжимает все что было до короткого саммари.

Таким образом “обучение” ИИ-агента возможно через память, системный промпт или файнтюнинг. К файнтюнингу прибегают очень редко, а вот память и промпт являются по сути главным рычагом влияния на агента. При этом и память, и системный ромпт одно и то же - это инпут, который вы отправляете вместе со своим сообщением.

Системный промпт в итоге остается мозгом ИИ-агента и именно через его улучшение вы можете добиться более хороших результатов.

Поэтому так важны разработки самообучающихся агентов, которые могут улучшать свой промпт по ходу разговора.

Я решил собрать такого бота на n8n - это достаточно просто. Я вручил агенту инструмент, который является еще одним агентом для обработки изменений и обновления системного промпта.

Каждый раз, когда мне что-то не нравится, агент идет менять свой “мозг” и далее выдает более релевантные результаты “навсегда”, а не только насколько хватит ему памяти.

В итоге, используя систему с такими агентом, каждый ваш чат будет автоматически затачиваться под определенную задачу и самообучаться на вашей обратной связи.

Так и вышел предыдущий пост - сначала я скормил решение и попросил сделать пост, а далее дал обратную связь и пример моего поста, чтобы скорректировать формат. ИИ-агент скорректировал не только сам текст, но и свой промпт и теперь в следующий раз он будет писать как надо.

UPD: мини-гайд https://www.loom.com/share/4cb014a8894b4ab2b81755031e8020e6
____

Готовый шаблон уже в сообществе
6👍12🔥42🗿1