Tim AI & No-code – Telegram
Tim AI & No-code
291 subscribers
26 photos
1 video
20 links
Как делать AI-продукты не написав ни строчки кода. И ещё немного про меня
Download Telegram
Как я пришел к тому, чтобы стать разработчиком?

Захотелось рассказать вам про мой путь, потому что недавно я его переосмыслил.

Старожилы чатика знают, что с 21 до 27 лет я работал в «КОРУС Консалтинг» - системный интегратор в СПб. Прикольный офис, крупные клиенты и все такое. Пришел я на позицию «Младший помощник менеджера по продажам» с ЗП в 20к рублей. Первый рабочий день начался с фразы «Открывай Outlook», на что я ответил «А что это?»😀

Ушло примерно 1,5 года, чтобы втянуться в тему и начать делать что-то полезное. И вот тут начинается самое важное!

Я развивался в направлении продаж: переговоры, презентации, подготовка договоров и все такое. Но! Меня всегда влекло что-то настраивать руками - прототипчик сделать, автоматизировать что-то и так далее.

И тут у меня был внутренний конфликт: мне всегда казалось, что продажником быть круче, чем аналитиком и тем более - разработчиком. Логика было простая: в продажах проектов я не ограничен в деньгах - продал 10 проектов, получил 10 миллионов. + Ты еще весь такой красавчик, общаешься с ТОП-менеджементов и все такое.

А в разработке пилишь-пилишь и нифига не растешь в деньгах. Реальность оказалась немного другой: продавать было не так просто и я нашел себя в пресейле - смежная позиция между продажами и консалтингом.

Потом в моей жизни появился No-code (bubble в частности) и я уже не мог устоять и начал плотно этим заниматься. И это меня спасло в момент переезда заграницу.

Сейчас с AI все еще немного поменялось: теперь на Pet-проект уходит неделя, а не месяц. Производительность меня, как разработчика, выросла в разы. Продажами я больше не занимаюсь и несколько не грущу по этому поводу.

И чему это все? Слушайте себя и всегда занимайтесь тем, что нравится. Только так вы придете к успеху и будете чувствовать себя всегда в своей тарелке!
9🔥2
No-code мёртв, да здравствует No-code!

Последние несколько месяцев я стал сильно меньше работать в bubble и сильно больше - с n8n. Кроме того, стал много писать кода. Ну как, "Писать"... Просить ChatGPT или Cursor написать мне код и потом его отдебажить. Для фронта я сейчас тестирую lovable - дорого, но эффективно и без зависимости от платформы.

Почему я стал меньше использовать Bubble? Они реально проигрывают конкурентную гонку: за последний год не было ни одного значимого обновления. То, что они выкатили с AI - полезно только новичкам в разработке, новые мобилки так и не вышли в Production, да что там говорить - до сих пор нет темной темы. Всё, что они делают: двигают кнопки туда-сюда, меняют иконки и называют историю изменений приложения супер мега фичей.

Выводов два
1) (к сожалению) недостаточно просто запустить продукт и бесконечно получать из него выгоду. Как только замедляешься - сразу начинаешь отставать.
2) К концу года No-code в привычном понимании канет в лету. Все больше будет "No-code" AI сервисов, которые будут генерировать чистый код, это будет быстрее/гибче/дешевле в эксплуатации

Что думаете?
👍5😢3💯3
Почему я трачу на онлайн-подписки больше, чем на еду

Пост вдохновлен постом в канале https://news.1rj.ru/str/pro_nocode/436, где исследуется альтернатива Deep Research от OpenAI.

Недавно закинул в ChatGPT историю транзакций и внезапно обнаружил, что на разные онлайн сервисы я трачу больше, чем на покупки в супермаркете.

Выходит у меня в месяц 443.09€ (+ еще ~100€ на российские сервисы). Сюда входят всякие сервисы для развлечения - YouTube, Netflix и тд, но 80% - это именно рабочие сервисы: ChatGPT PRO, Cursor и кучка других сервисов.

Я не планирую уменьшать расходы и вот почему: каждый из рабочих сервисов дает мне прирост в скорости и качестве работы. Мне проще потратить 200€ за ChatGPT и дополнительно заработать 2000€, чем экономить и пробовать работать не с ТОП-1.

Вот несколько примеров, как мне помог Deep Research за последнюю неделю:
✔️ У меня есть задача качественно извлекать информацию из PDF для LLM. Чтоб с картинками, сложным форматированием и всем таким. Ебусь я с этой задачей уже давно. DeepResearch нашел мне 10 библиотечек, сравнил их и выбрал лучшую. Итог - задача с PDF решена
✔️ Для одного из проектов мне нужно собирать новости из интернета и анализировать их. Я попросил найти источники новостей, получил 10-ток RSS лент. Задача решена
✔️ После последнего выступления ко мне подошли с просьбой помочь в написании диплома про ИИ психологов. Один из вопросов: насколько это безопасно для пользователя. Deep Research провел метаанализ десятка статей и выдал отличный результат. Задача решена.


🔼 Говорят, в постах надо давать пользу для подписчиков, поэтому объявляется акция невиданной щедрости: закидывайте в меня свои PROMPTs для DeepResearch, я запущу и пошарю с вами результат. 1 человек - 1 запрос, от вас фидбэк по исследованию, насколько оно вам помогло.

PS Не переживайте, я готовлю сам и питаюсь очень хорошо!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍4
Словил себя на том, что ни к одной задаче из запланированных я не могу приступить, потому что ChatGPT прилег...

Это уже клиника?
🫡5
Воу! Будет, что потестить на выходных!

Кидайте ваши задачи в комментарии, проверим, как работает)
🔥5
Вчера прикола ради решил потренировать нейронку на своих фотках и вот, что из этого вышло

PS При генерации себя с девочками в бассейне я не учел, что у них тоже будет мое лицо )
😁14🔥1
Всем йоу!

Получил очень много отзывов о своих нейросгенерированных фотографиях и хочу выкатить эту фичу в NeuromateAI 🤖

Но перед этим хочу понять, как это будет работать не только с моим лицом, но и с другими людьми 👫

Поэтому вновь объявляется акция невиданной щедрости!

С вас ZIP архив с 12-20 фотографиями вашего лица, фотографии должны быть:
1) Высокого качества (без сжатия)
2) Лицо не должно быть ничем закрыто
3) PNG или JPEG формата

С меня - ваш персональный бот для нейрофотосессий бесплатно и без ограничений на 3 месяца!

Присылайте архивы в личку @TimNocode, всего готов взять 3-5 человек до выходных!
Please open Telegram to view this post
VIEW IN TELEGRAM
Не пострадаешь - не поешь?

Все чаще сталкиваюсь с проявлениям эффекта усилия: когнитивного искажения, при котором человек (заказчик) склонен переоценивать ценность результата, если для его достижения было затрачено много усилий, даже если результат объективно не лучше.

Пример:
У вас появляется задача разработать интерактивную AI бухгалтера. Вы прикидываете писю к носу, в голове строите варианты реализации, решаете начать с чего-то максимально простого и оно (внезапно) работает!

Через день вы возвращаетесь к заказчику и (о нет!) результаты работы AI-ассистента ему не нравится. Вы начинаете страдать и изобретать велосипеды, усложняете решение до невозможности.

Возвращаетесь к заказчику через месяц с криками «как я страдал, сколько сил вложено» и даете два варианта: самый первый и супер сложный. Первый (простой) теперь нравится заказчику, хотя там ничего не поменялось.

В AI-разработке этот эффект проявляется максимально сильно: всегда есть некий черный ящик, который что-то там шуршит, шуршит и получается ответ.

Но не заказчиком единым! В Пет-проектах тоже с этим сталкиваюсь: экономика не сходится, а ты продолжаешь вливать бабки. Бросить- страшно, менять что-то - тоже, «оно ведь работает и вон даже кто-то платит»

Так что друзья-товарищи-разработчики, какой мы выбираем путь: показательно страдать или доказывать, что «сложно - не всегда лучше»?
2.46K👍6🔥1
Как совмещать картинки с новой моделью gpt-image-1 в N8N?

Сегодня OpenAI выкатили в API свою новую модельку, которая генерирует картинки как в родном интерфейсе GPT (очень круто)!

С генерацией картинок проблем не возникло, но вот с совмещением не все так просто, достаточно нетиповой формат запроса:

curl -s -D >(grep -i x-request-id >&2) \
-o >(jq -r '.data[0].b64_json' | base64 --decode > gift-basket.png) \
-X POST "https://api.openai.com/v1/images/edits" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-F "model=gpt-image-1" \
-F "image[]=@body-lotion.png" \
-F "image[]=@bath-bomb.png" \
-F "image[]=@incense-kit.png" \
-F "image[]=@soap.png" \
-F 'prompt=Create a lovely gift basket with these four items in it'


Решение следующее:
1) Скачиваете картинки по ссылке через обычный GET запрос
2) Используйте ноду Merge, чтобы собрать их вместе
3) Затем Aggregate с включенной галочкой "Include binaries"
4) Дальше - самое интересное - HTTP запрос. Все параметры настраиваются стандарно, а картинки подсовываются так, как на скриншоте
5) Последним шагом конвертируем картинку из base64 в файл

Готово! Теперь мы умеем совмещать картинки в gpt-image-1!
🔥8👍3
Внезапный субботний опрос!

Когда вам звонят по телефону (Telegram, WhatsApp и тд) без предварительной договоренности это:
Anonymous Poll
67%
Кринж, только в экстренных ситуациях
29%
Норм, без разницы
4%
Круто, люблю поболтать!
Вначале - думай, затем - делай!

Значится, висела у в бэклоге задачка по деперсонализации текстов: замена имен, фамилий и т.д. на переменный. Полгода я говорил, что самый простой способ сделать ее: локальный DeepSeek.

Дошли на этой неделе у меня руки до нее, запилил через Codex, дебазил часа 3, сделал. И черт дернул меня спросить у ChatGPT как сделать лучше? Он сходу рекомендовал библиотечку для PI.

Перепилил ее, тестирую - хреново для русского, компании распознаются как локации, не очень…

Отправил ChatGPT делать DeepResearch с акцентом на русский, сразу же нашёл некую Natasha, которая работает просто идеально.

Теперь в общем случае мой фреймворк работы выглядит следующим образом:

1) Описываю задачу и прошу найти мне лучшие варианты реализации
2) Выбираю вариант, проверяю
3) Ставлю конкретную задачу Codex в отдельной ветке
4) Пилим, если что шлифую через Cursor

Вывод очевидный - даже если вы уверены в чем то, не забывайте сходить в ChatGPT

👉 Делитесь своими историями таких факапов в комментариях 😉
4🔥1