Как я пришел к тому, чтобы стать разработчиком?
Захотелось рассказать вам про мой путь, потому что недавно я его переосмыслил.
Старожилы чатика знают, что с 21 до 27 лет я работал в «КОРУС Консалтинг» - системный интегратор в СПб. Прикольный офис, крупные клиенты и все такое. Пришел я на позицию «Младший помощник менеджера по продажам» с ЗП в 20к рублей. Первый рабочий день начался с фразы «Открывай Outlook», на что я ответил «А что это?»😀
Ушло примерно 1,5 года, чтобы втянуться в тему и начать делать что-то полезное. И вот тут начинается самое важное!
Я развивался в направлении продаж: переговоры, презентации, подготовка договоров и все такое. Но! Меня всегда влекло что-то настраивать руками - прототипчик сделать, автоматизировать что-то и так далее.
И тут у меня был внутренний конфликт: мне всегда казалось, что продажником быть круче, чем аналитиком и тем более - разработчиком. Логика было простая: в продажах проектов я не ограничен в деньгах - продал 10 проектов, получил 10 миллионов. + Ты еще весь такой красавчик, общаешься с ТОП-менеджементов и все такое.
А в разработке пилишь-пилишь и нифига не растешь в деньгах. Реальность оказалась немного другой: продавать было не так просто и я нашел себя в пресейле - смежная позиция между продажами и консалтингом.
Потом в моей жизни появился No-code (bubble в частности) и я уже не мог устоять и начал плотно этим заниматься. И это меня спасло в момент переезда заграницу.
Сейчас с AI все еще немного поменялось: теперь на Pet-проект уходит неделя, а не месяц. Производительность меня, как разработчика, выросла в разы. Продажами я больше не занимаюсь и несколько не грущу по этому поводу.
И чему это все? Слушайте себя и всегда занимайтесь тем, что нравится. Только так вы придете к успеху и будете чувствовать себя всегда в своей тарелке!
Захотелось рассказать вам про мой путь, потому что недавно я его переосмыслил.
Старожилы чатика знают, что с 21 до 27 лет я работал в «КОРУС Консалтинг» - системный интегратор в СПб. Прикольный офис, крупные клиенты и все такое. Пришел я на позицию «Младший помощник менеджера по продажам» с ЗП в 20к рублей. Первый рабочий день начался с фразы «Открывай Outlook», на что я ответил «А что это?»😀
Ушло примерно 1,5 года, чтобы втянуться в тему и начать делать что-то полезное. И вот тут начинается самое важное!
Я развивался в направлении продаж: переговоры, презентации, подготовка договоров и все такое. Но! Меня всегда влекло что-то настраивать руками - прототипчик сделать, автоматизировать что-то и так далее.
И тут у меня был внутренний конфликт: мне всегда казалось, что продажником быть круче, чем аналитиком и тем более - разработчиком. Логика было простая: в продажах проектов я не ограничен в деньгах - продал 10 проектов, получил 10 миллионов. + Ты еще весь такой красавчик, общаешься с ТОП-менеджементов и все такое.
А в разработке пилишь-пилишь и нифига не растешь в деньгах. Реальность оказалась немного другой: продавать было не так просто и я нашел себя в пресейле - смежная позиция между продажами и консалтингом.
Потом в моей жизни появился No-code (bubble в частности) и я уже не мог устоять и начал плотно этим заниматься. И это меня спасло в момент переезда заграницу.
Сейчас с AI все еще немного поменялось: теперь на Pet-проект уходит неделя, а не месяц. Производительность меня, как разработчика, выросла в разы. Продажами я больше не занимаюсь и несколько не грущу по этому поводу.
И чему это все? Слушайте себя и всегда занимайтесь тем, что нравится. Только так вы придете к успеху и будете чувствовать себя всегда в своей тарелке!
❤9🔥2
No-code мёртв, да здравствует No-code!
Последние несколько месяцев я стал сильно меньше работать в bubble и сильно больше - с n8n. Кроме того, стал много писать кода. Ну как, "Писать"... Просить ChatGPT или Cursor написать мне код и потом его отдебажить. Для фронта я сейчас тестирую lovable - дорого, но эффективно и без зависимости от платформы.
Почему я стал меньше использовать Bubble? Они реально проигрывают конкурентную гонку: за последний год не было ни одного значимого обновления. То, что они выкатили с AI - полезно только новичкам в разработке, новые мобилки так и не вышли в Production, да что там говорить - до сих пор нет темной темы. Всё, что они делают: двигают кнопки туда-сюда, меняют иконки и называют историю изменений приложения супер мега фичей.
Выводов два
1) (к сожалению) недостаточно просто запустить продукт и бесконечно получать из него выгоду. Как только замедляешься - сразу начинаешь отставать.
2) К концу года No-code в привычном понимании канет в лету. Все больше будет "No-code" AI сервисов, которые будут генерировать чистый код, это будет быстрее/гибче/дешевле в эксплуатации
Что думаете?
Последние несколько месяцев я стал сильно меньше работать в bubble и сильно больше - с n8n. Кроме того, стал много писать кода. Ну как, "Писать"... Просить ChatGPT или Cursor написать мне код и потом его отдебажить. Для фронта я сейчас тестирую lovable - дорого, но эффективно и без зависимости от платформы.
Почему я стал меньше использовать Bubble? Они реально проигрывают конкурентную гонку: за последний год не было ни одного значимого обновления. То, что они выкатили с AI - полезно только новичкам в разработке, новые мобилки так и не вышли в Production, да что там говорить - до сих пор нет темной темы. Всё, что они делают: двигают кнопки туда-сюда, меняют иконки и называют историю изменений приложения супер мега фичей.
Выводов два
1) (к сожалению) недостаточно просто запустить продукт и бесконечно получать из него выгоду. Как только замедляешься - сразу начинаешь отставать.
2) К концу года No-code в привычном понимании канет в лету. Все больше будет "No-code" AI сервисов, которые будут генерировать чистый код, это будет быстрее/гибче/дешевле в эксплуатации
Что думаете?
👍5😢3💯3
Почему я трачу на онлайн-подписки больше, чем на еду ❔
Пост вдохновлен постом в канале https://news.1rj.ru/str/pro_nocode/436, где исследуется альтернатива Deep Research от OpenAI.
Недавно закинул в ChatGPT историю транзакций и внезапно обнаружил, что на разные онлайн сервисы я трачу больше, чем на покупки в супермаркете.
Выходит у меня в месяц443.09€ (+ еще ~100€ на российские сервисы). Сюда входят всякие сервисы для развлечения - YouTube, Netflix и тд, но 80% - это именно рабочие сервисы: ChatGPT PRO, Cursor и кучка других сервисов.
Я не планирую уменьшать расходы и вот почему: каждый из рабочих сервисов дает мне прирост в скорости и качестве работы. Мне проще потратить 200€ за ChatGPT и дополнительно заработать 2000€, чем экономить и пробовать работать не с ТОП-1.
Вот несколько примеров, как мне помог Deep Research за последнюю неделю:
✔️ У меня есть задача качественно извлекать информацию из PDF для LLM. Чтоб с картинками, сложным форматированием и всем таким. Ебусь я с этой задачей уже давно. DeepResearch нашел мне 10 библиотечек, сравнил их и выбрал лучшую. Итог - задача с PDF решена
✔️ Для одного из проектов мне нужно собирать новости из интернета и анализировать их. Я попросил найти источники новостей, получил 10-ток RSS лент. Задача решена
✔️ После последнего выступления ко мне подошли с просьбой помочь в написании диплома про ИИ психологов. Один из вопросов: насколько это безопасно для пользователя. Deep Research провел метаанализ десятка статей и выдал отличный результат. Задача решена.
🔼 Говорят, в постах надо давать пользу для подписчиков, поэтому объявляется акция невиданной щедрости: закидывайте в меня свои PROMPTs для DeepResearch, я запущу и пошарю с вами результат. 1 человек - 1 запрос, от вас фидбэк по исследованию, насколько оно вам помогло.
PS Не переживайте, я готовлю сам и питаюсь очень хорошо!
Пост вдохновлен постом в канале https://news.1rj.ru/str/pro_nocode/436, где исследуется альтернатива Deep Research от OpenAI.
Недавно закинул в ChatGPT историю транзакций и внезапно обнаружил, что на разные онлайн сервисы я трачу больше, чем на покупки в супермаркете.
Выходит у меня в месяц
Я не планирую уменьшать расходы и вот почему: каждый из рабочих сервисов дает мне прирост в скорости и качестве работы. Мне проще потратить 200€ за ChatGPT и дополнительно заработать 2000€, чем экономить и пробовать работать не с ТОП-1.
Вот несколько примеров, как мне помог Deep Research за последнюю неделю:
✔️ У меня есть задача качественно извлекать информацию из PDF для LLM. Чтоб с картинками, сложным форматированием и всем таким. Ебусь я с этой задачей уже давно. DeepResearch нашел мне 10 библиотечек, сравнил их и выбрал лучшую. Итог - задача с PDF решена
✔️ Для одного из проектов мне нужно собирать новости из интернета и анализировать их. Я попросил найти источники новостей, получил 10-ток RSS лент. Задача решена
✔️ После последнего выступления ко мне подошли с просьбой помочь в написании диплома про ИИ психологов. Один из вопросов: насколько это безопасно для пользователя. Deep Research провел метаанализ десятка статей и выдал отличный результат. Задача решена.
PS Не переживайте, я готовлю сам и питаюсь очень хорошо!
Please open Telegram to view this post
VIEW IN TELEGRAM
Telegram
Канал про NoCode
Все же слышали про DeepResearch от OpenAI. Как обычно это и бывает, появилось куча опенсорс решений, которые кричат "Не плати OpenAI, вот бесплатно, всё как там"
Решил для одной рабочей задачки потестить подобные решения. Делюсь, что получилось.
Решение…
Решил для одной рабочей задачки потестить подобные решения. Делюсь, что получилось.
Решение…
🔥5👍4
Вчера прикола ради решил потренировать нейронку на своих фотках и вот, что из этого вышло
PS При генерации себя с девочками в бассейне я не учел, что у них тоже будет мое лицо )
PS При генерации себя с девочками в бассейне я не учел, что у них тоже будет мое лицо )
😁14🔥1
Всем йоу!
Получил очень много отзывов о своих нейросгенерированных фотографиях и хочу выкатить эту фичу в NeuromateAI🤖
Но перед этим хочу понять, как это будет работать не только с моим лицом, но и с другими людьми 👫
Поэтому вновь объявляется акция невиданной щедрости!
С вас ZIP архив с 12-20 фотографиями вашего лица, фотографии должны быть:
1) Высокого качества (без сжатия)
2) Лицо не должно быть ничем закрыто
3) PNG или JPEG формата
С меня - ваш персональный бот для нейрофотосессий бесплатно и без ограничений на 3 месяца!
Присылайте архивы в личку @TimNocode, всего готов взять 3-5 человек до выходных!
Получил очень много отзывов о своих нейросгенерированных фотографиях и хочу выкатить эту фичу в NeuromateAI
Но перед этим хочу понять, как это будет работать не только с моим лицом, но и с другими людьми 👫
Поэтому вновь объявляется акция невиданной щедрости!
С вас ZIP архив с 12-20 фотографиями вашего лица, фотографии должны быть:
1) Высокого качества (без сжатия)
2) Лицо не должно быть ничем закрыто
3) PNG или JPEG формата
С меня - ваш персональный бот для нейрофотосессий бесплатно и без ограничений на 3 месяца!
Присылайте архивы в личку @TimNocode, всего готов взять 3-5 человек до выходных!
Please open Telegram to view this post
VIEW IN TELEGRAM
Не пострадаешь - не поешь?
Все чаще сталкиваюсь с проявлениям эффекта усилия: когнитивного искажения, при котором человек (заказчик) склонен переоценивать ценность результата, если для его достижения было затрачено много усилий, даже если результат объективно не лучше.
Пример:
У вас появляется задача разработать интерактивную AI бухгалтера. Вы прикидываете писю к носу, в голове строите варианты реализации, решаете начать с чего-то максимально простого и оно (внезапно) работает!
Через день вы возвращаетесь к заказчику и (о нет!) результаты работы AI-ассистента ему не нравится. Вы начинаете страдать и изобретать велосипеды, усложняете решение до невозможности.
Возвращаетесь к заказчику через месяц с криками «как я страдал, сколько сил вложено» и даете два варианта: самый первый и супер сложный. Первый (простой) теперь нравится заказчику, хотя там ничего не поменялось.
В AI-разработке этот эффект проявляется максимально сильно: всегда есть некий черный ящик, который что-то там шуршит, шуршит и получается ответ.
Но не заказчиком единым! В Пет-проектах тоже с этим сталкиваюсь: экономика не сходится, а ты продолжаешь вливать бабки. Бросить- страшно, менять что-то - тоже, «оно ведь работает и вон даже кто-то платит»
Так что друзья-товарищи-разработчики, какой мы выбираем путь: показательно страдать или доказывать, что «сложно - не всегда лучше»?
Все чаще сталкиваюсь с проявлениям эффекта усилия: когнитивного искажения, при котором человек (заказчик) склонен переоценивать ценность результата, если для его достижения было затрачено много усилий, даже если результат объективно не лучше.
Пример:
У вас появляется задача разработать интерактивную AI бухгалтера. Вы прикидываете писю к носу, в голове строите варианты реализации, решаете начать с чего-то максимально простого и оно (внезапно) работает!
Через день вы возвращаетесь к заказчику и (о нет!) результаты работы AI-ассистента ему не нравится. Вы начинаете страдать и изобретать велосипеды, усложняете решение до невозможности.
Возвращаетесь к заказчику через месяц с криками «как я страдал, сколько сил вложено» и даете два варианта: самый первый и супер сложный. Первый (простой) теперь нравится заказчику, хотя там ничего не поменялось.
В AI-разработке этот эффект проявляется максимально сильно: всегда есть некий черный ящик, который что-то там шуршит, шуршит и получается ответ.
Но не заказчиком единым! В Пет-проектах тоже с этим сталкиваюсь: экономика не сходится, а ты продолжаешь вливать бабки. Бросить- страшно, менять что-то - тоже, «оно ведь работает и вон даже кто-то платит»
Так что друзья-товарищи-разработчики, какой мы выбираем путь: показательно страдать или доказывать, что «сложно - не всегда лучше»?
2.46K👍6🔥1
Как совмещать картинки с новой моделью gpt-image-1 в N8N?
Сегодня OpenAI выкатили в API свою новую модельку, которая генерирует картинки как в родном интерфейсе GPT (очень круто)!
С генерацией картинок проблем не возникло, но вот с совмещением не все так просто, достаточно нетиповой формат запроса:
Решение следующее:
1) Скачиваете картинки по ссылке через обычный GET запрос
2) Используйте ноду Merge, чтобы собрать их вместе
3) Затем Aggregate с включенной галочкой "Include binaries"
4) Дальше - самое интересное - HTTP запрос. Все параметры настраиваются стандарно, а картинки подсовываются так, как на скриншоте
5) Последним шагом конвертируем картинку из base64 в файл
Готово! Теперь мы умеем совмещать картинки в gpt-image-1!
Сегодня OpenAI выкатили в API свою новую модельку, которая генерирует картинки как в родном интерфейсе GPT (очень круто)!
С генерацией картинок проблем не возникло, но вот с совмещением не все так просто, достаточно нетиповой формат запроса:
curl -s -D >(grep -i x-request-id >&2) \
-o >(jq -r '.data[0].b64_json' | base64 --decode > gift-basket.png) \
-X POST "https://api.openai.com/v1/images/edits" \
-H "Authorization: Bearer $OPENAI_API_KEY" \
-F "model=gpt-image-1" \
-F "image[]=@body-lotion.png" \
-F "image[]=@bath-bomb.png" \
-F "image[]=@incense-kit.png" \
-F "image[]=@soap.png" \
-F 'prompt=Create a lovely gift basket with these four items in it'
Решение следующее:
1) Скачиваете картинки по ссылке через обычный GET запрос
2) Используйте ноду Merge, чтобы собрать их вместе
3) Затем Aggregate с включенной галочкой "Include binaries"
4) Дальше - самое интересное - HTTP запрос. Все параметры настраиваются стандарно, а картинки подсовываются так, как на скриншоте
5) Последним шагом конвертируем картинку из base64 в файл
Готово! Теперь мы умеем совмещать картинки в gpt-image-1!
🔥8👍3
Внезапный субботний опрос!
Когда вам звонят по телефону (Telegram, WhatsApp и тд) без предварительной договоренности это:
Когда вам звонят по телефону (Telegram, WhatsApp и тд) без предварительной договоренности это:
Anonymous Poll
67%
Кринж, только в экстренных ситуациях
29%
Норм, без разницы
4%
Круто, люблю поболтать!
Вначале - думай, затем - делай!
Значится, висела у в бэклоге задачка по деперсонализации текстов: замена имен, фамилий и т.д. на переменный. Полгода я говорил, что самый простой способ сделать ее: локальный DeepSeek.
Дошли на этой неделе у меня руки до нее, запилил через Codex, дебазил часа 3, сделал. И черт дернул меня спросить у ChatGPT как сделать лучше? Он сходу рекомендовал библиотечку для PI.
Перепилил ее, тестирую - хреново для русского, компании распознаются как локации, не очень…
Отправил ChatGPT делать DeepResearch с акцентом на русский, сразу же нашёл некую Natasha, которая работает просто идеально.
Теперь в общем случае мой фреймворк работы выглядит следующим образом:
1) Описываю задачу и прошу найти мне лучшие варианты реализации
2) Выбираю вариант, проверяю
3) Ставлю конкретную задачу Codex в отдельной ветке
4) Пилим, если что шлифую через Cursor
Вывод очевидный - даже если вы уверены в чем то, не забывайте сходить в ChatGPT
👉 Делитесь своими историями таких факапов в комментариях 😉
Значится, висела у в бэклоге задачка по деперсонализации текстов: замена имен, фамилий и т.д. на переменный. Полгода я говорил, что самый простой способ сделать ее: локальный DeepSeek.
Дошли на этой неделе у меня руки до нее, запилил через Codex, дебазил часа 3, сделал. И черт дернул меня спросить у ChatGPT как сделать лучше? Он сходу рекомендовал библиотечку для PI.
Перепилил ее, тестирую - хреново для русского, компании распознаются как локации, не очень…
Отправил ChatGPT делать DeepResearch с акцентом на русский, сразу же нашёл некую Natasha, которая работает просто идеально.
Теперь в общем случае мой фреймворк работы выглядит следующим образом:
1) Описываю задачу и прошу найти мне лучшие варианты реализации
2) Выбираю вариант, проверяю
3) Ставлю конкретную задачу Codex в отдельной ветке
4) Пилим, если что шлифую через Cursor
Вывод очевидный - даже если вы уверены в чем то, не забывайте сходить в ChatGPT
👉 Делитесь своими историями таких факапов в комментариях 😉
❤4🔥1