Vibecoding Haven (BotfatherDEV) – Telegram
Vibecoding Haven (BotfatherDEV)
2.59K subscribers
698 photos
108 videos
11 files
475 links
Ділюсь про те як стати продуктивнішим використовуючи AI в програмуванні.
Download Telegram
В тему каналу, дуже смішно)

P.S. Claude Code допоміг знайти і завантажити серію і субтитри, нарізати на шматки з ffmpeg, потім Codex все переклав, знайшов гайди як накласти субтитри на відео, а Claude Code їх наклав)
32
Vibecoding Haven (BotfatherDEV)
Video
Друге відео вийшло проблемне, ось вам і вайбедітінг))

UPD: перезалив) тепер ок
1
Forwarded from Heorhii
This media is not supported in your browser
VIEW IN TELEGRAM
Мені здається, це схоже на проекти, що Волбіл робить з ші)
2
Саме тому нам потрібна конкуренція — ChatGPT Plus на 3 місяці можна забрати за 30$ ☕️

Для цього треба пригрозити OpenAI, що скасуєте підписку, й вам запропонують потужну знижку. Я не гарантую, що у вас це теж спрацює, але у мене знижка є + котики в чаті писали, що в них також.

ооо донат на збір (лишилося 70 542)
Please open Telegram to view this post
VIEW IN TELEGRAM
211
OpenAI випустили нову модельку для кодингу, спеціально під Codex — GPT-5-Codex

Трошки краще кодить, краще рефакторить і краще виконує інструкції в Agents.md

Встановити Codex:
npm i -g @openai/codex


⚠️ Хто ще не спробував Codex і користується веб-версією для розробки — ви втрачаєте дуже багато, повірте мені
Vibecoding Haven (BotfatherDEV)
OpenAI випустили нову модельку для кодингу, спеціально під Codex — GPT-5-Codex Трошки краще кодить, краще рефакторить і краще виконує інструкції в Agents.md Встановити Codex: npm i -g @openai/codex ⚠️ Хто ще не спробував Codex і користується веб-версією…
Якщо чесно, то за попередніми тестами моделька відчувається порізаною, ніби стала мене гірше розуміти. Але і одночасно трохи краще робити те, що просиш (коли розуміє). Дуже дивна поведінка, квантизують?
21
now that coding's been solved i spend most of my time thinking and thinking is honestly so much harder than writing code
6
OpenAI нова gpt-5-codex моделька — схожа на спробу зробити модельку трохи розумнішою, але СИЛЬНО дешевшою (для себе)
332
Vibecoding Haven (BotfatherDEV)
Привітайте мене, ChatGPT Markdown to Telegram HTML Parser — мій перший проєкт опублікований на PyPI. Нагадаю, ця бібліотека допоможе вам конвертувати текст, відформатований у Markdown, у HTML-розмітку, яку підтримує Telegram Bot API. Він розроблений спеціально…
📦 Бібліотека chatgpt-md-converter отримала важливе оновлення

Нещодавно я розповідав про цю корисну бібліотеку для конвертації Markdown в Telegram HTML. Тепер вона стала ще потужнішою з новою функцією розумного розбиття повідомлень.

🆕 Головна новинка: split_html_for_telegram

Функція вирішує класичну проблему Telegram-ботів — розбиття довгих повідомлень без втрати HTML-форматування. Telegram обмежує розмір повідомлень, і раніше доводилось вручну слідкувати за тегами при розбитті.

from chatgpt_md_converter import telegram_format, split_html_for_telegram

html = telegram_format(markdown_text)
chunks = split_html_for_telegram(html, max_length=1000)


💻 Встановлення та використання

pip install chatgpt-md-converter==0.3.8

або
uv add chatgpt-md-converter==0.3.8

Особливо корисно для ботів, які працюють з ChatGPT або Claude API і часто генерують об'ємні відповіді з кодом та форматуванням.

Детальніше про всі зміни можна подивитись на PyPI та Github
Please open Telegram to view this post
VIEW IN TELEGRAM
42
Media is too big
VIEW IN TELEGRAM
Слова Селестії з одного чатику в розмові з користувачем перетворені у пісню по її промпту

Не міг не поділитися 😜
522
Чи не помітили ви (хто юзає багато ChatGPT), що деякі фрази/структуру повідомлення/інше — ви копіюєте з чатгпт (або інша нейронка)?
611
🙂 є свіже емпіричне дослідження, що прямо показує “підхоплення” чатгпт-лексики людьми.

Yakura та ін. (Max Planck Institute), 2025. Проаналізували 740 тис. годин людської мови з 360 445 академічних відео на YouTube та 771 591 подкаст-епізоду. Після запуску ChatGPT зафіксували різкий стрибок у вживанні слів, які модель любить додавати (на кшталт “delve”, “meticulous”, “boast”, “swift”). Автори роблять висновок, що люди почали імітувати мовні патерни LLM;

Kobak та ін., Science Advances, 2 липня 2025. На 15+ млн PubMed-аабстрактів показали, що після появи LLM різко зросла частота “маркерних” слів (типу delve, underscore, commendable). Оцінка: щонайменше 13,5% абстрактів 2024 року були оброблені LLM.

Astarita та ін., 2024 (астрономія). Аналогічний сплеск “GPT-слів” у наукових публікаціях з астрономії у 2024-му, що вказує на широке прийняття LLM-підказок у стилі


Тому, активне користування LLM (і масова експозиція до їхнього тексту) реально “заражає” наш словник і стиль, і це вже зафіксовано як у розмовній мові, так і в написаних текстах.


- https://arxiv.org/abs/2409.01754
- https://www.science.org/doi/10.1126/sciadv.adt3813
- https://arxiv.org/pdf/2406.17324
111
Vibecoding Haven (BotfatherDEV)
Слова Селестії з одного чатику в розмові з користувачем перетворені у пісню по її промпту Не міг не поділитися 😜
This media is not supported in your browser
VIEW IN TELEGRAM
Нова моделька Suno v5 вийшла!

Переробив пісню, тепер чомусь співає чоловік, і тепер пісня більше ПІСНЯ, більш мелодична, в цілому класно!
Claude Code — це однозначно про UX для девелоперів

think — вмикає thinking (синє)

think very hard — більше (помаранчеве)

ultrathink — ще БІЛЬШЕ (веселка)
5