Шось про айтішку – Telegram
Шось про айтішку
1.46K subscribers
444 photos
161 videos
2 files
597 links
Фронтенд, ШІ, 3D друк, FPV, історії з життя та роботи
Download Telegram
Ранковий перегляд контенту. Трохи про відкладений рендеринг у іграх. Оця презентація гарно розказує для чого був винайдений відкладений рендеринг, як за останні 20 років змінилось залізо і чому індустрія повертається до класичного forward rendering. Цікаво доречі, що STAKLER був однією з перших ігор, в якій імплементували відкладений рендеринг https://www.youtube.com/watch?v=n5OiqJP2f7w

І от ще цікаво про баг у The Legend of Zelda: Breath of the Wild і про відкладений рендеринг у цілому на прикладі цієї гри https://www.youtube.com/watch?v=By7qcgaqGI4
👍5
Дивився список open source проєктів які отримали грант на розвиток від Clojurists Together і побачив проєкт який хостить Clojure на C++ — Jank lang

Колись думав, що було б добре мати шось типу native Clojure, щоб писати під мікроконтроллери або відео ігри.

Ще доречі є Carp який надихався Clojure, але мова не динамічна і має borrow checker як в Rust, тому це трохи інша історія.

Цікаво, що Jank побудована з використанням існуючих бібліотек:
- Immer для незмінних структур даних (це не той що в JS)
- bdwgc сміттєзбірник

Проєкт звичайно ще на ранній стадії і розробляється однією людиною (як і всі експерименти у спільноті Clojure , лол), але побажаємо йому удачі, бо це непогана штука.
👍92
Вітаю усіх з Днем Незалежності 🇺🇦 Нехай проблеми та негоди не роблять вам в житті погоди 🙃

На роботі нещодавно переключився з AI на анімації, якось сидів пів дня дебажив баг з Web Animations API у Safari аж поки не дійшов до того, що це баг у Chrome, а в Safari та Firefox поведінка якраз очікувана.

Проблема була в тому, що створюючи нову анімацію з тим самим інстансом кіфреймів, у хромі поточна анімація відміняється. Як виявилось це проблема імплементації у хромі на стороні C++, чогось вони вирішили що інстанс кіфреймів не може шаритись між анімаціями.

Ось мінімальний кейс для відтворення проблеми https://codesandbox.io/s/awesome-thunder-lvj5xk?file=/src/index.mjs

Більше подробиць у тікеті в баг трекері Chrome https://bugs.chromium.org/p/chromium/issues/detail?id=1474974
👍11🔥5🎉2
​​Зробив собі марафон програмування і запілив за тиждень сендбокс для кложескріпта, типу CodeSandbox https://uix-playground.vercel.app/

Працює все у браузері у забутстрапленому компіляторі, проєкти зберігаються у Cloudflare KV. Є можливість експортувати як проєкт з shadow-cljs, доступні бібліотеки: React, Tailwind, UIx, react-query, react-router, three, react-three-fiber, згодом буде більше.
🔥21👍7
7го вересня буду виступати на мітапі з доповіддю по ШІ, у офісі Wix, приходьте послухати https://fwdays.com/en/event/frontend-ai-fwdays-meetup-kyiv
🔥18👍4
Привіт 👋 Викатив апдейт до сендбоксу: тепер проєкти можуть мати декілька файлів. Додав сайдбар з переглядом дерева проєкту та таби, все як у нормальному редакторі.

Також додав дефолтний проєкт з Reagent та re-frame для трушних кложуріанців https://uix-playground.vercel.app/p/default-reagent

Хочу спробувати додати можливість писати бекенд на ноді, за допомогою web containers. Це типу контейнеризація ноди у web assembly, тому можна бекенд ганяти локально в браузері. Для отаких cloud IDE якраз супер.

Забавно доречі, що чуваки з web containers продають це як чисто локальну платформу, а по факту трафік з локального веб сервера пускають через себе і аргументують це тим що вони не можуть надати самі контейнери у відкритий доступ.
🔥8👍2😱1
​​Відстрілявся на мітапі, ось посилання на презентацію https://pitch.com/public/30a64f86-7ff5-4b6d-b5b6-42c9f8943a30
👍24👏1
Гарного вам вівторка. Роблю собі прототип редактору векторної графіки, на плюсах, webgl та wasm, бо завжди хотів спробувати щось таке зробити.

Це хороша задачка на прокачку знань по геометрії, графічному пайплайну, оптимізації рендерингу безкінечних канвасів та побудові системи обробки івентів.

Останні пару днів розбирався з різними алгоритмами визначення приналежності точки до многокутника, щоб мати можливість точно обирати обʼєкти на екрані курсором миші.

Треба багато писати і малювати, тому записав відео з поясненням, дивіться тут 👉 https://youtu.be/EW7odbrPeEo?si=lmuvtw9wcVh-wiE6
👍16
🎙️ Анонс для кложуристів: 14го листопада буду виступати на мітапі London Clojurians з доповіддю про бібліотеку на ClojureScript яку робив на роботі для React https://www.meetup.com/London-Clojurians/events/296853289/
👍14🔥42👏1
Поки мій пес пише код замість мене, днями мені приїхав 3D принтер. Я вирішив доєднатись до Друк армії (https://drukarmy.org.ua/ua), щоб окрім донатів ще й робити щось практичне. Наразі друкую кронштейни для скидів.

Принтер Ender 3 V3 SE, якщо купувати в Європі, з доставкою Новою Поштою, виходить 296 євро (принтер, розмитнення та доставка). Котушка пластику 12-15 євро за кг, якщо брати в Україні буде трохи дорожче.

Собівартість друку одного кронштейну ~22 гривні. Час друку 2 години. Кронштейн тримає бадью вагою 20кг.

Якщо вам також цікаво, зареєструйтесь і почитайте розділ «школа» на сайті друк армії, там все розписано. Почати друкувати дійсно просто 👌
🔥142👍1👏1
Якось дивився у бік розпізнавання та трекінгу об'єктів на відео у реальному часі. Наразі найпопулярніша модель для цього YOLO https://pjreddie.com/darknet/yolo/

Скажімо ви хочете трекати військову техніку на відео з дрону. Вам треба створити датасет з кадрів: на кожному зображенні промаркати техніку (наприклад у https://www.makesense.ai/). Чим більший датасет, а він повинен бути достатньо великим та різнорідним, тим більше часу ви витрачаєте на лейбелінг, бо це робиться вручну.

Але от в нас тепер є те що називається foundational моделі — це велики і повільні моделі які вміють розпізнавати велику кількість обʼєктів. Типу як ChatGPT який був натренований на усьому інтернеті. Виходить, що можна використати таку модель, щоб створити датасет автоматично, якщо не на 100%, то десь на 90% так точно. Бо по суті вона робить те саме, що і людина руками: шукає обʼєкт на зображенні і виділяє його прямокутником. Тут треба зазначити, що великі моделі наврядчи знають про більш специфічні штуки типу міни чи лепестки, тому тут тільки руками.

Пакет Autodistill якраз це і робить, поєднуючи велику модель з тренуванням меншої, тут є докладний туторіал https://youtu.be/gKTYMfwPo4M

А отут jupyter notebook в якому ви можете натренувати модель за 15хв https://colab.research.google.com/github/roboflow-ai/notebooks/blob/main/notebooks/how-to-auto-train-yolov8-model-with-autodistill.ipynb

Воно дійсно працює, нижче приклад аутпуту двох моделей натренованих за півгодини. Одна розпізнає військову техніку, інша — дим від попадання артилерії.
🔥12👍4