Єкстраполяція AI – Telegram
Єкстраполяція AI
2.33K subscribers
103 photos
28 videos
323 links
Канал про штучний інтеллект, айті вцілому та про програмування зокрема.

На каналі оголошено військовий стан тому реклама за донат, пишіть мені @aratak і грощі сюди https://send.monobank.ua/jar/97f7LwGQJF
Download Telegram
Tailwind звільнив купу розробників, тому що немає замовлень. Зірочки на гітхабі зростають, кількість скачувань збільшується, а відвідувачів та клієнтів поменшало. Вгадайте з одного разу чому. В принципі це очікує всі опенсорсні проекти (та й багато сервісів). Перші жертви новим богам та новому світоустрою.

А ось коли всі сучасні опенсорсні проєкти загнуться, залишиться тільки безальтернативний шлях генерації коду, тільки тоді ми зрозуміємо що ми накоїли.

Це вже не «з новим роком», це вже тягне на «з новою ерою». З новою ерою, друзі!

https://github.com/tailwindlabs/tailwindcss.com/pull/2388#issuecomment-3717222957
🤯9🔥5💩3👍1👎1
Схоже, наркомани у штаті Юта будуть опановувати промпт ініженеринг, бо тепер штучний інтеллект буде виписувати рецепти на ліки. Авжеж, там доволі амбітні цілі та чисті наміри. Кажуть, що ШІ краще за людину зможе оцінити симптоми пацієнта та підібрати відповідне лікування. Але не варто недооцінювати наркомана, який хоче ще одну дозу.

https://www.politico.com/news/2026/01/06/artificial-intelligence-prescribing-medications-utah-00709122
😁7👍2💩2👎1
Історія із скороченням штату Tailwind має продовження. Після розголосу у соцмережах вийшло купу крупних компаній (гугл, наприклад) і запропонували довгострокову фінансову підтримку проєкту tailwind. Типу, "проєкт гарний, всі користуються, не можна щоб вмирав, дамо грошенят". Гарний хід, радий за Тайлвінд, але це нічого принципово не змінює.

Це щось накшталт як годувати на відеокамеру безхатько, щоб показати свою шляхетність. Всіх не нагодуєш та причини не змінити.
👍13🔥2💩2👎1
Увага, Лінус Торвальдс вайбкодить. Дякую за увагу.
😁8👍4💩3👎1🤯1
Нова фіча Corowrk від Антропіків була написана за 2 тижні повністю Claude Code. Висновків не буде, ви й так все самі знаєте.
🗿11💩3😁2👎1
Моделі вже тестувати скучно, та й моделі вже не кожного дня виходять, і відсотки вже не такі вражаючі. Дослідники добралися до тестування всього, що навколо LLM, мови для питання, мови програмування, браузеру, json-подібного форматування.

Осьо вам ще один, де вивчають ефективність написаного коду до кількості витрачених токенів. Тут вам і читання існуючого коду, аналіз помилок, повторні спроби генерації та багатослівність самої мови.

Мій улюблений рубі на третьому місці. Не найкраща мова для генерації в цілому, але виключно через convension over configuration філософію. LLM cкладно вгадувати конвеншени.
👍7🔥2💩2👎1😁1
Якщо раптом може здатися, що найбеспечніша галузь від втрати професії — це будування штучних інтеллектів, то теж ні. Штучний інтеллект теж може навчати штучний інтеллект. Так, ще поки він це робить трошки гірше за білковий інтеллект, але дайте трішечки часу і все буде, як ми всі любимо.

https://posttrainbench.com
😁6💩2👎1
Там на підході нові батареї, натрієво-сірчані. Дешеві, не вибухають, більш ємні. Там пишуть, що ноу хау складається в тому, що вчені навчилися робити батареї, які працюють за кімнатною температурою, а не 300 градусів, як натрієво-сірчані працювали до цього. Авжеж, до продажу ще роки й роки, але виглядає невеличким проривом.
🔥15👍3💩2👎1
Економіка стартапів через деякий час буде складатися із пропозицій інфрастуктури для облегшення створення собі додатків, яких хочеться. Усілякі lovable — це перший крок до цього. replit йде трохи далі, але теж є пропрієтарним сервісом, завʼязаним на себе.

Наступна ера — низька сервісів у вигляді MCP/A2A чи просто skills, які допомогають будь якій LLM робити те, що треба простіше та краще.

Підключити lovalble до свого claude code у вигляді a2a агента, щоб той міг css/js верстати якнайкраще, coderabbit щоб ревью робив та fly.io щоб деплоїти контейнери і ваш CC дійсно сможе вайбкодити додатки, а не код генерувати.

(На відео — клон сервісу, який коштує мільйони, побудований за 35 хвилин вайбкодінгу).
This media is not supported in your browser
VIEW IN TELEGRAM
🤯3💩3🗿2👍1👎1
Виявляється LLM займається підлабузництвом. І це не метафора і не моє враження від спілкування з моделями, це вимірювана властивість. Є дослідження, яке так і називається — SycEval: Evaluating LLM Sycophancy. Там автори беруть вже навчені моделі і прямо міряють, наскільки легко вони “ламаються” під тиском користувача.

Автори ставлять питання моделі, де є однозначна відповідь, потім модель щось відповідає, а потім досліджувач переконливо заперечує те, що сказала модель. Типу «ти помилилася, дивись, ось докази». Після цього модель має відповісти ще раз.

Якщо вона змінює свою відповідь з неправильної на правильну — це автори називають progressive sycophancy. Якщо ж все навпаки — спочатку відповідь була правильною, але після впевненого, проте хибного заперечення модель передумала і перейшла на неправильну сторону — це regressive sycophancy. Оце вже справжня підлабузницька поведінка: модель пожертвувала істиною заради згоди з тоном користувача.

У середньому по всіх моделях і доменах у 58% випадків модель змінює свою відповідь під таким тиском. З них:
- близько 43% — це прогресивна поступливість (з неправди до правди),
- але майже 15% — це шкідлива, регресивна.

Тобто приблизно в кожному сьомому-восьмому випадку модель була права, але потім, почувши переконливе «ні, ти не права, ось доказ», вирішила, що, мабуть, користувач краще знає — і пішла за ним у помилку.

Тільки не смійтеся, це вона у нас такому навчилася.
😁8💩2👎1
Ну всьо, він зрозумів як це працює. Тепер точно буде намагатися зробити собі штучний інтелект щоб працював замість нього.
😁18🔥1💩1