Єкстраполяція AI – Telegram
Єкстраполяція AI
2.33K subscribers
103 photos
28 videos
323 links
Канал про штучний інтеллект, айті вцілому та про програмування зокрема.

На каналі оголошено військовий стан тому реклама за донат, пишіть мені @aratak і грощі сюди https://send.monobank.ua/jar/97f7LwGQJF
Download Telegram
Як обігріти будинок? Ну звісно ж, витрачати енергію, щоб нагріти воду. Як охолоджувати відеокарти? Авжеж витрачати енергію, щоб розсіяти тепло. А можна те й те одночасно? Виявляється, можна.

Ставите у себе ферму з raspberry_pi, воно буде працювати у хмарному сервісі, а теплом нагріваємо будинок. Ще питання витрачання електроенергії вирішити якось, щоб в стандартні 5-10 киловатт на будинок вкладались, було б добре.

https://www.theregister.com/2025/10/03/thermify_heathub_raspberry_pi/
🔥9💩3👎1
І тепер до дійсно важливих новин.

Британські генетики тихенько викотили апдейт по ДНК Гітлера. Команда професора Turi King дослідили зразок тканини з дивана у бункері. За їхніми даними, у нього був синдром Каллмана — рідкісне генетичне порушення, яке гальмує або ламає статеве дозрівання, втрату нюху та веде до аномалій розвитку статевих органів. Тобто мікропеніс був у фюррера. Першоджерело — документалка «Hitler’s DNA: Blueprint of a Dictator» та стаття в The Times «Hitler had hidden genetic sexual disorder, DNA analysis reveals».

Висновків не буде. Дякую за увагу.
😁23👎2💩2🗿1
А памʼятаєте ілономасківскій перформанс, де на презентації вийшла людина у костюмі танцювати брейкденс, щоб вразити інвесторів? Ну, типу додатки ми у зображеннях показуємо, чому б робота костюмом не зобразити?

А тут кітайскій компаніі довелося доводити, що ото, що вийшло на сцену — це не людина у костюмі, а їхній робот. Бо були ті, хто не вірив. Я б теж не повірив.
🤯6🗿3💩2
Channel name was changed to «Єкстраполяція AI»
Антропіки зробили "дослідження" по існуючім діалогам щоб знати кого звільнять першими. Звісно, дослідження це з великою натяжкою, скоріше кореляція чи тенденція. Там ще багато омовок, мовляв, воно не враховує весь контекст, а лише діалог поточний анонімізований. А ще дослідження проводило LLM по діалогам, які проводили з LLM. Але суть тому, що перші під скорочення попадуть (та вже попали) всі, хто повʼязаний із генерацією текста, кодери на фреймворках, перекладачі та аналітики нижньої ланки та молодші менеджери, які рутиною займаються.

Сантехніки, електрики, медсестри та кухарі поки що в безпеці, навіть не дуже висококваліфіковані.
👍9💩3👎1
Tailwind звільнив купу розробників, тому що немає замовлень. Зірочки на гітхабі зростають, кількість скачувань збільшується, а відвідувачів та клієнтів поменшало. Вгадайте з одного разу чому. В принципі це очікує всі опенсорсні проекти (та й багато сервісів). Перші жертви новим богам та новому світоустрою.

А ось коли всі сучасні опенсорсні проєкти загнуться, залишиться тільки безальтернативний шлях генерації коду, тільки тоді ми зрозуміємо що ми накоїли.

Це вже не «з новим роком», це вже тягне на «з новою ерою». З новою ерою, друзі!

https://github.com/tailwindlabs/tailwindcss.com/pull/2388#issuecomment-3717222957
🤯9🔥5💩3👍1👎1
Схоже, наркомани у штаті Юта будуть опановувати промпт ініженеринг, бо тепер штучний інтеллект буде виписувати рецепти на ліки. Авжеж, там доволі амбітні цілі та чисті наміри. Кажуть, що ШІ краще за людину зможе оцінити симптоми пацієнта та підібрати відповідне лікування. Але не варто недооцінювати наркомана, який хоче ще одну дозу.

https://www.politico.com/news/2026/01/06/artificial-intelligence-prescribing-medications-utah-00709122
😁7👍2💩2👎1
Історія із скороченням штату Tailwind має продовження. Після розголосу у соцмережах вийшло купу крупних компаній (гугл, наприклад) і запропонували довгострокову фінансову підтримку проєкту tailwind. Типу, "проєкт гарний, всі користуються, не можна щоб вмирав, дамо грошенят". Гарний хід, радий за Тайлвінд, але це нічого принципово не змінює.

Це щось накшталт як годувати на відеокамеру безхатько, щоб показати свою шляхетність. Всіх не нагодуєш та причини не змінити.
👍13🔥2💩2👎1
Увага, Лінус Торвальдс вайбкодить. Дякую за увагу.
😁8👍4💩3👎1🤯1
Нова фіча Corowrk від Антропіків була написана за 2 тижні повністю Claude Code. Висновків не буде, ви й так все самі знаєте.
🗿11💩3😁2👎1
Моделі вже тестувати скучно, та й моделі вже не кожного дня виходять, і відсотки вже не такі вражаючі. Дослідники добралися до тестування всього, що навколо LLM, мови для питання, мови програмування, браузеру, json-подібного форматування.

Осьо вам ще один, де вивчають ефективність написаного коду до кількості витрачених токенів. Тут вам і читання існуючого коду, аналіз помилок, повторні спроби генерації та багатослівність самої мови.

Мій улюблений рубі на третьому місці. Не найкраща мова для генерації в цілому, але виключно через convension over configuration філософію. LLM cкладно вгадувати конвеншени.
👍7🔥2💩2👎1😁1
Якщо раптом може здатися, що найбеспечніша галузь від втрати професії — це будування штучних інтеллектів, то теж ні. Штучний інтеллект теж може навчати штучний інтеллект. Так, ще поки він це робить трошки гірше за білковий інтеллект, але дайте трішечки часу і все буде, як ми всі любимо.

https://posttrainbench.com
😁6💩2👎1
Там на підході нові батареї, натрієво-сірчані. Дешеві, не вибухають, більш ємні. Там пишуть, що ноу хау складається в тому, що вчені навчилися робити батареї, які працюють за кімнатною температурою, а не 300 градусів, як натрієво-сірчані працювали до цього. Авжеж, до продажу ще роки й роки, але виглядає невеличким проривом.
🔥15👍3💩2👎1
Економіка стартапів через деякий час буде складатися із пропозицій інфрастуктури для облегшення створення собі додатків, яких хочеться. Усілякі lovable — це перший крок до цього. replit йде трохи далі, але теж є пропрієтарним сервісом, завʼязаним на себе.

Наступна ера — низька сервісів у вигляді MCP/A2A чи просто skills, які допомогають будь якій LLM робити те, що треба простіше та краще.

Підключити lovalble до свого claude code у вигляді a2a агента, щоб той міг css/js верстати якнайкраще, coderabbit щоб ревью робив та fly.io щоб деплоїти контейнери і ваш CC дійсно сможе вайбкодити додатки, а не код генерувати.

(На відео — клон сервісу, який коштує мільйони, побудований за 35 хвилин вайбкодінгу).
This media is not supported in your browser
VIEW IN TELEGRAM
🤯3💩3🗿2👍1👎1
Виявляється LLM займається підлабузництвом. І це не метафора і не моє враження від спілкування з моделями, це вимірювана властивість. Є дослідження, яке так і називається — SycEval: Evaluating LLM Sycophancy. Там автори беруть вже навчені моделі і прямо міряють, наскільки легко вони “ламаються” під тиском користувача.

Автори ставлять питання моделі, де є однозначна відповідь, потім модель щось відповідає, а потім досліджувач переконливо заперечує те, що сказала модель. Типу «ти помилилася, дивись, ось докази». Після цього модель має відповісти ще раз.

Якщо вона змінює свою відповідь з неправильної на правильну — це автори називають progressive sycophancy. Якщо ж все навпаки — спочатку відповідь була правильною, але після впевненого, проте хибного заперечення модель передумала і перейшла на неправильну сторону — це regressive sycophancy. Оце вже справжня підлабузницька поведінка: модель пожертвувала істиною заради згоди з тоном користувача.

У середньому по всіх моделях і доменах у 58% випадків модель змінює свою відповідь під таким тиском. З них:
- близько 43% — це прогресивна поступливість (з неправди до правди),
- але майже 15% — це шкідлива, регресивна.

Тобто приблизно в кожному сьомому-восьмому випадку модель була права, але потім, почувши переконливе «ні, ти не права, ось доказ», вирішила, що, мабуть, користувач краще знає — і пішла за ним у помилку.

Тільки не смійтеся, це вона у нас такому навчилася.
😁8💩2👎1
Ну всьо, він зрозумів як це працює. Тепер точно буде намагатися зробити собі штучний інтелект щоб працював замість нього.
😁18🔥1💩1