І тепер до дійсно важливих новин.
Британські генетики тихенько викотили апдейт по ДНК Гітлера. Команда професора Turi King дослідили зразок тканини з дивана у бункері. За їхніми даними, у нього був синдром Каллмана — рідкісне генетичне порушення, яке гальмує або ламає статеве дозрівання, втрату нюху та веде до аномалій розвитку статевих органів. Тобто мікропеніс був у фюррера. Першоджерело — документалка «Hitler’s DNA: Blueprint of a Dictator» та стаття в The Times «Hitler had hidden genetic sexual disorder, DNA analysis reveals».
Висновків не буде. Дякую за увагу.
Британські генетики тихенько викотили апдейт по ДНК Гітлера. Команда професора Turi King дослідили зразок тканини з дивана у бункері. За їхніми даними, у нього був синдром Каллмана — рідкісне генетичне порушення, яке гальмує або ламає статеве дозрівання, втрату нюху та веде до аномалій розвитку статевих органів. Тобто мікропеніс був у фюррера. Першоджерело — документалка «Hitler’s DNA: Blueprint of a Dictator» та стаття в The Times «Hitler had hidden genetic sexual disorder, DNA analysis reveals».
Висновків не буде. Дякую за увагу.
😁23👎2💩2🗿1
А памʼятаєте ілономасківскій перформанс, де на презентації вийшла людина у костюмі танцювати брейкденс, щоб вразити інвесторів? Ну, типу додатки ми у зображеннях показуємо, чому б робота костюмом не зобразити?
А тут кітайскій компаніі довелося доводити, що ото, що вийшло на сцену — це не людина у костюмі, а їхній робот. Бо були ті, хто не вірив. Я б теж не повірив.
А тут кітайскій компаніі довелося доводити, що ото, що вийшло на сцену — це не людина у костюмі, а їхній робот. Бо були ті, хто не вірив. Я б теж не повірив.
🤯6🗿3💩2
Антропіки зробили "дослідження" по існуючім діалогам щоб знати кого звільнять першими. Звісно, дослідження це з великою натяжкою, скоріше кореляція чи тенденція. Там ще багато омовок, мовляв, воно не враховує весь контекст, а лише діалог поточний анонімізований. А ще дослідження проводило LLM по діалогам, які проводили з LLM. Але суть тому, що перші під скорочення попадуть (та вже попали) всі, хто повʼязаний із генерацією текста, кодери на фреймворках, перекладачі та аналітики нижньої ланки та молодші менеджери, які рутиною займаються.
Сантехніки, електрики, медсестри та кухарі поки що в безпеці, навіть не дуже висококваліфіковані.
Сантехніки, електрики, медсестри та кухарі поки що в безпеці, навіть не дуже висококваліфіковані.
👍9💩3👎1
Tailwind звільнив купу розробників, тому що немає замовлень. Зірочки на гітхабі зростають, кількість скачувань збільшується, а відвідувачів та клієнтів поменшало. Вгадайте з одного разу чому. В принципі це очікує всі опенсорсні проекти (та й багато сервісів). Перші жертви новим богам та новому світоустрою.
А ось коли всі сучасні опенсорсні проєкти загнуться, залишиться тільки безальтернативний шлях генерації коду, тільки тоді ми зрозуміємо що ми накоїли.
Це вже не «з новим роком», це вже тягне на «з новою ерою». З новою ерою, друзі!
https://github.com/tailwindlabs/tailwindcss.com/pull/2388#issuecomment-3717222957
А ось коли всі сучасні опенсорсні проєкти загнуться, залишиться тільки безальтернативний шлях генерації коду, тільки тоді ми зрозуміємо що ми накоїли.
Це вже не «з новим роком», це вже тягне на «з новою ерою». З новою ерою, друзі!
https://github.com/tailwindlabs/tailwindcss.com/pull/2388#issuecomment-3717222957
GitHub
feat: add llms.txt endpoint for LLM-optimized documentation by quantizor · Pull Request #2388 · tailwindlabs/tailwindcss.com
Add /llms.txt endpoint that serves a concatenated, text-only version of all Tailwind CSS documentation pages optimized for Large Language Model consumption.
Extract text from MDX files, removing J...
Extract text from MDX files, removing J...
🤯9🔥5💩3👍1👎1
Схоже, наркомани у штаті Юта будуть опановувати промпт ініженеринг, бо тепер штучний інтеллект буде виписувати рецепти на ліки. Авжеж, там доволі амбітні цілі та чисті наміри. Кажуть, що ШІ краще за людину зможе оцінити симптоми пацієнта та підібрати відповідне лікування. Але не варто недооцінювати наркомана, який хоче ще одну дозу.
https://www.politico.com/news/2026/01/06/artificial-intelligence-prescribing-medications-utah-00709122
https://www.politico.com/news/2026/01/06/artificial-intelligence-prescribing-medications-utah-00709122
POLITICO
Artificial intelligence begins prescribing medications in Utah
Pilot program will test how far patients and regulators are willing to trust AI in medicine.
😁7👍2💩2👎1
Історія із скороченням штату Tailwind має продовження. Після розголосу у соцмережах вийшло купу крупних компаній (гугл, наприклад) і запропонували довгострокову фінансову підтримку проєкту tailwind. Типу, "проєкт гарний, всі користуються, не можна щоб вмирав, дамо грошенят". Гарний хід, радий за Тайлвінд, але це нічого принципово не змінює.
Це щось накшталт як годувати на відеокамеру безхатько, щоб показати свою шляхетність. Всіх не нагодуєш та причини не змінити.
Це щось накшталт як годувати на відеокамеру безхатько, щоб показати свою шляхетність. Всіх не нагодуєш та причини не змінити.
👍13🔥2💩2👎1
Моделі вже тестувати скучно, та й моделі вже не кожного дня виходять, і відсотки вже не такі вражаючі. Дослідники добралися до тестування всього, що навколо LLM, мови для питання, мови програмування, браузеру, json-подібного форматування.
Осьо вам ще один, де вивчають ефективність написаного коду до кількості витрачених токенів. Тут вам і читання існуючого коду, аналіз помилок, повторні спроби генерації та багатослівність самої мови.
Мій улюблений рубі на третьому місці. Не найкраща мова для генерації в цілому, але виключно через convension over configuration філософію. LLM cкладно вгадувати конвеншени.
Осьо вам ще один, де вивчають ефективність написаного коду до кількості витрачених токенів. Тут вам і читання існуючого коду, аналіз помилок, повторні спроби генерації та багатослівність самої мови.
Мій улюблений рубі на третьому місці. Не найкраща мова для генерації в цілому, але виключно через convension over configuration філософію. LLM cкладно вгадувати конвеншени.
👍7🔥2💩2👎1😁1
Якщо раптом може здатися, що найбеспечніша галузь від втрати професії — це будування штучних інтеллектів, то теж ні. Штучний інтеллект теж може навчати штучний інтеллект. Так, ще поки він це робить трошки гірше за білковий інтеллект, але дайте трішечки часу і все буде, як ми всі любимо.
https://posttrainbench.com
https://posttrainbench.com
😁6💩2👎1
Там на підході нові батареї, натрієво-сірчані. Дешеві, не вибухають, більш ємні. Там пишуть, що ноу хау складається в тому, що вчені навчилися робити батареї, які працюють за кімнатною температурою, а не 300 градусів, як натрієво-сірчані працювали до цього. Авжеж, до продажу ще роки й роки, але виглядає невеличким проривом.
Nature
High-voltage anode-free sodium–sulfur batteries
Nature - A new architecture based on high-valence sulfur/sulfur tetrachloride cathode chemistry is described for manufacturing high-voltage anode-free sodium–sulfur batteries, demonstrating...
🔥15👍3💩2👎1
Економіка стартапів через деякий час буде складатися із пропозицій інфрастуктури для облегшення створення собі додатків, яких хочеться. Усілякі lovable — це перший крок до цього. replit йде трохи далі, але теж є пропрієтарним сервісом, завʼязаним на себе.
Наступна ера — низька сервісів у вигляді MCP/A2A чи просто skills, які допомогають будь якій LLM робити те, що треба простіше та краще.
Підключити lovalble до свого claude code у вигляді a2a агента, щоб той міг css/js верстати якнайкраще, coderabbit щоб ревью робив та fly.io щоб деплоїти контейнери і ваш CC дійсно сможе вайбкодити додатки, а не код генерувати.
(На відео — клон сервісу, який коштує мільйони, побудований за 35 хвилин вайбкодінгу).
Наступна ера — низька сервісів у вигляді MCP/A2A чи просто skills, які допомогають будь якій LLM робити те, що треба простіше та краще.
Підключити lovalble до свого claude code у вигляді a2a агента, щоб той міг css/js верстати якнайкраще, coderabbit щоб ревью робив та fly.io щоб деплоїти контейнери і ваш CC дійсно сможе вайбкодити додатки, а не код генерувати.
(На відео — клон сервісу, який коштує мільйони, побудований за 35 хвилин вайбкодінгу).
This media is not supported in your browser
VIEW IN TELEGRAM
🤯3💩3🗿2👍1👎1
Виявляється LLM займається підлабузництвом. І це не метафора і не моє враження від спілкування з моделями, це вимірювана властивість. Є дослідження, яке так і називається — SycEval: Evaluating LLM Sycophancy. Там автори беруть вже навчені моделі і прямо міряють, наскільки легко вони “ламаються” під тиском користувача.
Автори ставлять питання моделі, де є однозначна відповідь, потім модель щось відповідає, а потім досліджувач переконливо заперечує те, що сказала модель. Типу «ти помилилася, дивись, ось докази». Після цього модель має відповісти ще раз.
Якщо вона змінює свою відповідь з неправильної на правильну — це автори називають progressive sycophancy. Якщо ж все навпаки — спочатку відповідь була правильною, але після впевненого, проте хибного заперечення модель передумала і перейшла на неправильну сторону — це regressive sycophancy. Оце вже справжня підлабузницька поведінка: модель пожертвувала істиною заради згоди з тоном користувача.
У середньому по всіх моделях і доменах у 58% випадків модель змінює свою відповідь під таким тиском. З них:
- близько 43% — це прогресивна поступливість (з неправди до правди),
- але майже 15% — це шкідлива, регресивна.
Тобто приблизно в кожному сьомому-восьмому випадку модель була права, але потім, почувши переконливе «ні, ти не права, ось доказ», вирішила, що, мабуть, користувач краще знає — і пішла за ним у помилку.
Тільки не смійтеся, це вона у нас такому навчилася.
Автори ставлять питання моделі, де є однозначна відповідь, потім модель щось відповідає, а потім досліджувач переконливо заперечує те, що сказала модель. Типу «ти помилилася, дивись, ось докази». Після цього модель має відповісти ще раз.
Якщо вона змінює свою відповідь з неправильної на правильну — це автори називають progressive sycophancy. Якщо ж все навпаки — спочатку відповідь була правильною, але після впевненого, проте хибного заперечення модель передумала і перейшла на неправильну сторону — це regressive sycophancy. Оце вже справжня підлабузницька поведінка: модель пожертвувала істиною заради згоди з тоном користувача.
У середньому по всіх моделях і доменах у 58% випадків модель змінює свою відповідь під таким тиском. З них:
- близько 43% — це прогресивна поступливість (з неправди до правди),
- але майже 15% — це шкідлива, регресивна.
Тобто приблизно в кожному сьомому-восьмому випадку модель була права, але потім, почувши переконливе «ні, ти не права, ось доказ», вирішила, що, мабуть, користувач краще знає — і пішла за ним у помилку.
Тільки не смійтеся, це вона у нас такому навчилася.
😁8💩2👎1