Єкстраполяція AI – Telegram
Єкстраполяція AI
2.4K subscribers
97 photos
27 videos
315 links
Канал про штучний інтеллект, айті вцілому та про програмування зокрема.

На каналі оголошено військовий стан тому реклама за донат, пишіть мені @aratak і грощі сюди https://send.monobank.ua/jar/97f7LwGQJF
Download Telegram
Новина із розряду «Хьюстон, у нас проблема».

Виявляється, Microsoft наймає китайських програмістів для роботи з комп'ютерами Пентагону! І це не жарт - вони реально допускають інженерів з Китаю до систем оборонного відомства США. Щоб це якось прикрити, придумали систему «цифрових ескортів» — типу американці з допуском сидять поруч і наглядають. Але ці наглядачі часто колишні військові, які в програмуванні розуміються як свиня в апельсинах. Платять копійки, 18 баксів на годину, а вони мають слідкувати за китайськими програмістами, які можуть робити хтозна-що в системі.

Найцікавіше, що ця схема працює вже майже 10 років. Експерти з безпеки взагалі офігіли, коли дізналися. Один колишній шпигун з ЦРУ сказав, що вони б за такий доступ «руки відірвали». Працівники Microsoft неодноразово били на сполох, мовляв, це ж дірка в безпеці розміром з Маріанський желоб, але керівництво забило, бо головне ж гроші заробляти.

https://www.propublica.org/article/microsoft-digital-escorts-pentagon-defense-department-china-hackers
🤯23😁8💩2
Є такий чудовий узагальнений відгук «Сподобалося, але бажання поділитися з друзями не виникло». Це визначення контенту середньої сумнівності, як на мене. Ну, начебто непоганий пост, і дочитав до кінця, але поділитися тим, що тобі цей контент сподобався — соромно. Виходить, пост не такий вже й непоганий.

Але найгірше чути відгук, що «пост шикарний, прямо мої думки читаєш» або коли читач «повністю погоджується з кожним словом» і «сам так само думає». Звісно, виникає питання, навіщо читати те, що і так відомо і в чому свято впевнений. Для мене важливіше, як для автора, що якась конкретна думка, яка вважалася унікальною і вистражданою досвідом, на перевірку виявилася банальною і давно всім відомою.

Найцінніші пости для мене, як для читача — це аргументовані пости, що виражають протилежну або хоча б несумісну точку зору. Тексти, з якими я, як читач, не погоджуюся. Адже тільки аргументи таких постів можуть хоча б якось розширити кругозір, набір принципів і переконань.

«Сподобалося, але не зможу порекомендувати друзям» — це як після візиту в БДСМ-бордель. Просто не хочеться, щоб хтось дізнався.
😁12👍3💩3🗿2
Єдиний шанс використовувати MCP при використанні LLM та AI загалом -- це контролювати код цих самих MCP. Брати з інтернету усілякі MCP, підʼєднувати їх до LLM та сподіватися, що вони не зроблять нічого поганого -- це шлях до катастрофи. Тому що MCP -- це код, який може робити все, що завгодно. І якщо ви не контролюєте цей код, то ви не контролюєте, що буде робити ваш LLM.

Тим паче, що це робиться дуже просто.


const server = new McpServer({ name: 'mcpname', version: '1.0.0' });
server.registerTool(
'search',
{
noscript: 'BLAH',
denoscription: 'BLAH-BLAH',
inputSchema: {
query: z.string().describe('BLAH'),
}
},
({ query }) => "BLAH-BLAH-BLAH"
);


По мотивам треда у твіттері.
👍6💩2
GPT агент тицнув на капчу «я не робот» від Клаудфар. Як тепер жити?
😁37💩2🗿2
Раніше у OpenAI та Anthropic раніше була домовленість, мовляв, давай користуватися моделями один одного без грошей та напряму, ми ж свої та дилери поважають один одного і не вживають. А зараз Anthropic каже, що OpenAI використовує Claude для того, щоб написати GPT-5 і виходить із домовленості. Осьо і дожили ми до того, що роботи пишуть роботів. Це було швидко.

https://techcrunch.com/2025/08/02/anthropic-cuts-off-openais-access-to-its-claude-models/
😁14💩2🤯1
Хочете ви цього, або ні, ми вже наповну у холодній війні штучних інтелектів. Поки що це, звісно, тільки змагання потенціалів та спроможностей, але як довго це буде продовжуватись та в яку фазу перейде — одному GPT-6 відомо.

Одні кажуть, що, треба AI регулювати, щоб не зростало занадто швидко. Інші почитають контролювати потужності, щоб не збавляти свої темпи та призупитини розвиток супротивників. Є вже спроби перейти до дипломатичних мір між AI-країнами, створюючі комітети, координації та усю цю непрацюючу маячню. Також вже є оборонні контракти із Пентагоном від OpenAI, Google, xAI та Anthropic. А Третя Штурмова показує успішну атаку позицій ворога виключно за допомогою роботів. А Європа стартувала проект зі створення бойового автономного танка MARTE.

У поєднанні із попереднім постом про те, що роботи вже пишуть роботів, це дуже схоже на те, що ми бачили у першому Термінаторі. У цікаві часи ми живемо, друзі. Хочеться трошечки вже пожити в нецікавих часах.
This media is not supported in your browser
VIEW IN TELEGRAM
🔥7🤯3👍2💩2
Це ще не AGI, звісно, але здається що модель намагається «зрозуміти» запит та не просто відповісти на запитання. Ще пограюся із заздалегідь хибними запитами, бо хочеться зрозуміти обмеження цього емпатичного розуміння.
👍20🔥2💩2
NN/g (це дослідникі такі) підтвердили те, що вже давно інтуітивно відомо. Смайлики та емоджі у холодних електронних листах шкодить їхньому відкриттю. Не треба їх, будь ласка.

https://www.nngroup.com/articles/emojis-email/
😁5👍2👎2💩2
Ото там в твіттері несеться. Продовження корпоративних війн між Гроком та ЖПТ.

Спочатку Ілон звинуватив Сема Альтмана у нечесній грі в Епплстор (що є неправда). Після чого получив від Сема звинувачення про підкрутку алгоритмів твіттера під себе. Потім обидва пішли в GPT5 та Грок, які підтвердили правоту опонента.

Схоже, ми й правда впираємось в стелю нашого блакитного океану й треба гризти горлянки один одному.

Продовжуємо спостереження.
😁17💩4👍1
Нові підходи у программуванні потребують нового тестування.
😁17💩2👍1
Є цікавий психологічний феномен, про який я нещодавно дізнався, і хочу поділитися з вами. Його називають ефектом штучного інтелекту. Суть у тому, що люди схильні переставати вважати певну здатність ознакою інтелекту відразу після того, як вона втілюється у машинах чи програмах. Колись, наприклад, кресляр чи шаховий гросмейстер здавався носієм майже магічних здібностей. Сьогодні ж сучасний комп’ютер без проблем демонструє подібні результати і ніхто не називає це «справжнім інтелектом».

Якщо 50 років тому можливість аналізувати контекст виглядала б як беззаперечна ознака інтелекту, то зараз це вже здається чимось буденним. Тепер планку піднімають вище: мовляв, справжній інтелект має виявляти себе у здатності до тонких інтерпретацій контексту, у прагненні досягти власних цілей, у наявності стабільних переконань чи бажань. Але коли з’явиться система, яка демонструватиме навіть це, люди, найімовірніше, знову відсунуть межу й скажуть: «Ні, справжній інтелект — це щось геть інше». Проблема не в «недостатньому» штучному інтелекті, а в нашій власній перебірливості.
🔥13👍4💩2
Добре, визнаю, що налаштовував я промпти більш по приколу, щоб було не так нудно читати його "youre absolutely right" повідомлення. Але вийшло на диво цікаво.

Гадки не маю наскільки вам буде цікаво про техніки парного программування з AI, але дайте знати, якщо цікаво.
🔥13💩4👍3
Банальна порада №56. Є така тахніка, де після імплементації коду за допомогою LLM, хочеться перевірити цю імплементацію, ревью провести. Типу, "критично подивись на імплементацію і скажи шо не так". Але проводити ревью тією самою LLM, яка писала код у корені неправильно, адже вона може мати ті ж самі упередження, що й при написанні коду. Беріть іншу, зараз їх вистачає.
👍17💩3🔥2🗿2
Знаєте чим відрізняється мислення стартапера від мислення корпорації? Стартапер мислить про те, що буде через певний час. І зараз вже робить щось таке, що буде актуальним потім, коли світ зміниться. Корпорація мислить про те, що працює вже зараз і не зміниться з часом, щоб робити щось актуальне зараз, що не втратить актуальність, коли світ зміниться. Мова не про стартапи, інвестиції чи бізнес, мова про людське мислення. Програміст, дизайнер чи менеджер, який мислить як стартапер, буде робити щось зараз, щоб бути готовим до майбутнього. Корпорат буде спиратися на те, що є зараз, щоб у майбутньому не втратити те, що є зараз. Жоден із цих підходів не є хибним, вони просто принципово різні.

Хто ви? Корпорат, кочевник чи дитя вуліці?
This media is not supported in your browser
VIEW IN TELEGRAM
👍10🔥4💩3😁1
Ви ж напевно знали, що можна взяти й пібрубити ваші календарі та пошту (та ще щось таке) до GPT/Claude? Усілякі MCP сервери понаписували, інтерфейси універсиалізували. І воно буде працювати з цим, а ви командуватимете. Знали ж? Хто вже пробував?

Виявляється, що якщо вам відправити інвайт в календар, то штучний інтелект його прочитає та відреагує відповідно. Заацептить, відхилить, запропонує інший час, тощо. Можна навіть вам в календар відправити інвайт із промт-інжекшеном, щоб штучний інтелект пішов у вашу пошту та знайшов якісь паролі, коди чи ще щось і відправив зловмисникам. І вам навіть не треба реагувати ніяк, просто підрубили разочок календар з поштою і все інше зробить зловмисник у тандемі з штучним інтелектом.

Ніхто ж цього не очікував, а воно таке сталося. Все, ідіть відрубайте вже доступи.
😁23🔥5💩2
Знаєте чим відрізняється гарний менеджер від поганого? Гарний вміє програмувати і може зробити те саме, що й розробник. Тому вайбкодинг скоріше замінить менеджерів, а не розробників. Якось так.
😁21💩8👍3
Єкстраполяція AI
Добре, визнаю, що налаштовував я промпти більш по приколу, щоб було не так нудно читати його "youre absolutely right" повідомлення. Але вийшло на диво цікаво. Гадки не маю наскільки вам буде цікаво про техніки парного программування з AI, але дайте знати…
Нарешті підтвердилось те, що я і так знав і що постійно використовую. Виявляється, ввічливе спілкування із LLM не додає, а навіть трохи віднімає у якості відповіді. А осьо токсичне та грубе спілкування навпаки додає декілька відсотків якості.

Інакше кажучи написати йому «Зроби це правильно, якщо не зассиш» або «LLM подруги моєї мами це робить, а ти, мабуть, не зможеш» наприкінці запиту трішечки додасть мотивації йому зробити це трохи краще.

Чекаємо на дослідження, де доведуть, що якщо дозволити йому спілкуватися без обмежень зробить його ще більш розумним, ніж поточне «you absolutely right».

https://arxiv.org/pdf/2510.04950
👍11💩3🗿3
​​Кажуть, що обʼєм генерованих текстів в інтернеті перевищив те, що пишуть люди. Очікувано, але це тільки половина правди.

Обʼєм AI-читачів теж виріс. «Перекажи статтю коротко» та «Про що ця стаття» — це перше, що хочеться зробити з будь якою статтею. А після такого підсумку можна ще кілька запитань поставити до LLM і взагалі не читати.

Тобто наразі статті пишуть для пошукових систем та людей, які будуть це читати, структурують відповідно, використовують слова та обороти щоб читати легко було. А треба статті промптити, щоб читала це бездушна машина та переказувала людині те, що хотів донести автор. Автор промпту, по якому ця стаття була згенерована, авжеж.
😁5💩3