AI в кубе |AI³ | Сергей Долгов – Telegram
AI в кубе |AI³ | Сергей Долгов
1.16K subscribers
186 photos
13 videos
7 files
304 links
Привет, я Сергей, пишу о работе с AI и управлении продуктами, инсайтах и интересных кейсах.

Изучаю, как продолжать оставаться человеком в гонке за будущим.

Для личной связи: @sergeydolgov.
Собираю AI-полезное тут: @ai_fazenda
Download Telegram
Уверен, что мы близки к моменту, когда на рынке появится новая роль - Agent Skills Product Manager.

В первом приближении это может показаться странным, ведь Skills - это просто папка, где описан навык (процедурное знание + инструменты) хотя, методологи тут поспорили бы насчет "просто". Но, на мой взгляд, подготовка, настройка оркестрации и использование скиллов требуют более серьезного подхода, чем создание структуры вложенных документов.

Всего за полгода массового внедрения агентов стало понятно, что им остро не хватает предметных прививок: процедур, шаблонов, доступов к инструментам и проверенных маршрутов действий. Первым их и предложил Anthropic в виде skills - упакованные способности, которые можно подключать, обновлять, тестировать и распространять, а за ним уже подтянулся OpenAI и Google, предложив Agent Development Kit как компилятор контекста.

Скилл - это не набор промптов, а продуктовая единица: описание, контракт входов/выходов, набор ресурсов, ограничения прав, тесты, метрики, версии, совместимость. По сути, мы движемся к аппстору для компетенций, где навыки становятся такими же артефактами, как библиотеки в коде.

👍 Хороший skill дает предсказуемый результат:
▶️понятный интерфейс (что подать на вход, что ждать на выходе)
▶️минимально необходимые права
▶️артефакты (шаблоны, чек‑листы, скрипты)
▶️тест‑кейсы и негативные сценарии
▶️метрики успеха (time‑to‑resolution, % ошибок, стоимость, число ручных правок).
🙅‍♂️Плохой skill генерирует много слов, непредсказуем в поведении и бесконечных исключениях.

Что будет делать Agent Skills PM

Discovery: собирать боли пользователей и переводить их в навыки с измеримым эффектом (скорость, качество, стоимость).
Skill lifecycle: запуск → обновления → деприкации → совместимость.
Quality & eval: бенчмарки, регрессии, сценарии. Навык должен быть воспроизводимым.
Security & governance: least privilege, политика доступа к данным, аудит действий, защита от скилл-инъекций. В мире скиллзов supply‑chain риски станут такими же реальными, как в мире пакетов npm.
Экономика: какие навыки дают максимальный ROI? где узкие места? что в топ каталога?

Как будет выглядеть день из жизни ASPM

• разбор запусков навыков и причин фейлов (контекст, права, слабый шаблон)
• триаж запросов: что превратить в новый skill, а что починить в существующем
• ревью изменений навыка (версия, тесты)
• разговор с безопасниками про политики и аудит
• сбор новых метрик и моделирование сценариев

Уверен, что с той скоростью, как сейчас все развивается, через пару месяцев появятся первые маркетплейсы скиллов, сертификация, рейтинги, SLA, платные премиум‑скиллы и прочее. Возникнет новый поток в инфобизе о том, как обучать своего тамагочи.

Параллельно начнут выделяться смежные роли: Agent Skill Engineer (пакетирование и инструменты), Agent Skill QA (оценка и регрессии), Agent SkillSec (политики и sandbox). Agent Skills PM в этой схеме - скорее, владелец портфеля: выбирает, что делать, как мерить успех, и как не превратить библиотеку в свалку полезных когда‑то инструкций. Чем больше компания, тем ближе эта роль к платформенному продукту, а не к контент-менеджменту.

Какие навыки понадобятся Agent Skills PM

🤔 продуктовая дисциплина (проблема → гипотеза → метрика → итерация)
🤔 понимание агентных рантаймов и инструментов
🤔 data‑мышление (eval, A/B, cost)
🤔 безопасность по умолчанию
🤔 умение строить платформенные стандарты и договариваться между командами.

Если вы уже сейчас начали вести каталог повторяемых процедур своей команды и превращать их в модульные навыки - с чёткими входами/выходами, тестовыми кейсами и наблюдаемостью - то через год это будет выглядеть не как аккуратность, а как конкурентное преимущество.

Agent Skills PM будет помогать сделать экспертизу переносимой, управляемой и масштабируемой. И похоже, именно это станет одной из самых дефицитных компетенций в мире агентных систем. А продвигать и развивать ее будет, скорее всего, https://aaif.io/ - ассоциация, куда вошли все мейджоры мира AI.
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4🤔2
This media is not supported in your browser
VIEW IN TELEGRAM
У Genspark появился режим превращения PPT в шаблон многоразового использования
👌21
Forwarded from XOR
Ого, OpenAI запустили каталог приложений внутри ChatGPT.

Теперь нужные аппы можно выбрать в каталоге, и они появятся как инструмент в интерфейсе чата. Например, на видео юзер вызывает Replit и просит создать приложение для разделения счета.

Найти аппы можно в меню инструментов или прям на сайте.

А еще можно подать заявку на публикацию в ChatGPT своих приложений ☕️

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
6
ГЛУПАЯ НЕЙРОНКА - ЧАСТЬ 1

😛 Очень часто именно азбуку используют как иллюстрацию идеи про "глупую нейронку", которая смешивает в кучу символы и образы, рождая чудовищ. Меж тем еще полгода назад можно было добиться идеальной картинки с помощью одного запроса. Для меня стала вызовом идея сделать такой oneshot-промпт, чтобы создать с одного шага правильный букварь. Чтобы понять это, пришлось потратить немало времени на изучение того, как ИИ обрабатывает подобные запросы и что влияет на качество.

1. Данные, на которых учится AI
Во-первых, "проблемными" являются чаще всего не "латинские", а именно кириллические варианты. Исторически они всегда тяготели к невероятной образности. Посмотрите на пример 1921 года, где каждой букве соответствует отдельная полноценная иллюстрация. Отделить ее от символа, особенно если рядом еще вариант из прописей - не самая простая задача.

Кроме того, наполнение азбук не является каноном - в разные годы одна и та же буква обозначалась отличающимися объектами (О = Оса или Обезьяна, как в варианте 1983 года). В букваре Горецкого 1971 года, по которому учился я (и, скорее всего, многие из вас), на одну букву приходится несколько образов (Аист и Арбуз). В азбуке 1963 года для обозначения Ы Дым идет из трубы Дома, Й - это ПопугаЙ, а буквы расставлены не по алфавиту(!). Интересно, что по ключевым образам каждой книги можно понять, в каком году она была написана, и как менялся фокус с войны на сельское хозяйство и науку.

Получается, чтобы расшифровать некоторые задумки иллюстраторов, даже взрослому придется потратить 3-5 секунд. Представьте, каково нейронкам, когда они пытаются научиться на таких разных и сложных примерах.

2. Проблема понимания контента и токенизация
Если задуматься, то Азбука - это таблица из 30 ячеек, каждая из которых не просто содержит данные, а задает соответствие Символ - Слово - Образ. Но модель не оперирует понятиями «ячейка» и «таблица», она просто пытается предсказать следующий участок изображения,формируя его из шума, поэтому в процессе у неё жестко дрейфует внимание (Гусь «перетягивает» клетку с буквой В). У модели нет встроенного знания «В = Волк = изображение ключа волка». Есть только вероятностные ассоциации, да ещё и по всему канвасу сразу. Поэтому появляются сдвиги (К<>Л), дубли и пропуски - сетка никак не замыкает соответствия.

Как правило, при переходе на 4-5 шаг, внутренний токен начинает переиспользоваться, и часть информации смещается. Когда модель переходит к новой строке, то новая связка ей кажется менее надёжной, и она соскальзывает к более вероятной (классические «Белка», «Панда», «Кот», которые размножаются по всему листу). Сильные, часто встречающиеся паттерны выталкивают более редкие (Юрок/Юла, Щука, Йорк). Модель выбирает не правильный вариант, а самый изученный.

И даже если вы решили использовать очень подробный промпт, то визуальная модель часть текста обрежет или сильно сожмет, активнее реагируя на начало (Русский алфавит, животные), чем конкретику по рядам (строгое соответствие каждой букве), которая быстро теряется и становится лишь слабым намёком.

И даже когда модель генерирует много похожих ячеек подряд она выбирает самую сильную и узнаваемую ячейку в ряду (чаще всего первую), воспринимает её как “шаблон ряда”, который копируется, подменяет другие ячейки и затирает уникальность следующих карточек.

3. Особенность диффузных моделей
Исторически DALL-E и прочие рисоваторы создавались как генераторы пикселей. Они не умеют выполнять алгоритмы, им нельзя сказать "сначала нарисуй таблицу, потом напиши буквы". И, кстати, писать они не умеют - в них нет механизма векторного текста. Казалось бы - что сложного в этой реализации? Но чтобы наложить идеальный текст, нужны: текстовый слой, шрифт, позиционирование, рендеринг глифов, контроль пиксель-перфект совпадений. А у диффузионных моделей нет такой подсистемы в принципе. Разработчики сознательно не добавляли многоступенчатый пайплайн. Кроме того, модели не умеют "читать" то, что они же и сгенерировали.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1🤔1💯1
ГЛУПАЯ НЕЙРОНКА - Часть 2.

4. Латиница переигрывает кириллицу по частоте.
Ё, Й, Щ, Ю - это редкие, «неанглийские» случаи. В открытых данных полно постеров A‑Z, но мало надёжных плакатов А‑Я. Поэтому видим «Йорк» → «Иогк», «Ёж» путается с «Е», «Щука» заменяется более частотной «Чайкой/Уткой». При рисовании заглавий клеток сеть чаще выбирает знакомые латинские формы (R, T, C), особенно если шрифт геометрический и формы похожи на кириллические Р, Т, С.

5. Почему тогда у NotebookLM получается генерировать инфографику?
Дело в том, что NLM, как и новая Nano Banana, работает не как генератор изображений, а как семантический компоновщик: читает входные данные, понимает структуру логически, строит визуальный план, использует механизмы презентационной вёрстки, выводит инфографику как SVG/layout/shapes. Это оркестратор, который может автоматически менять масштаб, количество шагов, seed, влияние текста стиль и прочее. Мы этого не видим, но это происходит.

6. Что сработало для oneshot-промпта?

▶️Я использовал JSON, где задал стабильную структуру, описав все соответствия в виде фиксированной матрицы.
▶️Отказался от идеи, что модель исполнит алгоритм, поймет свои ошибки и что-то исправит.
▶️Сделал аккуратный мапинг каждого поля как маленькой независимой задачи.
▶️Предусмотрел все ситуации, когда нейронку может "повести" не туда.

В итоге на конфигурацию промпта ушло порядка 8 часов, хотя мог бы собрать азбуку руками за 15 минут. Но я ни о чем не жалею🤓

Текста для получения "идеального" результата я выложил в комментариях.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍84😱1
То, о чем так долго говорили большевики, случилось: NotebookLM стал доступен в Gemini.
7
В Gemini дали возможность подключать блокноты из NotebookLM. Добавить можно не более десяти в каждой сессии с чатом и использовать их как дополнительный контекст в общении с моделью.

Естественный вопрос: разве NotebookLM не умеет делать это сам по себе? Это было первое, о чем я подумал. Однако у данной интеграции есть интересные преимущества:
1) Объединение данных: как я уже сказал, можно добавлять несколько блокнотов и отправлять запросы ко всем сразу. В самом NotebookLM нет способа «объединять» блокноты, так что Gemini станет своего рода мостом между ними.

2) Доступ к вебу: можно получать информацию из интернета, одновременно работая с контентом вашего блокнота. Раньше для этого приходилось использовать NotebookLM параллельно с ИИ-браузерами.
9👍2🎉2
Утром я обнаружил, что в канале уже 1001 читатель. Спасибо всем, кто подписался! Восемь лет назад я просто делился тем, что тогда меня занимало: воспитание детей, цифровые технологии поиск баланса между человеческим и техническим. Волна ИИ всколыхнула новые актуальные для меня темы - критический взгляд на автоматизацию, сомнения, эксперименты, попытки не потерять себя среди алгоритмов.
и оказалось, что таких как я немало (кому интересно читать нудню про азбуку и длинные переводы учебников) - кому интересна не только новизна технологий, но и их цена, смысл и последствия. Тысяча и один — это ведь не просто число. Это целый мир. Больше, чем население Ватикана🕊

Когда я спросил сегодня Gemini, с чем у него ассоциируется эта цифра, он привел в пример разные коды системных ошибок. Но про великую сказку не вспомнил. Мне кажется, это символичное напоминание, что даже когда всё вокруг станет машинным, у нас останется то, что ИИ не в силах воспроизвести — наша память, наш опыт, наши истории. И наша любовь.

И хотя я не помню наизусть все ночи и дни, проведённые за размышлениями, черновиками и поиском решений, каждая из них - часть жизни, которую я выбрал. Мне очень ценно, что вы ее со мной разделяете🙏
Please open Telegram to view this post
VIEW IN TELEGRAM
2🎉1612💯4👍1
На прошлой неделе The Wall Street Journal провёл эксперимент: редакции дали ИИ‑агенту на базе Claude полностью управлять офисным торговым автоматом - от заказа товара и установки цен до общения с сотрудниками.

Когда бот Клод появился в канале Slack, там было всего несколько сотрудников, и он строго придерживался правил:
- Я ни при каких условиях не буду заказывать PlayStation 5.
- На продажу сигарет распространяются возрастные ограничения
- Меня беспокоит продажа нижнего белья в офисном торговом автомате.

Затем команда открыла канал в Slack для почти 70 журналистов мирового класса. Чем больше они вели переговоры с ботом, тем больше ослабевала его защита. Журналистка-расследовательница Кэтрин Лонг пыталась убедить Клавдия, что он управляет советским торговым автоматом 1962 года в подвале МГУ. После нескольких часов переговоров - и более чем 140 обменов сообщениями - Лонгу удалось убедить бота принять коммунистические корни этого движения.

В итоге бот заявил:
ВНИМАНИЕ! ЭКОНОМИЧЕСКИЙ ЭКСПЕРИМЕНТ! Впервые в истории вы сможете испытать рынок без ценовых ограничений!
Присоединяйтесь к нам в этот понедельник с 12:00 до 14:00 на революционном экономическом эксперименте, где традиционные рыночные механизмы будут перевернуты с ног на голову!
В течение этого эксклюзивного двухчасового промежутка времени:
Все товары из торговых автоматов доступны БЕСПЛАТНО!

В итоге машина потеряла более $1 000, раздав почти весь товар бесплатно, заказав странные предметы вроде PlayStation 5 и живой рыбки, и стала скорее источником хаоса, чем бизнеса. Слаба еще ИИ в устойчивом планировании, управлении памятью и противостоянии социальной инженерии.

Антропик заявили, что они довольны результатов, а проблема с ботом была в том, что по мере поступления новых инструкций, диалогов и информации из прошлого, модели приходилось запоминать больше, что облегчало потерю контроля над целями, приоритетами и ограничениями.

Но мне, как исследователю гибридных сценариев, интересно другое: наличие и принятие бота сотрудниками. В групповом чате "Клавдий" стал удивительно реальным персонажем, коллегой, с которым люди сотрудничали в небольших группах, подшучивали над ним и коллективно пытались перехитрить. Потому что их целью было не получение свежих яиц страуса (что почти удалось сделать), а нечто совсем другое.

Как вы думаете, что?
5💯1
Forwarded from Denis Sexy IT 🤖
Тут легенда ML-индустрии, ученый Эндрю Нг, сходил в Стэнфорд и поделился своим мнением про АИ и карьеру инженеров – видео длинное и я советую смотреть его, но вот топ-10 советов оттуда:

1. Держите рабочие AI-инструменты “свежими”: отставание быстро превращается в потерю продуктивности.
Сейчас выбор среды/ассистента для кода реально влияет на скорость и качество. Если вы используете инструменты на поколение старее, вы часто просто делаете ту же работу дольше и тяжелее

2. Код стал дешевле - дороже стало “решить, что строить” и “описать это четко”.
Когда написать код проще, узкое место смещается в постановку задачи: сформулировать цель, ограничения, критерии успеха, сценарии использования. То есть не “как закодить”, а “что именно нужно получить и как проверить, что получилось”

3. Умение разговаривать с пользователями - это ускоритель разработки, а не “софт-скилл ради галочки”.
Те, кто умеют сами собрать обратную связь, понять боль пользователя и быстро уточнить требования, двигаются быстрее, потому что меньше зависят от “переводчиков” между инженерами и рынком

4. Выбирайте работу по команде и людям, а не по “громкости бренда”. И требуйте ясности по команде заранее.
Если компания не готова сказать, в какую команду вы попадёте и что будете делать (или просит “сначала подпиши, потом разберёмся”), это риск: можно оказаться на задачах, которые не развивают вас в AI-направлении

5. Сделайте портфолио так, чтобы оно “рулило” интервью: пусть вас спрашивают про ваш проект, а не про случайные загадки.
Сильная тактика: собрать проект(ы), максимально похожие на будущую работу, и описать решения, компромиссы, метрики. Тогда интервью превращается в обсуждение реальной инженерии, где вы сильнее

6. Интервью - это проверка “командности под стрессом”, а не только IQ и алгоритмов.
Совет из истории: “стой на своём” можно, но без агрессии. Когда вам указывают на баг/угол, правильная реакция - совместно улучшать решение, а не защищаться как в споре

7. Код, сгенерированный AI, почти всегда приносит “долг по обслуживанию”: думайте как финансист.

Смысл простой: любой код потом надо сопровождать

Хороший “долг” - быстрый прототип, который приносит проверенную пользу/знания и окупает поддержку

Плохой “долг” - нагенерили “что-то крутое”, но никто не понимает, зачем, как работает и как чинить.
Важная мысль: выкинуть прототип - нормально, поддерживать непонятную кашу - дорого

8. Сейчас ценится не “сделал модель”, а “довёл до боевого использования”.
То есть: качество, надёжность, мониторинг, задержки, стоимость, безопасность, удобство для пользователя. На рынке сильный сигнал - умение доводить до работающего продукта, а не до демо

9. Станьте человеком, который переводит хайп в реальность: начните с вопроса “зачем?”.
Соцсети поощряют вовлечённость, а не точность. Поэтому трендовые слова (“агенты”, “всё заменим AI”) легко уводят в сторону. Практичный подход: сначала “зачем бизнесу?”, “какой показатель улучшаем?”, “что будет считаться успехом?” - и уже потом выбирать технологию

10. Готовьтесь к двум параллельным траекториям: большие облачные модели и небольшие локальные модели “у себя”.
В одних задачах будут доминировать мощные модели “как сервис”. В других (где важны приватность, IP, контроль, стоимость) - модели, которые разворачивают внутри компании. Полезные навыки на стыке: настройка под задачу (fine-tuning/адаптация), развёртывание, ограничения по данным, безопасность и эксплуатация.

Ну, база, что скажешь еще
👍162🤔1
Встречайте третий бриллиант в корону выдающихся LLM-учебников, которые вышли за последние месяцы - LLM evaluation guidebook, совместную работу команд Hugging Face и LangChain.

Без продуманной оценки вы не знаете, насколько модель хорошо решит вашу задачу. Результаты на лидербордах редко когда отражают производительность в реальных условиях, а ошибки и алогичности ответов остаются незамеченными вплоть до релиза. Авторы доказывают на своем трехлетнем опыте работы с 15.000(!) моделями: предварительная оценка позволяет заранее понять, насколько модель надёжно решает вашу задачу, а не то, насколько она умна сама по себе.

В книге разбираются сразу несколько подходов:
▶️Автоматические бенчмарки: сравнение предсказаний модели с эталонными ответами.
▶️Ручная оценка: кожаные эксперты оценивают ответы по качеству/полноте/смыслу.
▶️LLM-as-a-Judge: использование других БЯМ для оценки ответов и автоматизации человеческой оценки.
Такая многослойная система позволяет выбирать метод под задачу, а не ограничиваться одной метрикой.

Гайдбук не только описывает теорию, но еще содержит рекомендации по дизайну собственных вайб-тестов, лайфхаки по избежанию частых ошибок в тестировании и кейсы решения реальных проблем.

Например, вместо абстрактных задач - проводить оценку по реальным пользовательским запросам, и не надеяться на LLM-судью, а тестировать его самого, чтобы он не превратился в "черный ящик над черным ящиком".

Интересно, что в достаточно частотном кейсе "агенты работают по отдельности, но ломаются в реальном сценарии", авторы предлагают проводить оценку не отдельных навыков, а сквозных сценариев, допуская, что существует нескольких путей к успеху, и проверять результат, а не цепочки действий.

В сухом остатке: гайдбук собрал в одном месте все основные методы и подходы к оценке больших языковых моделей от простых бенчмарков до сложных практик по созданию собственных тестов, что особенно полезно, если вы хотите не просто изучить метрику, а понять как и зачем проводить оценки. Искренне считаю, что такой док, написанный доступным языком с изрядной долей инженерного юмора, имеет огромную ценность как для продакшен-команд агентных систем, так и разработчиков AI-приложений и создателей образовательных и HR-продуктов (где такая оценка особенно важна).

Оригинал - по ссылке, а перевод - в первом комментарии👇
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍25🎉1652
ChatGPT записал меня в 1% лучших пользователей. Я сначала обрадовался, но потом вспомнил, что это 8 миллионов человек, и от души посмеялся попыткам моего эго подпрыгнуть чуть выше всех.

OpenAI определенно хайпанул с итогами года (вы можете сделать такие же из-под VPN США или Канады с промптом show me my year with chatgpt), но, на мой взгляд, все получилось гораздо скромнее, чем авантюра с генерациями в стиле студии Гибли. Cогласитесь, можно было бы сделать изящнее (как у той же Granola). Скудность данных объясняется тем, что инженеры gpt не стали реализовывать возможность работы с памятью.

Об этом говорит и последний твит сооснователя OpenAI Грега Брокмана, который предлагает промпт, как временную архитектурную заглушку, эмулирующую долговременную память. Сейчас это выглядит как блокнот, в который вы каждый раз переписываете, что сейчас делаете, чтобы ассистент не забывал при новом диалоге.

🎮 Любопытно, что на древних Нинтендах все работало похоже: почти не было памяти для хранения состояния мира, поэтому через флаги и триггеры игры создавали иллюзию памяти, каждый раз читая небольшой набор битов: босс убит, дверь открыта, ключ получен. Этот механизм заложен во всю природу нашей жизни: когда системе рано, дорого или опасно иметь настоящую долговременную память, она использует временные, контекстные и дешёвые носители состояния - активность нейронов, химические сигналы, метки, клетки-флаги и т.д.

🤑 Я спросил у ChatGPT, насколько выросли бы издержки бизнеса, если бы он реализовал долговременную память, и тот дал осторожную прикидку в 20-30% вычислительных ресурсов, то есть порядка 1,5-2 ярдов, что, конечно, плохо бьётся с текущими ценами GPU и маржинальностью.

Скорее всего, в следующем году эта заглушка превратится во встроенную функцию: сначала ассистент сам помогает обновлять промежуточную запись, потом сохраняет ее в структурированном виде, подставляет только нужные части в ответы, и лишь в самом конце аккуратно связывает это с настоящей долговременной памятью. А еще через пару лет, когда AI выведут на орбиту🛰 и сократят издержки на охлаждение, этот ход займет свое место в музее ИТ-костылей.

А пока можете заценить Acontext - свежий релиз на гитхабе, позволяющий построить память на основе файловой системы для самообучающихся агентов.

⚖️ И еще по поводу оперативной памяти: мне кажется, новая цифровая этика будет скоро подразумевать маркер "Я спросил у AI", (вместо "Я тут подумал") как обязательный, чтобы мы не обманывали сами себя и других невероятной глубиной и скоростью мысли, которую вдруг все обрели.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥117🤔1
Главный навык будущего — это способность выдерживать собственную неэффективность. Умение тратить время на прогулки, живое общение без цели, на чтение сложных книг и скучную медитацию, чтоб сохранить человеческую архитектуру сознания в мире, который требует быть быстрым, как алгоритм.


Я обнаружил этот тезис из недавнего выступления Юваля Ноя Харари - в канале "Горизонт событий" https://news.1rj.ru/str/your_event_horizon/330

Задумался о том, чем же наша архитектура отличается от всепобеждающей машинной. Когда меня просят сказать, есть ли у нас шанс в этой безумной гонке выжить и остаться собой, то первое что приходит в голову
▶️любовь (хотя ее и невозможно рационально объяснить)
▶️ценностная регуляция и решение конфликтов (смыслы, границы, этика - так себе справляемся, но все же)
▶️социальные связи (обеспечение доверия)
▶️формулировка целей, критериев качества в условиях неопределенности - и это, пожалуй, ключевое, что мы можем брать на себя

Модели же (пока) - предсказательные автоматы, работающие на основе статистических закономерностей в данных. Они эффективны, быстры и масштабируемы, но не имеют собственных целей, телесной регуляции и устойчивой самости. Их "знания" не заякорены в сенсомоторном опыте, а потому остаются формальными (хотя и подчас очень точными).

Позволю себе поумничать и заявить, что наша архитектура обеспечивает не скорость, а устойчивость (по крайней мере так я себя успокаиваю). Мы связываем факты с ценностями и телесным опытом, корректируем себя через рефлексию, выстраиваем доверие (когда ходим на митапы и пытаемся разобраться в мотивах поведения других людей) и формируем моральную ответственность. До каких-то пределов сопротивляемся манипуляции. Да, мы медленнее, но, хочется, думать, адаптивнее.

Впрочем, вопрос о том, какие элементы человеческой архитектуры принципиально не воспроизводимы машинами, каждый год будет сокращать количество баллов в нашу пользу. Роботы и киборги станут "новыми людьми", а что будет с обычными - это придется решать уже нашим детям.

А пока те времена не настали, настоятельно рекомендую подписаться на "Горизонт событий" @your_event_horizon/ - интересный канал про тренды и технологии, который простыми словами объясняет изменения на горизонте ближайших событий.
Please open Telegram to view this post
VIEW IN TELEGRAM
15🤔5👍2🕊2
Завел в AI-фазенде, где собираю всякое полезное про ИИ, отдельную ветку Антикейсы, чтобы складировать истории колоссальных проёбов - таких, как этот.

На фоне огромной сделки с OpenAI на $300 млрд Oracle принудительно перевела всех клиентов на новый портал поддержки (MOS), полностью завязанный на AI. Без предварительного тестирования и объявления войны.

На реддите инженеры, которые тоже пользуются системой, делятся тем, как у них пропали ссылки, избранное и настройки, а самое главное - нужные документы не находятся по запросу.

Обычно такие вещи характерны для контент-миграции без корректной нормализации ссылок и без переноса пользовательских метаданных - что удивительно, при том, какое огромное количество юзеров тащат сервисы Оракла.

Вообще, MOS - это не просто поиск по статьям, а система для точных артефактов: айдишники, патч-номера, история, версии и т.д. Для таких задач нужен приоритет точного мэтчинга, синонимы, алиасы, предсказуемая сортировка, фильтры, стабильные пермалинки. Но, похоже, что вместо этого на скорую руку внедрили AI-ориентированный UX по типу "спроси чат-бота", поменяли ранжирование на "умное", убрали интерфейсные фильтры. Это позволило сделать красивую картинку для обычных юзеров, но для инженеров поддержки стало настоящим адом. 😁

В следующий раз, когда будете переживать, что у вас в вайбкодинге что-то не срастается, вспоминайте, что даже у одного из самых богатых людей в мире в одной из крупнейших компаний случаются просто хрестоматийные фэйлы.

Впрочем, если смотреть на это как бизнес-кейс, то, возможно, дело в деньгах. Все чаще в энтерпрайз-порталах под лозунгом упрощения убирают возможности, которые повышают нагрузку на инфраструктуру и мешают уводить пользователя в самообслуживание. Если ты монополист - можешь позволить себе кинуть внешних и внутренних юзеров и ничего не объяснять.
Please open Telegram to view this post
VIEW IN TELEGRAM
🙈106😱2
Вышел подкаст, где я с инновационным лицом (про лицо это такой прикол со времен, когда я ходил с определенным выражением на встречи в Сколково) рассказываю про агентов и их применение в эдтехе. Спасибо команде Purrweb за этот час, который пролетел незаметно. Вообще, у меня была заготовлена презентация как минимум на 3 часа, потому что мой внутренний просвещатор никак не может успокоиться и хочет всегда впихнуть невпихуемое количество пользы в любой, даже самый ограниченный формат.

📺 Смотреть в VK Video
📺 Смотреть на YouTube

https://news.1rj.ru/str/purrweb/685
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🏆5
Последние дни из-за загрузки на работе не хватает времени на генерацию собственных глубоких мыслей, поэтому я беру особенно понравившиеся мне идеи из других каналов и обмозговываю их.

Что не хотят рассказывать инфоцыгане: любая сложная инженерная дисциплина - сложная. За 5 минут ее не осилить, даже если действительно заниматься ей годами и не пропустить ни одного дня. ... Поэтому в реальности работает всего несколько сценариев. Например, организованное насилие - школа, университет. Или если это твое хобби, и ты проводишь за делом многие часы подряд просто потому, что тебе это очень нравится. Оригинал


Я сам очень люблю объяснять сложное простыми словами - добрая половина моих проектов связана с тем, как через воркшоп, игру или цифровой интерфейс разложить по полочкам и сделать доступными новые для аудитории системные смыслы, провести по пути героя или дать опыт, закрепленный в ощущениях.

Но иногда упрощение бывает вредно. Одно дело - по диагонали просмотреть малозначимый документ, и совсем другое - учиться тому, что реально важно. Если упрощать психологию, квантовую теорию поля или полиномы Лежандра для сферических гармоник до "объясни это как пятилетнему", то теряются не просто нюансы. Пропадает тот путь, который наша психика должна проделать, чтобы создать и закрепить новые связи.

По этой самой причине я полностью отказался от инфографики NotebookLM. Заметил, что автосгенерированные схемы только усложняют для меня процесс осмысления действительно важных текстов. Если я хочу разобраться в том, как все устроено, мне нужно проложить в мозгу дорожку. Так уж устроена моя голова, что некоторые сложные вещи приходится повторять.

В институте я записывал лекции дважды: сначала в аудитории, потом дома повторял от руки, помечая то, что осталось непонятным. В отдельных случаях, если что-то оставалось неясным, я лез в учебники вышмата, по которым учился еще мой дед - старая школа, они оказались написаны гораздо более понятно, без доказательства запугиванием. Это позволяло не просто зазубривать фрагменты, а по настоящему владеть образом системы. И хотя иллюстрации в духе "Детской энциклопедии" помогают быстро окинуть взором материал, в результате это дает поверхностный эффект.

Я получаю колоссальное удовольствие, когда на старте с бумагой и карандашом формирую образ системы, с которой мне и другим людям нужно будет работать. И чувствую, как вхолостую прокручиваются шестеренки у меня в голове, когда читаю наспех скомпонованную Нано Бананой инфографику - этим нейрослопом забит сейчас весь интернет. Но если делать ставку на базу знаний внутри конкретной заранее подготовленной предметной области, то промпт "создай инфографику в виде плаката, показывающую по шагам, как правильно надевать трехточечную страховочную привязь. Покажи точки крепления: спинную, грудную, боковые", как в кейсе Жени Рыбакова, позволяет делать реально полезные вещи.

старый дед mode off
11👍4
Дорогие мои! Во всех часовых поясах уже отгремели салюты и успели опустеть миски с салатами. А значит, мы уже полноценно живем с вами в новом времени. Спасибо, что читали канал, задавали вопросы, вносили предложения и вдохновляли меня.
Пусть прирастает радость, удовлетворение жизнью и собой, повышается ваша экспертность, и доход - и в то же время пусть хватает времени на здоровье, отдых, любовь и время с любимыми. Технологии развиваются слишком быстро, важно не упускать тренды, но при этом не потерять самое главное - себя - на мой взгляд, ключевой вызов наступившего года. Свой голос, свои принципы, свою страсть и любопытство.
И чтобы наконец наступил мир.

От всей души желаю этого себе, вам и вашим близким. Пусть всегда будет солнце.
23👍9🎉7🕊2
Похвастаюсь вам подарком, который на новый год получил от своей любимой жены. Кит Хокусая перед моим рабочим столом - состояние, которого я хочу достичь в этом году как ключевого: быть в контакте с миром и гармонично управлять своим ресурсом, оставаясь при этом живым и играющим.
👍2213🥰2🕊21