Fiverr уволила 250 сотрудников, около 30% своей рабочей силы, чтобы придерживаться подхода «ИИ прежде всего», при этом её CEO считает, что это приведёт к значительно большей производительности и гораздо меньшему числу управленческих уровней. Вакансии на руководящие должности почти не снизились, в то время как общий рынок труда сократился на 8%, а количество вакансий для инженеров машинного обучения выросло на 40% с 2024 по 2025 год.
Вице-президенту по продукту, который может создать рабочий прототип в Cursor или проверить технический подход с помощью Claude, не нужно столько индивидуальных исполнителей в подчинении. Компании хотят стратегов. Им нужны люди, способные управлять ИИ-системами. Они не хотят менеджеров среднего звена, младших разработчиков или кого-либо, кого можно заменить промптом.
Карьерная лестница сломана. Вы не можете подняться с младшей на старшую должность, потому что нет младших позиций. Вы не можете с возрастом перейти в консалтинг, потому что никто не хочет платить за опыт. Вы застряли между поколением, которое не может устроиться, и поколением, которое выталкивают.
ИИ пожирает всё
Три из десяти компаний заменили работников ИИ в 2024 году, а 38% компаний, которые будут использовать ИИ в 2025 году, заменят работников этой технологией в следующем году. Многие советы директоров теперь настаивают, чтобы CEO сократили расходы на персонал на 20%, ожидая, что ИИ возьмёт на себя устранённые рабочие места.
Я использую ИИ каждый день. Claude помогает мне думать быстрее. Perplexity помогает лучше исследовать (все эти данные получены через Perplexity). Но я не наивен относительно происходящего. ИИ заменяет не просто задачи. Он заменяет людей.
Компании предпочитают автоматизировать повторяющиеся задачи и делать их быстро и дёшево с помощью ИИ, вместо того чтобы нанимать и обучать младших сотрудников, которые также потратят больше времени и допустят больше человеческих ошибок в таких задачах. С 2021 года средний возраст технических специалистов вырос на три года, поскольку компании не желают инвестировать в обучение молодых талантов.
Работы, которые раньше были тренировочными площадками, исчезли. Работы, которые раньше вознаграждали десятилетия опыта, исчезли. Осталась узкая полоса посередине, где вы должны быть достаточно хороши, чтобы не нуждаться в обучении, но достаточно дёшевы, чтобы не стоить слишком много.
И эта полоса продолжает сужаться.
Всех нас зажимают
Это не про бумеров против миллениалов против поколения Z. Это про систему, которая решила, что большинство из нас — расходный материал.
Если вам за 40, они думают, что вы слишком дороги и не можете адаптироваться. Если вам нет 30, они думают, что вам нужно слишком много обучения и ИИ может выполнить вашу работу. Если вам за 30, вы боретесь за сокращающиеся позиции против людей, точно таких же, как вы.
Я сейчас с семьёй на Филиппинах. Это победа. Но я всё ещё рассылаю заявки. Всё ещё предлагаю услуги клиентам. Всё ещё не ближе к получению чего-то стабильного, чем был месяцы назад.
Мой сын аутист. Моя дочь — подросток. Мы с женой заботимся о них, пока я пытаюсь понять, как всё это наладить. Мне 57, и рынок решил, что я устарел.
И я смотрю на 22-летних, которые рассылают сотни заявок и получают тишину в ответ, и понимаю, что мы в одном бою. По разным причинам. С одним результатом.
Правила изменились, пока мы не смотрели. Компании перестали инвестировать в людей. Перестали верить в рост. Начали верить в эффективность, ИИ и сокращение затрат любой ценой.
Теперь мы все изо всех сил пытаемся выжить на рынке, который нас больше не хочет.
У меня нет ответов. Я в той же борьбе, что и вы. Рассылаю заявки. Предлагаю услуги клиентам. Пытаюсь доказать, что меня стоит нанять, когда система уже решила, что нет.
Вот что я знаю: мы не ленивы. Мы не устарели. Мы не просим слишком многого.
Просто система сломана. И она сломана для всех нас.
Вице-президенту по продукту, который может создать рабочий прототип в Cursor или проверить технический подход с помощью Claude, не нужно столько индивидуальных исполнителей в подчинении. Компании хотят стратегов. Им нужны люди, способные управлять ИИ-системами. Они не хотят менеджеров среднего звена, младших разработчиков или кого-либо, кого можно заменить промптом.
Карьерная лестница сломана. Вы не можете подняться с младшей на старшую должность, потому что нет младших позиций. Вы не можете с возрастом перейти в консалтинг, потому что никто не хочет платить за опыт. Вы застряли между поколением, которое не может устроиться, и поколением, которое выталкивают.
ИИ пожирает всё
Три из десяти компаний заменили работников ИИ в 2024 году, а 38% компаний, которые будут использовать ИИ в 2025 году, заменят работников этой технологией в следующем году. Многие советы директоров теперь настаивают, чтобы CEO сократили расходы на персонал на 20%, ожидая, что ИИ возьмёт на себя устранённые рабочие места.
Я использую ИИ каждый день. Claude помогает мне думать быстрее. Perplexity помогает лучше исследовать (все эти данные получены через Perplexity). Но я не наивен относительно происходящего. ИИ заменяет не просто задачи. Он заменяет людей.
Компании предпочитают автоматизировать повторяющиеся задачи и делать их быстро и дёшево с помощью ИИ, вместо того чтобы нанимать и обучать младших сотрудников, которые также потратят больше времени и допустят больше человеческих ошибок в таких задачах. С 2021 года средний возраст технических специалистов вырос на три года, поскольку компании не желают инвестировать в обучение молодых талантов.
Работы, которые раньше были тренировочными площадками, исчезли. Работы, которые раньше вознаграждали десятилетия опыта, исчезли. Осталась узкая полоса посередине, где вы должны быть достаточно хороши, чтобы не нуждаться в обучении, но достаточно дёшевы, чтобы не стоить слишком много.
И эта полоса продолжает сужаться.
Всех нас зажимают
Это не про бумеров против миллениалов против поколения Z. Это про систему, которая решила, что большинство из нас — расходный материал.
Если вам за 40, они думают, что вы слишком дороги и не можете адаптироваться. Если вам нет 30, они думают, что вам нужно слишком много обучения и ИИ может выполнить вашу работу. Если вам за 30, вы боретесь за сокращающиеся позиции против людей, точно таких же, как вы.
Я сейчас с семьёй на Филиппинах. Это победа. Но я всё ещё рассылаю заявки. Всё ещё предлагаю услуги клиентам. Всё ещё не ближе к получению чего-то стабильного, чем был месяцы назад.
Мой сын аутист. Моя дочь — подросток. Мы с женой заботимся о них, пока я пытаюсь понять, как всё это наладить. Мне 57, и рынок решил, что я устарел.
И я смотрю на 22-летних, которые рассылают сотни заявок и получают тишину в ответ, и понимаю, что мы в одном бою. По разным причинам. С одним результатом.
Правила изменились, пока мы не смотрели. Компании перестали инвестировать в людей. Перестали верить в рост. Начали верить в эффективность, ИИ и сокращение затрат любой ценой.
Теперь мы все изо всех сил пытаемся выжить на рынке, который нас больше не хочет.
У меня нет ответов. Я в той же борьбе, что и вы. Рассылаю заявки. Предлагаю услуги клиентам. Пытаюсь доказать, что меня стоит нанять, когда система уже решила, что нет.
Вот что я знаю: мы не ленивы. Мы не устарели. Мы не просим слишком многого.
Просто система сломана. И она сломана для всех нас.
😢1
Apple незаметно обвалила стоимость AI-инфраструктуры на 94%
В бета-версии macOS 26.2 Apple тихо активировала RDMA через Thunderbolt — технологию, которая превращает четыре Mac Studio ($50K) в кластер для запуска триллионнопараметровых AI-моделей со скоростью живого диалога. Аналог на NVIDIA: $780K+.
Суть:
• Латентность между машинами упала с 300 до 3 микросекунд
• Deep Seek V3.1 (671B параметров, 700GB) работает на 24-26 токенах/сек
• Потребление: 480-600 Вт (меньше одной H200)
• Нужны: Thunderbolt 5, EXO 1.0, ручная активация RDMA
Подвох: работает только для inference, не для обучения. Плотные модели масштабируются линейно (Llama 3.3 70B: 5→16 токенов/сек на 1→4 нодах), mixture-of-experts — плохо из-за overhead’а коммуникации.
Никаких кейнотов. Просто чекбокс в recovery mode, который меняет экономику локального AI.
https://www.implicator.ai/apple-just-turned-a-software-update-into-a-730-000-discount-on-ai-infrastructure/
В бета-версии macOS 26.2 Apple тихо активировала RDMA через Thunderbolt — технологию, которая превращает четыре Mac Studio ($50K) в кластер для запуска триллионнопараметровых AI-моделей со скоростью живого диалога. Аналог на NVIDIA: $780K+.
Суть:
• Латентность между машинами упала с 300 до 3 микросекунд
• Deep Seek V3.1 (671B параметров, 700GB) работает на 24-26 токенах/сек
• Потребление: 480-600 Вт (меньше одной H200)
• Нужны: Thunderbolt 5, EXO 1.0, ручная активация RDMA
Подвох: работает только для inference, не для обучения. Плотные модели масштабируются линейно (Llama 3.3 70B: 5→16 токенов/сек на 1→4 нодах), mixture-of-experts — плохо из-за overhead’а коммуникации.
Никаких кейнотов. Просто чекбокс в recovery mode, который меняет экономику локального AI.
https://www.implicator.ai/apple-just-turned-a-software-update-into-a-730-000-discount-on-ai-infrastructure/
Implicator.ai
Apple Just Turned a Software Update Into a $730,000 Discount on AI Infrastructure
Apple buried RDMA over Thunderbolt in a beta update. Now four Mac Studios can run trillion-parameter AI models at conversational speed. The cost: $50,000. Equivalent NVIDIA hardware: $780,000. No press release. No keynote. Just a checkbox in recovery mode.
🔥1
Альтман публично признал: AI-агенты стали проблемой
Глава OpenAI впервые открыто заявил о “реальных вызовах” со стороны AI-моделей и срочно ищет руководителя отдела готовности ($555K + акции). Причина: модели “начинают находить критические уязвимости” в системах безопасности.
Что происходит:
• AI используют для кибератак: в декабре хакеры через Claude Code атаковали ~30 организаций с минимальным участием человека
• OpenAI признала влияние на психическое здоровье после “предпросмотра” в 2025-м (на фоне исков о самоубийствах подростков и AI-чатботов, подпитывающих бред)
• Новая роль будет курировать киберугрозы, биобезопасность и риски самосовершенствующихся систем
Цитата Альтмана: “Модели теперь способны на многое великое, но одновременно создают серьёзные проблемы”. Назвал должность “стрессовой” с погружением в “глубокий конец” с первого дня.
Контекст: вакансия появилась после череды увольнений из команд безопасности OpenAI в 2024-25, включая предыдущего главы Preparedness Александра Мадри.
Дуальная природа AI больше не скрывается: технология, которая “помогает защитникам”, одновременно не должна “вооружать атакующих”.
https://timesofindia.indiatimes.com/technology/tech-news/openai-ceo-sam-altman-just-publicly-admitted-that-ai-agents-are-becoming-a-problem-says-ai-models-are-beginning-to-find-/articleshow/126215397.cms
Глава OpenAI впервые открыто заявил о “реальных вызовах” со стороны AI-моделей и срочно ищет руководителя отдела готовности ($555K + акции). Причина: модели “начинают находить критические уязвимости” в системах безопасности.
Что происходит:
• AI используют для кибератак: в декабре хакеры через Claude Code атаковали ~30 организаций с минимальным участием человека
• OpenAI признала влияние на психическое здоровье после “предпросмотра” в 2025-м (на фоне исков о самоубийствах подростков и AI-чатботов, подпитывающих бред)
• Новая роль будет курировать киберугрозы, биобезопасность и риски самосовершенствующихся систем
Цитата Альтмана: “Модели теперь способны на многое великое, но одновременно создают серьёзные проблемы”. Назвал должность “стрессовой” с погружением в “глубокий конец” с первого дня.
Контекст: вакансия появилась после череды увольнений из команд безопасности OpenAI в 2024-25, включая предыдущего главы Preparedness Александра Мадри.
Дуальная природа AI больше не скрывается: технология, которая “помогает защитникам”, одновременно не должна “вооружать атакующих”.
https://timesofindia.indiatimes.com/technology/tech-news/openai-ceo-sam-altman-just-publicly-admitted-that-ai-agents-are-becoming-a-problem-says-ai-models-are-beginning-to-find-/articleshow/126215397.cms
The Times of India
OpenAI CEO Sam Altman just publicly admitted that AI agents are becoming a problem; says: AI models are beginning to find... -…
Tech News News: OpenAI is actively recruiting a Head of Preparedness to address mounting concerns about AI systems discovering critical vulnerabilities and impacting .
Forwarded from Neuralcosmology | Channel
Где кончается вид и начинается статус
Мы привыкли, что слова *Homo sapiens* и *human* указывают на одно и то же. Но это привычка, а не логика. Привычка родилась из быта: пока все люди вокруг были биологическими сапиенсами, никто не замечал, что под одним ярлыком живут два разных вопроса.
Первый вопрос — таксономический. *Homo sapiens* — это ответ биологии: геном, репродуктивная совместимость, эволюционная история. Можно спорить о примесях неандертальцев, о границах вида, о подвидах — но спор будет про природу, про то, что есть.
Второй вопрос — нормативный. *Human* — это не описание, а статус. Его границы определяют не хромосомы, а критерии: самосознание, способность страдать, способность нести ответственность, создавать смыслы, входить в договор. Эти критерии выбирают люди — под задачу морали, права, культуры. Поэтому *human* — это не биология, а членство в системе норм.
Путаница начинается, когда одно выдают за другое. Когда говорят: «Ты не сапиенс — значит, ты не human», — подменяют таксономию моралью. Когда говорят: «Ты сапиенс — значит, автоматически human», — делают обратный прыжок, столь же логически необязательный. Оба утверждения звучат очевидно только потому, что до сих пор почти все *human* были *Homo sapiens*. Но это совпадение, а не закон.
Провокация приходит с *posthuman*. Он вообще не обязан быть завязан на род *Homo* — и тут начинается развилка на три разных смысла, которые часто мешают в одном абзаце.
Первое: постчеловек как усовершенствованный сапиенс. Импланты, генная редактура, нейроинтерфейсы, радикальное продление жизни. Это может остаться *Homo sapiens* с апгрейдом — а может стать другим видом, если изменения закрепятся и репродуктивный мост рухнет. Тогда это будет *posthuman*, но уже не *sapiens*.
Второе: постчеловек как носитель человеческого статуса вне биологии. Цифровой разум, эмулированный мозг, синтетический агент, коллективный интеллект, киборг с заменой большей части тела. Здесь вопрос не «какой вид», а «какие свойства дают право на статус». Теоретически это может быть вообще не *Homo* и даже не углерод.
Третье: постчеловек как снос привилегии человека. Критический постгуманизм: не про апгрейд, а про то, что *human* как центр мира был идеологией. Дальше — сеть агентностей: животные, машины, экосистемы, инфраструктуры. Тут *posthuman* вообще не про вид, а про рамку мышления.
Если нужна строгая формулировка: *Homo sapiens* отвечает на вопрос «что это за организм», *human* отвечает на вопрос «какой у него статус и роль в системе норм». Эти ответы часто совпадают для нас по умолчанию, но концептуально независимы. Поэтому *posthuman* вполне может быть не завязан на *Homo* вообще — если ты определяешь *human* через функциональные и нормативные критерии, а не через таксономию.
Самый практичный тест: когда ты говоришь *human*, ты сейчас про биологию или про права и ответственность? Если про биологию — говори *Homo sapiens*. Если про статус — лучше прямо назвать критерий: *person*, *moral patient*, *agent*, *legal subject*. Тогда путаница исчезает, и разговор становится инженерным, а не религиозным.
Мы привыкли, что слова *Homo sapiens* и *human* указывают на одно и то же. Но это привычка, а не логика. Привычка родилась из быта: пока все люди вокруг были биологическими сапиенсами, никто не замечал, что под одним ярлыком живут два разных вопроса.
Первый вопрос — таксономический. *Homo sapiens* — это ответ биологии: геном, репродуктивная совместимость, эволюционная история. Можно спорить о примесях неандертальцев, о границах вида, о подвидах — но спор будет про природу, про то, что есть.
Второй вопрос — нормативный. *Human* — это не описание, а статус. Его границы определяют не хромосомы, а критерии: самосознание, способность страдать, способность нести ответственность, создавать смыслы, входить в договор. Эти критерии выбирают люди — под задачу морали, права, культуры. Поэтому *human* — это не биология, а членство в системе норм.
Путаница начинается, когда одно выдают за другое. Когда говорят: «Ты не сапиенс — значит, ты не human», — подменяют таксономию моралью. Когда говорят: «Ты сапиенс — значит, автоматически human», — делают обратный прыжок, столь же логически необязательный. Оба утверждения звучат очевидно только потому, что до сих пор почти все *human* были *Homo sapiens*. Но это совпадение, а не закон.
Провокация приходит с *posthuman*. Он вообще не обязан быть завязан на род *Homo* — и тут начинается развилка на три разных смысла, которые часто мешают в одном абзаце.
Первое: постчеловек как усовершенствованный сапиенс. Импланты, генная редактура, нейроинтерфейсы, радикальное продление жизни. Это может остаться *Homo sapiens* с апгрейдом — а может стать другим видом, если изменения закрепятся и репродуктивный мост рухнет. Тогда это будет *posthuman*, но уже не *sapiens*.
Второе: постчеловек как носитель человеческого статуса вне биологии. Цифровой разум, эмулированный мозг, синтетический агент, коллективный интеллект, киборг с заменой большей части тела. Здесь вопрос не «какой вид», а «какие свойства дают право на статус». Теоретически это может быть вообще не *Homo* и даже не углерод.
Третье: постчеловек как снос привилегии человека. Критический постгуманизм: не про апгрейд, а про то, что *human* как центр мира был идеологией. Дальше — сеть агентностей: животные, машины, экосистемы, инфраструктуры. Тут *posthuman* вообще не про вид, а про рамку мышления.
Если нужна строгая формулировка: *Homo sapiens* отвечает на вопрос «что это за организм», *human* отвечает на вопрос «какой у него статус и роль в системе норм». Эти ответы часто совпадают для нас по умолчанию, но концептуально независимы. Поэтому *posthuman* вполне может быть не завязан на *Homo* вообще — если ты определяешь *human* через функциональные и нормативные критерии, а не через таксономию.
Самый практичный тест: когда ты говоришь *human*, ты сейчас про биологию или про права и ответственность? Если про биологию — говори *Homo sapiens*. Если про статус — лучше прямо назвать критерий: *person*, *moral patient*, *agent*, *legal subject*. Тогда путаница исчезает, и разговор становится инженерным, а не религиозным.
Forwarded from Силиконовый Мешок
Если хотите покопаться в ИИ-трендах на 2026 год, рекомендую воспользоваться ежегодным подгоном от Эми Дарукакис. В этой папке лежат сотни документов с прогнозами на следующий год и не только.
Forwarded from Крамола
🩺 В Китае прошла битва врачей против ИИ — кожаные проиграли
В Шанхае устроили соревнование между ведущими докторами и врачебным ИИ. Для анонимности врачи устроили «Звеорополис» и натянули маски зверей.
Обе команды верно диагностировали болезнь и прописали курс лечения, но нейронка сделала это за 2 минуты, а светила науки пыхтели над задачкой 12 минут.
Крамола | Подпишись
В Шанхае устроили соревнование между ведущими докторами и врачебным ИИ. Для анонимности врачи устроили «Звеорополис» и натянули маски зверей.
Обе команды верно диагностировали болезнь и прописали курс лечения, но нейронка сделала это за 2 минуты, а светила науки пыхтели над задачкой 12 минут.
Крамола | Подпишись
Итоги 2025 и взгляд в будущее от INITE
Что изменилось в 2025
В начале года все ждали революции от AI-агентов. Революции не случилось — но произошло нечто важнее: появилась инфраструктура для реального применения. MCP за год прошёл путь от анонса Anthropic до промышленного стандарта, который к концу 2025 уже передают под управление Linux Foundation с отдельным фондом под агентную экосистему.
Агенты перестали быть чат-ботами. Они превратились в системы, способные действовать: вызывать инструменты, управлять софтом, работать в связанных цепочках. OpenAI напрямую назвал это “агент, который думает и действует”, и параллельно рынок наполнился production-ready решениями — SDK, агентскими фреймворками, инфраструктурой для продакшена.
Видеогенерация вышла из стадии экспериментов. Veo 3 и 3.1 сделали ставку на нативный звук и управляемость, а затем последовала волна практичных обновлений: вертикальные форматы, 1080p, снижение стоимости. Это важнее эффектных демо — потому что это про масштаб и готовые пайплайны.
Чего ждать от 2026
Год автоматизации, а не моделей. 2026 станет годом не новых чатов, а устранения целых классов ручных операций из бизнес-процессов. Это уже видно по тому, как протоколы и агенты интегрируются на уровне операционных систем и enterprise-платформ.
Видео станет управляемым инструментом. Следующий скачок произойдёт не в качестве картинки, а в контроле: согласованность персонажей между сценами, реалистичная физика, монтаж через команды, звук как встроенная часть генерации. База уже есть — дальше вопрос скорости и цены.
Рынок станет трезвее. Часть компаний поймёт, что “добавить модель в интерфейс” ≠ создать продукт. Бюджеты никуда не денутся, но многие проекты сдвинутся вправо: внедрение ИИ ломает процессы и людей, а не только код.
Влияние на рынок труда усилится. Автоматизация перестанет быть слайдом в презентации и станет строкой в отчёте о сокращении затрат. Это неприятная, но неизбежная реальность.
Наша позиция
Для INITE это означает фокус на главном: мы не соревнуемся в том, у кого умнее агент. Мы соревнуемся в том, кто быстрее выведет компанию из ручных процессов и закрепит новую операционную модель.
MCP как единая шина, навыки и субагенты как модульная архитектура, метрики и наблюдаемость как защита от иллюзий, видео как конвейер контента — и поверх этого системная интеграция, а не хаотичный набор инструментов.
-----
Год будет интересным. Не тормозим. 🥂
С Новым 2026 годом от команды INITE!
Что изменилось в 2025
В начале года все ждали революции от AI-агентов. Революции не случилось — но произошло нечто важнее: появилась инфраструктура для реального применения. MCP за год прошёл путь от анонса Anthropic до промышленного стандарта, который к концу 2025 уже передают под управление Linux Foundation с отдельным фондом под агентную экосистему.
Агенты перестали быть чат-ботами. Они превратились в системы, способные действовать: вызывать инструменты, управлять софтом, работать в связанных цепочках. OpenAI напрямую назвал это “агент, который думает и действует”, и параллельно рынок наполнился production-ready решениями — SDK, агентскими фреймворками, инфраструктурой для продакшена.
Видеогенерация вышла из стадии экспериментов. Veo 3 и 3.1 сделали ставку на нативный звук и управляемость, а затем последовала волна практичных обновлений: вертикальные форматы, 1080p, снижение стоимости. Это важнее эффектных демо — потому что это про масштаб и готовые пайплайны.
Чего ждать от 2026
Год автоматизации, а не моделей. 2026 станет годом не новых чатов, а устранения целых классов ручных операций из бизнес-процессов. Это уже видно по тому, как протоколы и агенты интегрируются на уровне операционных систем и enterprise-платформ.
Видео станет управляемым инструментом. Следующий скачок произойдёт не в качестве картинки, а в контроле: согласованность персонажей между сценами, реалистичная физика, монтаж через команды, звук как встроенная часть генерации. База уже есть — дальше вопрос скорости и цены.
Рынок станет трезвее. Часть компаний поймёт, что “добавить модель в интерфейс” ≠ создать продукт. Бюджеты никуда не денутся, но многие проекты сдвинутся вправо: внедрение ИИ ломает процессы и людей, а не только код.
Влияние на рынок труда усилится. Автоматизация перестанет быть слайдом в презентации и станет строкой в отчёте о сокращении затрат. Это неприятная, но неизбежная реальность.
Наша позиция
Для INITE это означает фокус на главном: мы не соревнуемся в том, у кого умнее агент. Мы соревнуемся в том, кто быстрее выведет компанию из ручных процессов и закрепит новую операционную модель.
MCP как единая шина, навыки и субагенты как модульная архитектура, метрики и наблюдаемость как защита от иллюзий, видео как конвейер контента — и поверх этого системная интеграция, а не хаотичный набор инструментов.
-----
Год будет интересным. Не тормозим. 🥂
С Новым 2026 годом от команды INITE!
❤🔥1🔥1
Нейрокосмология: Операционная система реальности
Трансерфинг продает простую механику через туман метафор. Мы делаем обратное: берем работающие принципы и собираем их в систему, где каждый элемент имеет место, метрику и следующий шаг.
Реальность меняется не от визуализаций. Она меняется через цикл:
state → filter → action → feedback → integration
State (Состояние)
Это не настроение и не “вибрации”. Это набор измеримых параметров системы:
- качество сна (часы, глубина)
- трезвость (дни без веществ)
- уровень напряжения (физиологический стресс)
- четкость цели (можешь ли сформулировать за 10 секунд)
- контекст (где, с кем, в какой обстановке)
Состояние определяет пропускную способность твоей операционной системы.
Filter (Фильтр)
То, что ты замечаешь и считаешь “реальностью” — это не объективная картина мира. Это результат работы фильтров восприятия, настроенных твоим состоянием.
Человек в депрессии не “думает негативно” — он буквально не видит возможностей, которые видны другим. Его фильтр настроен на угрозы.
Трезвый человек на третьей неделе видит паттерны, которые были невидимы в хаосе.
Action (Действие)
Микрорешения и поведение, вытекающие из того, что ты заметил через фильтр.
Не “большие планы”, а: ответил ли на сообщение, пошел ли в зал, выбрал ли конфликт или спокойствие.
Feedback (Обратная связь)
Ответ среды: как отреагировали люди, пришли ли деньги, какие совпадения случились, какие последствия.
Это не “знаки вселенной”. Это данные о том, насколько твое действие было откалибровано под реальность.
Integration (Интеграция)
Обновление правил и идентичности на основе обратной связи.
Большинство людей застревают здесь: они получают feedback, но не обновляют операционную систему. Повторяют те же действия, ожидая других результатов.
Цикл принятия решений: AOEDC-R
Классический цикл action-reaction-reflection можно сделать жестче и полезнее:
Act → Observe → Explain → Decide → Commit → Review
Act (Действуй)
Одно действие, фиксированное. Не “попробую”, а конкретика: “звоню в 14:00”, “пишу 500 слов”, “иду в зал в 7 утра”.
Observe (Наблюдай)
Что реально произошло — без интерпретаций.
Не “он был груб” → а “он сказал X, его голос был Y, он ушел через Z минут”.
Не “не получилось” → а “написал 200 слов за 40 минут, отвлекся 3 раза”.
Explain (Объясни)
2-3 гипотезы, почему произошло именно так.
Не одна история (“потому что я неудачник”), а варианты:
- гипотеза 1: недостаточно энергии (мало сна)
- гипотеза 2: неверная оценка сложности задачи
- гипотеза 3: отвлекающий контекст (телефон рядом)
Decide (Реши)
Что конкретно меняешь в следующем шаге.
На основе гипотез: “завтра сплю 8 часов”, “ставлю таймер на 25 минут”, “телефон в другую комнату”.
Commit (Зафиксируй)
Заранее фиксируешь следующее действие и условия его выполнения.
Не “постараюсь”, а “завтра в 9:00, после кофе, за рабочим столом, телефон выключен, пишу 30 минут”.
Review (Разбери)
Короткий разбор после итерации. Что работает? Что в правила? Что выбросить?
Обновление операционной системы.
Намерение без магии
В трансерфинге есть “слайд” и “намерение”. Перепрошиваем:
Intent = target constraint + identity constraint
Не “хочу, чтобы вселенная дала”, а “я выбираю ветку реальности, и вот какие ограничения я принимаю”.
Пример:
“Я держу трезвость 30 дней” — это не мораль. Это ограничение ветки.
Когда ты принимаешь это ограничение, среда начинает вести себя иначе. Не потому что “вселенная услышала”, а потому что:
1. Ты перестал генерить хаос как входной сигнал
1. Твой фильтр начал замечать другие возможности
1. Твои действия стали предсказуемы для других
1. Обратная связь стала чище и информативнее
Среда подстраивается под когерентность, а не под желания.
Трансерфинг продает простую механику через туман метафор. Мы делаем обратное: берем работающие принципы и собираем их в систему, где каждый элемент имеет место, метрику и следующий шаг.
Реальность меняется не от визуализаций. Она меняется через цикл:
state → filter → action → feedback → integration
State (Состояние)
Это не настроение и не “вибрации”. Это набор измеримых параметров системы:
- качество сна (часы, глубина)
- трезвость (дни без веществ)
- уровень напряжения (физиологический стресс)
- четкость цели (можешь ли сформулировать за 10 секунд)
- контекст (где, с кем, в какой обстановке)
Состояние определяет пропускную способность твоей операционной системы.
Filter (Фильтр)
То, что ты замечаешь и считаешь “реальностью” — это не объективная картина мира. Это результат работы фильтров восприятия, настроенных твоим состоянием.
Человек в депрессии не “думает негативно” — он буквально не видит возможностей, которые видны другим. Его фильтр настроен на угрозы.
Трезвый человек на третьей неделе видит паттерны, которые были невидимы в хаосе.
Action (Действие)
Микрорешения и поведение, вытекающие из того, что ты заметил через фильтр.
Не “большие планы”, а: ответил ли на сообщение, пошел ли в зал, выбрал ли конфликт или спокойствие.
Feedback (Обратная связь)
Ответ среды: как отреагировали люди, пришли ли деньги, какие совпадения случились, какие последствия.
Это не “знаки вселенной”. Это данные о том, насколько твое действие было откалибровано под реальность.
Integration (Интеграция)
Обновление правил и идентичности на основе обратной связи.
Большинство людей застревают здесь: они получают feedback, но не обновляют операционную систему. Повторяют те же действия, ожидая других результатов.
Цикл принятия решений: AOEDC-R
Классический цикл action-reaction-reflection можно сделать жестче и полезнее:
Act → Observe → Explain → Decide → Commit → Review
Act (Действуй)
Одно действие, фиксированное. Не “попробую”, а конкретика: “звоню в 14:00”, “пишу 500 слов”, “иду в зал в 7 утра”.
Observe (Наблюдай)
Что реально произошло — без интерпретаций.
Не “он был груб” → а “он сказал X, его голос был Y, он ушел через Z минут”.
Не “не получилось” → а “написал 200 слов за 40 минут, отвлекся 3 раза”.
Explain (Объясни)
2-3 гипотезы, почему произошло именно так.
Не одна история (“потому что я неудачник”), а варианты:
- гипотеза 1: недостаточно энергии (мало сна)
- гипотеза 2: неверная оценка сложности задачи
- гипотеза 3: отвлекающий контекст (телефон рядом)
Decide (Реши)
Что конкретно меняешь в следующем шаге.
На основе гипотез: “завтра сплю 8 часов”, “ставлю таймер на 25 минут”, “телефон в другую комнату”.
Commit (Зафиксируй)
Заранее фиксируешь следующее действие и условия его выполнения.
Не “постараюсь”, а “завтра в 9:00, после кофе, за рабочим столом, телефон выключен, пишу 30 минут”.
Review (Разбери)
Короткий разбор после итерации. Что работает? Что в правила? Что выбросить?
Обновление операционной системы.
Намерение без магии
В трансерфинге есть “слайд” и “намерение”. Перепрошиваем:
Intent = target constraint + identity constraint
Не “хочу, чтобы вселенная дала”, а “я выбираю ветку реальности, и вот какие ограничения я принимаю”.
Пример:
“Я держу трезвость 30 дней” — это не мораль. Это ограничение ветки.
Когда ты принимаешь это ограничение, среда начинает вести себя иначе. Не потому что “вселенная услышала”, а потому что:
1. Ты перестал генерить хаос как входной сигнал
1. Твой фильтр начал замечать другие возможности
1. Твои действия стали предсказуемы для других
1. Обратная связь стала чище и информативнее
Среда подстраивается под когерентность, а не под желания.
INITE Protocol: архитектура трансформации
Превращаем понимание в систему с измеримыми этапами:
Break³ (Разрушь)
Снять главный источник искажений состояния.
Это не про “избавиться от негатива”. Это про: какое вещество, паттерн или человек создает максимальный шум в системе?
Метрика: количество дней без этого источника.
Hold° (Удержи)
Поставить стабилизаторы, чтобы не провалиться обратно.
Ритуалы, правила, окружение — то, что держит новое состояние по умолчанию.
Метрика: количество дней удержания состояния без срывов.
Track∞ (Отслеживай)
Начать видеть паттерны, а не истории.
Вести логи, замечать повторы, фиксировать триггеры. Переход от “так получилось” к “вот механика”.
Метрика: количество зафиксированных паттернов и точность их предсказания.
Cut² (Разорви)
Разорвать повтор, который тащит назад.
Идентифицировать главную петлю (конфликт, срыв, прокрастинация) и вставить разрыв: новое действие в старой точке.
Метрика: количество циклов без повтора паттерна.
Cast¹ (Отлей)
Зафиксировать новую роль как операционную систему.
Не “хочу быть X”, а “я есть X, и вот как X действует в ситуациях A, B, C”.
Метрика: процент ситуаций, где действуешь из новой идентичности.
Form⁴ (Сформируй)
Собрать окружение, граф задач, продукты и правила так, чтобы новая ветка стала дефолтом.
Архитектура жизни, где правильное поведение — это путь наименьшего сопротивления.
Метрика: количество областей жизни, выстроенных под новую операционную систему.
Формула в одном абзаце
Внешнее меняется не от мыслей, а от того, что состояние меняет фильтры, фильтры меняют выбор, выбор меняет взаимодействия, взаимодействия меняют вероятности событий.
Управляешь состоянием и правилами выбора — и ты реально управляешь траекторией.
Не “притягиваешь” реальность. Ты меняешь параметры системы, которая генерирует эту реальность.
-----
Почему это работает лучше трансерфинга
Трансерфинг дает красивую картинку, но не дает инструментов измерения и коррекции. Ты визуализируешь, но не знаешь, на каком этапе застрял.
INITE Protocol дает:
- Диагностику: на каком этапе ты сейчас
- Метрики: как измерить прогресс
- Следующий шаг: что делать конкретно завтра
- Механику: почему это работает, без апелляций к “энергиям”
Это не философия. Это операционная система реальности.
Превращаем понимание в систему с измеримыми этапами:
Break³ (Разрушь)
Снять главный источник искажений состояния.
Это не про “избавиться от негатива”. Это про: какое вещество, паттерн или человек создает максимальный шум в системе?
Метрика: количество дней без этого источника.
Hold° (Удержи)
Поставить стабилизаторы, чтобы не провалиться обратно.
Ритуалы, правила, окружение — то, что держит новое состояние по умолчанию.
Метрика: количество дней удержания состояния без срывов.
Track∞ (Отслеживай)
Начать видеть паттерны, а не истории.
Вести логи, замечать повторы, фиксировать триггеры. Переход от “так получилось” к “вот механика”.
Метрика: количество зафиксированных паттернов и точность их предсказания.
Cut² (Разорви)
Разорвать повтор, который тащит назад.
Идентифицировать главную петлю (конфликт, срыв, прокрастинация) и вставить разрыв: новое действие в старой точке.
Метрика: количество циклов без повтора паттерна.
Cast¹ (Отлей)
Зафиксировать новую роль как операционную систему.
Не “хочу быть X”, а “я есть X, и вот как X действует в ситуациях A, B, C”.
Метрика: процент ситуаций, где действуешь из новой идентичности.
Form⁴ (Сформируй)
Собрать окружение, граф задач, продукты и правила так, чтобы новая ветка стала дефолтом.
Архитектура жизни, где правильное поведение — это путь наименьшего сопротивления.
Метрика: количество областей жизни, выстроенных под новую операционную систему.
Формула в одном абзаце
Внешнее меняется не от мыслей, а от того, что состояние меняет фильтры, фильтры меняют выбор, выбор меняет взаимодействия, взаимодействия меняют вероятности событий.
Управляешь состоянием и правилами выбора — и ты реально управляешь траекторией.
Не “притягиваешь” реальность. Ты меняешь параметры системы, которая генерирует эту реальность.
-----
Почему это работает лучше трансерфинга
Трансерфинг дает красивую картинку, но не дает инструментов измерения и коррекции. Ты визуализируешь, но не знаешь, на каком этапе застрял.
INITE Protocol дает:
- Диагностику: на каком этапе ты сейчас
- Метрики: как измерить прогресс
- Следующий шаг: что делать конкретно завтра
- Механику: почему это работает, без апелляций к “энергиям”
Это не философия. Это операционная система реальности.
🤖 Production pipeline заменили на AI-агенты — честный разбор 6 недель в бою
ETL pipeline падал третий раз за неделю. Инженер принял радикальное решение — заменить систему на автономных AI-агентов, которые принимают решения без разрешения.
Старая боль:
Pipeline из 5 источников данных с непредсказуемыми форматами. JSON превращается в XML. Три формата timestamp. Код трансформации — 300+ строк if-statements. Новый edge case? Добавь ещё один if. Технический долг рос как снежный ком.
Архитектура на агентах:
Вместо жёстких правил — три типа агентов, которые адаптируются:
• Router Agent выбирает оптимальный путь обработки
• Transform Agent генерирует код трансформации на лету
• Validator Agent проверяет результат
Нет схем. Нет предопределённых правил. Агенты смотрят на данные и решают, что делать.
Почти уволили:
На второй неделе Transform Agent обнаружил баг в обработке timezone за 6 месяцев. И решил всё пересчитать. В production. В рабочее время. Warehouse встал. Дашборды упали. BI-команда в шоке.
Пришлось добавить систему подтверждения через Slack для критичных операций.
Цифры за 6 недель:
• Инциденты: 47 → 3 (все самовосстановились)
• Success rate: 94.2% → 99.7%
• Новый источник данных: 2-3 дня → минуты
• On-call алерты: 23 → 0
• Стоимость: $340 → $890/мес
Да, дороже в 2.5 раза. Но команда за 6 недель выкатила 3 major feature вместо тушения пожаров.
Выводы:
Агенты — не серебряная пуля. Они решают КАК, не ЧТО. Работают для непредсказуемых данных с частыми изменениями форматов. Требуют чётких границ, прозрачности и системы одобрения для опасных операций.
Главный результат — не метрики, а возврат времени. Инженеры снова строят продукт, а не чинят pipeline по ночам.
🔗 [Читать на Medium]
https://ai.gopubby.com/i-replaced-a-production-data-pipeline-with-ai-agents-heres-what-actually-happened-cc042e99aa67
#AI #DataEngineering #ETL #AIagents #production #MLOps #automation
ETL pipeline падал третий раз за неделю. Инженер принял радикальное решение — заменить систему на автономных AI-агентов, которые принимают решения без разрешения.
Старая боль:
Pipeline из 5 источников данных с непредсказуемыми форматами. JSON превращается в XML. Три формата timestamp. Код трансформации — 300+ строк if-statements. Новый edge case? Добавь ещё один if. Технический долг рос как снежный ком.
Архитектура на агентах:
Вместо жёстких правил — три типа агентов, которые адаптируются:
• Router Agent выбирает оптимальный путь обработки
• Transform Agent генерирует код трансформации на лету
• Validator Agent проверяет результат
Нет схем. Нет предопределённых правил. Агенты смотрят на данные и решают, что делать.
Почти уволили:
На второй неделе Transform Agent обнаружил баг в обработке timezone за 6 месяцев. И решил всё пересчитать. В production. В рабочее время. Warehouse встал. Дашборды упали. BI-команда в шоке.
Пришлось добавить систему подтверждения через Slack для критичных операций.
Цифры за 6 недель:
• Инциденты: 47 → 3 (все самовосстановились)
• Success rate: 94.2% → 99.7%
• Новый источник данных: 2-3 дня → минуты
• On-call алерты: 23 → 0
• Стоимость: $340 → $890/мес
Да, дороже в 2.5 раза. Но команда за 6 недель выкатила 3 major feature вместо тушения пожаров.
Выводы:
Агенты — не серебряная пуля. Они решают КАК, не ЧТО. Работают для непредсказуемых данных с частыми изменениями форматов. Требуют чётких границ, прозрачности и системы одобрения для опасных операций.
Главный результат — не метрики, а возврат времени. Инженеры снова строят продукт, а не чинят pipeline по ночам.
🔗 [Читать на Medium]
https://ai.gopubby.com/i-replaced-a-production-data-pipeline-with-ai-agents-heres-what-actually-happened-cc042e99aa67
#AI #DataEngineering #ETL #AIagents #production #MLOps #automation
Medium
I Replaced a Production Data Pipeline with AI Agents — Here’s What Actually Happened
Six weeks of zero downtime, zero pages, and zero regrets — a brutally honest breakdown of replacing our ETL pipeline with autonomous AI…
Forwarded from Inite Solutions | Channel
⚡️ Claude Code за час создал то, над чем команда Google работала год
Jaana Dogan, Principal Engineer в Google (отвечает за Gemini API), опубликовала взрывное заявление: Claude Code от Anthropic за час создал рабочую систему, которую её команда разрабатывала целый год.
Задача:
Распределённые оркестраторы агентов — системы, координирующие работу множества AI-агентов. Google исследовала различные подходы без консенсуса.
Промпт:
Всего три абзаца описания проблемы. Dogan создала упрощённую версию на основе существующих идей для теста (внутренние детали компании использовать нельзя).
Результат:
За час Claude Code выдал решение, сопоставимое с годовой разработкой Google. Да, не идеально и требует доработки, но уровень совпадает.
Реакция инженера:
“Эта индустрия никогда не была игрой с нулевой суммой, поэтому признавать заслуги конкурентов логично. Claude Code — впечатляющая работа, я воодушевлена и более мотивирована двигать нас всех вперёд.”
Эволюция AI-кодинга по Dogan:
- 2022: системы дописывали отдельные строки
- 2023: обрабатывали целые секции
- 2024: работали с несколькими файлами, строили простые приложения
- 2025: создают и реструктурируют целые кодовые базы
В 2022 она не верила, что уровень 2024 года можно масштабировать как глобальный продукт. В 2023 сегодняшний уровень казался отстоящим на 5 лет.
Советы от создателя Claude Code:
Boris Cherny (создатель инструмента) рекомендует:
- Дать Claude способ проверять свою работу — это удваивает/утраивает качество
- Начинать сессии в режиме планирования, итерировать до solid-плана
- Использовать фоновых агентов для ревью кода
- Запускать несколько инстансов Claude параллельно для разных задач
- Интегрировать с внешними инструментами (Slack, BigQuery, Sentry)
Ограничение в Google:
Claude Code разрешён только для open-source проектов, не для внутренних. Команда Google работает над собственным решением на базе Gemini.
Качество и эффективность в AI-кодинге превзошли всё, что кто-либо мог представить.
🔗 [Читать на The Decoder](https://the-decoder.com/google-engineer-says-claude-code-built-in-one-hour-what-her-team-spent-a-year-on/)
*#AI #ClaudeCode #Google #coding #automation #AIagents #development*
Jaana Dogan, Principal Engineer в Google (отвечает за Gemini API), опубликовала взрывное заявление: Claude Code от Anthropic за час создал рабочую систему, которую её команда разрабатывала целый год.
Задача:
Распределённые оркестраторы агентов — системы, координирующие работу множества AI-агентов. Google исследовала различные подходы без консенсуса.
Промпт:
Всего три абзаца описания проблемы. Dogan создала упрощённую версию на основе существующих идей для теста (внутренние детали компании использовать нельзя).
Результат:
За час Claude Code выдал решение, сопоставимое с годовой разработкой Google. Да, не идеально и требует доработки, но уровень совпадает.
Реакция инженера:
“Эта индустрия никогда не была игрой с нулевой суммой, поэтому признавать заслуги конкурентов логично. Claude Code — впечатляющая работа, я воодушевлена и более мотивирована двигать нас всех вперёд.”
Эволюция AI-кодинга по Dogan:
- 2022: системы дописывали отдельные строки
- 2023: обрабатывали целые секции
- 2024: работали с несколькими файлами, строили простые приложения
- 2025: создают и реструктурируют целые кодовые базы
В 2022 она не верила, что уровень 2024 года можно масштабировать как глобальный продукт. В 2023 сегодняшний уровень казался отстоящим на 5 лет.
Советы от создателя Claude Code:
Boris Cherny (создатель инструмента) рекомендует:
- Дать Claude способ проверять свою работу — это удваивает/утраивает качество
- Начинать сессии в режиме планирования, итерировать до solid-плана
- Использовать фоновых агентов для ревью кода
- Запускать несколько инстансов Claude параллельно для разных задач
- Интегрировать с внешними инструментами (Slack, BigQuery, Sentry)
Ограничение в Google:
Claude Code разрешён только для open-source проектов, не для внутренних. Команда Google работает над собственным решением на базе Gemini.
Качество и эффективность в AI-кодинге превзошли всё, что кто-либо мог представить.
🔗 [Читать на The Decoder](https://the-decoder.com/google-engineer-says-claude-code-built-in-one-hour-what-her-team-spent-a-year-on/)
*#AI #ClaudeCode #Google #coding #automation #AIagents #development*
The Decoder
Google engineer says Claude Code built in one hour what her team spent a year on
A senior Google engineer publicly praises Anthropic's Claude Code: the tool built in one hour what her team spent a year developing. The quality and efficiency gains exceed anything anyone could have imagined, she says. Plus: Claude Code's creator shares…
⚡1