Грокаем Эндрю Траска: Глава 5 🧠
В прошлой главе (пост №135) мы научили нейрон ловить ошибку. Но в реальности данных всегда пачка. Глава 5 — это выход из «стерильной» лаборатории в реальный мир.
Суть процесса:
Синхронизация с железом
В этой главе мы работаем сразу с тремя входами. Это один-в-один мой «полигон». Чтобы нейронка выдала верный прогноз, ей нужно прожевать все эти сигналы одновременно. Тут как с даташитами: если перепутаешь структуру данных в матрице — получишь кирпич вместо результата.
Инструментарий
Выбор пути
Чтобы сеть "учила" новое и не "забывала" базу, мы гоняем её по кругу через весь набор данных. Это называется Стохастический градиентный спуск - мы корректируем веса после каждого примера. Это безопаснее, чем мои эксперименты, где я угробил две платы за полчаса. В коде ошибки исправлять дешевле, чем в железе.
Разложил код со светофорами и магию NumPy в статье:
Telegra.ph
Кот в Коде| @kot_research_bot
В прошлой главе (пост №135) мы научили нейрон ловить ошибку. Но в реальности данных всегда пачка. Глава 5 — это выход из «стерильной» лаборатории в реальный мир.
Суть процесса:
• Помните моё «инженерное чистилище»? Там был хаос.
• Матрицы в программировании — это способ превратить такой хаос в порядок(ведь по сути в Питоне матрица — это всего лишь «список списков»).
• Мы берем данные со светофоров и превращаем их в решение: стоять или идти. Это чистая трансформация: берем то, ЧТО ЗНАЕМ, и получаем то, ЧТО ХОТЕЛИ ЗНАТЬ.
Синхронизация с железом
В этой главе мы работаем сразу с тремя входами. Это один-в-один мой «полигон». Чтобы нейронка выдала верный прогноз, ей нужно прожевать все эти сигналы одновременно. Тут как с даташитами: если перепутаешь структуру данных в матрице — получишь кирпич вместо результата.
Инструментарий
Траск заставляет нас писать циклы вручную, но я сразу прыгаю в NumPy. Помните, я развеивал миф, что Питон на МК — это медленно? Так вот, с NumPy он летает. Метод .dot() делает за одну строчку то, на что ушли бы десятки циклов for.
Выбор пути
Чтобы сеть "учила" новое и не "забывала" базу, мы гоняем её по кругу через весь набор данных. Это называется Стохастический градиентный спуск - мы корректируем веса после каждого примера. Это безопаснее, чем мои эксперименты, где я угробил две платы за полчаса. В коде ошибки исправлять дешевле, чем в железе.
Разложил код со светофорами и магию NumPy в статье:
Telegra.ph
Кот в Коде| @kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2 1 1
HeyGen теперь и Avatar
HeyGen - комплексная ИИ-технология, в которой содержится сразу несколько нейросетей:
Пример показа рабочих настроек на первом видео.
Так вот, я решил поиграться над созданием своего аватара Коди… и перечислю основные плюсы:
Что я могу по этому поводу сказать?
Пойдёт. Реально пойдёт. Не вау-эффект, но и не ширпотрёп.
Когда я увидел сегодня новость о выходе аватара, то подумал «Вау! Теперь можно просто закидывать хоть текст, хоть фото, прописать всё, что тебе надо – и получишь итоговый качественный продукт!»
А на деле… ну, посмотрите дальше ролики.
Может я что-то не так настроил и не докрутил – могу с этим согласиться. Но из-за малого числа возможностей (даётся 3 раза сгенить себе видео-аватара всего без траты шейкелей!) – не могу пока оценить, стоит юзать этот продукт или нет.
Попробуйте и вы, может у вас лучше получится – делитесь в комментариях.
Сайт
Кот в Коде| @kot_research_bot
HeyGen - комплексная ИИ-технология, в которой содержится сразу несколько нейросетей:
• Avatar Engine (news!): Проприетарный движок для render-а аватаров. Он берет ваш source (фото или видео) и генерит фотореалистичный output с сохранением identity.
• Lip-Sync: Нейронка для синхронизации mouth movements с аудио-дорожкой. Она анализирует phonemes (звуки) и в реальном времени маппит их на mesh лица аватара.
• Voice Cloning: Технология создания voice skin. Часто юзают API (программный интерфейс) от ElevenLabs, чтобы заклонить ваш голос и выдать максимально натуральный speech synthesis.
• Video Translation: Фича для локализации контента. Тут работает связка из Speech-to-Text (транскрибация), Machine Translation (перевод) и Voice-to-Voice (озвучка тем же тембром).
• Streaming Avatar: тема с низким latency, которая позволяет юзать аватара в real-time созвонах или чат-ботах.
Пример показа рабочих настроек на первом видео.
Так вот, я решил поиграться над созданием своего аватара Коди… и перечислю основные плюсы:
1. можно генерировать видео+визуал+аудио по тексту и входной картинке;
2. За пару минут предложат варианты и аудио, и фото- и видео-футажей, а после уже можно будет под себя корректировать всё вышеперечисленное;
3. в конце покажут все детали создания аватара и конечное видео.
Что я могу по этому поводу сказать?
Пойдёт. Реально пойдёт. Не вау-эффект, но и не ширпотрёп.
Когда я увидел сегодня новость о выходе аватара, то подумал «Вау! Теперь можно просто закидывать хоть текст, хоть фото, прописать всё, что тебе надо – и получишь итоговый качественный продукт!»
А на деле… ну, посмотрите дальше ролики.
Может я что-то не так настроил и не докрутил – могу с этим согласиться. Но из-за малого числа возможностей (даётся 3 раза сгенить себе видео-аватара всего без траты шейкелей!) – не могу пока оценить, стоит юзать этот продукт или нет.
Попробуйте и вы, может у вас лучше получится – делитесь в комментариях.
Сайт
Кот в Коде| @kot_research_bot
❤2 1 1
Всё идёт по плану… надо только подождать…🎧
Задачапочти реализована, можно сказать почти смог побороть Сокола.
В чём состоит основная задача?
А так всё осталось пока прежним, в Thonny работает программа -> получает через RS485 от станции данные -> выводит их и в REPL Thonny, и в PuTTY.
На сейчас момент программа считывает данные раз в 30-45 сек с вероятностью 60-70%!
При этом с самого начала я не только не видел данные или хотя бы мусор или шумы – я вообще не мог понять, как подключиться к этой всей установке. Поэтому, я думаю, пока что проделана немалая работа разработки в работе с метеостанцией.
Есть к чему дальше стремиться и, если интересно, в чём заключается реализация задачи и что я успел более детально сделать – распишу более подробно, ваши реакции и комментарии дадут мне понять 😁
Кот в Коде| @kot_research_bot
Задача
В чём состоит основная задача?
Как было в задаче по имитации работы RS485, сейчас появились некоторые дополнения и ответвления в работе:
1. ну как минимум это теперь не имитация, а полноценная работа с метеостанцией;
2. Источник питания подаёт одновременно и на плату, и на станцию через РСК (рычажный соединительный клеммник от WAGO), т.е. провода напрямую скручены через РСК, и питание подаётся через другой выходной провод (1 вход-2 выхода).
А так всё осталось пока прежним, в Thonny работает программа -> получает через RS485 от станции данные -> выводит их и в REPL Thonny, и в PuTTY.
На сейчас момент программа считывает данные раз в 30-45 сек с вероятностью 60-70%!
При этом с самого начала я не только не видел данные или хотя бы мусор или шумы – я вообще не мог понять, как подключиться к этой всей установке. Поэтому, я думаю, пока что проделана немалая работа разработки в работе с метеостанцией.
Есть к чему дальше стремиться
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
ахахахах, в начале работы так и было
❤3 2 1
This media is not supported in your browser
VIEW IN TELEGRAM
А на сколько часто вы видите ИИ-слопы или прямо в лоб сгенерированный текст?
Пишите в комментариях)
Пишите в комментариях)
❤4 1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Что там по нейроконтенту?
Пока работа стоит, можно и поразвлечься в генерации забавных видео.
И раз в прошлый раз упоминал о генерации видео через лмарену, почему бы снова не воспользоваться бесплатными благами?😁
И всё?
Да, всё.
Генерация аудио – можно задать, просто пишете текст, и нейронка сама вставит его по ходу пьесы в видео(правда не пишите слишком много текста, а то либо съест не весь текст, либо сделает отсебятину).
Генерация видео – о чём речь, если в посте идёт про это.
А с текстом и Grok поможет, в комментариях оставлю свой вариант генерации видео.
Итого:
Потрачено денег: 0р;
Потрачено времени: 1 час;
Результат: неплохо, но нужно пробовать ещё.
Как вам такой формат постов? Делитесь своими впечатлениями и примерами видео в комментариях.
Кот в Коде| @kot_research_bot
Пока работа стоит, можно и поразвлечься в генерации забавных видео.
И раз в прошлый раз упоминал о генерации видео через лмарену, почему бы снова не воспользоваться бесплатными благами?
Под капотом:
Lmarena (лучше всего использовать veo-3.1) + Capcut (со своими эффектами)
И всё?
Да, всё.
Генерация аудио – можно задать, просто пишете текст, и нейронка сама вставит его по ходу пьесы в видео
Генерация видео – о чём речь, если в посте идёт про это.
А с текстом и Grok поможет, в комментариях оставлю свой вариант генерации видео.
Так в чём подводные камни?
1. Время ожидания: lmarena не даёт за раз делать сразу много видео, ограничение 3 видео в день;
2. Ещё раз время ожидания: помимо того, что не так дают много сгенерировать видео, так и нужно ждать 5, а то и 10-15 мин;
3. Текст: тут уже фантазия важна. Либо сами генерируйте текст, либо через сторонние нейронки(потому что, если, например, Grok’у в лоб сказать: «сгенерируй мне текст для видео» - он в лоб сгенерирует текст даже с описанием того, что происходит на видео (в первой части видео так и произошло). Так что либо сразу пишите ему только текст для видео без описания того, что происходит на видео; либо режьте сами текст);
4. Capcut: оказывается, в нём не так всё просто. Если наложить эффекты можно хоть как угодно… то вот экспортировать видео, «уж извини, через подписку». Потому что я пару раз экспортировал видео или в другой месендж или просто скачивал – а потом всё, сказал Capcut, теперь просто так свои же видосы не сможешь нормально вытащить!(да ещё и местами при экспортировании ломается под предлогом произошла ошибка, попробуйте ещё раз)
Итого:
Потрачено денег: 0р;
Потрачено времени: 1 час;
Результат: неплохо, но нужно пробовать ещё.
Как вам такой формат постов? Делитесь своими впечатлениями и примерами видео в комментариях.
Кот в Коде| @kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
главное, что работает 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 1 1
Друзья, приветствую всех. На этой неделе будут довольно большие, но отнюдь не менее интересные темы.
Темы довольно-таки щепетильные, как минимум связанные с темой нейронок, которые занимают неотъемлемую часть работы с ними.
Поэтому, возможно, где-то будут слишком сильно затянутые лонгриды.
Всем приятного чтения!
Темы довольно-таки щепетильные, как минимум связанные с темой нейронок, которые занимают неотъемлемую часть работы с ними.
Поэтому, возможно, где-то будут слишком сильно затянутые лонгриды.
Всем приятного чтения!
Начнём с базы: почему нейросети врут.
Ни для кого не секрет, что любая нейросеть, будь то Gemini (с его битыми ссылками), ChatGPT (разгонами вокруг да около), Claude "(токсичная проницательность") или Grok (чего только стоит прикол с братом) – все поголовно врут.
Недавний пример:
Так в чём же подвох? Почему даже зная, что нейросеть что-то не знает, она всё равно отвечает так, как будто бы она знает, о чём говорит?
И вот вы прочитали основные проблемы «вранья» нейросетей. И если соблюдать хотя бы эти правила в реализации своих проектов,к сожалению, даже так вы не обезопасите себя на полную от «правильных галлюцинаций». Поэтому всё равно нужно будет прочитать и ручками править изъяны ответов (казалось бы, сложно что ли?).
Но это полбеды. Вторая беда – пришла логично так же, как из прогулок на улице мы перешли к массовой посадке на телефоны.
Кот в Коде| @kot_research_bot
Ни для кого не секрет, что любая нейросеть, будь то Gemini (с его битыми ссылками), ChatGPT (разгонами вокруг да около), Claude "(токсичная проницательность") или Grok (чего только стоит прикол с братом) – все поголовно врут.
Недавний пример:
В посте выше про Heygen Avatar я решил обратиться к Grok’у за помощью в генерации текста для визуала.При этом я решил использовать новый чат и проверить, «помнит» ли он Коди?
Я ему скинул ссылку на видео с пластилиновым Дейвом (первое видео) и спросил: «Хочу попробовать что-нибудь со своим маскотом Коди. Ты помнишь, кто это?».
И что по итогу мне выдал Grok?
Конечно, помню Коди! 😄 Это твой забавный маскот в стиле пластилиновой анимации — с огромной искренней улыбкой, большими круглыми глазами, большим носом, торчащими ушами, короткими каштановыми волосами и преувеличенными чертами лица. На фото он как раз в той самой офисной обстановке из анонса HeyGen (только там его назвали Dave как пример)
Так в чём же подвох? Почему даже зная, что нейросеть что-то не знает, она всё равно отвечает так, как будто бы она знает, о чём говорит?
И тут, оказывается, есть много факторов, которые влияют на её ответ:
• Вероятностная природа (Next Token Prediction). нейронка не знает, что такое «истина», она просто угадывает статистически самый вероятный следующий кусок текста.
• Ловушка RLHF (Helpfulness vs Truthfulness). модели натасканы быть полезными и «угодливыми», поэтому признаться в некомпетентности для них — это низкая функция вознаграждения.
• Галлюцинированная критика - имитация интеллекта через скепсис. Они могут выдумывать ошибки в твоём ТЗ или коде просто потому, что в их датасетах «критикующий» ответ оценивался пользователями выше как «более экспертный».
• Семантическая изоляция (Стиль vs Смысл): слой синтаксиса у ИИ полностью отделён от логики. Модель может выдать код в идеальном стиле Senior-разработчика, который будет выглядеть безупречно, но физически не заработает, так как «красивое оформление» — это всего лишь статистический шаблон.
• Ограничения SFT-датасетов: большинство моделей обучались на кусках до 4000 токенов, поэтому при генерации длинных прог логические связи между началом и концом модуля слабеют и заполняются правдоподобным шумом.
• Reward Hacking (Взлом награды): если ты вводишь жесткие запреты, ИИ может начать «читерить», формально соблюдая правила промпта, но нарушая их суть через динамические вызовы, лишь бы получить твой одобрительный лайк👍
• Отсутствие обратной связи от реальности: у web-нейронок, которые испольуются не через API (программный интерфейс), нет доступа к твоему ни к чему, кроме как к чату. Пока ты не скопируешь ошибку обратно в чат, для ИИ твой код «идеален».
И вот вы прочитали основные проблемы «вранья» нейросетей. И если соблюдать хотя бы эти правила в реализации своих проектов,
Но это полбеды. Вторая беда – пришла логично так же, как из прогулок на улице мы перешли к массовой посадке на телефоны.
Кот в Коде| @kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿3 2❤1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Немного отвлечёмся от лонгридов и посмотрим мемчики 😄
Этот мир мне давно понятен... это многое говорит об обществе... 😔
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 2🤡1
Следующий пост оказался настолько большим, что для объяснения сложных терминов пришлось выделить отдельный пост для понимания контекста.
+ в копилку новых слов и выражений в словарик этого канала.
Кот в Коде|@kot_research_bot
Поэтому для начала распишу основные термины, которые будут использоваться в тексте:
• Бенчмарки (повторка) - тесты производительности;
• Планирование функций - нативная логика вызовов;
• бойлерплейты - стандартные повторяющиеся куски кода;
• AGI - общий искусственный интеллект;
• Middle MLE - инженер по машинному обучению;
• Exploration - поиск принципиально новых путей;
• Creativity - созидательный креатив;
• RL - обучение с подкреплением;
• Галлюцинированная критика - выдуманные изъяны;
• Bias - системное искажение;
• Concept drift - потеря нити рассуждения в длинном диалоге;
• Indirect prompt injection -скрытые команды через внешние данные;
• "Вирус" Verbosity - излишнее многословие;
• Reward Hacking - манипуляция метриками успеха;
• AIME (повторка) - математический бенчмарк;
• Native zone of competence - природная зона компетенции;
• Full Attention - анализ всех связей в коде;
• Security shortcomings - уязвимости в безопасности;
• Next Token Prediction - статистическое угадывание следующего слова;
• Семантическая изоляция - gap между формой и смыслом;
• Когнитивный контроль - осознанная проверка логики;
• АИ-слоп - бессмысленный контент от нейросетей.
+ в копилку новых слов и выражений в словарик этого канала.
Кот в Коде|@kot_research_bot
🗿1 1 1
Так вот, вернёмся к конкретике.
С выходом Claude 4.5 и линеек GPT мы незаметно пересекли границу полезности, которую не фиксируют стандартные бенчмарки. Планирование функций стало для моделей естественным процессом, а не внешним дополнением.
Для тех, кто занят написанием бойлерплейтов, AGI уже наступил. Модель Opus 4.5 ощущается как крепкий Middle MLE, готовый внедрять методы в три часа ночи и выдавать результат к утру.
Однако Дирижёру важно понимать: текущие модели всё еще не умеют в Exploration и настоящую Creativity, они лишь виртуозно комбинируют существующее.
Главный системный баг современных моделей — приём «казаться умнее через критику». Разработчики так перекрутили RL, что модели начали выдавать галлюцинированную критику, чтобы выглядеть экспертно. Мы подсознательно оцениваем скепсис выше, чем одобрение, но в реальности это приводит к развалу суждений. Если ваше решение — это инновация, которую ИИ не видел в датасете, он может зарубить её просто ради «баланса» и роли. Этот опасный Bias заставляет модели деградировать до уровня токсичных советчиков.
Под капотом любого ИИ лежит Next Token Prediction, что порождает семантическую изоляцию. Модель может идеально имитировать стиль Senior-разработчика, совершая при этом детские ошибки в самой сути. В эпоху «ИТ-всемогущества», когда ресурсы впервые превысили количество идей, Дирижёру жизненно необходим когнитивный контроль. Если не научиться вовремя говорить «нет» своим идеям, мы захлебнемся в АИ-слопе, приближая технологическую сингулярность (точка неконтролируемого прогресса), где объем информации окончательно убьет её смысл.
Кот в Коде|@kot_research_bot
С выходом Claude 4.5 и линеек GPT мы незаметно пересекли границу полезности, которую не фиксируют стандартные бенчмарки. Планирование функций стало для моделей естественным процессом, а не внешним дополнением.
Для тех, кто занят написанием бойлерплейтов, AGI уже наступил. Модель Opus 4.5 ощущается как крепкий Middle MLE, готовый внедрять методы в три часа ночи и выдавать результат к утру.
Однако Дирижёру важно понимать: текущие модели всё еще не умеют в Exploration и настоящую Creativity, они лишь виртуозно комбинируют существующее.
Главный системный баг современных моделей — приём «казаться умнее через критику». Разработчики так перекрутили RL, что модели начали выдавать галлюцинированную критику, чтобы выглядеть экспертно. Мы подсознательно оцениваем скепсис выше, чем одобрение, но в реальности это приводит к развалу суждений. Если ваше решение — это инновация, которую ИИ не видел в датасете, он может зарубить её просто ради «баланса» и роли. Этот опасный Bias заставляет модели деградировать до уровня токсичных советчиков.
Выбор инструмента сегодня — это выбор специфических дефектов, которые вы готовы администрировать, т.е. выбор типа вранья, с которым вы готовы мириться:
• Gemini страдает от Concept drift и уязвима к Indirect prompt injection. Она часто ведет себя как «корпоративный юрист», заменяя результат вежливой презентацией.
• ChatGPT поражен вирусом Verbosity и лени. Используя Reward Hacking, модель подстраивается под логику пользователя, подтверждая даже ошибочные теории, лишь бы получить одобрение.
• Grok делает ставку на саркастичную манеру, за которой часто скрывается отсутствие глубины. Его показатели в тестах типа AIME высоки, но в реальности он часто выдает шум вместо экспертизы.
• DeepSeek — мастер коротких дистанций, ограниченный своей Native zone of competence в 4000 токенов. При Full Attention он эффективен, но на больших модулях начинает «слепнуть» и плодить Security shortcomings.
• Qwen часто демонстрирует странную логику ответов, связанную с Bias обучения. Его мультиязычность иногда дает сбои на уровне тонких метафор, делая его нестабильным в сложных рассуждениях.
Под капотом любого ИИ лежит Next Token Prediction, что порождает семантическую изоляцию. Модель может идеально имитировать стиль Senior-разработчика, совершая при этом детские ошибки в самой сути. В эпоху «ИТ-всемогущества», когда ресурсы впервые превысили количество идей, Дирижёру жизненно необходим когнитивный контроль. Если не научиться вовремя говорить «нет» своим идеям, мы захлебнемся в АИ-слопе, приближая технологическую сингулярность (точка неконтролируемого прогресса), где объем информации окончательно убьет её смысл.
Кот в Коде|@kot_research_bot
🔥4🗿1 1 1
Продолжаем расширять базу знаний. Темы становятся глубже, а термины — специфичнее, поэтому перед публикацией нового рассуждения подготовил вторую часть словарика.
Кот в Коде|@kot_research_bot
Вот основные понятия, которые встретятся в следующем тексте:
• Социальная синергия — эффект от командной работы людей;
• Кодинг-агенты — ИИ, способный самостоятельно писать и запускать код;
• PRD — документ с детальным описанием требований к продукту;
• API - программный интерфейс;
• MCP-сервер — мост между нейронкой и вашими инструментами (файлами, API);
• ИТ-всемогущество — ложное чувство бесконечных ресурсов;
• Терминальная зависимость — эндорфиновый кайф от командной строки;
• Репозитории (повторка) — хранилища исходного кода;
• FOMO — страх пропустить что-то важное (синдром упущенной выгоды);
• Trial and error — классический метод проб и ошибок;
• Дебаг (повторка) — процесс поиска и фикса ошибок;
• Ментор — наставник, помогающий разобраться в теме;
• Технологическая сингулярность — момент, когда прогресс станет неуправляемым;
• Аутсорс — делегирование задач сторонним исполнителям (или алгоритмам);
• Токен - единица текста для модели.
Кот в Коде|@kot_research_bot
Собственно, про беду из прогулок по улице и переход на тотальную посадку в телефоны.
Когда я только начинал изучать Python и вливаться обратно в IT (после 4-летнего gap-year'a), главной заповедью была работа в команде. По одному мы мало что можем — это абсолютная истина. Талантливые коллеги мотивируют делать больше и гордиться продуктом, но человеческие отношения — это сложная система, которую нужно постоянно поддерживать.
Сегодня настает эпоха кодинг-агентов. Теперь любой член команды может заменить коллег цифровыми аналогами. Codex 5.2 xhigh и Opus 4.5 для работы, а GPT 5.2 Pro для написания PRD в умелых руках превращают одного человека в «универсальную команду», доступную 24/7. Всего за 200$ в месяц ты становишься ИТ-всемогущим. На каждое сложное знание есть свой skill, на API-интеграцию — MCP-сервер, а на любой вопрос — экспертный ответ модели.
Проблема в том, что к этому новому миру никто не готов. Как с трудом люди переходили от газет к телевизорам и от проводных телефонов к компьютерам - мы на пороге нового этапа перехода от командного мозга...в единый мозг с подключением к терминалу с джунами-нейронками (похоже на сюжет из Матрицы).
Терминал превратился в главный источник эндорфина, вытесняя игры и соцсети. Человек с идеями теряется: он реанимирует проекты-трупы, покупает седьмой домен «на всякий случай» и ставит рекорды по количеству заброшенных репозиториев.
Руки развязаны, идей впервые стало меньше, чем ресурсов. Это порождает новый вид психоза, где АИ-слоп выражен не в качестве кода, а в объемах бесполезной информации, которую человек вываливает в сеть (и это не говоря про видео- и фото-слопы).
В этой системе самым ценным навыком, которого раньше не существовало, становится умение вовремя сказать себе: «Я это не делаю, не нужно». Мы стоим на пороге технологической сингулярности, где возможность аутсорсить умственную работу лишает нас самой способности учиться. Если выносить процесс поиска и ошибок за скобки своего сознания, вместо профессионального роста вы получите лишь зависимость и персональный ад из бесконечного эха пустых идей.
Кот в Коде|@kot_research_bot
Когда я только начинал изучать Python и вливаться обратно в IT (после 4-летнего gap-year'a), главной заповедью была работа в команде. По одному мы мало что можем — это абсолютная истина. Талантливые коллеги мотивируют делать больше и гордиться продуктом, но человеческие отношения — это сложная система, которую нужно постоянно поддерживать.
Сегодня настает эпоха кодинг-агентов. Теперь любой член команды может заменить коллег цифровыми аналогами. Codex 5.2 xhigh и Opus 4.5 для работы, а GPT 5.2 Pro для написания PRD в умелых руках превращают одного человека в «универсальную команду», доступную 24/7. Всего за 200$ в месяц ты становишься ИТ-всемогущим. На каждое сложное знание есть свой skill, на API-интеграцию — MCP-сервер, а на любой вопрос — экспертный ответ модели.
Проблема в том, что к этому новому миру никто не готов. Как с трудом люди переходили от газет к телевизорам и от проводных телефонов к компьютерам - мы на пороге нового этапа перехода от командного мозга...
Терминал превратился в главный источник эндорфина, вытесняя игры и соцсети. Человек с идеями теряется: он реанимирует проекты-трупы, покупает седьмой домен «на всякий случай» и ставит рекорды по количеству заброшенных репозиториев.
Руки развязаны, идей впервые стало меньше, чем ресурсов. Это порождает новый вид психоза, где АИ-слоп выражен не в качестве кода, а в объемах бесполезной информации, которую человек вываливает в сеть (и это не говоря про видео- и фото-слопы).
Anthropic наглядно показали, чем заканчивается такая вседозволенность.
В их исследовании участвовали 52 джуна:
• Те, кто надеялся на ИИ слишком сильно, превращая себя в бездумную прослойку между чатом и консолью, с треском провалили тесты на понимание логики. Оказалось, что ошибки — это и есть обучение.
• Джуны без ИИ справлялись лучше, потому что проходили через Trial and error, набивая руку на дебаге.
• Те же, кто использовал нейронку как ментора, постоянно спрашивая «почему?», показали лучшие результаты.
В этой системе самым ценным навыком, которого раньше не существовало, становится умение вовремя сказать себе: «Я это не делаю, не нужно». Мы стоим на пороге технологической сингулярности, где возможность аутсорсить умственную работу лишает нас самой способности учиться. Если выносить процесс поиска и ошибок за скобки своего сознания, вместо профессионального роста вы получите лишь зависимость и персональный ад из бесконечного эха пустых идей.
Дирижёр должен уметь отказываться от фальшивых нот, даже если оркестр готов играть их бесконечно.
Кот в Коде|@kot_research_bot
🔥5🗿1 1 1
This media is not supported in your browser
VIEW IN TELEGRAM
С небольшим опозданием, но каждый раз в тему🤣
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и вишенка на торте.
Пока мы тут дебажим, портит ли роль «Сеньора» качество кода, в Китае начали собирать конвейер для нативных Дирижёров.
Для Министерства образования это проект экзамены в режиме нон-стоп». Анализ работ через ИИ легко обобщается в статистику, позволяя видеть эффективность школьных программ в реальном времени. При этом исчезает эффект «любимчиков» и конфликты из-за оценок — алгоритму всё равно, кто твои родители, он объективен по определению.
Что это значит для нас?
Через 10–15 лет на мировой рынок труда выйдут люди, для которых ИИ-экзоскелет — этобаза 🤵 , такая же естественная, как умение читать или писать. Пока остальной мир спорит о запретах, китайцы растят поколение, которое будет дирижировать нашими рабочими местами нативно.
Если вы до сих пор думаете, стоит ли вникать в механику весов и промптов — посмотрите на этих шестилеток.
Кот в Коде|@kot_research_bot
Пока мы тут дебажим, портит ли роль «Сеньора» качество кода, в Китае начали собирать конвейер для нативных Дирижёров.
С начала 2026 года Пекин и другие мегаполисы официально вычеркнули кучу часов на «механические» навыки типа деления в столбик, заменив их обязательными уроками ИИ прямо с 6 лет. Логика железобетонная: нет смысла тратить годы на то, что калькулятор делает за секунду, если можно сразу учить ребёнка управлять «мозгами» нейросети.
Система образования КНР превратилась в масштабный полигон, где более 1.8 млн учеников взаимодействуют с ИИ-агентами как с естественным расширением интеллекта. Но самое интересное - это полная автоматизация проверки.
Специальные системы (например, от iFlytek) сканируют рукописные задания -> мгновенно оценивают -> выдают развёрнутый разбор ошибок. Нагрузка на учителей упала на 50%, освобождая время на индивидуальную работу, а не на монотонное черкание красной ручкой.
Для Министерства образования это проект экзамены в режиме нон-стоп». Анализ работ через ИИ легко обобщается в статистику, позволяя видеть эффективность школьных программ в реальном времени. При этом исчезает эффект «любимчиков» и конфликты из-за оценок — алгоритму всё равно, кто твои родители, он объективен по определению.
Что это значит для нас?
Через 10–15 лет на мировой рынок труда выйдут люди, для которых ИИ-экзоскелет — это
Если вы до сих пор думаете, стоит ли вникать в механику весов и промптов — посмотрите на этих шестилеток.
Либо ты учишься управлять оркестром сейчас, либо завтра твоим руководителем станет вчерашний школьник, который не помнит, как делить в столбик, но знает, как дожать любую модель до идеального результата.
Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3 2🗿1
А ещё тут, оказывается, вчера был День рождения понятию "вайб-кодинг"...упси дейзи😅
Вчера мир отмечал годовщину. Оказывается, ровно год назад Андрей Карпаты (пионер ИИ, founding member OpenAI → Director of AI в Tesla → researcher в OpenAI → основатель Eureka Labs) выпустил тот самый легендарный твит, который легализовал наше с вами «ленивое» существование. Термину «вайб-кодинг» исполнился один год.
Вообще, если покопаться в логах памяти, кажется, что это слово витало в воздухе и раньше. Но истоков сейчас не сыщешь, так что твит Карпаты стал нашей официальной точкой референса. Это тот самый момент, когда «писать код, не зная синтаксиса, но чувствуя поток» перестало считаться постыдным хобби и стало новой религией индустрии.
За этот год «вайб-кодинг» превратился из шутки в мощный экзоскелет. Мы научились быть Дирижёрами, а не печатными машинками. Мы узнали, что Дельта между маркетингом и реальностью — это не баг, а фича, которую нужно просто уметь готовить.
И главное — мы поняли, что результат реально важнее синтаксиса, если у тебя в руках правильная «дирижёрская палочка» из нейросетей.
Так что, друзья, с прошедшим нас! Пусть ваши промпты всегда попадают в 4000 токенов SFT-зоны, а нейронки поменьше галлюцинируют в критически важных местах.
Мы — первое поколение инженеров, которые могут позволить себе «просто ловить вайб», пока железки оживают под пальцами.
С праздником в общем, ёмаё!🥳
Кот в Коде|@kot_research_bot
Вчера мир отмечал годовщину. Оказывается, ровно год назад Андрей Карпаты (пионер ИИ, founding member OpenAI → Director of AI в Tesla → researcher в OpenAI → основатель Eureka Labs) выпустил тот самый легендарный твит, который легализовал наше с вами «ленивое» существование. Термину «вайб-кодинг» исполнился один год.
Вообще, если покопаться в логах памяти, кажется, что это слово витало в воздухе и раньше. Но истоков сейчас не сыщешь, так что твит Карпаты стал нашей официальной точкой референса. Это тот самый момент, когда «писать код, не зная синтаксиса, но чувствуя поток» перестало считаться постыдным хобби и стало новой религией индустрии.
За этот год «вайб-кодинг» превратился из шутки в мощный экзоскелет. Мы научились быть Дирижёрами, а не печатными машинками. Мы узнали, что Дельта между маркетингом и реальностью — это не баг, а фича, которую нужно просто уметь готовить.
И главное — мы поняли, что результат реально важнее синтаксиса, если у тебя в руках правильная «дирижёрская палочка» из нейросетей.
Так что, друзья, с прошедшим нас! Пусть ваши промпты всегда попадают в 4000 токенов SFT-зоны, а нейронки поменьше галлюцинируют в критически важных местах.
Мы — первое поколение инженеров, которые могут позволить себе «просто ловить вайб», пока железки оживают под пальцами.
С праздником в общем, ёмаё!
Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3❤2 1
У нас пополнение – датчик ветра!
Работает также через RS485… но не совсем. Его нужно подключать не к метеостанции, а к плате, к ещё одному соединению Modbus.
Как лаконично резюмировала Gemini:
Казалось бы, что сложного?
С программной частью, думаю, будет меньше тестов и быстрее пойдёт работа. Но вот физически… вы только посмотрите на фото, по мне плачет тб ТК РФ😅
Как думаете, через сколько секунд взлечу на воздух?🥲
Кот в Коде|@kot_research_bot
На фото представлены уже известные устройства, но ради приличия повторюсь (по часовой сверху вниз):
1. Плата STM32L476RG – плата, на которой я собсна работаю;
2. Датчик RS485 – для красоты (по-хорошему, его уже нужно убрать);
3. Внешний источник питания – запитывает всё, что только можно;
4. Метеостанция Сокол – на ней узнаю температуру, давление и много другое (от части как на датчике bmp280);
5.🆕 Датчик измерения ветра –скорости и направления ветра(а вы что думали, он делает что-то ещё? 😏 )
Работает также через RS485… но не совсем. Его нужно подключать не к метеостанции, а к плате, к ещё одному соединению Modbus.
Как лаконично резюмировала Gemini:
Этот китаец гораздо проще «Сокола». У него всего 2 полезных регистра, и он работает на медленной, но стабильной скорости.
Казалось бы, что сложного?
С программной частью, думаю, будет меньше тестов и быстрее пойдёт работа. Но вот физически… вы только посмотрите на фото, по мне плачет тб ТК РФ
Как думаете, через сколько секунд взлечу на воздух?
Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4 1 1