Кот в Коде|ИИ и Питон – Telegram
Кот в Коде|ИИ и Питон
466 subscribers
159 photos
34 videos
114 links
Самоучка в IT
Укрощаю платы и MicroPython с помощью нейросетей.
Серьезные проекты с несерьезным лицом.
Не «мяу», а print('Hello World') 🐾

Поделись с кодерами! https://news.1rj.ru/str/cat_with_code
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Немного отвлечёмся от лонгридов и посмотрим мемчики 😄

Этот мир мне давно понятен... это многое говорит об обществе...😔
Please open Telegram to view this post
VIEW IN TELEGRAM
32🤡1
Следующий пост оказался настолько большим, что для объяснения сложных терминов пришлось выделить отдельный пост для понимания контекста.

Поэтому для начала распишу основные термины, которые будут использоваться в тексте:

Бенчмарки (повторка) - тесты производительности;
Планирование функций - нативная логика вызовов;
• бойлерплейты - стандартные повторяющиеся куски кода;
AGI - общий искусственный интеллект;
Middle MLE - инженер по машинному обучению;
Exploration - поиск принципиально новых путей;
Creativity - созидательный креатив;
RL - обучение с подкреплением;
Галлюцинированная критика - выдуманные изъяны;
Bias - системное искажение;
Concept drift - потеря нити рассуждения в длинном диалоге;
Indirect prompt injection -скрытые команды через внешние данные;
• "Вирус" Verbosity - излишнее многословие;
Reward Hacking - манипуляция метриками успеха;
AIME (повторка) - математический бенчмарк;
Native zone of competence - природная зона компетенции;
Full Attention - анализ всех связей в коде;
Security shortcomings - уязвимости в безопасности;
Next Token Prediction - статистическое угадывание следующего слова;
Семантическая изоляция - gap между формой и смыслом;
Когнитивный контроль - осознанная проверка логики;
АИ-слоп - бессмысленный контент от нейросетей.


+ в копилку новых слов и выражений в словарик этого канала.

Кот в Коде|@kot_research_bot
🗿111
Так вот, вернёмся к конкретике.

С выходом Claude 4.5 и линеек GPT мы незаметно пересекли границу полезности, которую не фиксируют стандартные бенчмарки. Планирование функций стало для моделей естественным процессом, а не внешним дополнением.

Для тех, кто занят написанием бойлерплейтов, AGI уже наступил. Модель Opus 4.5 ощущается как крепкий Middle MLE, готовый внедрять методы в три часа ночи и выдавать результат к утру.

Однако Дирижёру важно понимать: текущие модели всё еще не умеют в Exploration и настоящую Creativity, они лишь виртуозно комбинируют существующее.

Главный системный баг современных моделей — приём «казаться умнее через критику». Разработчики так перекрутили RL, что модели начали выдавать галлюцинированную критику, чтобы выглядеть экспертно. Мы подсознательно оцениваем скепсис выше, чем одобрение, но в реальности это приводит к развалу суждений. Если ваше решение — это инновация, которую ИИ не видел в датасете, он может зарубить её просто ради «баланса» и роли. Этот опасный Bias заставляет модели деградировать до уровня токсичных советчиков.

Выбор инструмента сегодня — это выбор специфических дефектов, которые вы готовы администрировать, т.е. выбор типа вранья, с которым вы готовы мириться:

Gemini страдает от Concept drift и уязвима к Indirect prompt injection. Она часто ведет себя как «корпоративный юрист», заменяя результат вежливой презентацией.

ChatGPT поражен вирусом Verbosity и лени. Используя Reward Hacking, модель подстраивается под логику пользователя, подтверждая даже ошибочные теории, лишь бы получить одобрение.

Grok делает ставку на саркастичную манеру, за которой часто скрывается отсутствие глубины. Его показатели в тестах типа AIME высоки, но в реальности он часто выдает шум вместо экспертизы.

DeepSeek — мастер коротких дистанций, ограниченный своей Native zone of competence в 4000 токенов. При Full Attention он эффективен, но на больших модулях начинает «слепнуть» и плодить Security shortcomings.

Qwen часто демонстрирует странную логику ответов, связанную с Bias обучения. Его мультиязычность иногда дает сбои на уровне тонких метафор, делая его нестабильным в сложных рассуждениях.


Под капотом любого ИИ лежит Next Token Prediction, что порождает семантическую изоляцию. Модель может идеально имитировать стиль Senior-разработчика, совершая при этом детские ошибки в самой сути. В эпоху «ИТ-всемогущества», когда ресурсы впервые превысили количество идей, Дирижёру жизненно необходим когнитивный контроль. Если не научиться вовремя говорить «нет» своим идеям, мы захлебнемся в АИ-слопе, приближая технологическую сингулярность (точка неконтролируемого прогресса), где объем информации окончательно убьет её смысл.

Кот в Коде|@kot_research_bot
🔥4🗿111
Продолжаем расширять базу знаний. Темы становятся глубже, а термины — специфичнее, поэтому перед публикацией нового рассуждения подготовил вторую часть словарика.

Вот основные понятия, которые встретятся в следующем тексте:

Социальная синергия — эффект от командной работы людей;
Кодинг-агенты — ИИ, способный самостоятельно писать и запускать код;
PRD — документ с детальным описанием требований к продукту;
• API - программный интерфейс;
MCP-сервер — мост между нейронкой и вашими инструментами (файлами, API);
ИТ-всемогущество — ложное чувство бесконечных ресурсов;
Терминальная зависимость — эндорфиновый кайф от командной строки;
Репозитории (повторка) — хранилища исходного кода;
FOMO — страх пропустить что-то важное (синдром упущенной выгоды);
Trial and error — классический метод проб и ошибок;
Дебаг (повторка) — процесс поиска и фикса ошибок;
Ментор — наставник, помогающий разобраться в теме;
Технологическая сингулярность — момент, когда прогресс станет неуправляемым;
Аутсорс — делегирование задач сторонним исполнителям (или алгоритмам);
Токен - единица текста для модели.


Кот в Коде|@kot_research_bot
511
Собственно, про беду из прогулок по улице и переход на тотальную посадку в телефоны.

Когда я только начинал изучать Python и вливаться обратно в IT (после 4-летнего gap-year'a), главной заповедью была работа в команде. По одному мы мало что можем — это абсолютная истина. Талантливые коллеги мотивируют делать больше и гордиться продуктом, но человеческие отношения — это сложная система, которую нужно постоянно поддерживать.

Сегодня настает эпоха кодинг-агентов. Теперь любой член команды может заменить коллег цифровыми аналогами. Codex 5.2 xhigh и Opus 4.5 для работы, а GPT 5.2 Pro для написания PRD в умелых руках превращают одного человека в «универсальную команду», доступную 24/7. Всего за 200$ в месяц ты становишься ИТ-всемогущим. На каждое сложное знание есть свой skill, на API-интеграциюMCP-сервер, а на любой вопрос — экспертный ответ модели.

Проблема в том, что к этому новому миру никто не готов. Как с трудом люди переходили от газет к телевизорам и от проводных телефонов к компьютерам - мы на пороге нового этапа перехода от командного мозга... в единый мозг с подключением к терминалу с джунами-нейронками (похоже на сюжет из Матрицы).

Терминал превратился в главный источник эндорфина, вытесняя игры и соцсети. Человек с идеями теряется: он реанимирует проекты-трупы, покупает седьмой домен «на всякий случай» и ставит рекорды по количеству заброшенных репозиториев.

Руки развязаны, идей впервые стало меньше, чем ресурсов. Это порождает новый вид психоза, где АИ-слоп выражен не в качестве кода, а в объемах бесполезной информации, которую человек вываливает в сеть (и это не говоря про видео- и фото-слопы).

Anthropic наглядно показали, чем заканчивается такая вседозволенность.
В их исследовании участвовали 52 джуна:
• Те, кто надеялся на ИИ слишком сильно, превращая себя в бездумную прослойку между чатом и консолью, с треском провалили тесты на понимание логики. Оказалось, что ошибки — это и есть обучение.
• Джуны без ИИ справлялись лучше, потому что проходили через Trial and error, набивая руку на дебаге.
• Те же, кто использовал нейронку как ментора, постоянно спрашивая «почему?», показали лучшие результаты.


В этой системе самым ценным навыком, которого раньше не существовало, становится умение вовремя сказать себе: «Я это не делаю, не нужно». Мы стоим на пороге технологической сингулярности, где возможность аутсорсить умственную работу лишает нас самой способности учиться. Если выносить процесс поиска и ошибок за скобки своего сознания, вместо профессионального роста вы получите лишь зависимость и персональный ад из бесконечного эха пустых идей.

Дирижёр должен уметь отказываться от фальшивых нот, даже если оркестр готов играть их бесконечно.


Кот в Коде|@kot_research_bot
🔥5🗿111
This media is not supported in your browser
VIEW IN TELEGRAM
С небольшим опозданием, но каждый раз в тему🤣
Please open Telegram to view this post
VIEW IN TELEGRAM
311
This media is not supported in your browser
VIEW IN TELEGRAM
Ну и вишенка на торте.

Пока мы тут дебажим, портит ли роль «Сеньора» качество кода, в Китае начали собирать конвейер для нативных Дирижёров.

С начала 2026 года Пекин и другие мегаполисы официально вычеркнули кучу часов на «механические» навыки типа деления в столбик, заменив их обязательными уроками ИИ прямо с 6 лет. Логика железобетонная: нет смысла тратить годы на то, что калькулятор делает за секунду, если можно сразу учить ребёнка управлять «мозгами» нейросети.

Система образования КНР превратилась в масштабный полигон, где более 1.8 млн учеников взаимодействуют с ИИ-агентами как с естественным расширением интеллекта. Но самое интересное - это полная автоматизация проверки.

Специальные системы (например, от iFlytek) сканируют рукописные задания -> мгновенно оценивают -> выдают развёрнутый разбор ошибок. Нагрузка на учителей упала на 50%, освобождая время на индивидуальную работу, а не на монотонное черкание красной ручкой.


Для Министерства образования это проект экзамены в режиме нон-стоп». Анализ работ через ИИ легко обобщается в статистику, позволяя видеть эффективность школьных программ в реальном времени. При этом исчезает эффект «любимчиков» и конфликты из-за оценок — алгоритму всё равно, кто твои родители, он объективен по определению.

Что это значит для нас?

Через 10–15 лет на мировой рынок труда выйдут люди, для которых ИИ-экзоскелет — это база🤵, такая же естественная, как умение читать или писать. Пока остальной мир спорит о запретах, китайцы растят поколение, которое будет дирижировать нашими рабочими местами нативно.

Если вы до сих пор думаете, стоит ли вникать в механику весов и промптов — посмотрите на этих шестилеток.

Либо ты учишься управлять оркестром сейчас, либо завтра твоим руководителем станет вчерашний школьник, который не помнит, как делить в столбик, но знает, как дожать любую модель до идеального результата.


Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
32🗿1
А ещё тут, оказывается, вчера был День рождения понятию "вайб-кодинг"...упси дейзи😅

Вчера мир отмечал годовщину. Оказывается, ровно год назад Андрей Карпаты (пионер ИИ, founding member OpenAI → Director of AI в Tesla → researcher в OpenAI → основатель Eureka Labs) выпустил тот самый легендарный твит, который легализовал наше с вами «ленивое» существование. Термину «вайб-кодинг» исполнился один год.


Вообще, если покопаться в логах памяти, кажется, что это слово витало в воздухе и раньше. Но истоков сейчас не сыщешь, так что твит Карпаты стал нашей официальной точкой референса. Это тот самый момент, когда «писать код, не зная синтаксиса, но чувствуя поток» перестало считаться постыдным хобби и стало новой религией индустрии.

За этот год «вайб-кодинг» превратился из шутки в мощный экзоскелет. Мы научились быть Дирижёрами, а не печатными машинками. Мы узнали, что Дельта между маркетингом и реальностью — это не баг, а фича, которую нужно просто уметь готовить.

И главное — мы поняли, что результат реально важнее синтаксиса, если у тебя в руках правильная «дирижёрская палочка» из нейросетей.

Так что, друзья, с прошедшим нас! Пусть ваши промпты всегда попадают в 4000 токенов SFT-зоны, а нейронки поменьше галлюцинируют в критически важных местах.

Мы — первое поколение инженеров, которые могут позволить себе «просто ловить вайб», пока железки оживают под пальцами.

С праздником в общем, ёмаё!🥳

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥321
У нас пополнение – датчик ветра!

На фото представлены уже известные устройства, но ради приличия повторюсь (по часовой сверху вниз):

1. Плата STM32L476RG – плата, на которой я собсна работаю;
2. Датчик RS485 – для красоты (по-хорошему, его уже нужно убрать);
3. Внешний источник питания – запитывает всё, что только можно;
4. Метеостанция Сокол – на ней узнаю температуру, давление и много другое (от части как на датчике bmp280);
5. 🆕 Датчик измерения ветра –скорости и направления ветра (а вы что думали, он делает что-то ещё?😏)


Работает также через RS485… но не совсем. Его нужно подключать не к метеостанции, а к плате, к ещё одному соединению Modbus.

Как лаконично резюмировала Gemini:
Этот китаец гораздо проще «Сокола». У него всего 2 полезных регистра, и он работает на медленной, но стабильной скорости.


Казалось бы, что сложного?
С программной частью, думаю, будет меньше тестов и быстрее пойдёт работа. Но вот физически… вы только посмотрите на фото, по мне плачет тб ТК РФ 😅

Как думаете, через сколько секунд взлечу на воздух? 🥲

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
411
This media is not supported in your browser
VIEW IN TELEGRAM
и в чём друг не прав? 🙅‍♂️
Please open Telegram to view this post
VIEW IN TELEGRAM
3🗿11
Сегодня отдыхаем от Траска

В Главе 7 нет конкретики по коду, поэтому на словах объясню, о чём речь в главе.

Если раньше мы ковырялись в каждом отдельном нейроне под микроскопом, пытаясь понять, как крутится каждый «рычажок» веса, то теперь пора выкинуть лупу (и пупу, простите🤣) и взглянуть на архитектуру сверху.

До этого момента мы рисовали подробные схемы с кружочками и линиями -а что если в скрытом слое вашей сети 500 нейронов,

Траск даёт решение:

Решение — блочное представление. Эндрю сравнивает это с конструктором LEGO: нам больше не важны внутренние штырьки каждой детали, нам важно, как слои-векторы стыкуются с матрицами весов.

Здесь происходит важный психологический щелчок. Мы переходим к понятию «обобщенной корреляции». Нейросеть перестает быть набором формул и становится системой поиска закономерностей. Мы просто пробрасываем данные сквозь матрицы, а они сами «выжимают» из входа максимум смысла. Весь этот процесс прямого распространения теперь укладывается в одну короткую алгебраическую строчку:

l2=relu(l0W0)W1.


Эта глава — мостик (как говорил Невский: "Я - мостик между Россией и Америкой!") к реально сложным структурам вроде сверточных сетей, где данные зацикливаются и проходят через одни и те же блоки многократно.

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥11
Трансформеры - про Майкл Бея или про нейронки?

Сегодня-завтра буду вещать про немаловажную тему в работе с нейронками, а именно, как грамотно с ними общаться. Не просто "как сделать лазанью" или "как стать богатым" - тут будет серия постов про то, как формулировать свои запросы, чтобы нейронка была реальным помощником, а не "болталкой-болванкой".

Что мы будем дебажить в ближайшее время:

• Мы залезем под капот трансформеров 😏чтобы понять, как именно ИИ «смотрит» на наши данные. Мы разберем, почему хваленые «роли» (вроде «Ты — Senior Developer») на самом деле вносят семантический шум и портят код.

• Мы выясним, почему XML — это не «устаревший формат», а единственный способ направить узкую «лупу» внимания нейронки (Sliding Window) в нужное место вашего проекта.


Тебе нада не нада?

Вообще эта инфа будет полезна всем - от запросов рецептов и блогинга до написания тысячных строк кода так, чтобы потом бампер не отпал.
Так что тут кому как - кому почитать и пролистать, кому реально поможет "меньше текст запроса - больше решения задачи" .

Готовьте блокноты и ручки, будем записывать хронологию понимания промтов.

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥83🗿1
Итак, одну тему +- закрыли, теперь нужно переходить к следующей. До этого мы рассуждали про то, почему нейронки врут, что за этим следует и к чему может привести.

Теперь самое время адаптироваться: побеждает не самый сильный, а тот, кто умеет подстраиваться под движение жизни.


Что лучше скармливать модели — плоские таблицы CSV или вложенный XML?

Минутный ликбез:

CSV — это плоская таблица (как Excel, но текстом), где данные просто разделены запятыми.

XML — это ветвистое дерево (как папки внутри папок), где данные упакованы в именованные теги <вот так>.


ИИ читает данные не как человек, а через Sparse Attention (избирательное внимание) и Sliding Window (скользящее окно). В пределах 100–200 токенов «окна» GPT видит данные почти как в Full Attention — ей плевать на формат, важна логика разделителей. Но когда проект разрастается, вы упираетесь в физику процесса.

Вот база для реальной адаптации Дирижёра:

1️⃣ Разделители имеют значение. Если используете Gemini, забудьте про запятые в CSV. Запятая страдает Полисемией (многозначностью). Переходите на разделитель «|». Тесты LOFT показывают, что вертикальная черта — гораздо более чёткий семантический сигнал для модели.

2️⃣ Ловушка каузальности. GPT читает последовательно, и Summary смысл формируется именно в конце строки. В XML это работает нативно: в закрывающем именованном теге (например, </ID_17>) модель упаковывает весь смысл блока. Если вы суёте атрибуты в начало строки (<row name="...">), вы нарушаете порядок: Summary идет раньше самих данных.

3️⃣ Семантический суп. Огромная ошибка — использовать одинаковые теги типа <row>. Внимание модели начинает коррелировать одинаковые термины, и данные перемешиваются. Логиты Qwen доказывают: именованные парные теги дают 99% вероятности правильного предсказания границ блоков. Даже бессмысленные ID лучше, чем плоская куча одинаковых названий.

4️⃣ Прайминг семантики. Использование атрибутов в открывающем теге — например, <Human nationality ="RU" Hobby="Football"> — это «чит-код». Модель получает обзор (overview) ситуации ещё до того, как начнёт вникать в описание. Это резко снижает риск галлюцинаций.


Для работы с длинным контекстом (свыше 2000 токенов) обязательна древовидная иерархия XML из секций не больше 1000–2000 токенов. Именно поэтому Gemini великолепно «переваривает» сметы и налоговые отчеты на 500к токенов — там есть жесткая структура, за которую цепляется внимание.

Кот в Коде @kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥311
Адаптируемся дальше

В разных пабликах до сих пор процветает настоящий карго-культ: люди верят, что если приписать в начале промпта «Ты — Senior Developer», то нейронка внезапно поумнеет. Это опасное заблуждение. На самом деле, ролевые инструкции — это просто семантический шум (бесполезные данные), который чаще вредит результату, чем помогает.

Основа обучения кодингу — это SFT (обучение на готовых примерах), где модели скармливали миллионы пар «задача → код». Если посмотреть на датасеты типа Codeforces, вы не найдете там никаких ролей. Там есть только условие и идеальная реализация. Модель в этом процессе работает как Translation Machine (машина перевода), которая переводит ваше описание задачи на язык кода, точно так же, как она переводит с русского на английский. Ваше «представь, что ты сеньор» для её логического слоя ничего не значит, потому что её IQ живет в слое высоких абстракций, который изолирован от стиля общения.

Проблема начинается тогда, когда роль всё-таки срабатывает, но в «литературном» слое. Инструкция «Ты — Senior» заставляет модель не писать код лучше, а подражать социальному поведению. Она начинает городить over-engineering (избыточное усложнение), втыкать тяжелые инструменты типа Wolfram там, где хватило бы одной строчки на Python, или вовсе сокращать комментарии, решив, что «сеньорам и так всё очевидно»😎

А это критический баг для Дирижёра, которому нужно понимать intent (замысел) автора для дальнейшей модификации.


Академические дискуссии и научные работы подтверждают: задание личности агента в 5% случаев вообще ухудшает показатели MMLU (тест на общие знания). Единственное, что реально коррелирует с ростом «IQ» — это установка на Openness (открытость новым идеям), когда мы просим модель не выбирать решение мгновенно, а откладывать выбор как можно дальше, удерживая суперпозицию смыслов (состояние неопределенности). Всё остальное — это просто прайминг (настройка фона), который превращает разработку в дешевую театральную постановку.

Роль — это удобный интерфейс для автора промпта, а не инструкция для модели. Когда вы заставляете ИИ играть инквизитора или сеньора-помидора, вы стимулируете «занятную болтовню», которая кажется наукообразной, но не имеет отношения к реальности. Никто не учится программировать по фильмам о хакерах, и нейронка — не исключение.


Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿431
Всё, работу с датчиком и метеостанцией можно пока что закрыть

Научный руководитель посмотрел работу программы, задал наводящие вопросы, мол, что не получалось в решении работы с датчиком и метостанцией. Я поотвечал и... синг гуд!

Основные проблемы:

1. Неправильные запросы. Так как метеостанция и датчик - не один и тот же аппарат, то приходилось в манулах понимать, почему в начале работы не получалось делать нормальную вычитку данных. А вот в чём была беда:
Предположим, что 0х00,00х03,0х00,00х0,0х00,0х0E - это строка запроса данных для сокола, а вот 0х00,00х03,0х00,0х0a,0х00,0х02 - для датчика.
Первые значения - ID адреса, вторые - код функции (например, чтение регистров хранения), 3 и 4 - начальный адрес регистра, 5 и 6 - количество регистров.
И вот в чём загвостка: если хоть одно значение не правильно подставить - всё, пиши пропало, ты виноват в том, что ничего не приходит не идёт.

2. Работа на 1 шине. Так как на плате у меня есть Modbus 2-4, где 2 - подключен датчик, а к 3 и 4 - станция, происходил некоторое перетягивание одеяло между двумя аппаратами.
Возникает вопрос, а как же всё-таки наладить контакт работы одновременной работы нескольких инструментов?
Ну, в моём случае, это раздельное управление UART, правильная настройка speed (baud) - для работы с Thonny и станцией 19200, а в работе с PuTTY и датчиком 9600, - ну в довесок сделать так, чтобы ничего не вышло из строя (а то у меня позавчера сгорел UART для платы, пришлось брать последний из лаборатории.


Таким образом, задачу можно ответить как выполненную.

Вот только следующая задача оказалась эхом прошлого...

Кот в Коде|@kot_research_bot
2🔥11
Раз мы решили похоронить карго-культ ролевых игр, самое время разобраться, как на самом деле заставить «цифрового джуна» не лажать на сложных задачах.

Замечали ли вы, что нейронки (особенно китайские Coder-модели) начинают «спотыкаться» и плодить ошибки, как только проект выходит за рамки простого скрипта?

Всё дело в дообучении на размеченных примерах «вопрос–ответ» — основном этапе обучения кодингу. Модели годами натаскивали на парах «задание → код». Важный нюанс: более 90% примеров в датасетах — это короткие куски до 4000 токенов. Это «нативная» зона компетенции любой LLM (большие языковые модели). Когда вы просите её сгенерировать модуль на 10–15 тысяч токенов, логические связи внутри «мозга» модели рвутся, и она заполняет пустоты статистическим шумом. Чтобы этого избежать, нам нужны «рельсы»ИИ-контракты.

Я недавно наткнулся на методологию GRACE (запомните её 🤔), которую я сам того не замечая использовал, например, здесь. Оказывается, я интуитивно шёл по этой иерархии: сначала накидал граф связей (плата -> UART -> трансивер), потом прописал логику режимов и только в конце — конкретные функции. Это полностью заменяет внешнюю документацию, потому что весь архитектурный замысел вшит прямо в код в понятном для ИИ виде.

А теперь давайте обратимся к датасетам типа HumanEval (тоже запомните 🤔). Это набор из 164 задач, где модели учили строго одной вещи:
превращать Docstring (комментарий) в рабочий код.

Выяснилось, что самый мощный обучающий сигнал веса модели получали на крошечных примерах в 40 токенов. В этом масштабе сигнал об ошибке при обучении не тонет в шуме контекста, и веса обновляются максимально эффективно.


Из этого вытекает правило:

Любой комментарий-контракт должен стоять СТРОГО ДО блока кода 


Трансформеры — это каузальные модели, они читают и пишут строго слева направо. Если вы даёте описание после реализации — поезд уже ушёл, магия SFT не сработает. Но если контракт идёт первым, ИИ воспринимает его как «микро-ТЗ» и просто «компилирует» его в следующий за ним блок кода, используя свой самый отточенный навык.

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥111
😮 Друзья, вспомните под последним постом я написал вам, чтобы вы запомнили про GRACE и датасеты типа HumanEval?

Так вот, я тут порылся в информации по этим пунктам... и мне стало довольно-таки интересно почитать и написать про эти темы побольше.

Давайте так, если под последними постами я увижу вашу активность реакциями и/или комментами - сразу буду пилить по этим темам посты.

Потому что темы довольно-таки масштабные, и то, что я написал под последним постом - капля в море.

Как вы на это смотрите? 👁
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4222
Казалось бы, инструменты настроены, Дирижёр готов. Но на этапе масштабирования — когда в ход идут рои агентов, десятки навыков (Skills) и модные MCP-сервера — нас ждёт новая ловушка - «Бюрократический ИИ» 🧐

Проблема в том, что разработчики часто пытаются компенсировать недостатки моделей не инженерными решениями, а усложнением инструкций. Мы пишем промпты на три страницы, подключаем MCP-сервера, которые впрыскивают в контекст «простыни» деклараций, и в итоге суть задачи тонет в шуме.

Тут срабатывает фундаментальный «Баг простоты»: чем сложнее и длиннее мы объясняем инфу, тем хуже нейронка её усваивает. Это прямая отсылка к нашей магии 40 токенов — ИИ лучше всего работает с короткими, атомарными и понятными блоками данных.

Когда агенты перегружены правилами и «философией» вместо инструментов поиска, они начинают «играть в изобретателей». Они идеально соблюдают регламент, но не видят решения, лежащего в соседнем файле. Чтобы этого не случилось, мы должны заменить «литературные» промпты на Процедурные контракты.

Финальный инструмент в нашей адаптации — Универсальный конструктор-экзоскелет. Это не «ролевая игра» (мы же помним, что роли — это шум?), а жёсткий алгоритм, который заставляет ИИ сначала построить план действий и критерии истины, а уже потом выдавать код. Мы не просим его «быть умным», мы заставляем его работать по протоколу.

Схема промпта-шаблона для ваших задач:

«У меня есть [ОБЪЕКТ/ЗАДАЧА] для [ЦЕЛЬ/СФЕРА ДЕЯТЕЛЬНОСТИ]. Твоя задача – помочь мне улучшить [ЧТО ИМЕННО УЛУЧШАЕМ]. Для этого разбей задачу на [ПЕРЕЧЕНЬ ЭТАПОВ АНАЛИЗА, например: источники, извлечение факторов, синтез] и действуй по алгоритму ниже.

В первом ответе ты запросишь мой [ИСХОДНЫЙ МАТЕРИАЛ: вопрос, текст или идею]. Получив его, помоги:

Сформулировать [КОЛИЧЕСТВО] главную цель и [КОЛИЧЕСТВО] уточняющих [ВОПРОСА / ГИПОТЕЗЫ / ПОДЗАДАЧИ].

Указать, какие [РЕСУРСЫ / ДАННЫЕ / КРИТЕРИИ] считать допустимыми доказательствами или базой.

Провести Double-check: дать правила для верификации и «красные флаги» (чего избегать).»


Объяснение промт-шаблона выше:

Этот шаблон в квадратных скобках — это на самом деле не «просьба», это пример процедурного контракта.

• Вы не просите его «быть кем-то». Вы задаёте ему алгоритм работы: «Сначала спроси данные -> потом выдели цели -> потом определи критерии».
• Это по сути Мета-контракт. Мы заставляем ИИ сначала построить «рельсы» для самого себя (сформулировать контракт задачи), а уже потом ехать по ним. В этом нет противоречия, если объяснить, что мы заменяем «литературщину» на «протокол».


Этот метод принудительно выводит модель из режима «статистического угадывания» в режим анализа. Мы сначала фиксируем «рельсы» задачи, и только потом жмём на газ.

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥41111
This media is not supported in your browser
VIEW IN TELEGRAM
главное, что работает ч.2 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
3🗿21
Старые знакомые повержены в расплох

В прошлом году у меня была проблема в работе с SD-картой (то самое эхо прошлого).

После того, как я смог реализовать работу с метеостанцией и датчиком ветра, научрук мне говорит:
- Что ж, раз у тебя получилось сделать эти задачи и ты можешь записывать данные в Thonny… Пора вспомнить о задаче с SD-картой 🙂


В шутливой форме я понял, что дело пахнет жаренным, ведь в прошлый раз я пытался худо-бедно настроить работу через костыли в виде кода-драйверов и даже пытался сделать свою прошивку… но тогда дело кончилось ничем. Прошивка не встала, костыли оказались хлипкими (хотя во внутренней системе моей, рабочей, официальной прошивке были важные конфигурации в работе с сд-картой).

Так что получается, проблему решил за одну пятницу, что поменялось?

Поменялось следующее:

1️⃣ Я поменял прошивку. Да, рабочая 1.26.0 прошивка служила мне верностью и стабильной работой на всех этапах работы, вплоть от инициализации модема и работы с сервером и до каши из подключенных станции и дачтиков… Но всё хорошее приходится отпускать и идти дальше. Так я нашёл 1.27.0 (в прошлом году она ещё была на этапе preview) и там не сказать, что что-то сильно поменялось, но в комментах оставлю разницу прошивок.

Press F 1.26.0...

2️⃣ Нашёл инициализацию пинов. Но как? В Прошлый раз всё испробовал, подбор не сработал, шины не показали результатов… а всё оказалось намного проще, чем я думал.

Надо было просто посмотреть в прошивку на Arduino (которую используют другие прогеры… и я получил при работе со станцией ☹️)… и там были рабочие пины инициализации – по сути самое важное.


Ну решил ты эту проблему, плохо что ли?

Не плохо. Но и не хорошо.

Я думал, что раз мне дали задачу поиска рабочего способа реализации записи данных на SD-карту, то я сам должен разобраться во всех камнях… а по итогу мне просто дали прошивку и такие «на, разберись чё там, и используй эту инфу». Т.е. сразу дали решение, просто надо было по сути переписать с C-языка на Python всю работу с SD-картой. И тут пропала некоторая детская познавательная составляющая, что нужно всё самому найти, разобраться и постараться сделать так, чтобы ничего не взорвалось. Но по итогу, мне сразу сказали код от бомбы и дифьюзы.

А вы что думаете?
Надо было сразу узнать за всё на свете, чтобы было всё на блюдечке с голубой каёмочкой?
Или всё-таки самому искать инфу, но при этом вся ответственность за реализацию лежит на тебе (и при этом у тебя есть антураж самому всё попробовать и использовать)?

😎 - попробовать самому, зато за результат будешь больше рад
😱 - да ладно, всё ж работает, и не важно, откуда нашёл инфу

Кот в Коде|@kot_research_bot
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥11
Ребят, у меня будет важная задача к вам – мне нужна максимальная обратная связь от вас для дальнейшей реализации контента в канале.

Понимаю, что канал как бы мой, и вести его тоже как бы мне, и тут уже от моего «видение канала» всё зависит… но это же не заметка в телефоне и не вкладка Избранное, чтобы просто кидать интересную информацию и потом к ней больше не возвращаться.

Поэтому сегодня будет более разговорный контент. И этот пост будет началом на разные темы «поговорить».

Мне важна ваша обратная связь, чтобы я больше понимал, что вам интересно было бы читать здесь. Потому что тем у меня немало, а будут ли они вам интересны – всё зависит больше от вас !

Короче, ниже будут разные голосования, попрошу максимально всех проголосовать за них.

А пока давайте наведём шуму в комментариях – кому что интересно из сферы ИТ и ИИ?
🔥11