yet another dev
Ваш кэш в .NET не защищён от cache stampede У вас есть запрос к базе данных или к платному API, и вы кэшируете результат? Для кэша используете ConcurrentDictionary или MemoryCache? У кэша, построенного на этих классах, есть одна неприятная проблема: отсутствие…
В продолжение темы с распределённым кэшем.
Во FusionCache появился функционал распределённой защиты от давки кэша (Distributed Cache Stampede Protection). Работает пока только с Redis.
Подробности можно почитать в релизе.
Во FusionCache появился функционал распределённой защиты от давки кэша (Distributed Cache Stampede Protection). Работает пока только с Redis.
Подробности можно почитать в релизе.
👍7
В этом году вас, читателей, стало заметно больше, и это очень радует. В Telegram теперь 234 (+59) подписчика, в LinkedIn — 272 (+271), на Хабре — 14.
Суммарно по всем соцсетям посты прочитали несколько сотен тысяч человек. Большое вам спасибо за интерес, реакции и обсуждения.
В новом году, как и прежде, буду публиковать собственный, уникальный контент связанный с .NET, C# и разработку в целом. Я по-прежнему стараюсь не повторять ни за кем и рассказывать только о том, с чем работал сам, с какими проблемами сталкивался и как их решал. Чтобы это было полезно вам и другим инженерам.
В новом году всем желаю прод без багов, стабильного перфоманса без деградаций, понятных требований и отсутствие упавших тестов.
Увидимся в 2026 🎄
Please open Telegram to view this post
VIEW IN TELEGRAM
🎄14👏3
Запускаем бенчмарки всего с одним C# файлом
Если вы когда-нибудь задумывались, можно ли запустить бенчмарк, используя всего один C#-файл, то ответ: да, можно.
Начиная с .NET 10, существует возможность создавать C#-приложения в одном *.cs‑файле. Проблема в том, что BenchmarkDotNet с настройками по умолчанию не поддерживает такие бенчмарки.
В этой статье я покажу, как обойти это ограничение, используя режим in-process.
Читать на Habr.
Читать на сайте.
Если вы когда-нибудь задумывались, можно ли запустить бенчмарк, используя всего один C#-файл, то ответ: да, можно.
Начиная с .NET 10, существует возможность создавать C#-приложения в одном *.cs‑файле. Проблема в том, что BenchmarkDotNet с настройками по умолчанию не поддерживает такие бенчмарки.
В этой статье я покажу, как обойти это ограничение, используя режим in-process.
Читать на Habr.
Читать на сайте.
🤝5🤔2
3 критерия для определения нейрослопа
Я на днях наткнулся на ИИ-музыку в Яндекс Музыке. Мне норм, что существуют ИИ-музыка, видео или фото. Но как пользователь сервиса, мне бы хотелось знать что из контента сделано полностью ИИ (чтобы потом отфильтровать хехе).
К сожалению, в Яндекс Музыке нет маркировки ИИ-артистов. Может они ещё не выработали критерии? Или им просто выгодно продвигать такую музыку?
Так или иначе, эта ситуация натолкнула меня на размышления о вайбкодинге и я выделил свои 3 критерия, которые помогут определить является ли проект нейрослопом или нет:
1. Способны ли вы создать проект заново, но без ИИ?
2. Если ИИ завтра исчезнет, сможете ли вы поддерживать проект (реализовывать новые фичи, исправлять баги, доставлять обновления)?
3. Понимаете ли вы и можете объяснить ключевые решения, которые были приняты во время разработки проекта?
К примеру, если ответы такие:
1. Это будет медленее, но да.
2. Да, конечно.
3. Да, поскольку решения принимал я.
То можно сказать, что проект сделан человеком. В крайнем случае, в паре с ИИ в качестве ассистента.
Иначе – это нейрослоп.
Я на днях наткнулся на ИИ-музыку в Яндекс Музыке. Мне норм, что существуют ИИ-музыка, видео или фото. Но как пользователь сервиса, мне бы хотелось знать что из контента сделано полностью ИИ (чтобы потом отфильтровать хехе).
К сожалению, в Яндекс Музыке нет маркировки ИИ-артистов. Может они ещё не выработали критерии? Или им просто выгодно продвигать такую музыку?
Так или иначе, эта ситуация натолкнула меня на размышления о вайбкодинге и я выделил свои 3 критерия, которые помогут определить является ли проект нейрослопом или нет:
1. Способны ли вы создать проект заново, но без ИИ?
2. Если ИИ завтра исчезнет, сможете ли вы поддерживать проект (реализовывать новые фичи, исправлять баги, доставлять обновления)?
3. Понимаете ли вы и можете объяснить ключевые решения, которые были приняты во время разработки проекта?
К примеру, если ответы такие:
1. Это будет медленее, но да.
2. Да, конечно.
3. Да, поскольку решения принимал я.
То можно сказать, что проект сделан человеком. В крайнем случае, в паре с ИИ в качестве ассистента.
Иначе – это нейрослоп.
👏2🌭1
Добавлять столбцы в результаты выполнения BenchmarkDotNet легко... только, если эти результаты не генерируются во время выполнения бенчмарка.
Изоляция на уровне процесса в BenchmarkDotNet — отличный функционал для повышения точности измерений. Правда из-за этого, вывод значения, вычисленного прямо во время выполнения бенчмарка, — задача не тривиальная.
В этой статье разберём, почему это так и рассмотрим решение на базе IInProcessDiagnoser и генераторов кода.
Читать на сайте.
Изоляция на уровне процесса в BenchmarkDotNet — отличный функционал для повышения точности измерений. Правда из-за этого, вывод значения, вычисленного прямо во время выполнения бенчмарка, — задача не тривиальная.
В этой статье разберём, почему это так и рассмотрим решение на базе IInProcessDiagnoser и генераторов кода.
Читать на сайте.
👍1
Я тут случайно узнал, что мой сайт alexeyfv.xyz не всегда нормально открывается в России.
У меня просьба, откройте сайт и:
— поставьте 👍, если всё ок;
— поставьте 🤡, если не ок.
И, если не сложно, в комментариях опишите, что именно открылось не так, или скиньте скрины.
У меня просьба, откройте сайт и:
— поставьте 👍, если всё ок;
— поставьте 🤡, если не ок.
И, если не сложно, в комментариях опишите, что именно открылось не так, или скиньте скрины.
🤡19👍7
yet another dev
Я тут случайно узнал, что мой сайт alexeyfv.xyz не всегда нормально открывается в России. У меня просьба, откройте сайт и: — поставьте 👍, если всё ок; — поставьте 🤡, если не ок. И, если не сложно, в комментариях опишите, что именно открылось не так, или…
Результаты ожидаемые, но, тем не менее, разочаровывающие. Надо что-то придумать. Видимо, нужно поднимать CDN в России.
Заботливое начальство в лице РКН — спонсор того, что я стал лучше разбираться в различных аббревиатурах. Настроил родным аббревиатуры. Себе тоже настроил аббревиатуры — ведь половина сайтов в России так же не открывается из-за рубежа.
Сейчас вот ещё разберусь с CDN.
Заботливое начальство в лице РКН — спонсор того, что я стал лучше разбираться в различных аббревиатурах. Настроил родным аббревиатуры. Себе тоже настроил аббревиатуры — ведь половина сайтов в России так же не открывается из-за рубежа.
Сейчас вот ещё разберусь с CDN.
😁5❤1👏1
Следите за выводом консоли при использовании AI-агентов
Я не видел, чтобы кто-то писал об этом, но мне кажется, что это важно, если AI-агенты вызывают CLI утилиты за вас.
Обычно CLI утилиты выводят информацию в консоль. Например, вы внесли изменения в проект с помощью агента, и теперь просите агента выполнить команды вроде npm build или dotnet test.
Вызываемые команды могут генерировать подробные логи, предупреждения, ошибки и другие сообщения. Даже если только некоторые из них релевантны (например, ошибки, которые мешают компиляции проекта), в контекст добавится вообще всё, что создано в результате вызова команды. Например:
- Предупреждения об старых (deprecated) зависимостях или предупреждения линтера. Они могут напрямую вообще не влиять на текущую задачу, но всё равно занимают место в контексте. Представьте логи сборки с 500+ строками предупреждений, и каждая из них окажется в контексте вашего агента.
- ANSI escape-символы, которые задают цвета в консоли или Unicode-символы, делающие вывод консоли красивым. Всё это раздувает контекст без добавления какой-либо пользы. Агентам всё равно на цвет текста, прогресс-бары или результаты в виде ASCII-таблиц.
Почему это плохо для LLM?
Производительность LLM не равномерна при длинных контекстах. Есть такое явление под названием "lost-in-the-middle". Его суть в том, что производительность LLM ухудшается, когда релевантная информация размещена в середине контекста. Иногда такой эффект ещё называют "гниением контекста" (context rot). Есть несколько статей на эту тему, например "Lost in the Middle: How Language Models Use Long Contexts".
Для агентов это явление часто приводит к следующим проблемам:
- Агент тратит время на "размышления" о предупреждениях и что с ними делать, вместо решения задачи.
- Длинный вывод консоли может вытеснить важную информацию из контекста, или информация может быть суммирована (summarization) таким образом, что часть важных деталей потеряется.
- Суммирование также может занять несколько минут в зависимости от модели, что дополнительно замедляет работу агента.
Решение
Если вы видите предупреждения компилятора или линтера, в идеале вам нужно их исправить. Однако это может занять приличное количество времени, особенно если вы работаете с каким-то легаси проектом.
Другой вариант -- отключить их. Например, в
Если вы разрабатываете CLI утилиту, подумайте над созданием флага, который настраивает вывод специально для агентов. К примеру, разработчики Microsoft Dev Proxy недавно обсуждали добавление флага --log-for human|machine для более эффективного вывода для LLM.
Заключение
Если вы работаете с AI-агентами, то вывод в консоль перестаёт быть просто логами. Это уже часть промпта. Предупреждения, прогресс-бары и вывод результатов в виде таблиц, ANSI escape-символы занимают контекст LLM. Вывод CLI должен быть минимальным и структурированным, тогда результаты при работе с AI будут более надёжными.
Читать то же самое на сайте, но с картинками (нужен VPN).
P.S. Следующий пост будет не про ИИ, обещаю.
Я не видел, чтобы кто-то писал об этом, но мне кажется, что это важно, если AI-агенты вызывают CLI утилиты за вас.
Обычно CLI утилиты выводят информацию в консоль. Например, вы внесли изменения в проект с помощью агента, и теперь просите агента выполнить команды вроде npm build или dotnet test.
Вызываемые команды могут генерировать подробные логи, предупреждения, ошибки и другие сообщения. Даже если только некоторые из них релевантны (например, ошибки, которые мешают компиляции проекта), в контекст добавится вообще всё, что создано в результате вызова команды. Например:
- Предупреждения об старых (deprecated) зависимостях или предупреждения линтера. Они могут напрямую вообще не влиять на текущую задачу, но всё равно занимают место в контексте. Представьте логи сборки с 500+ строками предупреждений, и каждая из них окажется в контексте вашего агента.
- ANSI escape-символы, которые задают цвета в консоли или Unicode-символы, делающие вывод консоли красивым. Всё это раздувает контекст без добавления какой-либо пользы. Агентам всё равно на цвет текста, прогресс-бары или результаты в виде ASCII-таблиц.
Почему это плохо для LLM?
Производительность LLM не равномерна при длинных контекстах. Есть такое явление под названием "lost-in-the-middle". Его суть в том, что производительность LLM ухудшается, когда релевантная информация размещена в середине контекста. Иногда такой эффект ещё называют "гниением контекста" (context rot). Есть несколько статей на эту тему, например "Lost in the Middle: How Language Models Use Long Contexts".
Для агентов это явление часто приводит к следующим проблемам:
- Агент тратит время на "размышления" о предупреждениях и что с ними делать, вместо решения задачи.
- Длинный вывод консоли может вытеснить важную информацию из контекста, или информация может быть суммирована (summarization) таким образом, что часть важных деталей потеряется.
- Суммирование также может занять несколько минут в зависимости от модели, что дополнительно замедляет работу агента.
Решение
Если вы видите предупреждения компилятора или линтера, в идеале вам нужно их исправить. Однако это может занять приличное количество времени, особенно если вы работаете с каким-то легаси проектом.
Другой вариант -- отключить их. Например, в
dotnet можно использовать флаг --verbosity quiet В целом, я бы не рекомендовал это делать, но иногда можно, если нужно срочно выполнить задачу.Если вы разрабатываете CLI утилиту, подумайте над созданием флага, который настраивает вывод специально для агентов. К примеру, разработчики Microsoft Dev Proxy недавно обсуждали добавление флага --log-for human|machine для более эффективного вывода для LLM.
Заключение
Если вы работаете с AI-агентами, то вывод в консоль перестаёт быть просто логами. Это уже часть промпта. Предупреждения, прогресс-бары и вывод результатов в виде таблиц, ANSI escape-символы занимают контекст LLM. Вывод CLI должен быть минимальным и структурированным, тогда результаты при работе с AI будут более надёжными.
Читать то же самое на сайте, но с картинками (нужен VPN).
👍4🔥1
Коллеги, чем будем пользоваться в скором времени? Продолжаем использовать Telegram, но с использованием специальных технических средств связи?
Или на примете есть что-то ещё? Вообще, я довольно продолжительное время сижу на Reddit, но формат там, конечно, совершенно другой.
Только Макс не предлагайте 😬
Или на примете есть что-то ещё? Вообще, я довольно продолжительное время сижу на Reddit, но формат там, конечно, совершенно другой.
❤1
У меня есть сервер на VDSina. Сегодня получил от них такое письмо. 😂
Если что, то указан адрес приёмной Президента.
Если что, то указан адрес приёмной Президента.
😁8
Пошушукал я в интернете, что за приколы с VDSina.
Оказывается, сообщение, которое пришло мне, ещё в довольно приличной форме написано. Тем, кто пользуется VDSina на .com-домене, пришли более красноречивые пожелания.
Ещё выяснил, что такие перфомансы они уже не в первый раз выдают. Видимо, в скором времени мы узнаем много нового о владельцах VDSina, а сама компания будет сперва национализирована, а после — приватизирована правильными бизнесменами.
Оказывается, сообщение, которое пришло мне, ещё в довольно приличной форме написано. Тем, кто пользуется VDSina на .com-домене, пришли более красноречивые пожелания.
Ещё выяснил, что такие перфомансы они уже не в первый раз выдают. Видимо, в скором времени мы узнаем много нового о владельцах VDSina, а сама компания будет сперва национализирована, а после — приватизирована правильными бизнесменами.
😁6👏1🥴1
😁10
yet another dev
Вопрос к C# разработчикам. В какой IDE вы больше всего пишете код на C#?
Повторим опрос. В какой IDE вы больше пишете C# код?
Anonymous Poll
27%
62%
8%
4%
Другое