Запуск ChatGPT загрязнил мир навсегда, как и первые испытания атомного оружия
Запуск ChatGPT от OpenAI 30 ноября 2022 года изменил мир подобно взрыву первой атомной бомбы. Стремительный рост ChatGPT и целая плеяда последовавших генеративных моделей конкурентов уже загрязнили интернет таким количеством ненужного хлама, что это уже тормозит развитие ИИ.
Генеративные модели уже создали большое количество контента — достаточное, чтобы другие ИИ обучались именно на их творениях. В результате это напоминает игру в «испорченный телефон», в которой все игроки стремительно «глупеют». В индустрии такой сценарий развития называют «коллапсом модели».
Проявляется и другой эффект: данные из той версии интернета, которая предшествовала активному росту ChatGPT и других ИИ, стали представлять чрезвычайную ценность.
Сотрудник Центра изучения экзистенциального риска при Кембриджском университете Морис Чиодо заявил, что использование данных, произведенных до 2022 года, позволяет быть уверенным в минимальном наличии «загрязнения» от ИИ. А более поздние данные нельзя назвать «безопасными, хорошими и чистыми»
https://www.theregister.com/2025/06/15/ai_model_collapse_pollution/
Запуск ChatGPT от OpenAI 30 ноября 2022 года изменил мир подобно взрыву первой атомной бомбы. Стремительный рост ChatGPT и целая плеяда последовавших генеративных моделей конкурентов уже загрязнили интернет таким количеством ненужного хлама, что это уже тормозит развитие ИИ.
Генеративные модели уже создали большое количество контента — достаточное, чтобы другие ИИ обучались именно на их творениях. В результате это напоминает игру в «испорченный телефон», в которой все игроки стремительно «глупеют». В индустрии такой сценарий развития называют «коллапсом модели».
Проявляется и другой эффект: данные из той версии интернета, которая предшествовала активному росту ChatGPT и других ИИ, стали представлять чрезвычайную ценность.
Сотрудник Центра изучения экзистенциального риска при Кембриджском университете Морис Чиодо заявил, что использование данных, произведенных до 2022 года, позволяет быть уверенным в минимальном наличии «загрязнения» от ИИ. А более поздние данные нельзя назвать «безопасными, хорошими и чистыми»
https://www.theregister.com/2025/06/15/ai_model_collapse_pollution/
The Register
The launch of ChatGPT polluted the world forever, like the first atomic weapons tests
Feature: Academics mull the need for the digital equivalent of low-background steel
👍28😱15🤣8❤4🔥3🤡3😨3🤬1🕊1💯1🗿1
Глава Amazon предупредил сотрудников о сокращениях из-за ИИ
Из-за внедрения искусственного интеллекта в бизнес-процессы Amazon «понадобится меньше людей для выполнения некоторых видов задач», предупредил Энди Джасси. С 2022 года компания уволила 27 тыс. сотрудников
Генеральный директор Amazon Энди Джасси в служебной записке для сотрудников предупредил о сокращении штата в ближайшие несколько лет из-за планов активнее задействовать искусственный интеллект и выполнении различных задач.
Внедрение генеративного ИИ должно «изменить способ выполнения работы» в компании, заявил Джасси. «Нам понадобится меньше людей для выполнения некоторых видов задач, и больше для других», — написал глава Amazon, добавив, что прогнозировать результаты в долгосрочной перспективе сложно.
Джасси также призвал сотрудников «интересоваться ИИ» и тем, как его использовать. «Те, кто примет эти изменения, освоит ИИ, поможет нам совершенствовать наши возможности, <...> смогут помочь нам преобразовать компанию», — написал он.
https://www.rbc.ru/business/18/06/2025/6852179c9a7947a95cf80522
Из-за внедрения искусственного интеллекта в бизнес-процессы Amazon «понадобится меньше людей для выполнения некоторых видов задач», предупредил Энди Джасси. С 2022 года компания уволила 27 тыс. сотрудников
Генеральный директор Amazon Энди Джасси в служебной записке для сотрудников предупредил о сокращении штата в ближайшие несколько лет из-за планов активнее задействовать искусственный интеллект и выполнении различных задач.
Внедрение генеративного ИИ должно «изменить способ выполнения работы» в компании, заявил Джасси. «Нам понадобится меньше людей для выполнения некоторых видов задач, и больше для других», — написал глава Amazon, добавив, что прогнозировать результаты в долгосрочной перспективе сложно.
Джасси также призвал сотрудников «интересоваться ИИ» и тем, как его использовать. «Те, кто примет эти изменения, освоит ИИ, поможет нам совершенствовать наши возможности, <...> смогут помочь нам преобразовать компанию», — написал он.
https://www.rbc.ru/business/18/06/2025/6852179c9a7947a95cf80522
РБК
Глава Amazon предупредил сотрудников о сокращениях из-за ИИ
Из-за внедрения искусственного интеллекта в бизнес-процессы Amazon «понадобится меньше людей для выполнения некоторых видов задач», предупредил Энди Джасси. С 2022 года компания уволила 27 тыс
👎13🤮6🤷6🤯2❤1👍1🏆1
Аутентификация на основе сессий и JWT (описание к предыдущему посту)
Большинство веб-приложений выбирают один из двух путей входа: сессии (при которых состояние хранится на сервере) или JWT (при которых состояние передается вместе с клиентом).
1. Аутентификация на основе сессий
При входе пользователя бэкенд создает случайный идентификатор сессии, сохраняет его в кэше или базе данных и устанавливает этот идентификатор в виде HTTP-only куки-файла в браузере. Каждый раз при отправке запроса браузер передает куки, сервер проверяет запись сессии и восстанавливает контекст пользователя. Это позволяет хранить конфиденциальные данные на стороне сервера и мгновенно завершать сеанс путем удаления записи.
Почему стоит выбрать сессии:
✅ Мгновенное аннулирование ("выйти везде") — достаточно удалить строку из Redis или SQL.
✅ Никакие секретные ключи никогда не покидают бэкэнд, снижая риск случайного раскрытия.
✅ Подходит для небольших и средних систем, где общий кэш не является узким местом.
Однако будьте осторожны: горизонтальное масштабирование зачастую требует либо прикрепленных сессий, либо реплицированного кеша, что может привести к увеличению задержки и усложнению операций.
2. Аутентификация на основе JWT
После успешного входа сервер подписывает JSON Web Token, содержащий заголовок (alg, typ), полезную нагрузку (например, поля вроде sub или role) и подпись. Токен кодируется в Base64, но не шифруется, позволяя любому прочитать содержимое полезной нагрузки, однако подделать токен может лишь тот, кто владеет секретным ключом. Сервер не хранит никакого состояния, любой узел сети способен проверить подпись и доверять заявленным данным.
Почему стоит рассмотреть использование JWT:
⚡️ Бессессионность: каждый микросервис или пограничный узел может локально проверять токены, исключая необходимость общего хранилища.
⚡️ Отлично подходит для SPA-приложений и мобильных приложений, непосредственно обращающихся к нескольким бекенд-сервисам.
⚡️ Легковесность: легко помещается в заголовок Authorization или куки.
Обратите внимание, что однажды выданный JWT остается действительным вплоть до истечения срока его действия; отозвать его без дополнительной инфраструктуры невозможно, что делает блокировку аккаунта или экстренный выход сложными задачами.
Таким образом, если вам важнее всего возможность отзывания доступа, придерживайтесь серверных сессий.
Если вам нужно масштабирование приложения без сохранения состояния, то подписанные JWT — это то, что вам нужно, но при проектировании учитывайте тот факт, что вы не сможете отозвать их обратно, как только они появятся в открытом доступе.
Большинство веб-приложений выбирают один из двух путей входа: сессии (при которых состояние хранится на сервере) или JWT (при которых состояние передается вместе с клиентом).
1. Аутентификация на основе сессий
При входе пользователя бэкенд создает случайный идентификатор сессии, сохраняет его в кэше или базе данных и устанавливает этот идентификатор в виде HTTP-only куки-файла в браузере. Каждый раз при отправке запроса браузер передает куки, сервер проверяет запись сессии и восстанавливает контекст пользователя. Это позволяет хранить конфиденциальные данные на стороне сервера и мгновенно завершать сеанс путем удаления записи.
Почему стоит выбрать сессии:
✅ Мгновенное аннулирование ("выйти везде") — достаточно удалить строку из Redis или SQL.
✅ Никакие секретные ключи никогда не покидают бэкэнд, снижая риск случайного раскрытия.
✅ Подходит для небольших и средних систем, где общий кэш не является узким местом.
Однако будьте осторожны: горизонтальное масштабирование зачастую требует либо прикрепленных сессий, либо реплицированного кеша, что может привести к увеличению задержки и усложнению операций.
2. Аутентификация на основе JWT
После успешного входа сервер подписывает JSON Web Token, содержащий заголовок (alg, typ), полезную нагрузку (например, поля вроде sub или role) и подпись. Токен кодируется в Base64, но не шифруется, позволяя любому прочитать содержимое полезной нагрузки, однако подделать токен может лишь тот, кто владеет секретным ключом. Сервер не хранит никакого состояния, любой узел сети способен проверить подпись и доверять заявленным данным.
Почему стоит рассмотреть использование JWT:
⚡️ Бессессионность: каждый микросервис или пограничный узел может локально проверять токены, исключая необходимость общего хранилища.
⚡️ Отлично подходит для SPA-приложений и мобильных приложений, непосредственно обращающихся к нескольким бекенд-сервисам.
⚡️ Легковесность: легко помещается в заголовок Authorization или куки.
Обратите внимание, что однажды выданный JWT остается действительным вплоть до истечения срока его действия; отозвать его без дополнительной инфраструктуры невозможно, что делает блокировку аккаунта или экстренный выход сложными задачами.
Таким образом, если вам важнее всего возможность отзывания доступа, придерживайтесь серверных сессий.
Если вам нужно масштабирование приложения без сохранения состояния, то подписанные JWT — это то, что вам нужно, но при проектировании учитывайте тот факт, что вы не сможете отозвать их обратно, как только они появятся в открытом доступе.
❤12👍10🔥1
В руководство по языку Go добавлены новые статьи
Строки и руны
https://metanit.com/go/tutorial/4.6.php
Пакет string. Операции со строками
https://metanit.com/go/tutorial/4.7.php
#go #golang
Строки и руны
https://metanit.com/go/tutorial/4.6.php
Пакет string. Операции со строками
https://metanit.com/go/tutorial/4.7.php
#go #golang
👍14❤6🔥3🎉1
Краткий совет по Linux:
Используйте команду "tree" для отображения структуры каталога и его содержимого в визуальной иерархии.
$ tree -L 2 /etc
Здесь выводится список файлов и каталогов внутри /etc на два уровня в глубину.
Отлично подходит для быстрого изучения макетов конфигураций.
#linux #shell
Используйте команду "tree" для отображения структуры каталога и его содержимого в визуальной иерархии.
$ tree -L 2 /etc
Здесь выводится список файлов и каталогов внутри /etc на два уровня в глубину.
Отлично подходит для быстрого изучения макетов конфигураций.
#linux #shell
❤19👍6🏆2🔥1
Что такое архитектура, управляемая событиями (𝗘𝘃𝗲𝗻𝘁-𝗗𝗿𝗶𝘃𝗲𝗻 𝗔𝗿𝗰𝗵𝗶𝘁𝗲𝗰𝘁𝘂𝗿𝗲)?
Архитектура, управляемая событиями — это шаблон проектирования программного обеспечения, работающий в режиме реального времени. Поток программы определяется событиями, такими как действия пользователей, выход датчиков или сообщения от других программ или сервисов.
В такой архитектуре события запускают выполнение конкретных процессов или функций, обеспечивая немедленную реакцию системы. Обычно эта архитектура реализуется с использованием микросервисов.
Примеры событий включают нажатие кнопки пользователем, размещение нового заказа или загрузку файла.
Эта архитектура имеет три ключевых компонента:
1. Производители событий: Эти компоненты или сервисы генерируют события, когда происходят значимые изменения.
2. Подписчики событий: Это компоненты или сервисы, которые слушают конкретные события и реагируют на них соответствующим образом.
3. Канал передачи событий (шины сообщений): Этот компонент передает события от производителей к подписчикам. Примерами популярных решений являются очереди сообщений (например, RabbitMQ) и платформы потоковой обработки (например, Apache Kafka).
Процесс работает следующим образом: производитель событий обнаруживает значительное изменение и создает сообщение события. Сообщение отправляется в канал событий, который доставляет его заинтересованным потребителям событий. Потребители обрабатывают событие и выполняют необходимые действия.
Преимущества данной архитектуры следующие:
1. Масштабируемость. Компоненты могут масштабироваться независимо друг от друга для обработки различных нагрузок.
2. Гибкость. Компоненты менее зависимы друг от друга, что делает систему более гибкой и адаптивной к изменениям.
3. Реакция в реальном времени. Приложения могут реагировать на события практически мгновенно.
4. Устойчивость. Выход из строя одного компонента не влияет на другие.
Однако существуют также некоторые недостатки, такие как увеличение сложности дизайна и проблемы с отладкой, а также необходимость обеспечить согласованность в обработке событий правильно.
Некоторые сценарии использования включают:
✅ Обработка потоков данных: Управление данными от множества сенсоров.
✅ Биг-дата и аналитика: Одно из сильных качеств — возможность немедленно обрабатывать и анализировать данные сразу же после их появления.
✅ Микросервисная архитектура: Хорошо дополняет концепцию микросервисов, позволяя сервисам общаться асинхронно и оставаться слабо связанными между собой.
Архитектура, управляемая событиями — это шаблон проектирования программного обеспечения, работающий в режиме реального времени. Поток программы определяется событиями, такими как действия пользователей, выход датчиков или сообщения от других программ или сервисов.
В такой архитектуре события запускают выполнение конкретных процессов или функций, обеспечивая немедленную реакцию системы. Обычно эта архитектура реализуется с использованием микросервисов.
Примеры событий включают нажатие кнопки пользователем, размещение нового заказа или загрузку файла.
Эта архитектура имеет три ключевых компонента:
1. Производители событий: Эти компоненты или сервисы генерируют события, когда происходят значимые изменения.
2. Подписчики событий: Это компоненты или сервисы, которые слушают конкретные события и реагируют на них соответствующим образом.
3. Канал передачи событий (шины сообщений): Этот компонент передает события от производителей к подписчикам. Примерами популярных решений являются очереди сообщений (например, RabbitMQ) и платформы потоковой обработки (например, Apache Kafka).
Процесс работает следующим образом: производитель событий обнаруживает значительное изменение и создает сообщение события. Сообщение отправляется в канал событий, который доставляет его заинтересованным потребителям событий. Потребители обрабатывают событие и выполняют необходимые действия.
Преимущества данной архитектуры следующие:
1. Масштабируемость. Компоненты могут масштабироваться независимо друг от друга для обработки различных нагрузок.
2. Гибкость. Компоненты менее зависимы друг от друга, что делает систему более гибкой и адаптивной к изменениям.
3. Реакция в реальном времени. Приложения могут реагировать на события практически мгновенно.
4. Устойчивость. Выход из строя одного компонента не влияет на другие.
Однако существуют также некоторые недостатки, такие как увеличение сложности дизайна и проблемы с отладкой, а также необходимость обеспечить согласованность в обработке событий правильно.
Некоторые сценарии использования включают:
✅ Обработка потоков данных: Управление данными от множества сенсоров.
✅ Биг-дата и аналитика: Одно из сильных качеств — возможность немедленно обрабатывать и анализировать данные сразу же после их появления.
✅ Микросервисная архитектура: Хорошо дополняет концепцию микросервисов, позволяя сервисам общаться асинхронно и оставаться слабо связанными между собой.
🔥9👍3🥰1
Вышла новая версия среды разработки Qt Creator - Qt Creator 17, которая применяется для создания кроссплатформенных приложений с помощью библиотеки Qt.
Этот релиз включает ряд значительных улучшений и новых возможностей, направленных на повышение удобства и эффективности работы разработчиков.
Ключевые нововведения:
Обновленные темы: Теперь стандартные светлая и тёмная темы стали дефолтными. Пользователи могут выбрать другие темы вручную через настройки.
Расширенная поддержка расширений: Возможность устанавливать расширения прямо из архива и изменение регистра расширений на GitHub.
Проектирование проектов: Настройки запуска теперь связаны с конфигурациями сборки проекта, позволяя быстро переключаться между разными режимами компиляции (например, отладки и релиза).
Поддержка CMake: Улучшена интеграция с системой сборки CMake, автоматически устанавливаются недостающие компоненты библиотеки Qt.
Python-разработка: Добавлена поддержка открытия проектов на основе формата pyproject.toml, что упрощает работу с проектами на Python.
Редакторы C++ и QML: Улучшены инструменты автоподстановки и исправления ошибок, оптимизированы механизмы быстрого редактирования и добавления зависимостей.
Анализатор: Для анализа кода инструмент Axivion получил поддержку локальных сборочных панелей и новые возможности настроек.
Версионный контроль: Добавлены дополнительные опции работы с изменениями файлов, такие как быстрые команды для работы с Git.
https://www.qt.io/blog/qt-creator-17-released
Qt Creator доступен бесплатно с оф сайта Qt https://www.qt.io/offline-installers
#qt
Этот релиз включает ряд значительных улучшений и новых возможностей, направленных на повышение удобства и эффективности работы разработчиков.
Ключевые нововведения:
Обновленные темы: Теперь стандартные светлая и тёмная темы стали дефолтными. Пользователи могут выбрать другие темы вручную через настройки.
Расширенная поддержка расширений: Возможность устанавливать расширения прямо из архива и изменение регистра расширений на GitHub.
Проектирование проектов: Настройки запуска теперь связаны с конфигурациями сборки проекта, позволяя быстро переключаться между разными режимами компиляции (например, отладки и релиза).
Поддержка CMake: Улучшена интеграция с системой сборки CMake, автоматически устанавливаются недостающие компоненты библиотеки Qt.
Python-разработка: Добавлена поддержка открытия проектов на основе формата pyproject.toml, что упрощает работу с проектами на Python.
Редакторы C++ и QML: Улучшены инструменты автоподстановки и исправления ошибок, оптимизированы механизмы быстрого редактирования и добавления зависимостей.
Анализатор: Для анализа кода инструмент Axivion получил поддержку локальных сборочных панелей и новые возможности настроек.
Версионный контроль: Добавлены дополнительные опции работы с изменениями файлов, такие как быстрые команды для работы с Git.
https://www.qt.io/blog/qt-creator-17-released
Qt Creator доступен бесплатно с оф сайта Qt https://www.qt.io/offline-installers
#qt
www.qt.io
Qt Creator 17 released
See what's new in Qt Creator 17! Explore default themes, integrated run configurations, improvements on CMake, Python support, C++ and QML editing, etc.
🔥10❤🔥4❤2
В руководство по языку Си добавлена статья про параллельные вычисления с помощью библиотеки OpenMP
https://metanit.com/c/tutorial/11.6.php
#c_ansi
https://metanit.com/c/tutorial/11.6.php
#c_ansi
❤🔥14🔥5👏1
Исследователи из компании Cybernews обнаружили утечку логинов и паролей от 16 миллиардов аккаунтов в различных популярных сервисах.
Слитый архив включает в себя данные учетных записей от Apple, Google, GitHub, Telegram, а также социальных сетей, VPN-сервисов и государственных платформ. Большинство этих наборов логинов и паролей являются новыми и ранее не публиковались.
Все базы данных находились в открытом доступе лишь короткое время, при этом один набор данных с более чем 455 млн записей был, судя по названию, связан с Россией.
По этой причине эксперты по кибербезопасности советуют пользователям немедленно сменить пароли для всех онлайн-аккаунтов, использовать менеджеры паролей и по возможности активировать многофакторную аутентификацию
https://cybernews.com/security/billions-credentials-exposed-infostealers-data-leak/
Слитый архив включает в себя данные учетных записей от Apple, Google, GitHub, Telegram, а также социальных сетей, VPN-сервисов и государственных платформ. Большинство этих наборов логинов и паролей являются новыми и ранее не публиковались.
Все базы данных находились в открытом доступе лишь короткое время, при этом один набор данных с более чем 455 млн записей был, судя по названию, связан с Россией.
По этой причине эксперты по кибербезопасности советуют пользователям немедленно сменить пароли для всех онлайн-аккаунтов, использовать менеджеры паролей и по возможности активировать многофакторную аутентификацию
https://cybernews.com/security/billions-credentials-exposed-infostealers-data-leak/
Cybernews
16 billion passwords exposed in record-breaking data breach: what does it mean for you?
This is a colossal breach involving 16 billion exposed credentials (Google, Apple, Facebook) — possibly the G.O.A.T. of all data breaches.
🤯8❤3😭3😁1🤡1
Шаблоны развёртывания приложения (описание к предыдущему посту)
Шаблоны развертывания представляют автоматизированные методы внедрения новых функций в приложение. Выбранный способ развёртывания позволяет сократить время простоя, развертывать дополнительную функциональность, протестировать новые функции с небольшой группой пользователей, прежде чем сделать их доступными для широкой публики.
Существуют различные варианты развертывания:
𝟭. 𝗖𝗮𝗻𝗮𝗿𝘆 𝗿𝗲𝗹𝗲𝗮𝘀𝗲 (Канареечный релиз )
𝗖𝗮𝗻𝗮𝗿𝘆 𝗿𝗲𝗹𝗲𝗮𝘀𝗲 — это метод выявления потенциальных проблем до того, как они затронут всех потребителей. Перед тем как сделать новую функцию доступной для всех, мы планируем показать ее избранной группе пользователей. В подобном релизе мы отслеживаем результат после того, как функция становится доступной. Если в релизе есть проблемы, мы их устраняем. Как только стабильность релиза будет установлена, он переносится в фактическую производственную среду.
𝟮. 𝗕𝗹𝘂𝗲/𝗴𝗿𝗲𝗲𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 (Синяя-зелёная схема развёртывания)
Здесь мы одновременно используем две похожие среды, минимизируя риски и время простоя. Эти среды называются синей и зелёной. Только одна среда активна в любой момент времени. В реализации сине-зелёного метода используется маршрутизатор или балансировщик нагрузки для контроля трафика. Синяя-зелёная схема развёртывания также предоставляет быстрый способ отката. Если что-то пойдёт не так в зелёной среде, мы переключаем маршрутизатор обратно на синюю среду.
𝟯. 𝗙𝗲𝗮𝘁𝘂𝗿𝗲 𝘁𝗼𝗴𝗴𝗹𝗲𝘀 (Управление функциями)
Здесь мы можем включить/выключить отдельные функции во время выполнения. Мы можем выпустить новое программное обеспечение, не подвергая наших пользователей другим совершенно новым или изменённым возможностям. Когда мы создаём новую функциональность, мы можем использовать переключение функций для обеспечения непрерывных выпусков путём разделения выпуска и развёртывания.
𝟰. 𝗔/𝗕-тестирование
Две версии приложения сравниваются с помощью A/B-тестирования, чтобы определить, какая из них работает лучше. В A/B тестировании мы случайным образом представляем пользователям две или более версий страницы. Затем мы используем статистический анализ, чтобы выяснить, какой вариант эффективнее достигает поставленных целей.
𝟱. Скрытый (Темный) запуск («Dark Launch»)
При «темном запуске» мы представляем новую функцию избранной группе пользователей, а не широкой публике. Эти пользователи не знают, что помогают нам тестировать функционал. Мы даже не указываем им на новый функционал. По этой причине он называется «темным запуском». Пользователей знакомят с программой, чтобы мы могли получить обратную связь и проверить ее эффективность.
Шаблоны развертывания представляют автоматизированные методы внедрения новых функций в приложение. Выбранный способ развёртывания позволяет сократить время простоя, развертывать дополнительную функциональность, протестировать новые функции с небольшой группой пользователей, прежде чем сделать их доступными для широкой публики.
Существуют различные варианты развертывания:
𝟭. 𝗖𝗮𝗻𝗮𝗿𝘆 𝗿𝗲𝗹𝗲𝗮𝘀𝗲 (Канареечный релиз )
𝗖𝗮𝗻𝗮𝗿𝘆 𝗿𝗲𝗹𝗲𝗮𝘀𝗲 — это метод выявления потенциальных проблем до того, как они затронут всех потребителей. Перед тем как сделать новую функцию доступной для всех, мы планируем показать ее избранной группе пользователей. В подобном релизе мы отслеживаем результат после того, как функция становится доступной. Если в релизе есть проблемы, мы их устраняем. Как только стабильность релиза будет установлена, он переносится в фактическую производственную среду.
𝟮. 𝗕𝗹𝘂𝗲/𝗴𝗿𝗲𝗲𝗻 𝗱𝗲𝗽𝗹𝗼𝘆𝗺𝗲𝗻𝘁 (Синяя-зелёная схема развёртывания)
Здесь мы одновременно используем две похожие среды, минимизируя риски и время простоя. Эти среды называются синей и зелёной. Только одна среда активна в любой момент времени. В реализации сине-зелёного метода используется маршрутизатор или балансировщик нагрузки для контроля трафика. Синяя-зелёная схема развёртывания также предоставляет быстрый способ отката. Если что-то пойдёт не так в зелёной среде, мы переключаем маршрутизатор обратно на синюю среду.
𝟯. 𝗙𝗲𝗮𝘁𝘂𝗿𝗲 𝘁𝗼𝗴𝗴𝗹𝗲𝘀 (Управление функциями)
Здесь мы можем включить/выключить отдельные функции во время выполнения. Мы можем выпустить новое программное обеспечение, не подвергая наших пользователей другим совершенно новым или изменённым возможностям. Когда мы создаём новую функциональность, мы можем использовать переключение функций для обеспечения непрерывных выпусков путём разделения выпуска и развёртывания.
𝟰. 𝗔/𝗕-тестирование
Две версии приложения сравниваются с помощью A/B-тестирования, чтобы определить, какая из них работает лучше. В A/B тестировании мы случайным образом представляем пользователям две или более версий страницы. Затем мы используем статистический анализ, чтобы выяснить, какой вариант эффективнее достигает поставленных целей.
𝟱. Скрытый (Темный) запуск («Dark Launch»)
При «темном запуске» мы представляем новую функцию избранной группе пользователей, а не широкой публике. Эти пользователи не знают, что помогают нам тестировать функционал. Мы даже не указываем им на новый функционал. По этой причине он называется «темным запуском». Пользователей знакомят с программой, чтобы мы могли получить обратную связь и проверить ее эффективность.
👍13❤3🤔3
Краткий совет по Linux:
Команда diff — полезный инструмент для поиска различий между файлами в терминале Linux. Однако icdiff предлагает еще лучшее сравнение бок о бок с цветным выводом.
$ icdiff config-1 config-2
На выходе оба файла будут отображены рядом, а все различия будут выделены красным и зеленым цветом, что позволит легко обнаружить разницу.
Команда diff — полезный инструмент для поиска различий между файлами в терминале Linux. Однако icdiff предлагает еще лучшее сравнение бок о бок с цветным выводом.
$ icdiff config-1 config-2
На выходе оба файла будут отображены рядом, а все различия будут выделены красным и зеленым цветом, что позволит легко обнаружить разницу.
❤🔥24🫡5👏2
В .NET 10, который выйдет в ноябре этого года, значительно оптимизируют работу с небольшими массивами. Так, если JIT может определить, что локальный массив достаточно мал и не выйдет за пределы области
видимости метода, то для этого массива выделяется место в стеке, а не в куче. Благодаря этому уменьшается потребляемая память и время на ее выделение.
#dotnet #csharp
видимости метода, то для этого массива выделяется место в стеке, а не в куче. Благодаря этому уменьшается потребляемая память и время на ее выделение.
#dotnet #csharp
🎉33❤9👍9💘6
Сгенерированный ИИ код в некоторых организациях составляет более половины кода, но большая часть этого попадает в производство практически без надзора.
Согласно отчету Cloudsmith Artifact Management Report 2025, «ИИ теперь пишет код в масштабах». Из тех разработчиков, которые используют ИИ, 42 процента заявили, что по крайней мере половина их кода сгенерирована ИИ.
Причем для 16,6% большую часть кода написал ИИ, а 3,6 процента заявили, что весь их код был сгенерирован машиной.
В отчете не указано, сколько разработчиков используют ИИ для генерации кода.
Но составители отчета предупреждают: «Хотя LLM повышают производительность, быстро генерируя код, они могут непреднамеренно вносить риски, рекомендуя несуществующие или вредоносные пакеты».
И разработчики прекрасно это осознают. На вопрос, усугубит ли ИИ угрозы вредоносного ПО с открытым исходным кодом (например, тайпосквоттинг, путаница с зависимостями), 79,2% считают, что ИИ увеличитколичество вредоносного ПО в средах, а 30% заявили, что это значительно увеличит подверженность вредоносному ПО.
Только 13% считают, что ИИ «предотвратит или уменьшит угрозы». А 40% заявили, что генерация кода является сферой, в которой ввод ИИ представлял наибольший риск.
Тем не менее, треть разработчиков не проверяли код, сгенерированный ИИ, перед каждым развертыванием, что означает, что «большие порции» оставались непроверенными, представляя растущую уязвимость в цепочке поставок. В то время как две трети заявили, что доверяют только коду, сгенерированному ИИ после ручной проверки, вопрос в том, изменится ли эта пропорция, поскольку ИИ составляет все большую долю все большей мировой кодовой базы.
https://devclass.com/2025/06/19/ai-is-generating-code-at-scale-but-human-scale-code-review-cant-keep-up/
Согласно отчету Cloudsmith Artifact Management Report 2025, «ИИ теперь пишет код в масштабах». Из тех разработчиков, которые используют ИИ, 42 процента заявили, что по крайней мере половина их кода сгенерирована ИИ.
Причем для 16,6% большую часть кода написал ИИ, а 3,6 процента заявили, что весь их код был сгенерирован машиной.
В отчете не указано, сколько разработчиков используют ИИ для генерации кода.
Но составители отчета предупреждают: «Хотя LLM повышают производительность, быстро генерируя код, они могут непреднамеренно вносить риски, рекомендуя несуществующие или вредоносные пакеты».
И разработчики прекрасно это осознают. На вопрос, усугубит ли ИИ угрозы вредоносного ПО с открытым исходным кодом (например, тайпосквоттинг, путаница с зависимостями), 79,2% считают, что ИИ увеличитколичество вредоносного ПО в средах, а 30% заявили, что это значительно увеличит подверженность вредоносному ПО.
Только 13% считают, что ИИ «предотвратит или уменьшит угрозы». А 40% заявили, что генерация кода является сферой, в которой ввод ИИ представлял наибольший риск.
Тем не менее, треть разработчиков не проверяли код, сгенерированный ИИ, перед каждым развертыванием, что означает, что «большие порции» оставались непроверенными, представляя растущую уязвимость в цепочке поставок. В то время как две трети заявили, что доверяют только коду, сгенерированному ИИ после ручной проверки, вопрос в том, изменится ли эта пропорция, поскольку ИИ составляет все большую долю все большей мировой кодовой базы.
https://devclass.com/2025/06/19/ai-is-generating-code-at-scale-but-human-scale-code-review-cant-keep-up/
DEVCLASS
AI is generating code at scale – but human scale code review can’t keep up • DEVCLASS
AI accounts for over half of the code produced in some organizations, but much of this goinginto production […]
👍9❤4🔥4🤯4
AI Vs Machine Learning Vs Deep Learning Vs Generative AI
1 — Artificial Intelligence (AI) / Искусственный Интеллект (ИИ)
Это общее направление исследований, целью которого является создание машин или систем, способных выполнять задачи, традиционно требующие человеческого интеллекта, такие как рассуждение, обучение, решение проблем и понимание языка. ИИ включает различные субдисциплины, включая Машинное Обучение, Обработку Естественных Языков (NLP), Робототехнику и Компьютерное Зрение.
2 — Machine Learning (ML) / Машинное Обучение
Является подразделением ИИ, сосредоточенным на разработке алгоритмов, позволяющих компьютерам учиться и принимать решения на основе данных. Вместо прямого программирования каждой отдельной задачи системы МО улучшают свою производительность, обрабатывая большие объемы данных. Примеры практического применения включают обнаружение спама, рекомендательные системы и аналитику прогнозирования.
3 — Deep Learning / Глубокое Обучение
Это специализированная область внутри Машинного Обучения, использующая искусственные нейронные сети с несколькими слоями для моделирования сложных закономерностей в данных. Нейронные сети представляют собой вычислительные модели, вдохновленные сетью нервных клеток мозга человека. Глубокие нейронные сети способны автоматически выявлять необходимые представления для последующего распознавания. Применение включает распознавание изображений и речи, обработку естественных языков и автономные транспортные средства.
4 — Generative AI / Генеративный ИИ
Относится к системам ИИ, способным создавать новый контент, такой как тексты, изображения, музыку или код, похожий на исходные данные, на которых они были обучены. Эти системы основаны на архитектуре трансформеров.
Известные генеративные модели включают GPT для генерации текста и DALL-E для создания изображений.
1 — Artificial Intelligence (AI) / Искусственный Интеллект (ИИ)
Это общее направление исследований, целью которого является создание машин или систем, способных выполнять задачи, традиционно требующие человеческого интеллекта, такие как рассуждение, обучение, решение проблем и понимание языка. ИИ включает различные субдисциплины, включая Машинное Обучение, Обработку Естественных Языков (NLP), Робототехнику и Компьютерное Зрение.
2 — Machine Learning (ML) / Машинное Обучение
Является подразделением ИИ, сосредоточенным на разработке алгоритмов, позволяющих компьютерам учиться и принимать решения на основе данных. Вместо прямого программирования каждой отдельной задачи системы МО улучшают свою производительность, обрабатывая большие объемы данных. Примеры практического применения включают обнаружение спама, рекомендательные системы и аналитику прогнозирования.
3 — Deep Learning / Глубокое Обучение
Это специализированная область внутри Машинного Обучения, использующая искусственные нейронные сети с несколькими слоями для моделирования сложных закономерностей в данных. Нейронные сети представляют собой вычислительные модели, вдохновленные сетью нервных клеток мозга человека. Глубокие нейронные сети способны автоматически выявлять необходимые представления для последующего распознавания. Применение включает распознавание изображений и речи, обработку естественных языков и автономные транспортные средства.
4 — Generative AI / Генеративный ИИ
Относится к системам ИИ, способным создавать новый контент, такой как тексты, изображения, музыку или код, похожий на исходные данные, на которых они были обучены. Эти системы основаны на архитектуре трансформеров.
Известные генеративные модели включают GPT для генерации текста и DALL-E для создания изображений.
❤9👏2🔥1🤮1