Приведет ли ИИ к деградации программирования и обесцениванию профессии программиста?
Массовое внедрение ИИ в процесс разработки, выпуск различных ИИ-помощников и даже целых IDE на базе ИИ приводят к вполне обоснованным опасением, что программирование как профессия – всё, профессионалы останутся не у дел, а все вокруг заполонят «вайбкодеры».
Вопрос не праздный, но ответить на него не сложно – история развивается по спирали и всё уже проходили когда-то ранее. Но мы не будем забираться далеко в исторические дерби, а просто перенесемся в середину 90-x.
Тогда я увлекался радиолюбительством и компьютерами, хотя своего ПК у меня не было и довольствовался только «Спектрумом». Так вот, для разработки электронных устройств тогда требовалось знать и помнить множество вещей, а так как память не резиновая – то записывать и хранить под рукой.
Если мне требовалась документация по той или иной микросхеме или транзистору – я шел в библиотеку, там или старательно все конспектировал или делал ксерокопии (помните еще такое слово?)
Все это подшивалось в папочки, заносилось в тетрадки и представляло большую ценность, потому что достать эту информацию было не просто так.
Потом ПК стали доступнее, появился даже интернет, но он был медленный и дорогой, и поход в интернет не сильно отличался от похода в библиотеку. Надо было быстро (пока ночной тариф) найти и скачать нужную документацию или сохранить на нее ссылки и скачать в интернет-кафе.
В итоге получалась та же тетрадка, но уже в электронном виде. И кто обладал «тайными знаниями» тот числился в числе гуру.
И вот в начале нулевых в нашу жизнь врывается широкополосный интернет, а к концу нулевых он еще становится безлимитным. И в нем есть Гугл, Яндекс и прочие поисковые системы, которые с готовностью ответят на любой вопрос.
После чего смысл собирать информацию в тетрадки и файлы в целом пропал – все можно найти в сети. И уже тогда появились некоторые тру-админы, которые говорили, что гуглом пользуются только ламеры и что вы будете делать без интернета?
Также пояснялось, что пусть, пусть сейчас они там делов наделают, а потом, когда все упадет, все вернуться к ним – тру-админам, но работать они будут уже за очень-очень большие деньги.
С тех про прошло много лет, небо до сих пор на землю не упало, а умение искать нужную информацию в сети стало требованием по умолчанию к более-менее технически грамотному человеку.
Но эти высказывания вам ничего не напоминают? Все повторяется, мол пусть, вот как навайбкодят вайбкодеры, как все упадет, так придут тру-программисты и за очень много денег все исправят.
Но увы, не придут. Потому что вайбкодинг – это не про то, что пойди туда – не знаю куда, принеси то – не знаю что. Это давно известно, что без ТЗ результат ХЗ.
А теперь подумаем, кто такой программист? Тот, кто знает синтаксис языка и умеет писать код буквами? Или тот, кто понимает структуру приложения, представляет его архитектуру и понимает, как оно вообще работает?
Первый просто напишет спагетти-код, где смешаются в кучу кони, люди, методы и такой код будет практически невозможно читать и поддерживать. Зато с полным знанием языка.
Второй понимает как надо, а что касается практической реализации, то он не связан ложными ограничениями, в виде владения определенным языком. Общие принципы и подходы везде одинаковы. А язык – это просто инструмент.
ИИ помогает размыть эту грань. Если вы понимаете, что хотите, то ИИ воплотить ваши пожелания в код. Быстро и достаточно правильно, во всяком случае лучше, чем большинство программистов начального уровня.
Вот вы техлид, вам нужно написать код на языке, которым вы не владеете, до этого вы просто искали сотрудника, который им владел. Теперь его может заменить ИИ.
Но этот код вам все равно придется прочитать, протестировать и принять, либо отправить на доработку.
Так какая разница кто пишет? Человек или ИИ? Тем более, что ИИ может писать куда лучше человека, а также комментировать и документировать.
А результат что так, что иначе надо проверять и тестировать.
Продолжение следует…
Массовое внедрение ИИ в процесс разработки, выпуск различных ИИ-помощников и даже целых IDE на базе ИИ приводят к вполне обоснованным опасением, что программирование как профессия – всё, профессионалы останутся не у дел, а все вокруг заполонят «вайбкодеры».
Вопрос не праздный, но ответить на него не сложно – история развивается по спирали и всё уже проходили когда-то ранее. Но мы не будем забираться далеко в исторические дерби, а просто перенесемся в середину 90-x.
Тогда я увлекался радиолюбительством и компьютерами, хотя своего ПК у меня не было и довольствовался только «Спектрумом». Так вот, для разработки электронных устройств тогда требовалось знать и помнить множество вещей, а так как память не резиновая – то записывать и хранить под рукой.
Если мне требовалась документация по той или иной микросхеме или транзистору – я шел в библиотеку, там или старательно все конспектировал или делал ксерокопии (помните еще такое слово?)
Все это подшивалось в папочки, заносилось в тетрадки и представляло большую ценность, потому что достать эту информацию было не просто так.
Потом ПК стали доступнее, появился даже интернет, но он был медленный и дорогой, и поход в интернет не сильно отличался от похода в библиотеку. Надо было быстро (пока ночной тариф) найти и скачать нужную документацию или сохранить на нее ссылки и скачать в интернет-кафе.
В итоге получалась та же тетрадка, но уже в электронном виде. И кто обладал «тайными знаниями» тот числился в числе гуру.
И вот в начале нулевых в нашу жизнь врывается широкополосный интернет, а к концу нулевых он еще становится безлимитным. И в нем есть Гугл, Яндекс и прочие поисковые системы, которые с готовностью ответят на любой вопрос.
После чего смысл собирать информацию в тетрадки и файлы в целом пропал – все можно найти в сети. И уже тогда появились некоторые тру-админы, которые говорили, что гуглом пользуются только ламеры и что вы будете делать без интернета?
Также пояснялось, что пусть, пусть сейчас они там делов наделают, а потом, когда все упадет, все вернуться к ним – тру-админам, но работать они будут уже за очень-очень большие деньги.
С тех про прошло много лет, небо до сих пор на землю не упало, а умение искать нужную информацию в сети стало требованием по умолчанию к более-менее технически грамотному человеку.
Но эти высказывания вам ничего не напоминают? Все повторяется, мол пусть, вот как навайбкодят вайбкодеры, как все упадет, так придут тру-программисты и за очень много денег все исправят.
Но увы, не придут. Потому что вайбкодинг – это не про то, что пойди туда – не знаю куда, принеси то – не знаю что. Это давно известно, что без ТЗ результат ХЗ.
А теперь подумаем, кто такой программист? Тот, кто знает синтаксис языка и умеет писать код буквами? Или тот, кто понимает структуру приложения, представляет его архитектуру и понимает, как оно вообще работает?
Первый просто напишет спагетти-код, где смешаются в кучу кони, люди, методы и такой код будет практически невозможно читать и поддерживать. Зато с полным знанием языка.
Второй понимает как надо, а что касается практической реализации, то он не связан ложными ограничениями, в виде владения определенным языком. Общие принципы и подходы везде одинаковы. А язык – это просто инструмент.
ИИ помогает размыть эту грань. Если вы понимаете, что хотите, то ИИ воплотить ваши пожелания в код. Быстро и достаточно правильно, во всяком случае лучше, чем большинство программистов начального уровня.
Вот вы техлид, вам нужно написать код на языке, которым вы не владеете, до этого вы просто искали сотрудника, который им владел. Теперь его может заменить ИИ.
Но этот код вам все равно придется прочитать, протестировать и принять, либо отправить на доработку.
Так какая разница кто пишет? Человек или ИИ? Тем более, что ИИ может писать куда лучше человека, а также комментировать и документировать.
А результат что так, что иначе надо проверять и тестировать.
Продолжение следует…
👍42❤7🤔4💯1🤝1
Инженерные профессии 1980-х: как компьютер стёр целые специальности
В 1980-е годы мир инженерии столкнулся с радикальной трансформацией. Вычислительная техника, развивавшаяся с головокружительной скоростью, не просто автоматизировала отдельные операции — она полностью уничтожила целые профессии, которые казались незаменимыми всего десятилетие назад. Рассмотрим наиболее показательные примеры этой технологической революции.
🔹 Чертёжник: от кульмана к забвению
Самым массовым исчезновением стала профессия технического чертёжника (draftsman). До появления систем автоматизированного проектирования (CAD) сотни тысяч специалистов проводили дни за кульманами, создавая технические чертежи вручную с помощью карандашей, линеек и рейсшин. Работа требовала исключительной точности — одна ошибка означала переделку всего чертежа с нуля.
Революция началась в 1963 году, когда 24-летний аспирант MIT Иван Сазерленд представил Sketchpad — первую систему интерактивной компьютерной графики, позволявшую рисовать непосредственно на экране светопером. Это была диссертационная работа, но она заложила фундамент для всех современных CAD-систем.
Массовый переход произошёл в 1980-х после выхода AutoCAD (1982). Внезапно инженеры получили возможность делать чертежи самостоятельно — быстрее, точнее и с возможностью мгновенного редактирования. К началу 1990-х профессия чертёжника практически исчезла. CAD-системы оказались в 5-10 раз экономичнее традиционных методов.
🔹Оператор телефонной станции: конец эпохи шнуров
Операторы телефонных коммутаторов вручную соединяли абонентов, вставляя штекеры в гнёзда. В пик занятости, в 1929 году, только в AT&T работало более 161,000 операторов — преимущественно женщин. Это была одна из крупнейших женских профессий в США.
Автоматизация началась ещё в 1920-х с внедрением механических коммутаторов, но окончательное исчезновение профессии произошло к 1978 году. Последний ручной коммутатор в США был отключён в октябре 1983 года в городе Брайант-Понд, штат Мэн. Операторы старшего возраста (старше 25 лет) на 7 процентных пунктов реже находили новую работу после автоматизации — более половины из них вообще покинули рынок труда.
🔹 Человек-вычислитель: когда люди были компьютерами
До электронных компьютеров сложные математические расчёты выполняли «человеческие вычислители» (human computers) — люди, производившие вычисления вручную. Работа считалась монотонной и малопрестижной, её часто поручали женщинам. NASA использовала таких специалистов вплоть до 1970-х годов.
Сравнение с ENIAC (1948) оказалось показательным: электронный компьютер решал задачу за 9 часов, а команде людей требовалось 21 день. ENIAC выполнял 5,000 операций сложения в секунду — работу, эквивалентную 500 человеко-часам в неделю.
👉 Современный Raspberry Pi в 150 000 раз быстрее ENIAC. К 1970-м профессия полностью исчезла.
🔹 Наборщик: смерть от Macintosh
Типографские наборщики составляли текст из металлических литер или на фотонаборных машинах. В Северной Америке действовало около 4,000 типографских компаний. Работа требовала высокой квалификации и хорошо оплачивалась.
Революцию совершил desktop publishing в 1985 году: комбинация Macintosh, программы Aldus PageMaker и лазерного принтера Apple LaserWriter. Графические дизайнеры внезапно могли сами набирать и верстать текст. С 1985 по 1995 год количество типографий сократилось до считанных единиц. День, когда появился PageMaker, стал «днём смерти типографской индустрии».
‼️ Вывод
Компьютеризация 1980-х не просто изменила методы работы — она уничтожила целые профессии, на освоение которых люди тратили годы.
👉 Эти специальности объединяло одно: их работу можно было формализовать и автоматизировать. История показывает, что технологический прогресс неумолим к профессиям, основанным на повторяющихся алгоритмических действиях.
В 1980-е годы мир инженерии столкнулся с радикальной трансформацией. Вычислительная техника, развивавшаяся с головокружительной скоростью, не просто автоматизировала отдельные операции — она полностью уничтожила целые профессии, которые казались незаменимыми всего десятилетие назад. Рассмотрим наиболее показательные примеры этой технологической революции.
🔹 Чертёжник: от кульмана к забвению
Самым массовым исчезновением стала профессия технического чертёжника (draftsman). До появления систем автоматизированного проектирования (CAD) сотни тысяч специалистов проводили дни за кульманами, создавая технические чертежи вручную с помощью карандашей, линеек и рейсшин. Работа требовала исключительной точности — одна ошибка означала переделку всего чертежа с нуля.
Революция началась в 1963 году, когда 24-летний аспирант MIT Иван Сазерленд представил Sketchpad — первую систему интерактивной компьютерной графики, позволявшую рисовать непосредственно на экране светопером. Это была диссертационная работа, но она заложила фундамент для всех современных CAD-систем.
Массовый переход произошёл в 1980-х после выхода AutoCAD (1982). Внезапно инженеры получили возможность делать чертежи самостоятельно — быстрее, точнее и с возможностью мгновенного редактирования. К началу 1990-х профессия чертёжника практически исчезла. CAD-системы оказались в 5-10 раз экономичнее традиционных методов.
🔹Оператор телефонной станции: конец эпохи шнуров
Операторы телефонных коммутаторов вручную соединяли абонентов, вставляя штекеры в гнёзда. В пик занятости, в 1929 году, только в AT&T работало более 161,000 операторов — преимущественно женщин. Это была одна из крупнейших женских профессий в США.
Автоматизация началась ещё в 1920-х с внедрением механических коммутаторов, но окончательное исчезновение профессии произошло к 1978 году. Последний ручной коммутатор в США был отключён в октябре 1983 года в городе Брайант-Понд, штат Мэн. Операторы старшего возраста (старше 25 лет) на 7 процентных пунктов реже находили новую работу после автоматизации — более половины из них вообще покинули рынок труда.
🔹 Человек-вычислитель: когда люди были компьютерами
До электронных компьютеров сложные математические расчёты выполняли «человеческие вычислители» (human computers) — люди, производившие вычисления вручную. Работа считалась монотонной и малопрестижной, её часто поручали женщинам. NASA использовала таких специалистов вплоть до 1970-х годов.
Сравнение с ENIAC (1948) оказалось показательным: электронный компьютер решал задачу за 9 часов, а команде людей требовалось 21 день. ENIAC выполнял 5,000 операций сложения в секунду — работу, эквивалентную 500 человеко-часам в неделю.
👉 Современный Raspberry Pi в 150 000 раз быстрее ENIAC. К 1970-м профессия полностью исчезла.
🔹 Наборщик: смерть от Macintosh
Типографские наборщики составляли текст из металлических литер или на фотонаборных машинах. В Северной Америке действовало около 4,000 типографских компаний. Работа требовала высокой квалификации и хорошо оплачивалась.
Революцию совершил desktop publishing в 1985 году: комбинация Macintosh, программы Aldus PageMaker и лазерного принтера Apple LaserWriter. Графические дизайнеры внезапно могли сами набирать и верстать текст. С 1985 по 1995 год количество типографий сократилось до считанных единиц. День, когда появился PageMaker, стал «днём смерти типографской индустрии».
‼️ Вывод
Компьютеризация 1980-х не просто изменила методы работы — она уничтожила целые профессии, на освоение которых люди тратили годы.
👉 Эти специальности объединяло одно: их работу можно было формализовать и автоматизировать. История показывает, что технологический прогресс неумолим к профессиям, основанным на повторяющихся алгоритмических действиях.
👍15❤13🥱3
Настраиваем политику паролей в Linux
Во многих дистрибутивах Linux (а более подробно мы будем говорить о Debian / Ubuntu) политика паролей по умолчанию не установлена, и никто не помешает нам установить слабый пароль, даже «123».
Это неправильно, поэтому мы сейчас займемся более гибкой настройкой политики паролей. Для этого сначала установим в систему необходимые пакеты:
После чего откроем файл /etc/security/pwquality.conf, который отвечает за политику паролей. Опции будут перечислены в порядке их перечисления в файле со значениями по умолчанию:
Количество символов, на которые новый пароль должен отличаться от старого.
Минимальная длина пароля
При составлении пароля учитываются классы символов, их четыре: прописные буквы, строчные буквы, цифры и специальные символы.
Мы можем поощрить использование определенных классов символов за счет более короткой длины пароля, для этого используется система кредитов. По умолчанию один любой символ – один кредит. Количество кредитов должно быть равно или превышать минимальную длину пароля.
Следующие опции позволяют начислять дополнительные кредиты за каждый класс символов:
Таким образом, если мы установим dcredit = 1, то пароль pass123 получит 10 кредитов, что будет эквивалентно его длине в 10 символов.
Если же мы установим количество кредитов меньше нуля, то это будет требованием минимального количества символов данного класса, например, ocredit = -2 – не менее двух специальных символов в пароле.
Для того, чтобы сочетать в пароле разные классы символов мы можем задать необходимое количество классов:
Так если мы установим его значение равным трем, то это будет значить, что в пароле требуется использовать не менее трех классов символов. Не забываем, что классов у нас всего четыре.
Для повышения сложности пароля можем задать максимально допустимое количество повторений одного символа:
Рядом есть другая опция, которая задает максимальное количество повторения символов одного класса:
Чтобы понять разницу между ними разберем простой пример, допустим, что оба параметра имеют значение, установленное в три.
В первом случае пароль АААА не пройдет, а пароль ABCD пройдет, так как символы разные. Во втором не пройдут оба, так как и там и там символы одного класса.
Учетная запись пользователя в Linux имеет специальное поле GECOS, которое может содержать его реальное имя, телефон, адрес почты и т.д. Мы можем проверить пароль на наличие в нем общедоступной информации:
При установке значения в единицу при нахождении в пароле данных GECOS он не будет пропущен.
Также мы можем осуществлять проверку по словарям cracklib (ставятся по зависимостям):
Следующая проверка исключает использование имени пользователя в пароле:
Но это грубая проверка, которая проверяет имя пользователя целиком, например, сочетание логина и пароля ivanov:ivan123 будет разрешено. Но мы можем ужесточить эту проверку, указав предельно допустимую длины подстроки имени пользователя:
Если установить его равным трем, то сочетание ivanov:ivan123 будет запрещено, равно как vano456, а iva123 будет пропущен.
Следующая опция устанавливает количество попыток ввода пароля:
Но есть одна тонкость, все эти правила не распространяются на пользователя root, чтобы изменить это поведение просто раскомментируйте опцию:
Как видим, настроить политику паролей в Linux не сложно, но это позволит значительно повысить безопасность системы и не допустить использования слабых или словарных паролей.
Во многих дистрибутивах Linux (а более подробно мы будем говорить о Debian / Ubuntu) политика паролей по умолчанию не установлена, и никто не помешает нам установить слабый пароль, даже «123».
Это неправильно, поэтому мы сейчас займемся более гибкой настройкой политики паролей. Для этого сначала установим в систему необходимые пакеты:
apt install libpam-pwquality
После чего откроем файл /etc/security/pwquality.conf, который отвечает за политику паролей. Опции будут перечислены в порядке их перечисления в файле со значениями по умолчанию:
Количество символов, на которые новый пароль должен отличаться от старого.
difok = 1
Минимальная длина пароля
minlen = 8
При составлении пароля учитываются классы символов, их четыре: прописные буквы, строчные буквы, цифры и специальные символы.
Мы можем поощрить использование определенных классов символов за счет более короткой длины пароля, для этого используется система кредитов. По умолчанию один любой символ – один кредит. Количество кредитов должно быть равно или превышать минимальную длину пароля.
Следующие опции позволяют начислять дополнительные кредиты за каждый класс символов:
dcredit = 0 – цифры
ucredit = 0 – прописные буквы
lcredit = 0 – строчные буквы
ocredit = 0 – специальные символы
Таким образом, если мы установим dcredit = 1, то пароль pass123 получит 10 кредитов, что будет эквивалентно его длине в 10 символов.
Если же мы установим количество кредитов меньше нуля, то это будет требованием минимального количества символов данного класса, например, ocredit = -2 – не менее двух специальных символов в пароле.
Для того, чтобы сочетать в пароле разные классы символов мы можем задать необходимое количество классов:
minclass = 0
Так если мы установим его значение равным трем, то это будет значить, что в пароле требуется использовать не менее трех классов символов. Не забываем, что классов у нас всего четыре.
Для повышения сложности пароля можем задать максимально допустимое количество повторений одного символа:
maxrepeat = 0
Рядом есть другая опция, которая задает максимальное количество повторения символов одного класса:
maxclassrepeat = 0
Чтобы понять разницу между ними разберем простой пример, допустим, что оба параметра имеют значение, установленное в три.
В первом случае пароль АААА не пройдет, а пароль ABCD пройдет, так как символы разные. Во втором не пройдут оба, так как и там и там символы одного класса.
Учетная запись пользователя в Linux имеет специальное поле GECOS, которое может содержать его реальное имя, телефон, адрес почты и т.д. Мы можем проверить пароль на наличие в нем общедоступной информации:
gecoscheck = 0
При установке значения в единицу при нахождении в пароле данных GECOS он не будет пропущен.
Также мы можем осуществлять проверку по словарям cracklib (ставятся по зависимостям):
dictcheck = 1
Следующая проверка исключает использование имени пользователя в пароле:
usercheck = 1
Но это грубая проверка, которая проверяет имя пользователя целиком, например, сочетание логина и пароля ivanov:ivan123 будет разрешено. Но мы можем ужесточить эту проверку, указав предельно допустимую длины подстроки имени пользователя:
usersubstr = 0
Если установить его равным трем, то сочетание ivanov:ivan123 будет запрещено, равно как vano456, а iva123 будет пропущен.
Следующая опция устанавливает количество попыток ввода пароля:
retry = 3
Но есть одна тонкость, все эти правила не распространяются на пользователя root, чтобы изменить это поведение просто раскомментируйте опцию:
enforce_for_root
Как видим, настроить политику паролей в Linux не сложно, но это позволит значительно повысить безопасность системы и не допустить использования слабых или словарных паролей.
👍29❤5🥱3
Ветер перемен: представляем новую систему выпуска релизов UserGate NGFW
В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.
Все подробности расскажем на вебинаре. В программе:
— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового
В завершении ответим на ваши вопросы.
Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.
Спикеры:
— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D
Когда: 27 ноября, четверг, 10:00 (МСК).
Увидимся в эфире!
Зарегистрироваться
В основе — лучшие практики международных вендоров, принятые в мировой ИТ/ИБ-индустрии.
Все подробности расскажем на вебинаре. В программе:
— Что побудило нас к изменениям
— Новая система релизов: FR, LTS, LTS (GD)
— Что ещё мы делаем для повышения стабильности
— Первый кандидат на LTS и что в нём нового
В завершении ответим на ваши вопросы.
Вебинар будет интересен как техническим специалистам, так и руководителям ИТ- и ИБ-департаментов.
Спикеры:
— Кирилл Прямов, менеджер по развитию NGFW
— Михаил Кадер, архитектор ИБ, R&D
Когда: 27 ноября, четверг, 10:00 (МСК).
Увидимся в эфире!
Зарегистрироваться
❤2👍2🤮2
Продление сертификата
В IT существуют и активно используются множество терминов, которые либо неверно отражают суть происходящих процессов, либо являются неудачным переводом зарубежных терминов.
Один из таких терминов – это широко используемое «продление» сертификата, которое вводит в ступор многих начинающих, которые изучив документацию к собственному CA не находят там такой функции.
И не найдут, потому что у сертификата нет такой функции – продлить. Почему нет? Да потому что не предусмотрена.
Что такое сертификат? Это еще один пример не лучшего использования термина, но из песни, как говорится, слов не выкинешь.
Говоря сертификат чаще всего, подразумевается ключевая пара: закрытый и открытый ключ. Сертификат – это открытый ключ плюс некоторая дополнительная информация о владельце, которые подписаны ключом CA, что позволяет убедиться в их подлинности.
Закрытый ключ является секретным, а сертификат – публичным. С его помощью наши контрагенты могут убедиться, что мы – это действительно те, за кого себя выдаем или проверить подлинность нашей электронной подписи, начать защищенный сеанс связи с нами и т.д. и т.п.
Поэтому важной частью сертификата является его владелец (юридическое или физическое лицо, доменное имя или сетевой узел), который указан в поле Common Name (CN).
В настоящий момент это поле считается устаревшим и для размещения данных о владельце сертификата используется поле Subject Alternative Name (SAN), которое может содержать сразу несколько значений. Это может быть как несколько доменных имен, так и доменные имена вместе с IP-адресами, что позволяет защищать объекты с разным набором доступных имен и разными вариантами обращений.
При этом поле Common Name продолжает поддерживаться для сохранения обратной совместимости и там принято указывать «основное» имя владельца.
Кроме владельца сертификат имеет срок действия. Причем это не срок действия самого сертификата, это срок действия ключевой пары.
Почему нельзя сделать сертификат бессрочным? Можно, но крайне нежелательно с точки зрения безопасности. Ключ может быть потерян, утрачен, скомпрометирован и т.д. и т.п. Причем владелец об этом может и не знать. Поэтому короткий срок действия ключа снижает такие риски.
А также повышает доверие к такому ключу, так как говорит о том, что CA довольно регулярно проверяет владельца этого ключа и доверяет ему.
Так как же продлить сертификат с закончившимся сроком действия? Никак. Он закончился и никакой волшебной силы, способной продлить срок его жизни, сохранив ему доверие, не существует.
Что нужно сделать? Выпустить новый сертификат (читай ключевую пару) для тех же самых значений CN и SAN. Таким образом сертификат будет новый, но владелец старый и все, кто доверял ему продолжат это делать.
Таким образом следует крепко запомнить – никакой операции «продления» сертификата не было, нет и никогда не будет. Можно только выпустить новый сертификат для прежнего владельца.
Так откуда же пошел этот странный термин? Наше мнение – из маркетинга. Когда клиенту, получившему коммерческий сертификат и обратившемуся повторно для его перевыпуска делали скидку.
Отсюда и придумали термин «продление», чтобы отличать от обычного «выпуска». А потом пошло-поехало. Вот такой вот маркетинг, бессмысленный и беспощадный.
В IT существуют и активно используются множество терминов, которые либо неверно отражают суть происходящих процессов, либо являются неудачным переводом зарубежных терминов.
Один из таких терминов – это широко используемое «продление» сертификата, которое вводит в ступор многих начинающих, которые изучив документацию к собственному CA не находят там такой функции.
И не найдут, потому что у сертификата нет такой функции – продлить. Почему нет? Да потому что не предусмотрена.
Что такое сертификат? Это еще один пример не лучшего использования термина, но из песни, как говорится, слов не выкинешь.
Говоря сертификат чаще всего, подразумевается ключевая пара: закрытый и открытый ключ. Сертификат – это открытый ключ плюс некоторая дополнительная информация о владельце, которые подписаны ключом CA, что позволяет убедиться в их подлинности.
Закрытый ключ является секретным, а сертификат – публичным. С его помощью наши контрагенты могут убедиться, что мы – это действительно те, за кого себя выдаем или проверить подлинность нашей электронной подписи, начать защищенный сеанс связи с нами и т.д. и т.п.
Поэтому важной частью сертификата является его владелец (юридическое или физическое лицо, доменное имя или сетевой узел), который указан в поле Common Name (CN).
В настоящий момент это поле считается устаревшим и для размещения данных о владельце сертификата используется поле Subject Alternative Name (SAN), которое может содержать сразу несколько значений. Это может быть как несколько доменных имен, так и доменные имена вместе с IP-адресами, что позволяет защищать объекты с разным набором доступных имен и разными вариантами обращений.
При этом поле Common Name продолжает поддерживаться для сохранения обратной совместимости и там принято указывать «основное» имя владельца.
Кроме владельца сертификат имеет срок действия. Причем это не срок действия самого сертификата, это срок действия ключевой пары.
Почему нельзя сделать сертификат бессрочным? Можно, но крайне нежелательно с точки зрения безопасности. Ключ может быть потерян, утрачен, скомпрометирован и т.д. и т.п. Причем владелец об этом может и не знать. Поэтому короткий срок действия ключа снижает такие риски.
А также повышает доверие к такому ключу, так как говорит о том, что CA довольно регулярно проверяет владельца этого ключа и доверяет ему.
Так как же продлить сертификат с закончившимся сроком действия? Никак. Он закончился и никакой волшебной силы, способной продлить срок его жизни, сохранив ему доверие, не существует.
Что нужно сделать? Выпустить новый сертификат (читай ключевую пару) для тех же самых значений CN и SAN. Таким образом сертификат будет новый, но владелец старый и все, кто доверял ему продолжат это делать.
Таким образом следует крепко запомнить – никакой операции «продления» сертификата не было, нет и никогда не будет. Можно только выпустить новый сертификат для прежнего владельца.
Так откуда же пошел этот странный термин? Наше мнение – из маркетинга. Когда клиенту, получившему коммерческий сертификат и обратившемуся повторно для его перевыпуска делали скидку.
Отсюда и придумали термин «продление», чтобы отличать от обычного «выпуска». А потом пошло-поехало. Вот такой вот маркетинг, бессмысленный и беспощадный.
👍29🔥8❤3😁3🥱2
И снова про отечественные сертификаты
Очередное осеннее обострение началось. С завидной регулярностью отдельные товарищи начинают разгонять очередную дичь про сертификаты Мицифры. Как пример - где автор слабо осознает, о чем пишет, но зато смело и обильно набрасывает на вентилятор.
Мол какое может быть доверие этим сертификатам и этому CA если… (там полный набор стандартных пугалок), в отличие от коммерческих западных CA, которые прозрачны, контролируемы, регулируемы и т.д. и т.п.
Сразу начнем с того, что все взаимодействия в инфраструктуре открытых ключей (PKI) строятся на основании отношений доверия и ключевые участники этого рынка такими отношениями сильно дорожат.
Но все ли так светло и радужно? Нет, достаточно вспомнить историю с WoSign и StartCom, которые творили лютую дичь, включая выпуск сертификатов задним числом и крайне слабые проверки действительного владельца домена.
За ним последовал Symantec, тоже не последний игрок на рынке, и, хотя его прегрешения были куда попроще, но это ему тоже не помогло.
Поэтому ни покровительство Минцифры, ни какие иные административные факторы не помогут отечественному CA удержать отношения доверия если он вдруг влипнет в какую-нибудь нехорошую историю.
И инициаторами вынесения вотума недоверия будет не общественность и не активисты, а крупные игроки этого рынка, пользующиеся его услугами, тот же Сбербанк.
Так что мы не видим никаких разумных предпосылок не доверять сертификатам Минцифры по различным надуманным причинам.
Но это была теория, а теперь перейдем к практике. Основная пугалка адептов секты свидетелей Товарища Майора гласит, что сразу после установки сертификата вы делаете весь свой трафик доступным тому самому Товарищу Майору.
Так ли это? Конечно же не так. Что делает удостоверяющий центр Минцифры выдавая сертификат тому же Сбербанку? Прежде всего он удостоверяется, что за сертификатом пришел именно Сбербанк и подписывает выданный сертификат своим закрытым ключом.
Теперь каждый у кого есть открытый ключ (сертификат) Минцифры может проверить подлинность этого сертификата и начать доверять ему, так как мы доверяем удостоверяющему центру, выдавшему сертификат.
Может ли теперь Минцифры расшифровать трафик, зашифрованный этим сертификатом? Нет! Сделать этот может только владелец закрытого ключа, т.е. Сбербанк. Для получения сертификата закрытый ключ удостоверяющему центру предоставлять не нужно.
Но в реальности все еще более интересно, открыв свойства защищенного соединения в браузере, например, для того же Сбербанка, мы увидим строку наподобие:
Это означает, что для формирования сеансового ключа, которым зашифрован канал связи используется алгоритм Диффи-Хеллмана, который позволяет формировать динамические ключи шифрования обоими сторонами без передачи их по каналам связи.
Сеансовые ключи являются одноразовыми и нигде не сохраняются. Это называется совершенная прямая секретность и не позволяет расшифровать записанный сеанс связи даже получив доступ к закрытому ключу владельца сертификата.
Говорить про возможный MitM тем более несерьезно, потому что такое решение должно приниматься на самом высоком уровне и для этого нужны крайне серьезные основания. Плюс не забываем о возможных негативных последствиях со стороны других крупных игроков рынка.
При том, что этот самый MitM давно уже существует на ПК многих и многих пользователей совершенно легально и с их ведома, но почему-то это никого не интересует и не создает такого ажиотажа.
Да, мы про антивирусное ПО, которое имеет функцию проверки трафика на лету, для чего устанавливает собственный доверенный сертификат и делает все тоже самое, в чем пытаются безосновательно обвинить Минцифры.
Хотя потенциальному Товарищу Майору гораздо проще пойти договориться с Касперским, чем мутить с нуля свой собственный MitM.
Поэтому – будьте благоразумны, удостоверяющий центр Минцифры ничем не отличается от любого другого удостоверяющего центра и использование его несет одинаковые с ними угрозы. При том, как мы видели выше, коммерческие УЦ тоже далеко не образцы для подражания.
Очередное осеннее обострение началось. С завидной регулярностью отдельные товарищи начинают разгонять очередную дичь про сертификаты Мицифры. Как пример - где автор слабо осознает, о чем пишет, но зато смело и обильно набрасывает на вентилятор.
Мол какое может быть доверие этим сертификатам и этому CA если… (там полный набор стандартных пугалок), в отличие от коммерческих западных CA, которые прозрачны, контролируемы, регулируемы и т.д. и т.п.
Сразу начнем с того, что все взаимодействия в инфраструктуре открытых ключей (PKI) строятся на основании отношений доверия и ключевые участники этого рынка такими отношениями сильно дорожат.
Но все ли так светло и радужно? Нет, достаточно вспомнить историю с WoSign и StartCom, которые творили лютую дичь, включая выпуск сертификатов задним числом и крайне слабые проверки действительного владельца домена.
За ним последовал Symantec, тоже не последний игрок на рынке, и, хотя его прегрешения были куда попроще, но это ему тоже не помогло.
Поэтому ни покровительство Минцифры, ни какие иные административные факторы не помогут отечественному CA удержать отношения доверия если он вдруг влипнет в какую-нибудь нехорошую историю.
И инициаторами вынесения вотума недоверия будет не общественность и не активисты, а крупные игроки этого рынка, пользующиеся его услугами, тот же Сбербанк.
Так что мы не видим никаких разумных предпосылок не доверять сертификатам Минцифры по различным надуманным причинам.
Но это была теория, а теперь перейдем к практике. Основная пугалка адептов секты свидетелей Товарища Майора гласит, что сразу после установки сертификата вы делаете весь свой трафик доступным тому самому Товарищу Майору.
Так ли это? Конечно же не так. Что делает удостоверяющий центр Минцифры выдавая сертификат тому же Сбербанку? Прежде всего он удостоверяется, что за сертификатом пришел именно Сбербанк и подписывает выданный сертификат своим закрытым ключом.
Теперь каждый у кого есть открытый ключ (сертификат) Минцифры может проверить подлинность этого сертификата и начать доверять ему, так как мы доверяем удостоверяющему центру, выдавшему сертификат.
Может ли теперь Минцифры расшифровать трафик, зашифрованный этим сертификатом? Нет! Сделать этот может только владелец закрытого ключа, т.е. Сбербанк. Для получения сертификата закрытый ключ удостоверяющему центру предоставлять не нужно.
Но в реальности все еще более интересно, открыв свойства защищенного соединения в браузере, например, для того же Сбербанка, мы увидим строку наподобие:
Key exchange ECDHE_RSA with P-256
Это означает, что для формирования сеансового ключа, которым зашифрован канал связи используется алгоритм Диффи-Хеллмана, который позволяет формировать динамические ключи шифрования обоими сторонами без передачи их по каналам связи.
Сеансовые ключи являются одноразовыми и нигде не сохраняются. Это называется совершенная прямая секретность и не позволяет расшифровать записанный сеанс связи даже получив доступ к закрытому ключу владельца сертификата.
Говорить про возможный MitM тем более несерьезно, потому что такое решение должно приниматься на самом высоком уровне и для этого нужны крайне серьезные основания. Плюс не забываем о возможных негативных последствиях со стороны других крупных игроков рынка.
При том, что этот самый MitM давно уже существует на ПК многих и многих пользователей совершенно легально и с их ведома, но почему-то это никого не интересует и не создает такого ажиотажа.
Да, мы про антивирусное ПО, которое имеет функцию проверки трафика на лету, для чего устанавливает собственный доверенный сертификат и делает все тоже самое, в чем пытаются безосновательно обвинить Минцифры.
Хотя потенциальному Товарищу Майору гораздо проще пойти договориться с Касперским, чем мутить с нуля свой собственный MitM.
Поэтому – будьте благоразумны, удостоверяющий центр Минцифры ничем не отличается от любого другого удостоверяющего центра и использование его несет одинаковые с ними угрозы. При том, как мы видели выше, коммерческие УЦ тоже далеко не образцы для подражания.
👍36🤡10💯4⚡3🤔2
Вебинар: Поддержка ИТ-инфраструктуры: где бизнес теряет деньги и как их сохранить
🗓 27 ноября в 12:00 поговорим о том, как компании могут сократить расходы на поддержку ИТ-инфраструктуры, избежать скрытых затрат и обеспечить стабильность работы оборудования без поддержки западных вендоров.
Разберём, как с помощью аудита, российских инструментов инвентаризации и новых моделей сервисной поддержки добиться предсказуемого бюджета и надёжности инфраструктуры.
Кому будет полезен вебинар?
✔️Руководителям ИТ (CIO, CTO)
✔️Финансовым директорам и менеджерам (CFO)
✔️Собственникам и топ-менеджерам
✔️Тем, кто отвечает за работу и поддержку ИТ-инфраструктуры
Спикеры:
🔹 Пётр Старков, руководитель продуктового отдела, ADV-T
🔹 Максим Белый, руководитель партнёрской сети ПО «Инферит ИТМен» (ГК Softline)
Пяти компаниям мы предоставим по 5 сервисных кредитов ADV-T,
чтобы протестировать наш сервисный продукт прямо на своей инфраструктуре. Все детали — на вебинаре.
Участие бесплатное — по предварительной регистрации
Зарегистрироваться 👈
#реклама
О рекламодателе
🗓 27 ноября в 12:00 поговорим о том, как компании могут сократить расходы на поддержку ИТ-инфраструктуры, избежать скрытых затрат и обеспечить стабильность работы оборудования без поддержки западных вендоров.
Разберём, как с помощью аудита, российских инструментов инвентаризации и новых моделей сервисной поддержки добиться предсказуемого бюджета и надёжности инфраструктуры.
Кому будет полезен вебинар?
✔️Руководителям ИТ (CIO, CTO)
✔️Финансовым директорам и менеджерам (CFO)
✔️Собственникам и топ-менеджерам
✔️Тем, кто отвечает за работу и поддержку ИТ-инфраструктуры
Спикеры:
🔹 Пётр Старков, руководитель продуктового отдела, ADV-T
🔹 Максим Белый, руководитель партнёрской сети ПО «Инферит ИТМен» (ГК Softline)
Пяти компаниям мы предоставим по 5 сервисных кредитов ADV-T,
чтобы протестировать наш сервисный продукт прямо на своей инфраструктуре. Все детали — на вебинаре.
Участие бесплатное — по предварительной регистрации
Зарегистрироваться 👈
#реклама
О рекламодателе
❤1
Как Certificate Transparency защищает пользователей и владельцев домена
Вся современная инфраструктура открытых ключей (PKI) стоится на доверии, это очень важный вопрос, потому что, выстраивая отношения доверия с удостоверяющим центром (CA) вы создаете область доверия, соглашаясь безусловно доверять всем его действиям.
На практике это заключается в установке корневого сертификата УЦ, после чего все подписанные им сертификаты также будут считаться доверенными. На практике все конечно немного сложнее, но общий принцип не меняется. Доверяя УЦ, мы доверяем всем выпущенным им сертификатам.
А что, если мы УЦ доверяем, но как бы не до конца, тем более что список корневых сертификатов основных удостоверяющих центров поставляется нам в составе системы. Тем более, что прецеденты уже были, когда удостоверяющие центры по ошибке или злонамеренно выпускали сертификаты без ведома владельца домена.
Такой сертификат позволяет, используя отношения доверия к выпустившему его УЦ совершить атаку человек посередине (MitM), т.е. перехватить, прочитать и/или изменить трафик к легальному ресурсу без ведома пользователя.
Чтобы избежать такого сценария и повысить уровень доверия, а также сделать более прозрачным процесс выдачи сертификатов была придумана и внедрена технология Certificate Transparency.
Certificate Transparency предполагает создание публичных CT-логов, в которых удостоверяющие центры регистрируют все выданные сертификаты. CT-логи построены на основе двоичных деревьев Меркла и допускают только добавление информации, изменить или удалить внесенную запись не получится.
Второй ключевой момент – СT-логи доступны для внешнего аудита и уже сегодня существуют независимые службы, которые занимаются их мониторингом. Это позволяет защитить владельца домена, которого такая служба будет своевременно уведомлять о действиях с его сертификатами.
Допустим, какой-то УЦ «по ошибке» выпустил сертификат без ведома владельца – настоящий владелец получит уведомление об этом и сможет своевременно начать разбирательство, а также уведомить контрагентов, что доверять такому-то сертификату не следует.
Но нас больше интересует каким образом Certificate Transparency защищает пользователей? При регистрации сертификата в CT-логе удостоверяющий центр получает специальную SCT-метку, которую включает в сертификат.
Современные браузеры проверяют не только отношения доверия к выпустившему сертификат УЦ, но и к наличию как минимум двух SCT-меток от разных CT-логов. Ряд браузеров имеет более строгие условия, так Google Chrome или Safari требуют, чтобы одним из CT-логов был лог Google или Apple.
Таким образом информация о любом сертификате добросовестного УЦ будет распространена по большому количеству CT-логов и будет доступна для внешнего аудита, что делает махинации с сертификатами быстро выявляемыми.
Кстати, УЦ Минцифры также поддерживает СТ-логи и выпускает сертификаты только с их поддержкой. С Минцифрой работают службы CT-логов самой Минцифры, Яндекса и ВК.
Может ли УЦ выпустить сертификат, не регистрируя его в CT-логах? Может, но браузеры тут-же пометят такой сертификат не доверенным. Для этого браузеру даже не нужно связываться со службами CT-логов, достаточно отсутствия SCT-меток.
Технически получить STC-метку не регистрируя сертификат в логе можно, для этого нужно знать алгоритм формирования метки и иметь доступ к закрытому ключу лога. И тот же УЦ может провернуть такой фокус со своим CT-логом. Но как быть с остальными?
Сговор? Тоже не поможет, CT-логи публичны и отсутствие там записи для метки будет достаточно быстро обнаружено, что сразу сделает лог недоверенным.
Таким образом Certificate Transparency предоставляет может и не идеальный, но достаточно эффективный инструмент контроля над добросовестностью участников отношений доверия и исходит из принципа – доверяй, но проверяй.
Теперь, даже имея доверительные отношения с УЦ вы можете проверить, что УЦ ведет деятельность прозрачно и регистрирует сертификаты в независимых CT-логах, а при желании можете спокойно ознакомиться с их содержимым.
Вся современная инфраструктура открытых ключей (PKI) стоится на доверии, это очень важный вопрос, потому что, выстраивая отношения доверия с удостоверяющим центром (CA) вы создаете область доверия, соглашаясь безусловно доверять всем его действиям.
На практике это заключается в установке корневого сертификата УЦ, после чего все подписанные им сертификаты также будут считаться доверенными. На практике все конечно немного сложнее, но общий принцип не меняется. Доверяя УЦ, мы доверяем всем выпущенным им сертификатам.
А что, если мы УЦ доверяем, но как бы не до конца, тем более что список корневых сертификатов основных удостоверяющих центров поставляется нам в составе системы. Тем более, что прецеденты уже были, когда удостоверяющие центры по ошибке или злонамеренно выпускали сертификаты без ведома владельца домена.
Такой сертификат позволяет, используя отношения доверия к выпустившему его УЦ совершить атаку человек посередине (MitM), т.е. перехватить, прочитать и/или изменить трафик к легальному ресурсу без ведома пользователя.
Чтобы избежать такого сценария и повысить уровень доверия, а также сделать более прозрачным процесс выдачи сертификатов была придумана и внедрена технология Certificate Transparency.
Certificate Transparency предполагает создание публичных CT-логов, в которых удостоверяющие центры регистрируют все выданные сертификаты. CT-логи построены на основе двоичных деревьев Меркла и допускают только добавление информации, изменить или удалить внесенную запись не получится.
Второй ключевой момент – СT-логи доступны для внешнего аудита и уже сегодня существуют независимые службы, которые занимаются их мониторингом. Это позволяет защитить владельца домена, которого такая служба будет своевременно уведомлять о действиях с его сертификатами.
Допустим, какой-то УЦ «по ошибке» выпустил сертификат без ведома владельца – настоящий владелец получит уведомление об этом и сможет своевременно начать разбирательство, а также уведомить контрагентов, что доверять такому-то сертификату не следует.
Но нас больше интересует каким образом Certificate Transparency защищает пользователей? При регистрации сертификата в CT-логе удостоверяющий центр получает специальную SCT-метку, которую включает в сертификат.
Современные браузеры проверяют не только отношения доверия к выпустившему сертификат УЦ, но и к наличию как минимум двух SCT-меток от разных CT-логов. Ряд браузеров имеет более строгие условия, так Google Chrome или Safari требуют, чтобы одним из CT-логов был лог Google или Apple.
Таким образом информация о любом сертификате добросовестного УЦ будет распространена по большому количеству CT-логов и будет доступна для внешнего аудита, что делает махинации с сертификатами быстро выявляемыми.
Кстати, УЦ Минцифры также поддерживает СТ-логи и выпускает сертификаты только с их поддержкой. С Минцифрой работают службы CT-логов самой Минцифры, Яндекса и ВК.
Может ли УЦ выпустить сертификат, не регистрируя его в CT-логах? Может, но браузеры тут-же пометят такой сертификат не доверенным. Для этого браузеру даже не нужно связываться со службами CT-логов, достаточно отсутствия SCT-меток.
Технически получить STC-метку не регистрируя сертификат в логе можно, для этого нужно знать алгоритм формирования метки и иметь доступ к закрытому ключу лога. И тот же УЦ может провернуть такой фокус со своим CT-логом. Но как быть с остальными?
Сговор? Тоже не поможет, CT-логи публичны и отсутствие там записи для метки будет достаточно быстро обнаружено, что сразу сделает лог недоверенным.
Таким образом Certificate Transparency предоставляет может и не идеальный, но достаточно эффективный инструмент контроля над добросовестностью участников отношений доверия и исходит из принципа – доверяй, но проверяй.
Теперь, даже имея доверительные отношения с УЦ вы можете проверить, что УЦ ведет деятельность прозрачно и регистрирует сертификаты в независимых CT-логах, а при желании можете спокойно ознакомиться с их содержимым.
👍24❤3🤡3🥱1
Серверный корпус 3U Procase EM306 ATX без бп
Корпус абсолютно новый, был куплен под один крупный проект лет 10 назад. Там он не подошел - не вошла по размеру материнская плата.
❗️ Важно! Корпус совместим с платами:
🔹 ATX (12"*9.6")
🔹MicroATX (9.6"*9.6")
🔹MiniITX (6.7"*6.7")
✅ https://procase.ru/em306/
В итоге был задвинут на дальнюю полку и забыт. Найден относительно недавно. Внешний вид на фото. В родной коробке, полный комплект.
👉 Отдаю в хорошие руки
💰 Начальная цена - 9 000 рублей (новый стоит в среднем 12 500 руб.)
Возможна оплата б/н с закрывающими документами, без НДС.
🚚 Отправка любой транспортной за счет получателя.
🤝 Разумный торг приветствуется!
Корпус абсолютно новый, был куплен под один крупный проект лет 10 назад. Там он не подошел - не вошла по размеру материнская плата.
❗️ Важно! Корпус совместим с платами:
🔹 ATX (12"*9.6")
🔹MicroATX (9.6"*9.6")
🔹MiniITX (6.7"*6.7")
✅ https://procase.ru/em306/
В итоге был задвинут на дальнюю полку и забыт. Найден относительно недавно. Внешний вид на фото. В родной коробке, полный комплект.
👉 Отдаю в хорошие руки
💰 Начальная цена - 9 000 рублей (новый стоит в среднем 12 500 руб.)
Возможна оплата б/н с закрывающими документами, без НДС.
🚚 Отправка любой транспортной за счет получателя.
🤝 Разумный торг приветствуется!
❤1
Не мышонок, не лягушка, а неведома зверушка
Как-то недавно, достаточно случайно набрел на датчики CO2 от Kitfort, невысокая цена в купе с прочими характеристиками заинтересовали. Но модель на проводе мне была не особо интересна, потому, как и так кругом в проводах, а вот аккумуляторная КТ-3345 – почему бы и нет.
Естественно, как серьезный измерительный прибор я этот девайс не рассматривал, но как первичную оценку качества воздуха, плюс термометр-гигрометр – почему бы и нет.
На первый взгляд – выглядит неплохо, плюс отечественный производитель и все такое.
Сказано – сделано, заказал. Привезли устройство утром, включил я его уже вечером и сильно удивился. Показания температуры и влажности были далеки от реальных. Ну влажность – ладно, лежал в закрытой коробке. Но температура? Он ведь часов десять пролежал в комнате.
А сравнить мне есть чем. В наличии датчики от Xiaomi, какие-то китайцы и механический термометр-гигрометр. Все примерно поют одну песню: температура плюс-минус градус, влажность плюс-минус 5-7%.
Данный девайс постоял с полчасика, и температура примерно приблизилась к правде, но все еще отставая градуса на полтора, а влажность он стабильно завышал на 10 - 15%. Ну как бы даже для домашнего «показометра» многовато.
Индикатор заряда как таковой отсутствует, если он светится белым – батарея заряжена, фиолетовым – заряжена не совсем. А сколько ее там осталось? Да пес ее знает…
Ладно, подключим зарядку. И что мы видим? Температура очень скоро превысила комнатную и устремилась к 30 градусам (это можно принять за константу во время заряда батареи), а влажность упала процентов на 10 ниже реальной.
Т.е. в корпусе явно во время заряда что-то греется и дополнительно сушит воздух. Неприятно.
Но оно бы и ничего, но как выяснилось – заряда батареи хватает на 6 - 10 часов, т.е. бывать на зарядке и греться, а следовательно, выдавать неточные показания он будет каждый день.
При низком заряде устройство отключается, и чтобы посмотреть показания его надо снова включить. И дождаться, пока оно придет в себя, ибо сразу по включению оно показывает погоду на Марсе.
Также у девайса есть звуковая сигнализация превышением уровня СО2 некоторого порогового показателя, по умолчанию 1000 ppm, а это, чтобы было понятно, спокойно надышит один человек за час-полтора при закрытых окнах в небольшом помещении.
В спальне два взрослых человека с микропроветриванием к утру наберут 1300-1500, а без него и 1700 спокойно будет. Причем особой беды от этого нет, утром встанут – проветрят.
А оно пищит на тысячу и звуковой сигнал отключить нельзя. Более того, при любом выключении устройство сбрасывает все свои настройки. Сбрасывает, Карл!
Хотя настроек там кот наплакал: три уровня яркости и порог срабатывания звукового сигнала.
В результате мы получаем игрушку: интересную, но бесполезную. Которая показывает что-то там, не способна отработать от одного заряда даже с утра до вечера и будет постоянно требовать вашего внимания, ну или пищать в самое неподходящее время.
Пришлось оформить возврат и отправить игрушку обратным адресом. Причем бралось это все не у перекупов, а в официальном магазине Kitfort на Яндекс Маркете.
Ну и осталось еще недоумение. Как же так? Ну вы что сами не видели того, что у вас получилось? Не пробовали день-два попользоваться? Оно же в целом непригодно к использованию.
И на Китай тоже кивать не надо, в Китае половина земного шарика что-то производит и производит вполне нормально, было бы желание.
А со следующего года нам обещают введения сбора на электронику. Для чего? Для поддержки подобных недоразумений?
Ну и производителю, если он это все-таки прочитает. Я очень лояльно отношусь к отечественному: хоть железу, хоть софту, прекрасно понимаю сложности и все такое прочее. Но выводить на рынок подобную дребедень? Это перебор.
Как-то недавно, достаточно случайно набрел на датчики CO2 от Kitfort, невысокая цена в купе с прочими характеристиками заинтересовали. Но модель на проводе мне была не особо интересна, потому, как и так кругом в проводах, а вот аккумуляторная КТ-3345 – почему бы и нет.
Естественно, как серьезный измерительный прибор я этот девайс не рассматривал, но как первичную оценку качества воздуха, плюс термометр-гигрометр – почему бы и нет.
На первый взгляд – выглядит неплохо, плюс отечественный производитель и все такое.
Сказано – сделано, заказал. Привезли устройство утром, включил я его уже вечером и сильно удивился. Показания температуры и влажности были далеки от реальных. Ну влажность – ладно, лежал в закрытой коробке. Но температура? Он ведь часов десять пролежал в комнате.
А сравнить мне есть чем. В наличии датчики от Xiaomi, какие-то китайцы и механический термометр-гигрометр. Все примерно поют одну песню: температура плюс-минус градус, влажность плюс-минус 5-7%.
Данный девайс постоял с полчасика, и температура примерно приблизилась к правде, но все еще отставая градуса на полтора, а влажность он стабильно завышал на 10 - 15%. Ну как бы даже для домашнего «показометра» многовато.
Индикатор заряда как таковой отсутствует, если он светится белым – батарея заряжена, фиолетовым – заряжена не совсем. А сколько ее там осталось? Да пес ее знает…
Ладно, подключим зарядку. И что мы видим? Температура очень скоро превысила комнатную и устремилась к 30 градусам (это можно принять за константу во время заряда батареи), а влажность упала процентов на 10 ниже реальной.
Т.е. в корпусе явно во время заряда что-то греется и дополнительно сушит воздух. Неприятно.
Но оно бы и ничего, но как выяснилось – заряда батареи хватает на 6 - 10 часов, т.е. бывать на зарядке и греться, а следовательно, выдавать неточные показания он будет каждый день.
При низком заряде устройство отключается, и чтобы посмотреть показания его надо снова включить. И дождаться, пока оно придет в себя, ибо сразу по включению оно показывает погоду на Марсе.
Также у девайса есть звуковая сигнализация превышением уровня СО2 некоторого порогового показателя, по умолчанию 1000 ppm, а это, чтобы было понятно, спокойно надышит один человек за час-полтора при закрытых окнах в небольшом помещении.
В спальне два взрослых человека с микропроветриванием к утру наберут 1300-1500, а без него и 1700 спокойно будет. Причем особой беды от этого нет, утром встанут – проветрят.
А оно пищит на тысячу и звуковой сигнал отключить нельзя. Более того, при любом выключении устройство сбрасывает все свои настройки. Сбрасывает, Карл!
Хотя настроек там кот наплакал: три уровня яркости и порог срабатывания звукового сигнала.
В результате мы получаем игрушку: интересную, но бесполезную. Которая показывает что-то там, не способна отработать от одного заряда даже с утра до вечера и будет постоянно требовать вашего внимания, ну или пищать в самое неподходящее время.
Пришлось оформить возврат и отправить игрушку обратным адресом. Причем бралось это все не у перекупов, а в официальном магазине Kitfort на Яндекс Маркете.
Ну и осталось еще недоумение. Как же так? Ну вы что сами не видели того, что у вас получилось? Не пробовали день-два попользоваться? Оно же в целом непригодно к использованию.
И на Китай тоже кивать не надо, в Китае половина земного шарика что-то производит и производит вполне нормально, было бы желание.
А со следующего года нам обещают введения сбора на электронику. Для чего? Для поддержки подобных недоразумений?
Ну и производителю, если он это все-таки прочитает. Я очень лояльно отношусь к отечественному: хоть железу, хоть софту, прекрасно понимаю сложности и все такое прочее. Но выводить на рынок подобную дребедень? Это перебор.
👍46😁7❤3🤮2⚡1
Их нравы
Проект GrapheneOS, разрабатывающий альтернативную свободную прошивку на базе Android, нацеленную на усиление безопасности и обеспечение конфиденциальности, столкнулся с угрозой преследования со стороны правоохранительных органов Франции из-за невозможности анализа содержимого смартфонов арестованных преступников.
Правоохранительные органы не смогли извлечь информацию со смартфона, захваченного при обыске предполагаемого руководителя преступной группировки, так как на его устройстве использовалась прошивка на базе GrapheneOS с функцией сброса расшифрованных разделов с пользовательскими данными в исходное нерасшифрованное состояние, а также с возможностью установить деструктивный PIN-код, удаляющий данные.
После чего во французской прессе появилась серия публикаций, которые приравнивают общедоступный открытый проект к компаниям, продающим закрытые продукты на базе кода GrapheneOS. Статьи пытаются создать негативное представление о проекте GrapheneOS, как инструменте, содействующем совершению преступлений, а также упоминают возможность конфискации серверов и ареста разработчиков, в случае отказа от сотрудничества.
Представители GrapheneOS считают, что приписывать их проекту оказание помощи преступникам также нелепо, как считать соучастниками преступлений производителей ножей. Тем более что в статьях под именем GrapheneOS преподносится не штатная сборка, а сторонняя коммерческая прошивка, созданная на базе кода проекта GrapheneOS.
В связи с этим решено покинуть Францию, отказаться от услуг французского провайдера OVH и переместить серверы в другую страну. Серверы, обеспечивающие работу платформ Mastodon, Discourse и Matrix, будут перемещены в Канаду, а сайт переведён к немецкому провайдеру Netcup.
У проекта больше не будет разработчиков, работающих во Франции, или посещающих конференции во Франции. При этом, несмотря на попытки очернить проект, использование платформы GrapheneOS остаётся легальной во Франции и сервисы GrapheneOS останутся доступны для французских пользователей.
✅ По материалам: https://www.opennet.ru/opennews/art.shtml?num=64317
Проект GrapheneOS, разрабатывающий альтернативную свободную прошивку на базе Android, нацеленную на усиление безопасности и обеспечение конфиденциальности, столкнулся с угрозой преследования со стороны правоохранительных органов Франции из-за невозможности анализа содержимого смартфонов арестованных преступников.
Правоохранительные органы не смогли извлечь информацию со смартфона, захваченного при обыске предполагаемого руководителя преступной группировки, так как на его устройстве использовалась прошивка на базе GrapheneOS с функцией сброса расшифрованных разделов с пользовательскими данными в исходное нерасшифрованное состояние, а также с возможностью установить деструктивный PIN-код, удаляющий данные.
После чего во французской прессе появилась серия публикаций, которые приравнивают общедоступный открытый проект к компаниям, продающим закрытые продукты на базе кода GrapheneOS. Статьи пытаются создать негативное представление о проекте GrapheneOS, как инструменте, содействующем совершению преступлений, а также упоминают возможность конфискации серверов и ареста разработчиков, в случае отказа от сотрудничества.
Представители GrapheneOS считают, что приписывать их проекту оказание помощи преступникам также нелепо, как считать соучастниками преступлений производителей ножей. Тем более что в статьях под именем GrapheneOS преподносится не штатная сборка, а сторонняя коммерческая прошивка, созданная на базе кода проекта GrapheneOS.
В связи с этим решено покинуть Францию, отказаться от услуг французского провайдера OVH и переместить серверы в другую страну. Серверы, обеспечивающие работу платформ Mastodon, Discourse и Matrix, будут перемещены в Канаду, а сайт переведён к немецкому провайдеру Netcup.
У проекта больше не будет разработчиков, работающих во Франции, или посещающих конференции во Франции. При этом, несмотря на попытки очернить проект, использование платформы GrapheneOS остаётся легальной во Франции и сервисы GrapheneOS останутся доступны для французских пользователей.
✅ По материалам: https://www.opennet.ru/opennews/art.shtml?num=64317
🔥21❤5🤔1
Приведет ли ИИ к деградации программирования и обесцениванию профессии программиста?
Продолжение, начало здесь: https://news.1rj.ru/str/interface31/5280
В прошлой заметке мы пришли к тому, что написание кода – это лишь часть работы программиста и далеко не самая важная.
Безусловно, работа программиста – это творческий и созидательный процесс и написание кода – это только лишь воплощение найденных программистом идей и решений. Равно как буквы и слова позволяют воплотить писателю свои идеи в текст. Но если писательского таланта нет, то сколько текста не напиши – получится унылая графомания.
Но в процессе создания программы каждый программист сталкивается с кучей вещей, безусловно важных и нужных, но совсем не творческих, а скучных и рутинных.
Так, если вы пишете на языке без строгой типизации – вам нужно обязательно делать проверку типов, чтобы вместо строки не оказалось число и наоборот. Затем вам нужно проверить ввод пользователя, все ли поля он правильно заполнил.
Потом надо проконтролировать результаты вычисления, особенно на предмет возможных пустых значений. А дальше предстоит тоже довольно скучный процесс вывода данных пользователю в удобной для него форме.
Тут и склонения «год, года, лет» и т.п., форматирование даты и времени, представление сумм и чисел. Да и вообще отработка взаимодействия пользователя с интерфейсом, видимость и доступность элементов и т.д. и т.п.
Такая работа является повторяющейся, монотонной, рутинной. А еще надо и обработкой исключений заняться, чтобы пользователь получал человекочитаемое сообщение об ошибке, а не китайскую грамоту в виде промежуточного результата вычислений.
В результате лодка творческого порыва очень быстро разбивается об рутину. Если это пет-проект, то очень часто на этом этапе он может быть заброшен. Да и опенсорса, который много лет выглядит как сырой прототип более чем достаточно. Ну не интересна автору рутина, у него творчество, а дальше вы сами, как хотите.
В коммерческой разработке для работы с рутиной нанимают начинающих (да и не только) специалистов невысокой квалификации, на которых вся эта рутина и спихивается. А также написание кода по заранее подготовленным техзаданиям.
Творчества там ровно ноль, надо лишь старательно делать то, что сказали старшие товарищи и желательно с минимальными отступлениями от задания.
Сегодня именно на эту область и нацелен ИИ, который хорошо знает языки, правила написания кода на этих языках, готов старательно обернуть все проверками, проверить и отформатировать вывод, прокомментировать и задокументировать код. Причем сделает это гораздо быстрее, чем человек.
Несет ли это какую-то угрозу программированию и программисту? Нет, ИИ не способен изобретать новое, это прерогатива человека, но теперь человек свободен от рутины, он можете переложить ее на ИИ-агента или ИИ-среду разработки.
Он может написать костяк кода сам, а ИИ уже будет накрашивать на него «мясо», либо вообще сосредоточиться именно на процессе разработки новых функций, оставив работу по написанию кода буквами ИИ-помощнику.
В любом случае читать, тестировать и принимать код будет человек и за ним останется последнее слово.
Можно ли навайбкодить что-нибудь, вообще не зная программирования и не обладая техническим бекграундом?
Почему нельзя? Можно, но это будет что-то простое, в рамках известных ИИ подходов и алгоритмов. Но это примерно, как электронные таблицы. Выполнить ряд вычислений, даже не самых простых смогут, но заменить специализированный софт не способны.
И нет ничего страшного, что обычные люди сами напишут себе считалки и решалки, к серьезным проектам это никакого отношения не имеет.
Также серьезно напрягутся джуны, особенно не те, кто только пришел в профессию и готов изучать, развиваться и расти как специалист, а те, которые давно пригрелись на одном месте и никуда с него двигаться не хотят. А таже разные «войти в айти» и прочие вкатывальшики.
Но основная часть специалистов от такого расклада только выиграет, переложив рутину на ИИ и оставив себе творческие, созидательные задачи.
Продолжение, начало здесь: https://news.1rj.ru/str/interface31/5280
В прошлой заметке мы пришли к тому, что написание кода – это лишь часть работы программиста и далеко не самая важная.
Безусловно, работа программиста – это творческий и созидательный процесс и написание кода – это только лишь воплощение найденных программистом идей и решений. Равно как буквы и слова позволяют воплотить писателю свои идеи в текст. Но если писательского таланта нет, то сколько текста не напиши – получится унылая графомания.
Но в процессе создания программы каждый программист сталкивается с кучей вещей, безусловно важных и нужных, но совсем не творческих, а скучных и рутинных.
Так, если вы пишете на языке без строгой типизации – вам нужно обязательно делать проверку типов, чтобы вместо строки не оказалось число и наоборот. Затем вам нужно проверить ввод пользователя, все ли поля он правильно заполнил.
Потом надо проконтролировать результаты вычисления, особенно на предмет возможных пустых значений. А дальше предстоит тоже довольно скучный процесс вывода данных пользователю в удобной для него форме.
Тут и склонения «год, года, лет» и т.п., форматирование даты и времени, представление сумм и чисел. Да и вообще отработка взаимодействия пользователя с интерфейсом, видимость и доступность элементов и т.д. и т.п.
Такая работа является повторяющейся, монотонной, рутинной. А еще надо и обработкой исключений заняться, чтобы пользователь получал человекочитаемое сообщение об ошибке, а не китайскую грамоту в виде промежуточного результата вычислений.
В результате лодка творческого порыва очень быстро разбивается об рутину. Если это пет-проект, то очень часто на этом этапе он может быть заброшен. Да и опенсорса, который много лет выглядит как сырой прототип более чем достаточно. Ну не интересна автору рутина, у него творчество, а дальше вы сами, как хотите.
В коммерческой разработке для работы с рутиной нанимают начинающих (да и не только) специалистов невысокой квалификации, на которых вся эта рутина и спихивается. А также написание кода по заранее подготовленным техзаданиям.
Творчества там ровно ноль, надо лишь старательно делать то, что сказали старшие товарищи и желательно с минимальными отступлениями от задания.
Сегодня именно на эту область и нацелен ИИ, который хорошо знает языки, правила написания кода на этих языках, готов старательно обернуть все проверками, проверить и отформатировать вывод, прокомментировать и задокументировать код. Причем сделает это гораздо быстрее, чем человек.
Несет ли это какую-то угрозу программированию и программисту? Нет, ИИ не способен изобретать новое, это прерогатива человека, но теперь человек свободен от рутины, он можете переложить ее на ИИ-агента или ИИ-среду разработки.
Он может написать костяк кода сам, а ИИ уже будет накрашивать на него «мясо», либо вообще сосредоточиться именно на процессе разработки новых функций, оставив работу по написанию кода буквами ИИ-помощнику.
В любом случае читать, тестировать и принимать код будет человек и за ним останется последнее слово.
Можно ли навайбкодить что-нибудь, вообще не зная программирования и не обладая техническим бекграундом?
Почему нельзя? Можно, но это будет что-то простое, в рамках известных ИИ подходов и алгоритмов. Но это примерно, как электронные таблицы. Выполнить ряд вычислений, даже не самых простых смогут, но заменить специализированный софт не способны.
И нет ничего страшного, что обычные люди сами напишут себе считалки и решалки, к серьезным проектам это никакого отношения не имеет.
Также серьезно напрягутся джуны, особенно не те, кто только пришел в профессию и готов изучать, развиваться и расти как специалист, а те, которые давно пригрелись на одном месте и никуда с него двигаться не хотят. А таже разные «войти в айти» и прочие вкатывальшики.
Но основная часть специалистов от такого расклада только выиграет, переложив рутину на ИИ и оставив себе творческие, созидательные задачи.
👍13❤5🤔2🤮2🤣1
Всегда свежие Sysinternals
Инструменты Sysinternals от Марка Руссиновича в представлении не нуждаются, появившись в 1996 году они уже практически 30 лет пользуются заслуженной популярностью у администраторов.
Несмотря на свой возраст инструменты активно обновляются и дополняются, поэтому вполне понятно желание иметь всегда свежую версию любимых утилит.
Это можно легко реализовать при помощи сервиса Sysinternals Live, просто введите в проводнике
После чего можете подключить данную директорию как сетевой диск или создать на нее ярлык.
Для запуска в командной строке можете использовать сетевой путь:
Нужная утилита автоматически будет скачана и запущена.
Инструменты Sysinternals от Марка Руссиновича в представлении не нуждаются, появившись в 1996 году они уже практически 30 лет пользуются заслуженной популярностью у администраторов.
Несмотря на свой возраст инструменты активно обновляются и дополняются, поэтому вполне понятно желание иметь всегда свежую версию любимых утилит.
Это можно легко реализовать при помощи сервиса Sysinternals Live, просто введите в проводнике
\\live.sysinternals.com\tools
После чего можете подключить данную директорию как сетевой диск или создать на нее ярлык.
Для запуска в командной строке можете использовать сетевой путь:
\\live.sysinternals.com\tools\<toolname>
Нужная утилита автоматически будет скачана и запущена.
👍36🔥8❤1🥱1
Всегда свежие Sysinternals, автоматизируем процесс
Днем мы рассказали о сервисе Sysinternals Live, позволяющем онлайн получить новейшие версии утилит из состава Sysinternals Suite.
Но реалии последних дней говорят о том, что можно остаться без доступа в сеть вообще в самый неподходящий момент или без доступа к некоторым ресурсам, в частности.
Скачивать руками каждый раз тоже не сильно хочется, так почему бы не автоматизировать эту задачу? Мы написали простой скрипт на PowerShell, который при запуске соединяется с сервисом Sysinternals Live и синхронизирует его содержимое с локальной папкой tools в директории запуска скрипта.
В комплекте вместе со скриптом
Но нам более интересно его выполнение по расписанию, для этого создадим в Планировщике новое задание, допустим с именем Синхронизация Sysinternals Tools.
Выбираем условия запуска:
▫️ Выполнять только для зарегистрированного пользователя
▫️ Выполнять вне зависимости от регистрации пользователя
Во втором случае скрипт будет запущен даже если пользователь не вошел в систему.
Далее указываем желаемое расписание, скажем каждый день в 2 часа ночи и на вкладке Действия указываем:
▫️ Действие: Запустить программу
▫️Программа или сценарий:
▫️Аргументы:
▫️Рабочая папка:
Сохраняем задание, размещаем по указанному пути (в нашем примере C:\ADM) файл скрипта и запускаем задание вручную. Если вы все сделали правильно – начнется синхронизация.
Быстро выполнить все тоже самое можно командой:
Далее можете удалить какой-нибудь файл из папки или заменить его более старой версией и запустить синхронизацию повторно. Скачаются только недостающие файлы.
Файлы можно скачать в комментариях 👇👇👇
Днем мы рассказали о сервисе Sysinternals Live, позволяющем онлайн получить новейшие версии утилит из состава Sysinternals Suite.
Но реалии последних дней говорят о том, что можно остаться без доступа в сеть вообще в самый неподходящий момент или без доступа к некоторым ресурсам, в частности.
Скачивать руками каждый раз тоже не сильно хочется, так почему бы не автоматизировать эту задачу? Мы написали простой скрипт на PowerShell, который при запуске соединяется с сервисом Sysinternals Live и синхронизирует его содержимое с локальной папкой tools в директории запуска скрипта.
В комплекте вместе со скриптом
Sync-Sysinternals.ps1 идет пакетный файл run-sync.bat, который позволяет быстро запустить скрипт вручную.Но нам более интересно его выполнение по расписанию, для этого создадим в Планировщике новое задание, допустим с именем Синхронизация Sysinternals Tools.
Выбираем условия запуска:
▫️ Выполнять только для зарегистрированного пользователя
▫️ Выполнять вне зависимости от регистрации пользователя
Во втором случае скрипт будет запущен даже если пользователь не вошел в систему.
Далее указываем желаемое расписание, скажем каждый день в 2 часа ночи и на вкладке Действия указываем:
▫️ Действие: Запустить программу
▫️Программа или сценарий:
powershell.exe▫️Аргументы:
-ExecutionPolicy Bypass -File "F:\VIBE\sysinternals_live\Sync-Sysinternals.ps1"▫️Рабочая папка:
C:\ADMСохраняем задание, размещаем по указанному пути (в нашем примере C:\ADM) файл скрипта и запускаем задание вручную. Если вы все сделали правильно – начнется синхронизация.
Быстро выполнить все тоже самое можно командой:
schtasks /create /tn "Sync-Sysinternals" /tr "powershell.exe -ExecutionPolicy Bypass -File \""C:\ADM\Sync-Sysinternals.ps1\"" /sc DAILY /st 02:00 /ru "%USERDOMAIN%\%USERNAME%" /f /rl HIGHEST
Далее можете удалить какой-нибудь файл из папки или заменить его более старой версией и запустить синхронизацию повторно. Скачаются только недостающие файлы.
Файлы можно скачать в комментариях 👇👇👇
1👍27❤4🤮3👌2🤔1
📌 Приглашаем на вебинар
«Дефицит ресурсов — не повод для хаоса: как выстроить техподдержку 220 торговых точек всего за 6 недель»
🗓 4 декабря, 11:00
Будет полезно, если:
— Сервис перегружен и нужно наладить его работу с минимумом затрат
— Требуется расширить набор функций и метрик без долгих и дорогих доработок service desk
↓ ↓ ↓
На примере реального кейса спикеры ITSM 365 и SMARTER расскажут:
— Как за 6 недель перевести сотни торговых точек с почты и Excel в сервис деск
— Как объединить команды торговой сети, подрядчиков и вендоров в одной системе
— Как создать в service desk структуру обслуживания, связав заявки с оборудованием, складами и поставщиками
— Витрина услуг, кастомизация заявок, согласование и оценка работ, настройка отчетов и дашбордов — какие функции гарантированно разгрузят ваш сервис.
Регистрируйтесь по ссылке 🔗
#реклама
О рекламодателе
«Дефицит ресурсов — не повод для хаоса: как выстроить техподдержку 220 торговых точек всего за 6 недель»
🗓 4 декабря, 11:00
Будет полезно, если:
— Сервис перегружен и нужно наладить его работу с минимумом затрат
— Требуется расширить набор функций и метрик без долгих и дорогих доработок service desk
↓ ↓ ↓
На примере реального кейса спикеры ITSM 365 и SMARTER расскажут:
— Как за 6 недель перевести сотни торговых точек с почты и Excel в сервис деск
— Как объединить команды торговой сети, подрядчиков и вендоров в одной системе
— Как создать в service desk структуру обслуживания, связав заявки с оборудованием, складами и поставщиками
— Витрина услуг, кастомизация заявок, согласование и оценка работ, настройка отчетов и дашбордов — какие функции гарантированно разгрузят ваш сервис.
Регистрируйтесь по ссылке 🔗
#реклама
О рекламодателе
❤2🤮1👌1👀1
1С в контейнерах. Практическое руководство – 1
Последнее время нас много спрашивают о том, как поднять сервер 1С:Предприятия в LXC контейнерах. Поэтому мы решили более подробно разобраться в этом вопросе.
Прежде всего – почему именно LXC, а не виртуальные машины? Дело в том, что LXC, как и любой другой контейнер, не использует технологию виртуализации – т.е. эмуляции некоторой аппаратной платформы, отличной от платформы хоста.
Любое запущенное в контейнере приложение запускается как процесс хоста, а контейнер обеспечивает только изоляцию запущенных процессов и выделение ресурсов согласно установленным лимитам.
Стоп, скажет иной читатель, а как быть с «операционной системой» в контейнере? На самом деле это не полноценная операционная система, а просто набор библиотек, предоставляющий приложению требуемое окружение.
Таким образом у нас практически отсутствуют накладные расходы на контейнеризацию, плюс добавляются некоторые приятные плюсы, скажем виртуальная сеть между контейнерами в пределах хоста работает на скорости оперативной памяти.
При контейнеризации мы будем исходить из соображений: одна служба – один контейнер. Таким образом у нас напрашивается минимум три контейнера: Сервер 1С:Предприятие, PostgreSQL и веб-сервер.
Для PostgreSQL хорошей практикой является выделение отдельного инстанса на каждую базу. Но даже если это невозможно, то постарайтесь разнести по разным контейнерам базы с разными прикладными решениями, а также рабочие, архивные и тестовые базы.
Веб-сервера тоже стоит разделять, как минимум на обслуживающие клиентские подключения и веб-сервисы.
С этим разобрались. Теперь перейдем к распространенным ошибкам. Не следует выбирать для 1С контейнеры с неподдерживаемой системой внутри. Это ничего вам не даст, кроме лишней головной боли.
Скажем, сервер 1С в контейнере с Debian 13 не будет работать лучше, чем с Debian 12, а вот головной боли добавить может и это будет именно ваша головная боль, потому что платформа не поддерживается. У вас даже багрепорт не примут, по этой самой причине.
Но основной смысл перехода от монолита к контейнерам – это, конечно же, гибкое управление ресурсами. Оно же становится основной сложностью для начинающих. Начнем с процессора.
Платформа 1С:Предприятие уровня ПРОФ ограничена по лицензионным соображениям 12 процессорными ядрами (не важно физическими или виртуальными). Таким образом любой современный процессор предоставляет нам ядер больше, чем требуется для 1С.
Поэтому обязательно привязываем сервер 1С к любым 12 выделенным ядрам, если этого не сделать, то при перезапуске контейнер получит другие ядра, пусть и в том же количестве, что с точки зрения системы лицензирования 1С будет рассматриваться как замена процессора и может привести к слету лицензии.
После чего также явно привязываем ядра к остальным контейнерам. Если этого не сделать, то может оказаться так, что какие-то ядра загружены, а какие-то простаивают. Также для процессоров Intel последних поколений критически важно для производительности выполнить привязку контейнера сервера 1С к продуктивным, а не энергоэффективным ядрам.
При этом не забывайте про базовые настройки железа, рекомендованные для серверов 1С. В частности, это включение Turbo-bust на все ядра, отключение режимов энергосбережения процессора C-State (выключаем или выбираем C0), а также отключаем управление питанием и частотой процессора P-states (выбираем наиболее производительный режим P0).
В разных BIOS и на разных материнских платах это называется по-разному, но общий смысл такой – процессор должен работать только на номинальной частое и выше, технологии энергосбережения отключены.
Игнорирование данной настройки может приводить к серьезным просадкам производительности сервера 1С:Предприятия и являются очень частой ошибкой конфигурирования.
Последнее время нас много спрашивают о том, как поднять сервер 1С:Предприятия в LXC контейнерах. Поэтому мы решили более подробно разобраться в этом вопросе.
Прежде всего – почему именно LXC, а не виртуальные машины? Дело в том, что LXC, как и любой другой контейнер, не использует технологию виртуализации – т.е. эмуляции некоторой аппаратной платформы, отличной от платформы хоста.
Любое запущенное в контейнере приложение запускается как процесс хоста, а контейнер обеспечивает только изоляцию запущенных процессов и выделение ресурсов согласно установленным лимитам.
Стоп, скажет иной читатель, а как быть с «операционной системой» в контейнере? На самом деле это не полноценная операционная система, а просто набор библиотек, предоставляющий приложению требуемое окружение.
Таким образом у нас практически отсутствуют накладные расходы на контейнеризацию, плюс добавляются некоторые приятные плюсы, скажем виртуальная сеть между контейнерами в пределах хоста работает на скорости оперативной памяти.
При контейнеризации мы будем исходить из соображений: одна служба – один контейнер. Таким образом у нас напрашивается минимум три контейнера: Сервер 1С:Предприятие, PostgreSQL и веб-сервер.
Для PostgreSQL хорошей практикой является выделение отдельного инстанса на каждую базу. Но даже если это невозможно, то постарайтесь разнести по разным контейнерам базы с разными прикладными решениями, а также рабочие, архивные и тестовые базы.
Веб-сервера тоже стоит разделять, как минимум на обслуживающие клиентские подключения и веб-сервисы.
С этим разобрались. Теперь перейдем к распространенным ошибкам. Не следует выбирать для 1С контейнеры с неподдерживаемой системой внутри. Это ничего вам не даст, кроме лишней головной боли.
Скажем, сервер 1С в контейнере с Debian 13 не будет работать лучше, чем с Debian 12, а вот головной боли добавить может и это будет именно ваша головная боль, потому что платформа не поддерживается. У вас даже багрепорт не примут, по этой самой причине.
Но основной смысл перехода от монолита к контейнерам – это, конечно же, гибкое управление ресурсами. Оно же становится основной сложностью для начинающих. Начнем с процессора.
Платформа 1С:Предприятие уровня ПРОФ ограничена по лицензионным соображениям 12 процессорными ядрами (не важно физическими или виртуальными). Таким образом любой современный процессор предоставляет нам ядер больше, чем требуется для 1С.
Поэтому обязательно привязываем сервер 1С к любым 12 выделенным ядрам, если этого не сделать, то при перезапуске контейнер получит другие ядра, пусть и в том же количестве, что с точки зрения системы лицензирования 1С будет рассматриваться как замена процессора и может привести к слету лицензии.
После чего также явно привязываем ядра к остальным контейнерам. Если этого не сделать, то может оказаться так, что какие-то ядра загружены, а какие-то простаивают. Также для процессоров Intel последних поколений критически важно для производительности выполнить привязку контейнера сервера 1С к продуктивным, а не энергоэффективным ядрам.
При этом не забывайте про базовые настройки железа, рекомендованные для серверов 1С. В частности, это включение Turbo-bust на все ядра, отключение режимов энергосбережения процессора C-State (выключаем или выбираем C0), а также отключаем управление питанием и частотой процессора P-states (выбираем наиболее производительный режим P0).
В разных BIOS и на разных материнских платах это называется по-разному, но общий смысл такой – процессор должен работать только на номинальной частое и выше, технологии энергосбережения отключены.
Игнорирование данной настройки может приводить к серьезным просадкам производительности сервера 1С:Предприятия и являются очень частой ошибкой конфигурирования.
1👍43❤2🤝2👌1