Не мышонок, не лягушка, а неведома зверушка
Как-то недавно, достаточно случайно набрел на датчики CO2 от Kitfort, невысокая цена в купе с прочими характеристиками заинтересовали. Но модель на проводе мне была не особо интересна, потому, как и так кругом в проводах, а вот аккумуляторная КТ-3345 – почему бы и нет.
Естественно, как серьезный измерительный прибор я этот девайс не рассматривал, но как первичную оценку качества воздуха, плюс термометр-гигрометр – почему бы и нет.
На первый взгляд – выглядит неплохо, плюс отечественный производитель и все такое.
Сказано – сделано, заказал. Привезли устройство утром, включил я его уже вечером и сильно удивился. Показания температуры и влажности были далеки от реальных. Ну влажность – ладно, лежал в закрытой коробке. Но температура? Он ведь часов десять пролежал в комнате.
А сравнить мне есть чем. В наличии датчики от Xiaomi, какие-то китайцы и механический термометр-гигрометр. Все примерно поют одну песню: температура плюс-минус градус, влажность плюс-минус 5-7%.
Данный девайс постоял с полчасика, и температура примерно приблизилась к правде, но все еще отставая градуса на полтора, а влажность он стабильно завышал на 10 - 15%. Ну как бы даже для домашнего «показометра» многовато.
Индикатор заряда как таковой отсутствует, если он светится белым – батарея заряжена, фиолетовым – заряжена не совсем. А сколько ее там осталось? Да пес ее знает…
Ладно, подключим зарядку. И что мы видим? Температура очень скоро превысила комнатную и устремилась к 30 градусам (это можно принять за константу во время заряда батареи), а влажность упала процентов на 10 ниже реальной.
Т.е. в корпусе явно во время заряда что-то греется и дополнительно сушит воздух. Неприятно.
Но оно бы и ничего, но как выяснилось – заряда батареи хватает на 6 - 10 часов, т.е. бывать на зарядке и греться, а следовательно, выдавать неточные показания он будет каждый день.
При низком заряде устройство отключается, и чтобы посмотреть показания его надо снова включить. И дождаться, пока оно придет в себя, ибо сразу по включению оно показывает погоду на Марсе.
Также у девайса есть звуковая сигнализация превышением уровня СО2 некоторого порогового показателя, по умолчанию 1000 ppm, а это, чтобы было понятно, спокойно надышит один человек за час-полтора при закрытых окнах в небольшом помещении.
В спальне два взрослых человека с микропроветриванием к утру наберут 1300-1500, а без него и 1700 спокойно будет. Причем особой беды от этого нет, утром встанут – проветрят.
А оно пищит на тысячу и звуковой сигнал отключить нельзя. Более того, при любом выключении устройство сбрасывает все свои настройки. Сбрасывает, Карл!
Хотя настроек там кот наплакал: три уровня яркости и порог срабатывания звукового сигнала.
В результате мы получаем игрушку: интересную, но бесполезную. Которая показывает что-то там, не способна отработать от одного заряда даже с утра до вечера и будет постоянно требовать вашего внимания, ну или пищать в самое неподходящее время.
Пришлось оформить возврат и отправить игрушку обратным адресом. Причем бралось это все не у перекупов, а в официальном магазине Kitfort на Яндекс Маркете.
Ну и осталось еще недоумение. Как же так? Ну вы что сами не видели того, что у вас получилось? Не пробовали день-два попользоваться? Оно же в целом непригодно к использованию.
И на Китай тоже кивать не надо, в Китае половина земного шарика что-то производит и производит вполне нормально, было бы желание.
А со следующего года нам обещают введения сбора на электронику. Для чего? Для поддержки подобных недоразумений?
Ну и производителю, если он это все-таки прочитает. Я очень лояльно отношусь к отечественному: хоть железу, хоть софту, прекрасно понимаю сложности и все такое прочее. Но выводить на рынок подобную дребедень? Это перебор.
Как-то недавно, достаточно случайно набрел на датчики CO2 от Kitfort, невысокая цена в купе с прочими характеристиками заинтересовали. Но модель на проводе мне была не особо интересна, потому, как и так кругом в проводах, а вот аккумуляторная КТ-3345 – почему бы и нет.
Естественно, как серьезный измерительный прибор я этот девайс не рассматривал, но как первичную оценку качества воздуха, плюс термометр-гигрометр – почему бы и нет.
На первый взгляд – выглядит неплохо, плюс отечественный производитель и все такое.
Сказано – сделано, заказал. Привезли устройство утром, включил я его уже вечером и сильно удивился. Показания температуры и влажности были далеки от реальных. Ну влажность – ладно, лежал в закрытой коробке. Но температура? Он ведь часов десять пролежал в комнате.
А сравнить мне есть чем. В наличии датчики от Xiaomi, какие-то китайцы и механический термометр-гигрометр. Все примерно поют одну песню: температура плюс-минус градус, влажность плюс-минус 5-7%.
Данный девайс постоял с полчасика, и температура примерно приблизилась к правде, но все еще отставая градуса на полтора, а влажность он стабильно завышал на 10 - 15%. Ну как бы даже для домашнего «показометра» многовато.
Индикатор заряда как таковой отсутствует, если он светится белым – батарея заряжена, фиолетовым – заряжена не совсем. А сколько ее там осталось? Да пес ее знает…
Ладно, подключим зарядку. И что мы видим? Температура очень скоро превысила комнатную и устремилась к 30 градусам (это можно принять за константу во время заряда батареи), а влажность упала процентов на 10 ниже реальной.
Т.е. в корпусе явно во время заряда что-то греется и дополнительно сушит воздух. Неприятно.
Но оно бы и ничего, но как выяснилось – заряда батареи хватает на 6 - 10 часов, т.е. бывать на зарядке и греться, а следовательно, выдавать неточные показания он будет каждый день.
При низком заряде устройство отключается, и чтобы посмотреть показания его надо снова включить. И дождаться, пока оно придет в себя, ибо сразу по включению оно показывает погоду на Марсе.
Также у девайса есть звуковая сигнализация превышением уровня СО2 некоторого порогового показателя, по умолчанию 1000 ppm, а это, чтобы было понятно, спокойно надышит один человек за час-полтора при закрытых окнах в небольшом помещении.
В спальне два взрослых человека с микропроветриванием к утру наберут 1300-1500, а без него и 1700 спокойно будет. Причем особой беды от этого нет, утром встанут – проветрят.
А оно пищит на тысячу и звуковой сигнал отключить нельзя. Более того, при любом выключении устройство сбрасывает все свои настройки. Сбрасывает, Карл!
Хотя настроек там кот наплакал: три уровня яркости и порог срабатывания звукового сигнала.
В результате мы получаем игрушку: интересную, но бесполезную. Которая показывает что-то там, не способна отработать от одного заряда даже с утра до вечера и будет постоянно требовать вашего внимания, ну или пищать в самое неподходящее время.
Пришлось оформить возврат и отправить игрушку обратным адресом. Причем бралось это все не у перекупов, а в официальном магазине Kitfort на Яндекс Маркете.
Ну и осталось еще недоумение. Как же так? Ну вы что сами не видели того, что у вас получилось? Не пробовали день-два попользоваться? Оно же в целом непригодно к использованию.
И на Китай тоже кивать не надо, в Китае половина земного шарика что-то производит и производит вполне нормально, было бы желание.
А со следующего года нам обещают введения сбора на электронику. Для чего? Для поддержки подобных недоразумений?
Ну и производителю, если он это все-таки прочитает. Я очень лояльно отношусь к отечественному: хоть железу, хоть софту, прекрасно понимаю сложности и все такое прочее. Но выводить на рынок подобную дребедень? Это перебор.
👍45😁7❤3🤮2⚡1
Их нравы
Проект GrapheneOS, разрабатывающий альтернативную свободную прошивку на базе Android, нацеленную на усиление безопасности и обеспечение конфиденциальности, столкнулся с угрозой преследования со стороны правоохранительных органов Франции из-за невозможности анализа содержимого смартфонов арестованных преступников.
Правоохранительные органы не смогли извлечь информацию со смартфона, захваченного при обыске предполагаемого руководителя преступной группировки, так как на его устройстве использовалась прошивка на базе GrapheneOS с функцией сброса расшифрованных разделов с пользовательскими данными в исходное нерасшифрованное состояние, а также с возможностью установить деструктивный PIN-код, удаляющий данные.
После чего во французской прессе появилась серия публикаций, которые приравнивают общедоступный открытый проект к компаниям, продающим закрытые продукты на базе кода GrapheneOS. Статьи пытаются создать негативное представление о проекте GrapheneOS, как инструменте, содействующем совершению преступлений, а также упоминают возможность конфискации серверов и ареста разработчиков, в случае отказа от сотрудничества.
Представители GrapheneOS считают, что приписывать их проекту оказание помощи преступникам также нелепо, как считать соучастниками преступлений производителей ножей. Тем более что в статьях под именем GrapheneOS преподносится не штатная сборка, а сторонняя коммерческая прошивка, созданная на базе кода проекта GrapheneOS.
В связи с этим решено покинуть Францию, отказаться от услуг французского провайдера OVH и переместить серверы в другую страну. Серверы, обеспечивающие работу платформ Mastodon, Discourse и Matrix, будут перемещены в Канаду, а сайт переведён к немецкому провайдеру Netcup.
У проекта больше не будет разработчиков, работающих во Франции, или посещающих конференции во Франции. При этом, несмотря на попытки очернить проект, использование платформы GrapheneOS остаётся легальной во Франции и сервисы GrapheneOS останутся доступны для французских пользователей.
✅ По материалам: https://www.opennet.ru/opennews/art.shtml?num=64317
Проект GrapheneOS, разрабатывающий альтернативную свободную прошивку на базе Android, нацеленную на усиление безопасности и обеспечение конфиденциальности, столкнулся с угрозой преследования со стороны правоохранительных органов Франции из-за невозможности анализа содержимого смартфонов арестованных преступников.
Правоохранительные органы не смогли извлечь информацию со смартфона, захваченного при обыске предполагаемого руководителя преступной группировки, так как на его устройстве использовалась прошивка на базе GrapheneOS с функцией сброса расшифрованных разделов с пользовательскими данными в исходное нерасшифрованное состояние, а также с возможностью установить деструктивный PIN-код, удаляющий данные.
После чего во французской прессе появилась серия публикаций, которые приравнивают общедоступный открытый проект к компаниям, продающим закрытые продукты на базе кода GrapheneOS. Статьи пытаются создать негативное представление о проекте GrapheneOS, как инструменте, содействующем совершению преступлений, а также упоминают возможность конфискации серверов и ареста разработчиков, в случае отказа от сотрудничества.
Представители GrapheneOS считают, что приписывать их проекту оказание помощи преступникам также нелепо, как считать соучастниками преступлений производителей ножей. Тем более что в статьях под именем GrapheneOS преподносится не штатная сборка, а сторонняя коммерческая прошивка, созданная на базе кода проекта GrapheneOS.
В связи с этим решено покинуть Францию, отказаться от услуг французского провайдера OVH и переместить серверы в другую страну. Серверы, обеспечивающие работу платформ Mastodon, Discourse и Matrix, будут перемещены в Канаду, а сайт переведён к немецкому провайдеру Netcup.
У проекта больше не будет разработчиков, работающих во Франции, или посещающих конференции во Франции. При этом, несмотря на попытки очернить проект, использование платформы GrapheneOS остаётся легальной во Франции и сервисы GrapheneOS останутся доступны для французских пользователей.
✅ По материалам: https://www.opennet.ru/opennews/art.shtml?num=64317
🔥21❤4🤔1
Приведет ли ИИ к деградации программирования и обесцениванию профессии программиста?
Продолжение, начало здесь: https://news.1rj.ru/str/interface31/5280
В прошлой заметке мы пришли к тому, что написание кода – это лишь часть работы программиста и далеко не самая важная.
Безусловно, работа программиста – это творческий и созидательный процесс и написание кода – это только лишь воплощение найденных программистом идей и решений. Равно как буквы и слова позволяют воплотить писателю свои идеи в текст. Но если писательского таланта нет, то сколько текста не напиши – получится унылая графомания.
Но в процессе создания программы каждый программист сталкивается с кучей вещей, безусловно важных и нужных, но совсем не творческих, а скучных и рутинных.
Так, если вы пишете на языке без строгой типизации – вам нужно обязательно делать проверку типов, чтобы вместо строки не оказалось число и наоборот. Затем вам нужно проверить ввод пользователя, все ли поля он правильно заполнил.
Потом надо проконтролировать результаты вычисления, особенно на предмет возможных пустых значений. А дальше предстоит тоже довольно скучный процесс вывода данных пользователю в удобной для него форме.
Тут и склонения «год, года, лет» и т.п., форматирование даты и времени, представление сумм и чисел. Да и вообще отработка взаимодействия пользователя с интерфейсом, видимость и доступность элементов и т.д. и т.п.
Такая работа является повторяющейся, монотонной, рутинной. А еще надо и обработкой исключений заняться, чтобы пользователь получал человекочитаемое сообщение об ошибке, а не китайскую грамоту в виде промежуточного результата вычислений.
В результате лодка творческого порыва очень быстро разбивается об рутину. Если это пет-проект, то очень часто на этом этапе он может быть заброшен. Да и опенсорса, который много лет выглядит как сырой прототип более чем достаточно. Ну не интересна автору рутина, у него творчество, а дальше вы сами, как хотите.
В коммерческой разработке для работы с рутиной нанимают начинающих (да и не только) специалистов невысокой квалификации, на которых вся эта рутина и спихивается. А также написание кода по заранее подготовленным техзаданиям.
Творчества там ровно ноль, надо лишь старательно делать то, что сказали старшие товарищи и желательно с минимальными отступлениями от задания.
Сегодня именно на эту область и нацелен ИИ, который хорошо знает языки, правила написания кода на этих языках, готов старательно обернуть все проверками, проверить и отформатировать вывод, прокомментировать и задокументировать код. Причем сделает это гораздо быстрее, чем человек.
Несет ли это какую-то угрозу программированию и программисту? Нет, ИИ не способен изобретать новое, это прерогатива человека, но теперь человек свободен от рутины, он можете переложить ее на ИИ-агента или ИИ-среду разработки.
Он может написать костяк кода сам, а ИИ уже будет накрашивать на него «мясо», либо вообще сосредоточиться именно на процессе разработки новых функций, оставив работу по написанию кода буквами ИИ-помощнику.
В любом случае читать, тестировать и принимать код будет человек и за ним останется последнее слово.
Можно ли навайбкодить что-нибудь, вообще не зная программирования и не обладая техническим бекграундом?
Почему нельзя? Можно, но это будет что-то простое, в рамках известных ИИ подходов и алгоритмов. Но это примерно, как электронные таблицы. Выполнить ряд вычислений, даже не самых простых смогут, но заменить специализированный софт не способны.
И нет ничего страшного, что обычные люди сами напишут себе считалки и решалки, к серьезным проектам это никакого отношения не имеет.
Также серьезно напрягутся джуны, особенно не те, кто только пришел в профессию и готов изучать, развиваться и расти как специалист, а те, которые давно пригрелись на одном месте и никуда с него двигаться не хотят. А таже разные «войти в айти» и прочие вкатывальшики.
Но основная часть специалистов от такого расклада только выиграет, переложив рутину на ИИ и оставив себе творческие, созидательные задачи.
Продолжение, начало здесь: https://news.1rj.ru/str/interface31/5280
В прошлой заметке мы пришли к тому, что написание кода – это лишь часть работы программиста и далеко не самая важная.
Безусловно, работа программиста – это творческий и созидательный процесс и написание кода – это только лишь воплощение найденных программистом идей и решений. Равно как буквы и слова позволяют воплотить писателю свои идеи в текст. Но если писательского таланта нет, то сколько текста не напиши – получится унылая графомания.
Но в процессе создания программы каждый программист сталкивается с кучей вещей, безусловно важных и нужных, но совсем не творческих, а скучных и рутинных.
Так, если вы пишете на языке без строгой типизации – вам нужно обязательно делать проверку типов, чтобы вместо строки не оказалось число и наоборот. Затем вам нужно проверить ввод пользователя, все ли поля он правильно заполнил.
Потом надо проконтролировать результаты вычисления, особенно на предмет возможных пустых значений. А дальше предстоит тоже довольно скучный процесс вывода данных пользователю в удобной для него форме.
Тут и склонения «год, года, лет» и т.п., форматирование даты и времени, представление сумм и чисел. Да и вообще отработка взаимодействия пользователя с интерфейсом, видимость и доступность элементов и т.д. и т.п.
Такая работа является повторяющейся, монотонной, рутинной. А еще надо и обработкой исключений заняться, чтобы пользователь получал человекочитаемое сообщение об ошибке, а не китайскую грамоту в виде промежуточного результата вычислений.
В результате лодка творческого порыва очень быстро разбивается об рутину. Если это пет-проект, то очень часто на этом этапе он может быть заброшен. Да и опенсорса, который много лет выглядит как сырой прототип более чем достаточно. Ну не интересна автору рутина, у него творчество, а дальше вы сами, как хотите.
В коммерческой разработке для работы с рутиной нанимают начинающих (да и не только) специалистов невысокой квалификации, на которых вся эта рутина и спихивается. А также написание кода по заранее подготовленным техзаданиям.
Творчества там ровно ноль, надо лишь старательно делать то, что сказали старшие товарищи и желательно с минимальными отступлениями от задания.
Сегодня именно на эту область и нацелен ИИ, который хорошо знает языки, правила написания кода на этих языках, готов старательно обернуть все проверками, проверить и отформатировать вывод, прокомментировать и задокументировать код. Причем сделает это гораздо быстрее, чем человек.
Несет ли это какую-то угрозу программированию и программисту? Нет, ИИ не способен изобретать новое, это прерогатива человека, но теперь человек свободен от рутины, он можете переложить ее на ИИ-агента или ИИ-среду разработки.
Он может написать костяк кода сам, а ИИ уже будет накрашивать на него «мясо», либо вообще сосредоточиться именно на процессе разработки новых функций, оставив работу по написанию кода буквами ИИ-помощнику.
В любом случае читать, тестировать и принимать код будет человек и за ним останется последнее слово.
Можно ли навайбкодить что-нибудь, вообще не зная программирования и не обладая техническим бекграундом?
Почему нельзя? Можно, но это будет что-то простое, в рамках известных ИИ подходов и алгоритмов. Но это примерно, как электронные таблицы. Выполнить ряд вычислений, даже не самых простых смогут, но заменить специализированный софт не способны.
И нет ничего страшного, что обычные люди сами напишут себе считалки и решалки, к серьезным проектам это никакого отношения не имеет.
Также серьезно напрягутся джуны, особенно не те, кто только пришел в профессию и готов изучать, развиваться и расти как специалист, а те, которые давно пригрелись на одном месте и никуда с него двигаться не хотят. А таже разные «войти в айти» и прочие вкатывальшики.
Но основная часть специалистов от такого расклада только выиграет, переложив рутину на ИИ и оставив себе творческие, созидательные задачи.
👍13❤5🤔2🤮2🤣1
Всегда свежие Sysinternals
Инструменты Sysinternals от Марка Руссиновича в представлении не нуждаются, появившись в 1996 году они уже практически 30 лет пользуются заслуженной популярностью у администраторов.
Несмотря на свой возраст инструменты активно обновляются и дополняются, поэтому вполне понятно желание иметь всегда свежую версию любимых утилит.
Это можно легко реализовать при помощи сервиса Sysinternals Live, просто введите в проводнике
После чего можете подключить данную директорию как сетевой диск или создать на нее ярлык.
Для запуска в командной строке можете использовать сетевой путь:
Нужная утилита автоматически будет скачана и запущена.
Инструменты Sysinternals от Марка Руссиновича в представлении не нуждаются, появившись в 1996 году они уже практически 30 лет пользуются заслуженной популярностью у администраторов.
Несмотря на свой возраст инструменты активно обновляются и дополняются, поэтому вполне понятно желание иметь всегда свежую версию любимых утилит.
Это можно легко реализовать при помощи сервиса Sysinternals Live, просто введите в проводнике
\\live.sysinternals.com\tools
После чего можете подключить данную директорию как сетевой диск или создать на нее ярлык.
Для запуска в командной строке можете использовать сетевой путь:
\\live.sysinternals.com\tools\<toolname>
Нужная утилита автоматически будет скачана и запущена.
👍36🔥8❤1🥱1
Всегда свежие Sysinternals, автоматизируем процесс
Днем мы рассказали о сервисе Sysinternals Live, позволяющем онлайн получить новейшие версии утилит из состава Sysinternals Suite.
Но реалии последних дней говорят о том, что можно остаться без доступа в сеть вообще в самый неподходящий момент или без доступа к некоторым ресурсам, в частности.
Скачивать руками каждый раз тоже не сильно хочется, так почему бы не автоматизировать эту задачу? Мы написали простой скрипт на PowerShell, который при запуске соединяется с сервисом Sysinternals Live и синхронизирует его содержимое с локальной папкой tools в директории запуска скрипта.
В комплекте вместе со скриптом
Но нам более интересно его выполнение по расписанию, для этого создадим в Планировщике новое задание, допустим с именем Синхронизация Sysinternals Tools.
Выбираем условия запуска:
▫️ Выполнять только для зарегистрированного пользователя
▫️ Выполнять вне зависимости от регистрации пользователя
Во втором случае скрипт будет запущен даже если пользователь не вошел в систему.
Далее указываем желаемое расписание, скажем каждый день в 2 часа ночи и на вкладке Действия указываем:
▫️ Действие: Запустить программу
▫️Программа или сценарий:
▫️Аргументы:
▫️Рабочая папка:
Сохраняем задание, размещаем по указанному пути (в нашем примере C:\ADM) файл скрипта и запускаем задание вручную. Если вы все сделали правильно – начнется синхронизация.
Быстро выполнить все тоже самое можно командой:
Далее можете удалить какой-нибудь файл из папки или заменить его более старой версией и запустить синхронизацию повторно. Скачаются только недостающие файлы.
Файлы можно скачать в комментариях 👇👇👇
Днем мы рассказали о сервисе Sysinternals Live, позволяющем онлайн получить новейшие версии утилит из состава Sysinternals Suite.
Но реалии последних дней говорят о том, что можно остаться без доступа в сеть вообще в самый неподходящий момент или без доступа к некоторым ресурсам, в частности.
Скачивать руками каждый раз тоже не сильно хочется, так почему бы не автоматизировать эту задачу? Мы написали простой скрипт на PowerShell, который при запуске соединяется с сервисом Sysinternals Live и синхронизирует его содержимое с локальной папкой tools в директории запуска скрипта.
В комплекте вместе со скриптом
Sync-Sysinternals.ps1 идет пакетный файл run-sync.bat, который позволяет быстро запустить скрипт вручную.Но нам более интересно его выполнение по расписанию, для этого создадим в Планировщике новое задание, допустим с именем Синхронизация Sysinternals Tools.
Выбираем условия запуска:
▫️ Выполнять только для зарегистрированного пользователя
▫️ Выполнять вне зависимости от регистрации пользователя
Во втором случае скрипт будет запущен даже если пользователь не вошел в систему.
Далее указываем желаемое расписание, скажем каждый день в 2 часа ночи и на вкладке Действия указываем:
▫️ Действие: Запустить программу
▫️Программа или сценарий:
powershell.exe▫️Аргументы:
-ExecutionPolicy Bypass -File "F:\VIBE\sysinternals_live\Sync-Sysinternals.ps1"▫️Рабочая папка:
C:\ADMСохраняем задание, размещаем по указанному пути (в нашем примере C:\ADM) файл скрипта и запускаем задание вручную. Если вы все сделали правильно – начнется синхронизация.
Быстро выполнить все тоже самое можно командой:
schtasks /create /tn "Sync-Sysinternals" /tr "powershell.exe -ExecutionPolicy Bypass -File \""C:\ADM\Sync-Sysinternals.ps1\"" /sc DAILY /st 02:00 /ru "%USERDOMAIN%\%USERNAME%" /f /rl HIGHEST
Далее можете удалить какой-нибудь файл из папки или заменить его более старой версией и запустить синхронизацию повторно. Скачаются только недостающие файлы.
Файлы можно скачать в комментариях 👇👇👇
1👍27❤4🤮3👌2🤔1
📌 Приглашаем на вебинар
«Дефицит ресурсов — не повод для хаоса: как выстроить техподдержку 220 торговых точек всего за 6 недель»
🗓 4 декабря, 11:00
Будет полезно, если:
— Сервис перегружен и нужно наладить его работу с минимумом затрат
— Требуется расширить набор функций и метрик без долгих и дорогих доработок service desk
↓ ↓ ↓
На примере реального кейса спикеры ITSM 365 и SMARTER расскажут:
— Как за 6 недель перевести сотни торговых точек с почты и Excel в сервис деск
— Как объединить команды торговой сети, подрядчиков и вендоров в одной системе
— Как создать в service desk структуру обслуживания, связав заявки с оборудованием, складами и поставщиками
— Витрина услуг, кастомизация заявок, согласование и оценка работ, настройка отчетов и дашбордов — какие функции гарантированно разгрузят ваш сервис.
Регистрируйтесь по ссылке 🔗
#реклама
О рекламодателе
«Дефицит ресурсов — не повод для хаоса: как выстроить техподдержку 220 торговых точек всего за 6 недель»
🗓 4 декабря, 11:00
Будет полезно, если:
— Сервис перегружен и нужно наладить его работу с минимумом затрат
— Требуется расширить набор функций и метрик без долгих и дорогих доработок service desk
↓ ↓ ↓
На примере реального кейса спикеры ITSM 365 и SMARTER расскажут:
— Как за 6 недель перевести сотни торговых точек с почты и Excel в сервис деск
— Как объединить команды торговой сети, подрядчиков и вендоров в одной системе
— Как создать в service desk структуру обслуживания, связав заявки с оборудованием, складами и поставщиками
— Витрина услуг, кастомизация заявок, согласование и оценка работ, настройка отчетов и дашбордов — какие функции гарантированно разгрузят ваш сервис.
Регистрируйтесь по ссылке 🔗
#реклама
О рекламодателе
❤2🤮1👌1👀1
1С в контейнерах. Практическое руководство – 1
Последнее время нас много спрашивают о том, как поднять сервер 1С:Предприятия в LXC контейнерах. Поэтому мы решили более подробно разобраться в этом вопросе.
Прежде всего – почему именно LXC, а не виртуальные машины? Дело в том, что LXC, как и любой другой контейнер, не использует технологию виртуализации – т.е. эмуляции некоторой аппаратной платформы, отличной от платформы хоста.
Любое запущенное в контейнере приложение запускается как процесс хоста, а контейнер обеспечивает только изоляцию запущенных процессов и выделение ресурсов согласно установленным лимитам.
Стоп, скажет иной читатель, а как быть с «операционной системой» в контейнере? На самом деле это не полноценная операционная система, а просто набор библиотек, предоставляющий приложению требуемое окружение.
Таким образом у нас практически отсутствуют накладные расходы на контейнеризацию, плюс добавляются некоторые приятные плюсы, скажем виртуальная сеть между контейнерами в пределах хоста работает на скорости оперативной памяти.
При контейнеризации мы будем исходить из соображений: одна служба – один контейнер. Таким образом у нас напрашивается минимум три контейнера: Сервер 1С:Предприятие, PostgreSQL и веб-сервер.
Для PostgreSQL хорошей практикой является выделение отдельного инстанса на каждую базу. Но даже если это невозможно, то постарайтесь разнести по разным контейнерам базы с разными прикладными решениями, а также рабочие, архивные и тестовые базы.
Веб-сервера тоже стоит разделять, как минимум на обслуживающие клиентские подключения и веб-сервисы.
С этим разобрались. Теперь перейдем к распространенным ошибкам. Не следует выбирать для 1С контейнеры с неподдерживаемой системой внутри. Это ничего вам не даст, кроме лишней головной боли.
Скажем, сервер 1С в контейнере с Debian 13 не будет работать лучше, чем с Debian 12, а вот головной боли добавить может и это будет именно ваша головная боль, потому что платформа не поддерживается. У вас даже багрепорт не примут, по этой самой причине.
Но основной смысл перехода от монолита к контейнерам – это, конечно же, гибкое управление ресурсами. Оно же становится основной сложностью для начинающих. Начнем с процессора.
Платформа 1С:Предприятие уровня ПРОФ ограничена по лицензионным соображениям 12 процессорными ядрами (не важно физическими или виртуальными). Таким образом любой современный процессор предоставляет нам ядер больше, чем требуется для 1С.
Поэтому обязательно привязываем сервер 1С к любым 12 выделенным ядрам, если этого не сделать, то при перезапуске контейнер получит другие ядра, пусть и в том же количестве, что с точки зрения системы лицензирования 1С будет рассматриваться как замена процессора и может привести к слету лицензии.
После чего также явно привязываем ядра к остальным контейнерам. Если этого не сделать, то может оказаться так, что какие-то ядра загружены, а какие-то простаивают. Также для процессоров Intel последних поколений критически важно для производительности выполнить привязку контейнера сервера 1С к продуктивным, а не энергоэффективным ядрам.
При этом не забывайте про базовые настройки железа, рекомендованные для серверов 1С. В частности, это включение Turbo-bust на все ядра, отключение режимов энергосбережения процессора C-State (выключаем или выбираем C0), а также отключаем управление питанием и частотой процессора P-states (выбираем наиболее производительный режим P0).
В разных BIOS и на разных материнских платах это называется по-разному, но общий смысл такой – процессор должен работать только на номинальной частое и выше, технологии энергосбережения отключены.
Игнорирование данной настройки может приводить к серьезным просадкам производительности сервера 1С:Предприятия и являются очень частой ошибкой конфигурирования.
Последнее время нас много спрашивают о том, как поднять сервер 1С:Предприятия в LXC контейнерах. Поэтому мы решили более подробно разобраться в этом вопросе.
Прежде всего – почему именно LXC, а не виртуальные машины? Дело в том, что LXC, как и любой другой контейнер, не использует технологию виртуализации – т.е. эмуляции некоторой аппаратной платформы, отличной от платформы хоста.
Любое запущенное в контейнере приложение запускается как процесс хоста, а контейнер обеспечивает только изоляцию запущенных процессов и выделение ресурсов согласно установленным лимитам.
Стоп, скажет иной читатель, а как быть с «операционной системой» в контейнере? На самом деле это не полноценная операционная система, а просто набор библиотек, предоставляющий приложению требуемое окружение.
Таким образом у нас практически отсутствуют накладные расходы на контейнеризацию, плюс добавляются некоторые приятные плюсы, скажем виртуальная сеть между контейнерами в пределах хоста работает на скорости оперативной памяти.
При контейнеризации мы будем исходить из соображений: одна служба – один контейнер. Таким образом у нас напрашивается минимум три контейнера: Сервер 1С:Предприятие, PostgreSQL и веб-сервер.
Для PostgreSQL хорошей практикой является выделение отдельного инстанса на каждую базу. Но даже если это невозможно, то постарайтесь разнести по разным контейнерам базы с разными прикладными решениями, а также рабочие, архивные и тестовые базы.
Веб-сервера тоже стоит разделять, как минимум на обслуживающие клиентские подключения и веб-сервисы.
С этим разобрались. Теперь перейдем к распространенным ошибкам. Не следует выбирать для 1С контейнеры с неподдерживаемой системой внутри. Это ничего вам не даст, кроме лишней головной боли.
Скажем, сервер 1С в контейнере с Debian 13 не будет работать лучше, чем с Debian 12, а вот головной боли добавить может и это будет именно ваша головная боль, потому что платформа не поддерживается. У вас даже багрепорт не примут, по этой самой причине.
Но основной смысл перехода от монолита к контейнерам – это, конечно же, гибкое управление ресурсами. Оно же становится основной сложностью для начинающих. Начнем с процессора.
Платформа 1С:Предприятие уровня ПРОФ ограничена по лицензионным соображениям 12 процессорными ядрами (не важно физическими или виртуальными). Таким образом любой современный процессор предоставляет нам ядер больше, чем требуется для 1С.
Поэтому обязательно привязываем сервер 1С к любым 12 выделенным ядрам, если этого не сделать, то при перезапуске контейнер получит другие ядра, пусть и в том же количестве, что с точки зрения системы лицензирования 1С будет рассматриваться как замена процессора и может привести к слету лицензии.
После чего также явно привязываем ядра к остальным контейнерам. Если этого не сделать, то может оказаться так, что какие-то ядра загружены, а какие-то простаивают. Также для процессоров Intel последних поколений критически важно для производительности выполнить привязку контейнера сервера 1С к продуктивным, а не энергоэффективным ядрам.
При этом не забывайте про базовые настройки железа, рекомендованные для серверов 1С. В частности, это включение Turbo-bust на все ядра, отключение режимов энергосбережения процессора C-State (выключаем или выбираем C0), а также отключаем управление питанием и частотой процессора P-states (выбираем наиболее производительный режим P0).
В разных BIOS и на разных материнских платах это называется по-разному, но общий смысл такой – процессор должен работать только на номинальной частое и выше, технологии энергосбережения отключены.
Игнорирование данной настройки может приводить к серьезным просадкам производительности сервера 1С:Предприятия и являются очень частой ошибкой конфигурирования.
1👍43❤2🤝2👌1
1С в контейнерах. Практическое руководство – 2
Определившись с процессорными ресурсами, переходим к памяти. Это самый сложный вопрос, особенно для тех, кто только собирается внедрять клиент-серверную версию. Потому что нельзя точно ответить на вопрос о том, сколько надо оперативной памяти.
Даже одна и та же конфигурация с одним и тем же размером базы при разных сценариях использования будет иметь разный расход памяти. Хорошо, если у вас уже есть клиент-серверная система, тогда вы можете собрать метрики и сделать более-менее точные предположения.
Но так как данный вопрос не сходит с повестки дня, то постараемся дать некоторые общие ориентиры. Сразу оговоримся, сказанное ниже применимо только к типовым конфигурациям 1С с нагрузкой, не превышающей среднюю. В других сценариях цифры могут быть абсолютно другие.
1️⃣ Начнем с сервера 1С:Предприятие. Цифра, на которую следует ориентироваться – это 1-2 ГБ оперативной памяти на сеанс, можно взять среднее значение 1,5 ГБ и не сильно ошибиться. Понятно, что это среднее значение, реальные цифры могут изменяться от задач.
На одном из наших рабочих серверов с 1С:Бухгалтерия мы получили среднее значение 1,19 ГБ на сеанс, при этом были сеансы потреблявшие 400-700 МБ памяти, а были с потреблением 3-3,5 ГБ. Все зависит от роли и задач пользователя.
Также добавьте сюда регламентные и фоновые задания, которые тоже тратят память во время выполнения, иногда – значительную. По-хорошему, тяжелые фоновые задания следует настроить так, чтобы они работали за периодом пользовательской активности, так как именно они часто являются основной причиной «тормозов».
Отдельного внимания стоят сеансы через веб-сервер, не важно используется для работы тонкий клиент или веб-клиент в браузере. В целях повторного использования (так как создание сеанса – дорогая операция) сеанс сохраняется в течении 20 минут после отключения пользователя.
В ряде сценариев это может привести к повышенному расходу оперативной памяти несмотря на небольшое число активных пользователей.
Те же 20 минут действуют и для неактивных сеансов, после чего они уходят в сон и могут освободить ресурсы. Период завершения таких сеансов по умолчанию сутки.
2️⃣ И если с сервером 1С все более-менее ясно, то PostgreSQL представляет собой более сложную систему. Любой сервер СУБД имеет тенденцию утилизировать всю доступную память. Но на самом деле достаточно чтобы в нее помещались горячие данные, потому как база 1С:Предприятие может содержать большое количество нормативно-справочной или архивной информации.
Также сильно влияет и характер нагрузки, менеджеры, выписывающие накладный и бухгалтер закрывающий месяц – это две сильно большие разницы. Но надо же нам от чего отталкиваться?
Очень и очень приблизительный расчет можно сделать из размера базы данных. Эмпирическим путем была выведена общая формула:
Еще раз напомним – эта формула применима только к типовым базам 1С:Предприятие с нагрузкой ниже среднего.
Для примера мы проверили несколько наших серверов:
🔹 Сервер №1
▫️Размер базы – 33 ГБ
▫️Размер ОЗУ по формуле – 10,25 ГБ
▫️Выделенный размер ОЗУ – 12 ГБ
▫️ Реальное потребление – 8,5 ГБ
🔹 Сервер №2
▫️Размер базы – 28 ГБ
▫️Размер ОЗУ по формуле – 9 ГБ
▫️Выделенный размер ОЗУ – 8 ГБ
▫️Реальное потребление – 3 ГБ
Основное различие баз – в количестве активных пользователей и операций, хотя и там и там установлена типовая 1С:Бухгалтерия.
Но даже такой расчет лучше, чем никакого и впоследствии вы всегда можете скорректировать эти значения.
3️⃣ Веб-сервер в клиент-серверном сценарии особых ресурсов не потребляет, так как занимается сугубо проксированием запросов и ресурсы ему можно выделить по остаточному принципу. В расчетах можно исходить из 2-10 МБ на сеанс.
4️⃣ На самом Proxmox, если вы используете ZFS – обязательно настройте выделение памяти для ARC исходя из формулы:
В противном случае, со значениями по умолчанию ZFS может использовать под кеш до 50% установленной памяти.
Определившись с процессорными ресурсами, переходим к памяти. Это самый сложный вопрос, особенно для тех, кто только собирается внедрять клиент-серверную версию. Потому что нельзя точно ответить на вопрос о том, сколько надо оперативной памяти.
Даже одна и та же конфигурация с одним и тем же размером базы при разных сценариях использования будет иметь разный расход памяти. Хорошо, если у вас уже есть клиент-серверная система, тогда вы можете собрать метрики и сделать более-менее точные предположения.
Но так как данный вопрос не сходит с повестки дня, то постараемся дать некоторые общие ориентиры. Сразу оговоримся, сказанное ниже применимо только к типовым конфигурациям 1С с нагрузкой, не превышающей среднюю. В других сценариях цифры могут быть абсолютно другие.
1️⃣ Начнем с сервера 1С:Предприятие. Цифра, на которую следует ориентироваться – это 1-2 ГБ оперативной памяти на сеанс, можно взять среднее значение 1,5 ГБ и не сильно ошибиться. Понятно, что это среднее значение, реальные цифры могут изменяться от задач.
На одном из наших рабочих серверов с 1С:Бухгалтерия мы получили среднее значение 1,19 ГБ на сеанс, при этом были сеансы потреблявшие 400-700 МБ памяти, а были с потреблением 3-3,5 ГБ. Все зависит от роли и задач пользователя.
Также добавьте сюда регламентные и фоновые задания, которые тоже тратят память во время выполнения, иногда – значительную. По-хорошему, тяжелые фоновые задания следует настроить так, чтобы они работали за периодом пользовательской активности, так как именно они часто являются основной причиной «тормозов».
Отдельного внимания стоят сеансы через веб-сервер, не важно используется для работы тонкий клиент или веб-клиент в браузере. В целях повторного использования (так как создание сеанса – дорогая операция) сеанс сохраняется в течении 20 минут после отключения пользователя.
В ряде сценариев это может привести к повышенному расходу оперативной памяти несмотря на небольшое число активных пользователей.
Те же 20 минут действуют и для неактивных сеансов, после чего они уходят в сон и могут освободить ресурсы. Период завершения таких сеансов по умолчанию сутки.
2️⃣ И если с сервером 1С все более-менее ясно, то PostgreSQL представляет собой более сложную систему. Любой сервер СУБД имеет тенденцию утилизировать всю доступную память. Но на самом деле достаточно чтобы в нее помещались горячие данные, потому как база 1С:Предприятие может содержать большое количество нормативно-справочной или архивной информации.
Также сильно влияет и характер нагрузки, менеджеры, выписывающие накладный и бухгалтер закрывающий месяц – это две сильно большие разницы. Но надо же нам от чего отталкиваться?
Очень и очень приблизительный расчет можно сделать из размера базы данных. Эмпирическим путем была выведена общая формула:
Размер ОЗУ = Размер базы / 4 + 2 ГБ (но не менее 4 ГБ)
Еще раз напомним – эта формула применима только к типовым базам 1С:Предприятие с нагрузкой ниже среднего.
Для примера мы проверили несколько наших серверов:
🔹 Сервер №1
▫️Размер базы – 33 ГБ
▫️Размер ОЗУ по формуле – 10,25 ГБ
▫️Выделенный размер ОЗУ – 12 ГБ
▫️ Реальное потребление – 8,5 ГБ
🔹 Сервер №2
▫️Размер базы – 28 ГБ
▫️Размер ОЗУ по формуле – 9 ГБ
▫️Выделенный размер ОЗУ – 8 ГБ
▫️Реальное потребление – 3 ГБ
Основное различие баз – в количестве активных пользователей и операций, хотя и там и там установлена типовая 1С:Бухгалтерия.
Но даже такой расчет лучше, чем никакого и впоследствии вы всегда можете скорректировать эти значения.
3️⃣ Веб-сервер в клиент-серверном сценарии особых ресурсов не потребляет, так как занимается сугубо проксированием запросов и ресурсы ему можно выделить по остаточному принципу. В расчетах можно исходить из 2-10 МБ на сеанс.
4️⃣ На самом Proxmox, если вы используете ZFS – обязательно настройте выделение памяти для ARC исходя из формулы:
1 ГБ для хоста + 4-5 ГБ на 1 ТБ хранилища (но не менее 3 ГБ)
В противном случае, со значениями по умолчанию ZFS может использовать под кеш до 50% установленной памяти.
👍15❤8🤝1
О чем писали 10 лет назад...
▫️ Представлен Kubernetes, пока что это непонятная диковинка
▫️ Ansible и ZeroTier как перспективные новинки
▫️ Android все еще не оставляет попыток захватить десктоп
▫️ BlackBerry про#$%ает последние полимеры, а ведь еще недавно...
С тех пор прошло 10 лет, мир изменился, местами неузнаваемо...
▫️ Представлен Kubernetes, пока что это непонятная диковинка
▫️ Ansible и ZeroTier как перспективные новинки
▫️ Android все еще не оставляет попыток захватить десктоп
▫️ BlackBerry про#$%ает последние полимеры, а ведь еще недавно...
С тех пор прошло 10 лет, мир изменился, местами неузнаваемо...
👍9❤7
Спрашивают - отвечаем
хотелось бы узнать у матёрых спецов куда и как правильно бэкапить? Вопрос от малого бизнеса и частных лиц.
Начнем с того, что бекап – это не просто «бери больше – кидай дальше», а целый комплекс мероприятий. Мы об этом уже писали, напомним еще раз: https://interface31.ru/tech_it/2021/03/kak-pravil-no-organizovat-rezervnoe-kopirovanie-i-spat-spokoyno.html
1️⃣ Если коротко. Самый первый бекап должен быть в "шаговой доступности", в формате позволяющем наиболее быстро восстановиться из него и, желательно, без сжатия. Можно, вопреки мемам, хранить на том же самом сервере.
2️⃣ Второй бекап тоже недалеко, но на другом узле и, крайне желательно, в другом физическом месте, вторая серверная или просто где-то на территории, но в другом корпусе. На случай физического выхода из строя основного узла. пожара, затопления и т.д.
3️⃣ Третья копия - в удаленной локации. Облако, NAS дома в чулане и т.д. Это на случай, когда все плохо и первые два бекапа недоступны или уничтожены. Чаще всего они вам не понадобятся, но иметь такую копию нужно.
👆 А теперь о том, чего делать не надо.
Не следует слушать "специалистов", которые любят бросаться фразами: "это не бекап", "это неправильные бекапы" и т.д. и т.п. Любой бекап является правильным, если выполняет свою задачу.
А какая задача бекапа? Быстро восстановить рабочую копию данных. При этом стоимость бекапа (а все имеет свою стоимость) не должна превышать стоимость ущерба от потери рабочей копии данных. Грубо говоря, тратить 1000 руб. на замок, чтобы закрыть лопату за 100 руб. - занятие лишенное всякого смысла.
Поэтому копируйте как вам угодно и куда сочтете нужным. Главное - чтобы копии были. Ну и не забывайте их проверять.
❗️ И еще. Не путайте бекапы с архивами. У них разное назначение и архивы тоже нужно бекапить!
хотелось бы узнать у матёрых спецов куда и как правильно бэкапить? Вопрос от малого бизнеса и частных лиц.
Начнем с того, что бекап – это не просто «бери больше – кидай дальше», а целый комплекс мероприятий. Мы об этом уже писали, напомним еще раз: https://interface31.ru/tech_it/2021/03/kak-pravil-no-organizovat-rezervnoe-kopirovanie-i-spat-spokoyno.html
1️⃣ Если коротко. Самый первый бекап должен быть в "шаговой доступности", в формате позволяющем наиболее быстро восстановиться из него и, желательно, без сжатия. Можно, вопреки мемам, хранить на том же самом сервере.
2️⃣ Второй бекап тоже недалеко, но на другом узле и, крайне желательно, в другом физическом месте, вторая серверная или просто где-то на территории, но в другом корпусе. На случай физического выхода из строя основного узла. пожара, затопления и т.д.
3️⃣ Третья копия - в удаленной локации. Облако, NAS дома в чулане и т.д. Это на случай, когда все плохо и первые два бекапа недоступны или уничтожены. Чаще всего они вам не понадобятся, но иметь такую копию нужно.
👆 А теперь о том, чего делать не надо.
Не следует слушать "специалистов", которые любят бросаться фразами: "это не бекап", "это неправильные бекапы" и т.д. и т.п. Любой бекап является правильным, если выполняет свою задачу.
А какая задача бекапа? Быстро восстановить рабочую копию данных. При этом стоимость бекапа (а все имеет свою стоимость) не должна превышать стоимость ущерба от потери рабочей копии данных. Грубо говоря, тратить 1000 руб. на замок, чтобы закрыть лопату за 100 руб. - занятие лишенное всякого смысла.
Поэтому копируйте как вам угодно и куда сочтете нужным. Главное - чтобы копии были. Ну и не забывайте их проверять.
❗️ И еще. Не путайте бекапы с архивами. У них разное назначение и архивы тоже нужно бекапить!
👍42💯6🤝2❤1🥱1
Приведет ли ИИ к деградации программирования и обесцениванию профессии программиста?
Очередная часть, начало здесь: https://news.1rj.ru/str/interface31/5303
Сегодня хочется разобрать еще один вопрос. Мол, если ИИ вытеснит джунов, то откуда возьмутся мидлы и сеньоры?
Сразу внесем ясность, под джунами мы подразумеваем не только и не столько начинающих специалистов, а вообще позиции, не требующие высокой квалификации.
Причем многие такие позиции в принципе не предполагают возможность роста. Просто потому, что организации не нужны новые специалисты более высокой квалификации, ей нужны именно джуны, делать простую работу, которой много.
Сегодня эту простую работу можно переложить на ИИ, который будет справляться с ней лучше человека. ИИ строго соблюдает правила, не болеет, не ленится, не халтурит и вообще делает все быстрее.
Т.е. то, что раньше делал джун будет делать ИИ, а куда пойти податься бедному джуну? Как вообще войти в профессию? Да также как раньше, ничего нового не случилось.
Давайте вернемся немного назад, к профессии инженера. Инженер должен уметь чертить и читать чертежи – это аксиома и некоторое время назад черчение карандашами по бумаге занимало значительную часть времени инженера, особенно молодого. Была даже отдельная профессия – чертежник, которая только этим и занималась.
Современный инженер также должен уметь чертить и читать чертежи, только вот заниматься этим ему сейчас нет никакой нужды – у него есть CAD, который берет на себя соблюдение стандартов, нормоконтроль и прочую рутину. Зато можно уделить гораздо больше времени созидательному труду.
Это как-то повлияло на процесс подготовки инженеров? Создало непреодолимые препоны для входа в профессию? Нет, просто знание CAD и умение в нем работать стало базовым требованием для специалиста. И сегодня от инженера требуется несколько больше, чем просто уметь чертить и читать чертежи.
Ровно тоже самое и в программировании. Набирать код буквами на экране – это конечно хорошо и нужно, но суть профессии программиста не в этом. Тем более что и сам процесс написания кода буквами постоянно совершенствуется.
Так никого сегодня не удивить «умными» IDE, которые умеют автоматически дополнять текст, исправлять грубые синтаксические ошибки, подсказывать, проверять, заменять. Новые версии языков предлагают синтаксический сахар. Наверное, все для того, чтобы программист глупел.
Но на деле все понимают, что написание кода буквами – это ложка творчества на бочку рутины. И если можно этот процесс облегчить – то его нужно облегчить. ИИ сегодня позволяет снять с себя эту рутину и отдать ее машине.
Что это значит для начинающих? А то, что жить станет легче, жить станет веселей. Количество скучного и дурного труда уменьшится и останется время на созидательный труд.
Но все ли могут в созидательный труд? К сожалению, не только лишь все. И те, кто не могут – останутся за бортом. Но давайте честно посмотрим правде в глаза – большинство позиций уровня джуна занимают люди, которые не являются программистами по своей сути.
Они просто набирают буквами код на мониторе, самостоятельно создать проект они не способны, да и не стремятся к этому. Их и так неплохо кормят. По факту они чертежники от программирования. И если каждый инженер – чертежник, но далеко не каждый чертежник сможет стать инженером.
Тоже самое и здесь. Начальный уровень джуна сместится, где умение набирать код и читать код будет нужным, но уже недостаточным. Закономерно, что программистов станет меньше, но их уровень и квалификация повысится. Что для отрасли пойдет только на пользу.
И если сегодня ИИ это по больше части модная «фишка», то через некоторое время умение работать с ним станет базовым требованием для специалиста.
Ну а кто не смог? Тот не смог, не вписался в рынок. И если с точки зрения обычного человека это может быть неприятно, особенно когда тебя выбросило на обочину в старшем возрасте, но с точки зрения отрасли все закономерно. Новые инструменты, новые стандарты, новые требования.
И это про любую специальность. Не только программирование.
Очередная часть, начало здесь: https://news.1rj.ru/str/interface31/5303
Сегодня хочется разобрать еще один вопрос. Мол, если ИИ вытеснит джунов, то откуда возьмутся мидлы и сеньоры?
Сразу внесем ясность, под джунами мы подразумеваем не только и не столько начинающих специалистов, а вообще позиции, не требующие высокой квалификации.
Причем многие такие позиции в принципе не предполагают возможность роста. Просто потому, что организации не нужны новые специалисты более высокой квалификации, ей нужны именно джуны, делать простую работу, которой много.
Сегодня эту простую работу можно переложить на ИИ, который будет справляться с ней лучше человека. ИИ строго соблюдает правила, не болеет, не ленится, не халтурит и вообще делает все быстрее.
Т.е. то, что раньше делал джун будет делать ИИ, а куда пойти податься бедному джуну? Как вообще войти в профессию? Да также как раньше, ничего нового не случилось.
Давайте вернемся немного назад, к профессии инженера. Инженер должен уметь чертить и читать чертежи – это аксиома и некоторое время назад черчение карандашами по бумаге занимало значительную часть времени инженера, особенно молодого. Была даже отдельная профессия – чертежник, которая только этим и занималась.
Современный инженер также должен уметь чертить и читать чертежи, только вот заниматься этим ему сейчас нет никакой нужды – у него есть CAD, который берет на себя соблюдение стандартов, нормоконтроль и прочую рутину. Зато можно уделить гораздо больше времени созидательному труду.
Это как-то повлияло на процесс подготовки инженеров? Создало непреодолимые препоны для входа в профессию? Нет, просто знание CAD и умение в нем работать стало базовым требованием для специалиста. И сегодня от инженера требуется несколько больше, чем просто уметь чертить и читать чертежи.
Ровно тоже самое и в программировании. Набирать код буквами на экране – это конечно хорошо и нужно, но суть профессии программиста не в этом. Тем более что и сам процесс написания кода буквами постоянно совершенствуется.
Так никого сегодня не удивить «умными» IDE, которые умеют автоматически дополнять текст, исправлять грубые синтаксические ошибки, подсказывать, проверять, заменять. Новые версии языков предлагают синтаксический сахар. Наверное, все для того, чтобы программист глупел.
Но на деле все понимают, что написание кода буквами – это ложка творчества на бочку рутины. И если можно этот процесс облегчить – то его нужно облегчить. ИИ сегодня позволяет снять с себя эту рутину и отдать ее машине.
Что это значит для начинающих? А то, что жить станет легче, жить станет веселей. Количество скучного и дурного труда уменьшится и останется время на созидательный труд.
Но все ли могут в созидательный труд? К сожалению, не только лишь все. И те, кто не могут – останутся за бортом. Но давайте честно посмотрим правде в глаза – большинство позиций уровня джуна занимают люди, которые не являются программистами по своей сути.
Они просто набирают буквами код на мониторе, самостоятельно создать проект они не способны, да и не стремятся к этому. Их и так неплохо кормят. По факту они чертежники от программирования. И если каждый инженер – чертежник, но далеко не каждый чертежник сможет стать инженером.
Тоже самое и здесь. Начальный уровень джуна сместится, где умение набирать код и читать код будет нужным, но уже недостаточным. Закономерно, что программистов станет меньше, но их уровень и квалификация повысится. Что для отрасли пойдет только на пользу.
И если сегодня ИИ это по больше части модная «фишка», то через некоторое время умение работать с ним станет базовым требованием для специалиста.
Ну а кто не смог? Тот не смог, не вписался в рынок. И если с точки зрения обычного человека это может быть неприятно, особенно когда тебя выбросило на обочину в старшем возрасте, но с точки зрения отрасли все закономерно. Новые инструменты, новые стандарты, новые требования.
И это про любую специальность. Не только программирование.
👍17🥱5❤3🔥2💯2
Как правильно обновлять 1С
Конец квартала, полугодия, года, особенно перед внедрением важных нововведений всегда остро встает вопрос обновления 1С. А вот тут не все так просто и легко наломать очередных дров или заложить очередную тайм-бомбу.
1С выпускает обновления достаточно часто, практически каждый месяц и в каждом из них пишет с какого релиза поддерживаются обновления на текущий. Таким образом, если вы давно не обновляли 1С, то вам нужно построить цепочку таких «ключевых» релизов и обновляться по ней.
А это может быть долго, дорого, неудобно, причин всегда находится много, включая то, что надо было еще вчера и вообще у вас полчаса времени.
И тут появляется «народный умелец», который говорит, что все это фигня и он быстро и недорого обновит базу из последнего CF и будет все тоже самое, даже лучше. Он сто раз так делал.
И обновляет, и уходит в закат. А дальше события могут развиваться образом самым увлекательным и непредсказуемым.
Поэтому разберем почему так делать нельзя. Фирма 1С ведь не со зла и не от вредности ставит ограничения по релизам, с которых можно выполнить обновление.
Каждая информационная база содержит данные пользователя или просто данные и объекты конфигурации – метаданные и эти метаданные могут меняться от релиза к релизу.
Допустим в обновлении А добавлен какой-то новый реквизит и при первом запуске обработчик обновления его заполняет по какому-либо алгоритму.
В обновлении Б он начинает участвовать в каких-то механизмах. И разработчики предполагают, что он у вас есть и заполнен. Поэтому и ограничивают предыдущие версии конфигураций на те, где этот обработчик выполнялся и заполнял реквизит.
А что будет если мы сразу накатим конфигурацию Б (из CF-файла, который представляет полный файл конфигурации), без промежуточных обновлений.
Реквизит у нас в базе появится, но он будет пустой, так как обработчик обновления, его заполняющий в релизе Б отсутствует. И вот тут мы уже приехали.
С этим можно жить долго и незаметно, но в какой-то момент это обязательно выстрелит. Причем не явно, а просто программа начнет работать или считать неправильно, формировать странные отчеты, работать не так, как описано, хотя все настройки сделаны верно.
А все почему? Да потому что ожидает увидеть где-то определенное значение, но не видит его. И хорошо, если пустое значение там допустимо. Ну просто будет не попадать куда-то то, что попадать должно.
А если нет? То у нас могут сломаться целые направления учета, когда бухгалтер будет смотреть и не понимать почему программа делает неправильные проводки, хотя все заполнено правильно.
И вылазят такие грабли чаще всего на узких и сложных направлениях учета и чаще всего в отчетный период, когда времени на вдумчивый анализ нет и надо что-то решать здесь и сейчас.
Поэтому в ход идут всякие обработки, которые на скорую руку делают «как надо», т.е. лечат симптомы, не устраняя саму болезнь. А база постепенно превращается в чудовище Франкенштейна, где что-то тронуть страшно, а вдруг все «поплывет».
А кто виноват? Ну конечно же 1С, ведь это все знают, он косая, кривая и никогда нормально не работает.
В общем – не делайте так, всегда соблюдайте цепочку релизов.
Конец квартала, полугодия, года, особенно перед внедрением важных нововведений всегда остро встает вопрос обновления 1С. А вот тут не все так просто и легко наломать очередных дров или заложить очередную тайм-бомбу.
1С выпускает обновления достаточно часто, практически каждый месяц и в каждом из них пишет с какого релиза поддерживаются обновления на текущий. Таким образом, если вы давно не обновляли 1С, то вам нужно построить цепочку таких «ключевых» релизов и обновляться по ней.
А это может быть долго, дорого, неудобно, причин всегда находится много, включая то, что надо было еще вчера и вообще у вас полчаса времени.
И тут появляется «народный умелец», который говорит, что все это фигня и он быстро и недорого обновит базу из последнего CF и будет все тоже самое, даже лучше. Он сто раз так делал.
И обновляет, и уходит в закат. А дальше события могут развиваться образом самым увлекательным и непредсказуемым.
Поэтому разберем почему так делать нельзя. Фирма 1С ведь не со зла и не от вредности ставит ограничения по релизам, с которых можно выполнить обновление.
Каждая информационная база содержит данные пользователя или просто данные и объекты конфигурации – метаданные и эти метаданные могут меняться от релиза к релизу.
Допустим в обновлении А добавлен какой-то новый реквизит и при первом запуске обработчик обновления его заполняет по какому-либо алгоритму.
В обновлении Б он начинает участвовать в каких-то механизмах. И разработчики предполагают, что он у вас есть и заполнен. Поэтому и ограничивают предыдущие версии конфигураций на те, где этот обработчик выполнялся и заполнял реквизит.
А что будет если мы сразу накатим конфигурацию Б (из CF-файла, который представляет полный файл конфигурации), без промежуточных обновлений.
Реквизит у нас в базе появится, но он будет пустой, так как обработчик обновления, его заполняющий в релизе Б отсутствует. И вот тут мы уже приехали.
С этим можно жить долго и незаметно, но в какой-то момент это обязательно выстрелит. Причем не явно, а просто программа начнет работать или считать неправильно, формировать странные отчеты, работать не так, как описано, хотя все настройки сделаны верно.
А все почему? Да потому что ожидает увидеть где-то определенное значение, но не видит его. И хорошо, если пустое значение там допустимо. Ну просто будет не попадать куда-то то, что попадать должно.
А если нет? То у нас могут сломаться целые направления учета, когда бухгалтер будет смотреть и не понимать почему программа делает неправильные проводки, хотя все заполнено правильно.
И вылазят такие грабли чаще всего на узких и сложных направлениях учета и чаще всего в отчетный период, когда времени на вдумчивый анализ нет и надо что-то решать здесь и сейчас.
Поэтому в ход идут всякие обработки, которые на скорую руку делают «как надо», т.е. лечат симптомы, не устраняя саму болезнь. А база постепенно превращается в чудовище Франкенштейна, где что-то тронуть страшно, а вдруг все «поплывет».
А кто виноват? Ну конечно же 1С, ведь это все знают, он косая, кривая и никогда нормально не работает.
В общем – не делайте так, всегда соблюдайте цепочку релизов.
👍29🤡2🥱2😢1🤮1
Самохостинг
Про самосбор мы уже не раз говорили, пришла пора поговорить еще об одном излюбленном явлении – самохостинге.
Что это такое? Это публикация во внешнюю сеть определенных ресурсов для доступа к ним, как личного, так и широких масс желающих из любой точки всемирной сети. Ключевой момент здесь – это доступ, он должен быть постоянный и из любого места.
Поэтому, когда мы говорим о хостинге, то основным требованием к нему является доступность. У хостеров одним из основных параметров является SLA (Service Level Agreement или соглашение об уровне сервиса), который регламентирует допустимое время простоя и обычно его значения начинаются с 95-99%.
На самом деле это достаточно большие цифры, так 95% допускает простой 18,25 суток в год, а 99% - 3,65 суток.
А что нам может предложить самохостинг? Обычно здесь все начинается с того, что мол не нужен мне этот SLA, мне нужно просто получить доступ к моим данным для дома, для семьи откуда-то извне, причем время от времени. Ну и фоточки куда с телефона слить.
Поэтому для многих самохост является также и точкой размещения определенных данных и часто в единственном экземпляре (не считая мобильных устройств).
При этом греет душу, что все это бесплатно, на своем сервере, который тихо жужжит где-то в чулане.
Ок, давайте просто прикинем. Сервер из неоткуда не берется, его надо купить. Давайте прикинем стоимость платформы на N100 с дисками на 1 ТБ.
Такая машинка по актуальным ценам конца ноября 2025 года обойдется плюс-минус в 40 000 рублей.
Определим ей срок полезного использования в пять лет. В результате получим стоимость владения (не считая затрат на содержание) в размере 8 000 рублей в год или 667 рублей в месяц.
1 ТБ на Яндекс Диске стоит без скидок 191 руб./мес., со скидками 89 руб./мес. и голова не болит.
На оставшиеся 500 рублей можно купить VPS начального уровня, которой будет достаточно для хостинга всего остального домашнего добра.
При этом у вас больше не болит голова насчет всей этой кухни. А болеть там на самом деле есть чему.
Надежность? С этим все плохо. Запчастей нет, любой выход из строя комплектующих – это длительный простой, пока будут решаться вопросы гарантии или дополнительные расходы.
Пожары, затопления, аварии на электросетях и прочий форс-мажор, включая тупое «кошка бежала, хвостиком вильнула, включенный сервер упал со шкафа на пол».
Также не сбрасываем со счетов возможный брак, когда оба ваших диска в RAID решат отправиться в страну вечной охоты одновременно (привет муха CC) и диски вам может и поменяют по гарантии, но вот на данные гарантия не распространяется.
Доступность? Тут тоже все плохо. Выключили электричество, пропал интернет – и все, стоим, ждем. И хорошо если там просто личные данные, а не что-то нужное здесь и сейчас. При этом обеспечить себе резервные мощности для самохостинга практически невозможно.
Ну или это будет стоить совсем других денег…
При этом не забываем, что наше оборудование коптит небо, расходует ресурс, стареет, что рано или поздно потребует его замены. У хостера это делает сам хостер, вы просто оплачиваете услугу по тарифу.
Ну ладно, то про дом, а теперь про работу. Так тут ровно все тоже самое. Да, нежелание выкладывать корпоративные данные в публичные облака понятно. Но кто мешает поднять свое облако на публичном хостинге?
По деньгам это будет плюс-минус стоимость самохостинга, но вы получите в разы более высокую надежность и доступность.
При этом контроль над системой у вас как был, так и остается. Но не болит голова по железу, ремонту, запчастям, электроснабжению, интернету и многому-многому другому.
Единственный вариант, когда самохостинг оправдан – это требования к безопасности и хранению данных, когда размещать их на внешних ресурсах может быть явно запрещено или обложено таким количеством требований, что проще как-нибудь самим.
Но это уже не про широкий доступ и вопрос доступности тут вообще может уходить на задний план.
В остальном самохостинг – это дорого и ненадежно. Оправдан только если вы просто хотите в это все поиграться с целью получить некоторый опыт.
Про самосбор мы уже не раз говорили, пришла пора поговорить еще об одном излюбленном явлении – самохостинге.
Что это такое? Это публикация во внешнюю сеть определенных ресурсов для доступа к ним, как личного, так и широких масс желающих из любой точки всемирной сети. Ключевой момент здесь – это доступ, он должен быть постоянный и из любого места.
Поэтому, когда мы говорим о хостинге, то основным требованием к нему является доступность. У хостеров одним из основных параметров является SLA (Service Level Agreement или соглашение об уровне сервиса), который регламентирует допустимое время простоя и обычно его значения начинаются с 95-99%.
На самом деле это достаточно большие цифры, так 95% допускает простой 18,25 суток в год, а 99% - 3,65 суток.
А что нам может предложить самохостинг? Обычно здесь все начинается с того, что мол не нужен мне этот SLA, мне нужно просто получить доступ к моим данным для дома, для семьи откуда-то извне, причем время от времени. Ну и фоточки куда с телефона слить.
Поэтому для многих самохост является также и точкой размещения определенных данных и часто в единственном экземпляре (не считая мобильных устройств).
При этом греет душу, что все это бесплатно, на своем сервере, который тихо жужжит где-то в чулане.
Ок, давайте просто прикинем. Сервер из неоткуда не берется, его надо купить. Давайте прикинем стоимость платформы на N100 с дисками на 1 ТБ.
Такая машинка по актуальным ценам конца ноября 2025 года обойдется плюс-минус в 40 000 рублей.
Определим ей срок полезного использования в пять лет. В результате получим стоимость владения (не считая затрат на содержание) в размере 8 000 рублей в год или 667 рублей в месяц.
1 ТБ на Яндекс Диске стоит без скидок 191 руб./мес., со скидками 89 руб./мес. и голова не болит.
На оставшиеся 500 рублей можно купить VPS начального уровня, которой будет достаточно для хостинга всего остального домашнего добра.
При этом у вас больше не болит голова насчет всей этой кухни. А болеть там на самом деле есть чему.
Надежность? С этим все плохо. Запчастей нет, любой выход из строя комплектующих – это длительный простой, пока будут решаться вопросы гарантии или дополнительные расходы.
Пожары, затопления, аварии на электросетях и прочий форс-мажор, включая тупое «кошка бежала, хвостиком вильнула, включенный сервер упал со шкафа на пол».
Также не сбрасываем со счетов возможный брак, когда оба ваших диска в RAID решат отправиться в страну вечной охоты одновременно (привет муха CC) и диски вам может и поменяют по гарантии, но вот на данные гарантия не распространяется.
Доступность? Тут тоже все плохо. Выключили электричество, пропал интернет – и все, стоим, ждем. И хорошо если там просто личные данные, а не что-то нужное здесь и сейчас. При этом обеспечить себе резервные мощности для самохостинга практически невозможно.
Ну или это будет стоить совсем других денег…
При этом не забываем, что наше оборудование коптит небо, расходует ресурс, стареет, что рано или поздно потребует его замены. У хостера это делает сам хостер, вы просто оплачиваете услугу по тарифу.
Ну ладно, то про дом, а теперь про работу. Так тут ровно все тоже самое. Да, нежелание выкладывать корпоративные данные в публичные облака понятно. Но кто мешает поднять свое облако на публичном хостинге?
По деньгам это будет плюс-минус стоимость самохостинга, но вы получите в разы более высокую надежность и доступность.
При этом контроль над системой у вас как был, так и остается. Но не болит голова по железу, ремонту, запчастям, электроснабжению, интернету и многому-многому другому.
Единственный вариант, когда самохостинг оправдан – это требования к безопасности и хранению данных, когда размещать их на внешних ресурсах может быть явно запрещено или обложено таким количеством требований, что проще как-нибудь самим.
Но это уже не про широкий доступ и вопрос доступности тут вообще может уходить на задний план.
В остальном самохостинг – это дорого и ненадежно. Оправдан только если вы просто хотите в это все поиграться с целью получить некоторый опыт.
👎31👍12🥱9👀8❤4
Диагностика правил брандмауэра Mikrotik
Часто бывает так, что конфигурация брандмауэра работает не так, как предполагалось и поэтому приходится заниматься диагностикой.
С чего начать? Со счетчиков, если счетчики правила не изменяются, значит трафик, попадающий под критерии в него не доходит.
В этом случае делаем копию правила и обязательно включаем лог. Потом переносим его в самый верх - если счетчики пошли, то хорошо. Если нет - то вы неверно указали критерии. В этом случае убираем по одному и находим тот, из-за которого правило не работало.
Потом начинаем опускать его вниз и проверяем работоспособность. Не забываем каждый раз сбросить счетчик.
Как только правило перестало работать - начинаем разбираться почему. Можем точно также начать убирать критерии и смотреть какой из них неверный.
А можем убрать сразу все критерии и в логе посмотреть какие пакеты сюда доходят, иногда именно после этого все становится ясно.
Теперь о том, как убирать и добавлять критерии. Есть критерии общие, а есть частные. Общими являются те критерии, под которые попадают большинство проходящих правило пакетов, например интерфейсы входа и выхода.
Потом идут более узкие критерии, скажем, протокол и еще более узкие, такие как порт.
Поэтому убирать критерии начинаем частных к широким, добавляем наоборот.
А если ничего не помогает? То смотрим в правило, после которого перестало работать, возможно неверные критерии выставлены именно в нем.
Другая ситуация - все работает как надо, а счетчик правила не работает. В этом случае выше срабатывает какое-то обобщающее правило.
В этом случае делаем копию правила и передвигаем его наверх до тех пор, пока не заработает счетчик. После чего анализируем правило ниже.
А дальше есть два варианта. Ваше правило избыточно и достаточно обойтись одним обобщающим, либо текущее правило построено неверно и в него попадает лишний трафик.
Часто бывает так, что конфигурация брандмауэра работает не так, как предполагалось и поэтому приходится заниматься диагностикой.
С чего начать? Со счетчиков, если счетчики правила не изменяются, значит трафик, попадающий под критерии в него не доходит.
В этом случае делаем копию правила и обязательно включаем лог. Потом переносим его в самый верх - если счетчики пошли, то хорошо. Если нет - то вы неверно указали критерии. В этом случае убираем по одному и находим тот, из-за которого правило не работало.
Потом начинаем опускать его вниз и проверяем работоспособность. Не забываем каждый раз сбросить счетчик.
Как только правило перестало работать - начинаем разбираться почему. Можем точно также начать убирать критерии и смотреть какой из них неверный.
А можем убрать сразу все критерии и в логе посмотреть какие пакеты сюда доходят, иногда именно после этого все становится ясно.
Теперь о том, как убирать и добавлять критерии. Есть критерии общие, а есть частные. Общими являются те критерии, под которые попадают большинство проходящих правило пакетов, например интерфейсы входа и выхода.
Потом идут более узкие критерии, скажем, протокол и еще более узкие, такие как порт.
Поэтому убирать критерии начинаем частных к широким, добавляем наоборот.
А если ничего не помогает? То смотрим в правило, после которого перестало работать, возможно неверные критерии выставлены именно в нем.
Другая ситуация - все работает как надо, а счетчик правила не работает. В этом случае выше срабатывает какое-то обобщающее правило.
В этом случае делаем копию правила и передвигаем его наверх до тех пор, пока не заработает счетчик. После чего анализируем правило ниже.
А дальше есть два варианта. Ваше правило избыточно и достаточно обойтись одним обобщающим, либо текущее правило построено неверно и в него попадает лишний трафик.
💯17🤮3❤2👀2🤝2
Пожароопасность ПК
Еще одна важная тема эксплуатации электронных устройств, особенно если эта эксплуатация происходит без постоянного контроля. Какая вероятность что ваш ПК и связанные с ним компоненты станут причиной пожара?
Можно строить множество предположений, но опираясь на собственный опыт и опыт собственной организации мы рискуем столкнуться с «ошибкой выжившего», т.е. если со мной этого не произошло, то и у остальных происходить не должно.
Поэтому будем опираться на статистику, нам удалось при помощи ИИ найти и обобщить статистику пожарной службы США за последние несколько лет.
Начнем со специализированных IT-помещений, не являющихся дата-центрами. За год в среднем регистрируется 1 259 пожаров, из которых 78% связаны с ИБП. Именно ИБП является наиболее пожароопасным элементом инфраструктуры.
По мере перехода с кислотно-свинцовых на литий-ионные батареи количество инцидентов с ИБП выросло на 66%. При этом 30% случаев вызвано возгоранием собственно батарей.
Согласно опросу страховой компании Aviva, 54% предприятий сталкивались с инцидентами, связанными с литий-ионными батареями (перегрев, искрение, задымление), а 13% пережили полноценные пожары.
Также все крупные пожары в дата-центрах были вызваны проблемами с аккумуляторами систем бесперебойного питания.
Поэтому, если в вашем домашнем хозяйстве или загородном доме, даче используются ИБП – им следует уделить наибольшее внимание. Не забывать про сроки сервисного обслуживания, а таже постоянно контролировать состояние батарей и их температуру.
Также не следует размещать ИБП рядом с горючими материалами, в мебели и т.д. и т.п. А в городе вообще подумать – а нужен ли он вам дома вообще?
Что касается домашних пожаров, по статистике все той же пожарной службы США по причине электроприборов ежегодно происходит 45 000-55 000 пожаров, что составляет 4.9% всех жилых пожаров и вторую по величине причину возгораний.
Первая причина – кухонное оборудование - 165,600 пожаров, 46%.
Так как бесперебойники дома явление достаточно редкое, то пальму первенства в своей категории держат удлинители – 4 600 домашних пожаров ежегодно или 10% в своей группе. Основные причины возгорания удлинителей – перегрузка по мощности, последовательное включение удлинителей только увеличивает вероятность пожара.
Это вполне реалистичная оценка, потому что я уверен, что каждый их нас имел инциденты с удлинителями – перегрев, оплавление пластика, шипение, искры. В жилых помещениях, где постоянно находятся люди это не представляет серьезной проблемы. Но вот при отсутствии должного присмотра – до беды недалеко.
Правило тут одно – берите удлинитель с запасом, хорошего, проверенного производителя. Оснащенный термовыключателем. И не собирайте гирлянды из удлинителей, особенно там, где присмотр за ними затруднен.
Блоки питания тоже горят, хотя достаточно редко - 120-150 пожаров в год (или 0,3% в своей категории). Но сбрасывать их со счетов тоже не стоит – раз в год и палка стреляет.
Если не брать блоки питания заведомо низкого качества, то основная проблема сводится к пыли, которая приводит к замыканию высоковольтной части с последующим возгоранием этой же самой пыли.
Но в целом вероятность пожара от ИБП или удлинителя куда более реальна.
Также довольно интересна статистика пожарной службы Великобритании, 25% пожаров на рабочих местах в офисах связана с возгоранием ПК. При этом статистика не раскрывает более подробную причину пожаров: ИБП, удлинитель, блок питания или еще что-либо.
При этом следует иметь ввиду, что несмотря на то, что пальму первенства по причинам пожара держат ИБП в группу риска входят любые устройства с АКБ, особенно литий-ионными и оставленные на длительное время без присмотра в режиме подключения к сети также способны привести к пожару.
Еще одна важная тема эксплуатации электронных устройств, особенно если эта эксплуатация происходит без постоянного контроля. Какая вероятность что ваш ПК и связанные с ним компоненты станут причиной пожара?
Можно строить множество предположений, но опираясь на собственный опыт и опыт собственной организации мы рискуем столкнуться с «ошибкой выжившего», т.е. если со мной этого не произошло, то и у остальных происходить не должно.
Поэтому будем опираться на статистику, нам удалось при помощи ИИ найти и обобщить статистику пожарной службы США за последние несколько лет.
Начнем со специализированных IT-помещений, не являющихся дата-центрами. За год в среднем регистрируется 1 259 пожаров, из которых 78% связаны с ИБП. Именно ИБП является наиболее пожароопасным элементом инфраструктуры.
По мере перехода с кислотно-свинцовых на литий-ионные батареи количество инцидентов с ИБП выросло на 66%. При этом 30% случаев вызвано возгоранием собственно батарей.
Согласно опросу страховой компании Aviva, 54% предприятий сталкивались с инцидентами, связанными с литий-ионными батареями (перегрев, искрение, задымление), а 13% пережили полноценные пожары.
Также все крупные пожары в дата-центрах были вызваны проблемами с аккумуляторами систем бесперебойного питания.
Поэтому, если в вашем домашнем хозяйстве или загородном доме, даче используются ИБП – им следует уделить наибольшее внимание. Не забывать про сроки сервисного обслуживания, а таже постоянно контролировать состояние батарей и их температуру.
Также не следует размещать ИБП рядом с горючими материалами, в мебели и т.д. и т.п. А в городе вообще подумать – а нужен ли он вам дома вообще?
Что касается домашних пожаров, по статистике все той же пожарной службы США по причине электроприборов ежегодно происходит 45 000-55 000 пожаров, что составляет 4.9% всех жилых пожаров и вторую по величине причину возгораний.
Первая причина – кухонное оборудование - 165,600 пожаров, 46%.
Так как бесперебойники дома явление достаточно редкое, то пальму первенства в своей категории держат удлинители – 4 600 домашних пожаров ежегодно или 10% в своей группе. Основные причины возгорания удлинителей – перегрузка по мощности, последовательное включение удлинителей только увеличивает вероятность пожара.
Это вполне реалистичная оценка, потому что я уверен, что каждый их нас имел инциденты с удлинителями – перегрев, оплавление пластика, шипение, искры. В жилых помещениях, где постоянно находятся люди это не представляет серьезной проблемы. Но вот при отсутствии должного присмотра – до беды недалеко.
Правило тут одно – берите удлинитель с запасом, хорошего, проверенного производителя. Оснащенный термовыключателем. И не собирайте гирлянды из удлинителей, особенно там, где присмотр за ними затруднен.
Блоки питания тоже горят, хотя достаточно редко - 120-150 пожаров в год (или 0,3% в своей категории). Но сбрасывать их со счетов тоже не стоит – раз в год и палка стреляет.
Если не брать блоки питания заведомо низкого качества, то основная проблема сводится к пыли, которая приводит к замыканию высоковольтной части с последующим возгоранием этой же самой пыли.
Но в целом вероятность пожара от ИБП или удлинителя куда более реальна.
Также довольно интересна статистика пожарной службы Великобритании, 25% пожаров на рабочих местах в офисах связана с возгоранием ПК. При этом статистика не раскрывает более подробную причину пожаров: ИБП, удлинитель, блок питания или еще что-либо.
При этом следует иметь ввиду, что несмотря на то, что пальму первенства по причинам пожара держат ИБП в группу риска входят любые устройства с АКБ, особенно литий-ионными и оставленные на длительное время без присмотра в режиме подключения к сети также способны привести к пожару.
🔥16👍13❤2🤔1
Куда собрались цены?
Последние недели многие столкнулись с резким ростом цен на оперативную память и не столь резким, но все-таки ощутимым ростом цен SSD дисков.
Для тех, кто откладывал покупку к Новому году получился крайне неприятный сюрприз. Особенно если учесть, что после Нового года нас ждет очередной виток повышения цен, только уже связанный с событиями в отечественной экономике.
В настоящий момент стоимость оперативной памяти по сравнению с осенью этого года выросла в 2,5 – 3 раза, стоимость твердотельных дисков примерно в 1,5 раза. Это означает, что средний системны блок «для работы и учебы» обойдется вам примерно на 10 000 рублей дороже.
Причины такого роста – ажиотажный спрос на память со стороны дата-центров искусственного интеллекта, что привело к глобальному дефициту и стремительному росту цен. И это пока не предел.
Поэтому если кто-то что-то планировал – то не откладывайте покупки на завтра, пока еще можно найти комплектующие из старых запасов по более-менее приемлемым ценам, но с каждым днем таких предложений все меньше.
Пересидеть тоже не получится, мировой дефицит, может быть, и снизится, только вот повышение НДС и отмена налоговых льгот сделают свое дело и о понижении цен останется только мечтать.
Последние недели многие столкнулись с резким ростом цен на оперативную память и не столь резким, но все-таки ощутимым ростом цен SSD дисков.
Для тех, кто откладывал покупку к Новому году получился крайне неприятный сюрприз. Особенно если учесть, что после Нового года нас ждет очередной виток повышения цен, только уже связанный с событиями в отечественной экономике.
В настоящий момент стоимость оперативной памяти по сравнению с осенью этого года выросла в 2,5 – 3 раза, стоимость твердотельных дисков примерно в 1,5 раза. Это означает, что средний системны блок «для работы и учебы» обойдется вам примерно на 10 000 рублей дороже.
Причины такого роста – ажиотажный спрос на память со стороны дата-центров искусственного интеллекта, что привело к глобальному дефициту и стремительному росту цен. И это пока не предел.
Поэтому если кто-то что-то планировал – то не откладывайте покупки на завтра, пока еще можно найти комплектующие из старых запасов по более-менее приемлемым ценам, но с каждым днем таких предложений все меньше.
Пересидеть тоже не получится, мировой дефицит, может быть, и снизится, только вот повышение НДС и отмена налоговых льгот сделают свое дело и о понижении цен останется только мечтать.
🤬18🌭1