Привет.
Пару дней потратил на то, чтобы настроить проксирование на openconnect сервер, чтобы он не занимал 443 порт.
Т. к. openconnect прикидывается обычным https сайтом, то слушает он соответственно 443 порт. А выделять целый vps под один openconnect жалко, хочется еще и хостить свои сайты🤩
Казалось бы, просто заводишь nginx, который будет слушать 443 порт и проксировать запросы на openconnect и остальные твои сайты. Но нет.
Оказалось, важно иметь версию nginx с модулем ssl_preread (благо можно собрать в докере), настроить правильную работу с сертификатами и правильно проксировать данные, что в итоге оказалось невозможно при помощи одного лишь nginx🤩
(думаю основная причина в необходимости proxy v2 для этого)
В итоге решилось все добавлением haproxy, который уже раскидывает запросы на openconnect и на nginx (этот уже сам разруливает дальше).
Инструкцию оставлю тут.
Было сложно. Особенно когда в сетях не особо шаришь. Кстати, пока копался узнал, что можно подцепиться из одного docker-compose файла к volume и network других контейнеров через параметр
Пару дней потратил на то, чтобы настроить проксирование на openconnect сервер, чтобы он не занимал 443 порт.
Т. к. openconnect прикидывается обычным https сайтом, то слушает он соответственно 443 порт. А выделять целый vps под один openconnect жалко, хочется еще и хостить свои сайты
Казалось бы, просто заводишь nginx, который будет слушать 443 порт и проксировать запросы на openconnect и остальные твои сайты. Но нет.
Оказалось, важно иметь версию nginx с модулем ssl_preread (благо можно собрать в докере), настроить правильную работу с сертификатами и правильно проксировать данные, что в итоге оказалось невозможно при помощи одного лишь nginx
(думаю основная причина в необходимости proxy v2 для этого)
В итоге решилось все добавлением haproxy, который уже раскидывает запросы на openconnect и на nginx (этот уже сам разруливает дальше).
Инструкцию оставлю тут.
Было сложно. Особенно когда в сетях не особо шаришь. Кстати, пока копался узнал, что можно подцепиться из одного docker-compose файла к volume и network других контейнеров через параметр
external:true - кайф.Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
nginx-ssl-preread/Dockerfile at master · mkoppanen/nginx-ssl-preread
Nginx docker image with SSL preread module. Contribute to mkoppanen/nginx-ssl-preread development by creating an account on GitHub.
❤4👏4
Привет!
Вчера, внезапно, мой облачный сервак забил память на 100%. Со мной такое уже не первый раз - раньше виновником был менеджер nodeJs процессов
Причем, удалять файл syslog.1, вроде как, не советуют, потому что есть вероятность что-то поломать в системе.
Поэтому копипастнул команду из интернета truncate -s 0 /var/log/syslog и все починилось.
Вообще, вот такой стек команд наковырял, который поможет быстро найти большие файлы и папки
Вчера, внезапно, мой облачный сервак забил память на 100%. Со мной такое уже не первый раз - раньше виновником был менеджер nodeJs процессов
pm2, который написал логов на пару гигабайт. Но я его усмирил плагином pm2-logrotate. В этот раз виновником были обычные системные логи syslog, которые, вроде как, периодически архивируются (не шарю чесн говоря), но все равно хранятся на диске (в этот раз файлы занимали около 17 гигов).Причем, удалять файл syslog.1, вроде как, не советуют, потому что есть вероятность что-то поломать в системе.
Поэтому копипастнул команду из интернета truncate -s 0 /var/log/syslog и все починилось.
Вообще, вот такой стек команд наковырял, который поможет быстро найти большие файлы и папки
df -h - посмотреть какие диски забитыfind / -size +300M -ls - покажет все файлы больше указанного значения (300 Мб)du -ch --max-depth=4 /var/log покажет папки с их размером указанному путиls -lSh /var/log - список файлов с размером🔥4👍3😁1
Привет!
В общем, у меня теперь есть ПРОДУКТ! 🚀
Я, как человек, который очень чутко слышит запросы общества, постарался объединить 2 популярные вещи: эзотерику и котиков (популярных в 2010-х).
*голосом продажника*
Вы только посмотрите на этого бота Астро-Кота. Бот Астро-Кот присылает вам гороскоп (чаще с инфой, что ваш ждёт понос, финансовые неудачи, смерть, но вы теперь информированны, а значит готовы), раскладывает для вас Оракула, позволяет отправить запрос ко Вселенной (можно попросить перенести понос на завтра например, причем голосовухой!) и еще всякие мелочи!
Конечно, часть функционала доступна по подписке (мы же в светлом капиталистическом будущем живем), но она стоит меньше стакана лавандового рафа.
В общем, постарался запилить бота с удобным флоу по общению (не уверен что вышло), какой то адекватной архитектурой (не чистая, но трехслойная, она попроще), а так же реализовал процесс оплаты через ЮКассу (если б они еще TelegramBotAPI работали, было бы вообще норм).
Погрузился в Telegraf.js - штука мощная, предлагает подход конечных автоматов (как раз то, что нужно при общении бота с юзером). Плюс позволяет подключать разные middleware, в итоге можешь прокидывать телеграмовский аптейт по всяким слоям.
Еще попробовал Dokku для удобного деплоя. Как обычно, потратил пару вечеров, чтоб понять, что я делаю не так, но в итоге все работает.
На днях, надеюсь, допишу статью, там расскажу с чем заморочился и че для себя вынес)
Кароч залетайте, смотрите, потыкайте, попробуйте положить)
UPD: есть демо подписка на 7 дней!!!
В общем, у меня теперь есть ПРОДУКТ! 🚀
Я, как человек, который очень чутко слышит запросы общества, постарался объединить 2 популярные вещи: эзотерику и котиков (популярных в 2010-х).
*голосом продажника*
Вы только посмотрите на этого бота Астро-Кота. Бот Астро-Кот присылает вам гороскоп (чаще с инфой, что ваш ждёт понос, финансовые неудачи, смерть, но вы теперь информированны, а значит готовы), раскладывает для вас Оракула, позволяет отправить запрос ко Вселенной (можно попросить перенести понос на завтра например, причем голосовухой!) и еще всякие мелочи!
Конечно, часть функционала доступна по подписке (мы же в светлом капиталистическом будущем живем), но она стоит меньше стакана лавандового рафа.
В общем, постарался запилить бота с удобным флоу по общению (не уверен что вышло), какой то адекватной архитектурой (не чистая, но трехслойная, она попроще), а так же реализовал процесс оплаты через ЮКассу (если б они еще TelegramBotAPI работали, было бы вообще норм).
Погрузился в Telegraf.js - штука мощная, предлагает подход конечных автоматов (как раз то, что нужно при общении бота с юзером). Плюс позволяет подключать разные middleware, в итоге можешь прокидывать телеграмовский аптейт по всяким слоям.
Еще попробовал Dokku для удобного деплоя. Как обычно, потратил пару вечеров, чтоб понять, что я делаю не так, но в итоге все работает.
На днях, надеюсь, допишу статью, там расскажу с чем заморочился и че для себя вынес)
Кароч залетайте, смотрите, потыкайте, попробуйте положить)
UPD: есть демо подписка на 7 дней!!!
Telegram
АстроКот | Астролог с лапками
Я - Кот Астролог 🐈⬛ Я расскажу вам о вашем прошлом, настоящем и будущем.
🔥18🥴1
Привет!
Запилил статейку о том, какие задачи перед собой ставил при разработке АстроКота и какие велосипеды напилил в процессе. Кому интересно, прошу по ссылке.
https://jem-space.ru/tg-bot-with-telegraf/
Запилил статейку о том, какие задачи перед собой ставил при разработке АстроКота и какие велосипеды напилил в процессе. Кому интересно, прошу по ссылке.
https://jem-space.ru/tg-bot-with-telegraf/
Jem Space
Разработка Telegram бота на NodeJs + Telegraf.js
Разработка ботов тема не новая и затертая до дыр. В сети полно туториалов как сделать простого Телеграм-бота или не простого, и каждый спикер предлагает какой-то свой подход. Ведь, действительно, один и тот же функционал можно реализовать по-разному. И, к…
👍4🔥2👏2
Forwarded from UX Live 🔥
This media is not supported in your browser
VIEW IN TELEGRAM
Когда посмотрел уже все на порнхабе и придумал собственный жанр
❤5😁5🔥2❤🔥1🤡1
Дарова!
Щас развоняюсь как дед.
Github ввел двухфакторную аутентификацию. И теперь как дед пытаюсь разобраться с какими то ссаными аутентификаторами. Либо ставь какую то херню на телефон или комп либо расширение для хрома. Отправить мне код на почту они блядь не могут, а смс естественно в Россию не доходят.
Ну это ладно, но то что он предлагают это мать его платные решения типа 1Password. Плати 2 доллара в месяц чтобы логиниться на сайт. Алооо, вы там ох*ели? Либо приложение от Копрософта с битой ссылкой на установку.
Ладно, мож я че не так понял. Пойду разбираться)
Если кто уже понял как сделать чтоб нормально было, черканите деду)
UPD: деду помогли - google authenticator норм тема, ставится как расширение, все бесплатно. Че бы его сразу было не предложить вместо 1Password и копрософт хз)
Щас развоняюсь как дед.
Github ввел двухфакторную аутентификацию. И теперь как дед пытаюсь разобраться с какими то ссаными аутентификаторами. Либо ставь какую то херню на телефон или комп либо расширение для хрома. Отправить мне код на почту они блядь не могут, а смс естественно в Россию не доходят.
Ну это ладно, но то что он предлагают это мать его платные решения типа 1Password. Плати 2 доллара в месяц чтобы логиниться на сайт. Алооо, вы там ох*ели? Либо приложение от Копрософта с битой ссылкой на установку.
Ладно, мож я че не так понял. Пойду разбираться)
Если кто уже понял как сделать чтоб нормально было, черканите деду)
UPD: деду помогли - google authenticator норм тема, ставится как расширение, все бесплатно. Че бы его сразу было не предложить вместо 1Password и копрософт хз)
🙈4👏1🤝1
Ладно, вот вам задачка.
Есть 2стула пакета в node_modules, которые использую третий как зависимость. Но в зависимостях он разной версии.
Один пакет нормально резолвит его. Второй же пытается найти его в общих node_modules, вместо своих внутренних (хотя во внутренних он есть).
Какие есть варианты, чтобы донести до второго пакета, что нужно резолвить его из внутренних модулей?
Если поставить этот пакет в общие модули, сломаются импорты первого пакета 🤯
Пробовал
Надеюсь щас набегут боты в коменты и все мне расскажут)
Есть 2
Один пакет нормально резолвит его. Второй же пытается найти его в общих node_modules, вместо своих внутренних (хотя во внутренних он есть).
Какие есть варианты, чтобы донести до второго пакета, что нужно резолвить его из внутренних модулей?
Если поставить этот пакет в общие модули, сломаются импорты первого пакета 🤯
Пробовал
resolutions в package.json - не помогло. Пока рабочее решения - поправить руками импорты и накатывать патч на postinstall через patch-package.Надеюсь щас набегут боты в коменты и все мне расскажут)
Forwarded from Даниэль Ленц - блог
This media is not supported in your browser
VIEW IN TELEGRAM
Как побороть сдвиг сайта из-за появление скрола
Недавно увидел потрясающий CSS хак как компенсировать сдвиг сайта, когда у вас появляется скролл на странице. Вся верстка будто прыгает, появлется так называемый CLS – content layout shift. Нехорошо. Глаз раздражает и приводит к мискликам (смотри комментарии к посту).
А хак до жути простой:
100vw – ширина всей страницы с учетом скролбара
100% – ширина страницы без учета скролбара
Вычитаем и получаем заветные 15px, когда скролл есть и 0px, когда его нет. А дальше добавляем куда вам нужно – будь это padding, margin, top, left или еще чего. Просто и гениально.
А пост пишу, потому что удалось сразу проверить в проде как оно работает. Весь дифф до и после компенсации видно на видео.
Не забывайте про мелочи (а тем более про CLS) и тогда сайтом будет действительно приятно пользоваться.
@dlents
Недавно увидел потрясающий CSS хак как компенсировать сдвиг сайта, когда у вас появляется скролл на странице. Вся верстка будто прыгает, появлется так называемый CLS – content layout shift. Нехорошо. Глаз раздражает и приводит к мискликам (смотри комментарии к посту).
А хак до жути простой:
padding-left: calc(100vw - 100%); // 15px
100vw – ширина всей страницы с учетом скролбара
100% – ширина страницы без учета скролбара
Вычитаем и получаем заветные 15px, когда скролл есть и 0px, когда его нет. А дальше добавляем куда вам нужно – будь это padding, margin, top, left или еще чего. Просто и гениально.
А пост пишу, потому что удалось сразу проверить в проде как оно работает. Весь дифф до и после компенсации видно на видео.
Не забывайте про мелочи (а тем более про CLS) и тогда сайтом будет действительно приятно пользоваться.
@dlents
🔥6⚡2👍2
Привет!
Вчера был мой последний рабочий день в компании 😢
В Артезио проработал почти 7 лет, а на проекте Партнёрского кабинета почти 6. Есть повод немного порефлексировать (интересно, скорее всего, не будет, но зафиксировать нужно).
В компанию пришел неокрепшим мидлом с заниженной самооценкой, т к на своем первом проекте прилично отхватывал от лида и получал фидбеки ниже среднего (в чем есть и моя вина, потому что качество кода было сомнительное 🙈).
В Артезио я попал на проект Партнёрского кабинета Альфа-Банка, который нужно было писать с нуля. Для меня это был интересный опыт, т к никогда еще я не был на начальных этапах проектов. Прикольно ощущать, что клиенты начинают пользоваться абсолютно новым продуктом, и ты приложил руку к тому, с чем они взаимодействуют. За время проекта у нас были ежегодные аттестации и сборы фидбека, на которых мне прилетали нормальные оценки (что сначала было странно для меня). Так я почувствовал немного больше уверенности в себе.
Здесь, конечно, скрывалась одна из проблем - я начал клепать код без критического взгляда на него. Не то чтобы я не думал над оптимизацией функций, но вот гибкости и чистоты не хватало. Был некий флоу по разработке фич в основе которого была react-redux архитектура. Есть компоненты, они вызывают экшены, в которых выполняются запросы к мидлу, результат кладется в стор и все работает. Бизнес логика размазана по всему приложению…
Вопросы архитектуры меня волновали и тогда, но ответов на них особо не находил (про выделение бизнес логики, clean и feature-sliced я узнал года 3-4 назад). Да и думать честно говоря было некогда - нужно было быстро наращивать функционал приложения. Работали мы без особого планирования и спринтов, просто брали приоритетные задачи в разработку и старались сделать быстро. Но, замечу, без овертаймов!
Здесь крылась вторая проблема - нет времени на тесты. При оценке задач я всегда ориентировался только на этап разработки (+ багфикс) и забывал про тесты. Точнее я все думал, что надо когда нибудь попросить времени на них, но времени не было. Только потом я понял/узнал что продать бизнесу тесты невозможно. Их нужно изначально закладывать в оценку.
Третья проблема близка ко второй - отсутствие документации. По тестам можно понять как должен работать тот или иной процесс. Но можно вести документацию в той же конфлюенс. Мы этого не делали. На тот момент, как и что должно работать знал наш ПО + тестировщик, ну и разрабы, которые имплементили фичи. В какой то момент ПО ушел и частенько у нас начали сыпаться вопросы "А это всегда так работало или это баг?", ответить на которые мы могли только покопавшись в коде.
В какой-то момент обороты по реализации фич поутихли и проблемы кодовой базы уже не списать на то, что тебя торопили. По мере возможности я старался привести очевидные WTF части к нормальному виду. Особенно после того, как подумал, что если буду уходить с проекта, передавать его в таком виде оч стыдно. Это прям стало реальным мотиватором к тому, чтобы писать лучше. Да и вообще пришло осознание (хотя и поздно), что если ты один фронт, то этот репозиторий чисто твой проект и ты за все в ответе. За то, что у проекта нет нормального Read.me, за то что там до сих пор 4 версия react-router, древний redux без хуков и 4 вебпак.
▫️Многое удалось поправить, а то что не удалось - вроде работает и жалоб нет (надеюсь, кек)
▫️Начал вести документацию по разработке на конфлюенс.
▫️Попробовал подход чистой архитектуры для фронтенда (понял что на самом деле тяжело и долго и не всегда нужно), решил что выделение моделей, функций бизнес логики, прикладного слоя и адаптеров в принципе достаточно.
▫️Перестал забивать на линтер
А вообще, на проекте была классная отзывчивая команда и хорошо отлаженные процессы. За все время не овертаймили ни разу. Компетенции внутри команды хватало, чтобы решать почти все проблемы проекта. В банке за это время уже появились свои стандарты разработки по фронту, которые помогают не свернуть на скользкую дорожку "сделать побыстрее и в прод".
Короче, классный опыт. Что-то из него вынес. Посмотрим, что будет дальше 😅
Вчера был мой последний рабочий день в компании 😢
В Артезио проработал почти 7 лет, а на проекте Партнёрского кабинета почти 6. Есть повод немного порефлексировать (интересно, скорее всего, не будет, но зафиксировать нужно).
В компанию пришел неокрепшим мидлом с заниженной самооценкой, т к на своем первом проекте прилично отхватывал от лида и получал фидбеки ниже среднего (в чем есть и моя вина, потому что качество кода было сомнительное 🙈).
В Артезио я попал на проект Партнёрского кабинета Альфа-Банка, который нужно было писать с нуля. Для меня это был интересный опыт, т к никогда еще я не был на начальных этапах проектов. Прикольно ощущать, что клиенты начинают пользоваться абсолютно новым продуктом, и ты приложил руку к тому, с чем они взаимодействуют. За время проекта у нас были ежегодные аттестации и сборы фидбека, на которых мне прилетали нормальные оценки (что сначала было странно для меня). Так я почувствовал немного больше уверенности в себе.
Здесь, конечно, скрывалась одна из проблем - я начал клепать код без критического взгляда на него. Не то чтобы я не думал над оптимизацией функций, но вот гибкости и чистоты не хватало. Был некий флоу по разработке фич в основе которого была react-redux архитектура. Есть компоненты, они вызывают экшены, в которых выполняются запросы к мидлу, результат кладется в стор и все работает. Бизнес логика размазана по всему приложению…
Вопросы архитектуры меня волновали и тогда, но ответов на них особо не находил (про выделение бизнес логики, clean и feature-sliced я узнал года 3-4 назад). Да и думать честно говоря было некогда - нужно было быстро наращивать функционал приложения. Работали мы без особого планирования и спринтов, просто брали приоритетные задачи в разработку и старались сделать быстро. Но, замечу, без овертаймов!
Здесь крылась вторая проблема - нет времени на тесты. При оценке задач я всегда ориентировался только на этап разработки (+ багфикс) и забывал про тесты. Точнее я все думал, что надо когда нибудь попросить времени на них, но времени не было. Только потом я понял/узнал что продать бизнесу тесты невозможно. Их нужно изначально закладывать в оценку.
Третья проблема близка ко второй - отсутствие документации. По тестам можно понять как должен работать тот или иной процесс. Но можно вести документацию в той же конфлюенс. Мы этого не делали. На тот момент, как и что должно работать знал наш ПО + тестировщик, ну и разрабы, которые имплементили фичи. В какой то момент ПО ушел и частенько у нас начали сыпаться вопросы "А это всегда так работало или это баг?", ответить на которые мы могли только покопавшись в коде.
В какой-то момент обороты по реализации фич поутихли и проблемы кодовой базы уже не списать на то, что тебя торопили. По мере возможности я старался привести очевидные WTF части к нормальному виду. Особенно после того, как подумал, что если буду уходить с проекта, передавать его в таком виде оч стыдно. Это прям стало реальным мотиватором к тому, чтобы писать лучше. Да и вообще пришло осознание (хотя и поздно), что если ты один фронт, то этот репозиторий чисто твой проект и ты за все в ответе. За то, что у проекта нет нормального Read.me, за то что там до сих пор 4 версия react-router, древний redux без хуков и 4 вебпак.
▫️Многое удалось поправить, а то что не удалось - вроде работает и жалоб нет (надеюсь, кек)
▫️Начал вести документацию по разработке на конфлюенс.
▫️Попробовал подход чистой архитектуры для фронтенда (понял что на самом деле тяжело и долго и не всегда нужно), решил что выделение моделей, функций бизнес логики, прикладного слоя и адаптеров в принципе достаточно.
▫️Перестал забивать на линтер
А вообще, на проекте была классная отзывчивая команда и хорошо отлаженные процессы. За все время не овертаймили ни разу. Компетенции внутри команды хватало, чтобы решать почти все проблемы проекта. В банке за это время уже появились свои стандарты разработки по фронту, которые помогают не свернуть на скользкую дорожку "сделать побыстрее и в прод".
Короче, классный опыт. Что-то из него вынес. Посмотрим, что будет дальше 😅
❤🔥8👍4🎉1
Autodesk Fusion 360 for personal use
Сохраню ссылку на бесплатную версию Fusion 360 для личного использования. При поиске на сайте эту версию что-то особо не предлагают, а из гугла - доступна по первой ссылке. Работает, правда, только при регистрации через vpn.
https://www.autodesk.com/products/fusion-360/personal
Сохраню ссылку на бесплатную версию Fusion 360 для личного использования. При поиске на сайте эту версию что-то особо не предлагают, а из гугла - доступна по первой ссылке. Работает, правда, только при регистрации через vpn.
https://www.autodesk.com/products/fusion-360/personal
Autodesk
Compare Autodesk Fusion vs Autodesk Fusion for Personal Use | Autodesk
Compare features and functionality between Autodesk Fusion for personal use and Autodesk Fusion, formerly known as Fusion 360, and learn which CAD, CAM, CAE and PCB software is the right solution for you.
❤🔥5
Привет!
Давно слышал, что на айфонах с 13 версии появился лидар, с помощью которого можно сканить 3D объекты. Находил инфу, что точность у него 0.3 мм, так что многообещающе. Все хотел попробовать.
Появилась возможность поиграть с ним, и в результате немного разочарован. Чтобы получить нормальную модельку, видимо, нужно нормально поплясать (либо просто руки попрямее)
Снимал на scaniverse.
Кстати, если у кого нормально получалось, расскажите че как)
Давно слышал, что на айфонах с 13 версии появился лидар, с помощью которого можно сканить 3D объекты. Находил инфу, что точность у него 0.3 мм, так что многообещающе. Все хотел попробовать.
Появилась возможность поиграть с ним, и в результате немного разочарован. Чтобы получить нормальную модельку, видимо, нужно нормально поплясать (либо просто руки попрямее)
Снимал на scaniverse.
Кстати, если у кого нормально получалось, расскажите че как)
🦄4
Всем привет.
На днях столкнулся с задачей, что при отправке формы с типом
В rtk-query и axios такой конфигурации не нашел, как и в клиентском
Глядя в Network, видно, что браузер сам добавляет
В итоге выход один - генерить руками тело запроса и преобразовывать его в Blob.
Генерим заголовки как текст, добавляем 2 пустые сроки, преобразуем в blob и добавляем в массив. Затем преобразуем файл в blob и добавляем в массив. И так со всеми файлами. Не забываем разделить поля при помощь boundery типа
Из всех блобов делаем один общий
И отправляемнахуй
Спасибо чатгпт за алгоритм (я бы охерел это руками писать).
Chrome кстати говорит, что это пустая FormData, но бекенд успешно сохраняет файлы из запроса.
На днях столкнулся с задачей, что при отправке формы с типом
multipart/form-data нужно было добавить отдельные заголовки для каждого файла из формы. Задача немного нестандартная и как средствами клиентского JS ее решить не сразу понятно.В rtk-query и axios такой конфигурации не нашел, как и в клиентском
FormData. В интернете гуглится мало инфы и часто встречается решение с использованием пакета form-data (но он для node).Глядя в Network, видно, что браузер сам добавляет
Content-Disposition и Content-Type. В спецификации же к http написано, что можно добавлять отдельные заголовки для полей. В итоге выход один - генерить руками тело запроса и преобразовывать его в Blob.
Генерим заголовки как текст, добавляем 2 пустые сроки, преобразуем в blob и добавляем в массив. Затем преобразуем файл в blob и добавляем в массив. И так со всеми файлами. Не забываем разделить поля при помощь boundery типа
----WebKitFormBoundary{random_string}Из всех блобов делаем один общий
new Blob(blobs, {
type: `multipart/form-data; boundary=${boundary}`,
});
И отправляем
Спасибо чатгпт за алгоритм (я бы охерел это руками писать).
Chrome кстати говорит, что это пустая FormData, но бекенд успешно сохраняет файлы из запроса.
🔥6🤯1😎1
Так, нужна помощь зала. Вдруг кто шарит в ремонте кондеев.
Есть пациент фирмы Gree с ошибкой датчика температуры. Я откопал виновника и замерил сопротивление. Но таблиц соответствия температуры и сопротивления не нашел.
Эксперты, есть смысл заказывать и ждать датчик, либо может дело в недостаточном уровне фреона (т. к кулер крутится и патрубки холодные у внешнего блока, а до внутреннего холод не доходит)?
UPD: короч я так подумал, что кондей работает на температуре 18 градусов, а из за того что не хватает фреона через 20 минут начинает думать что неисправен датчик (ведь за это время он по идее должен был уже охладиться).
Есть пациент фирмы Gree с ошибкой датчика температуры. Я откопал виновника и замерил сопротивление. Но таблиц соответствия температуры и сопротивления не нашел.
Эксперты, есть смысл заказывать и ждать датчик, либо может дело в недостаточном уровне фреона (т. к кулер крутится и патрубки холодные у внешнего блока, а до внутреннего холод не доходит)?
UPD: короч я так подумал, что кондей работает на температуре 18 градусов, а из за того что не хватает фреона через 20 минут начинает думать что неисправен датчик (ведь за это время он по идее должен был уже охладиться).
🤯4👍3😢1
Media is too big
VIEW IN TELEGRAM
eto ya трачу 3 часа на то, что можно купить за 300 рублей.
🔥17👍5❤🔥4👏2😁2