HighLoad++ – Telegram
HighLoad++
6.32K subscribers
2.41K photos
159 videos
16 files
2.27K links
Официальный канал профессиональной конференции разработчиков высоконагруженных систем

Saint HighLoad++ 2026 пройдёт в июне в Санкт-Петербурге: https://highload.ru/spb/2026

Общаемся в чатике https://news.1rj.ru/str/HighLoadTalks
Download Telegram
Следующая лайв-трансляция - доклад Машинное обучение (lightGBM) и теория вероятностей для предсказания продаж и оптимизации запасов интернет-магазина OZON.RU / Александр Алексейцев (OZON.RU) — Найроби + Касабланка
В аннотации к докладу есть даже подготовительное задание. Я надеюсь, что все подготовились.
Следующую трансляцию будет вести Алексей Виноградов (подкаст и паблик Radio QA @radioqa https://www.facebook.com/radioqa/).
Любит заявлять, что вырос из программиста в тестировщики. Везде, где получится, пиарит библиотеку для UI тестирования Selenide.
Живёт в Германии, где работает на себя и того парня. Характер нордический, но это не точно.
Алексей уверенно владеет языками Java, Cobol, английским и немецким. Даже жаль, что эти знания ему сегодня не пригодятся!
Объявление победителей игр на стенде #Sbercity
◦ В 16:50 — Подарим power bank топ-50 первых участников викторины. #sbercity (профессор, вы уже познакомились с нашим почетным гостем?)
◦ В 18:00 — Чья «змейка» оказалась самой сытой? – наградим 3 сильнейших игроков теплыми худи

#sberteam #sbercity
В Калинграде был executive-коучинг, а сейчас начнется презентация новой конференции по цифровой трансформации
#трансляция #ML #lightGBM

Вообще-то я большие по качеству специалист, но в этот раз будем транслировать про количество. Повторил тервер - вероятность того, что пойму о чем речь 50% - или пойму, или нет.
Общая задача OZON - минимизировать необходимость человеческого фактора для прогноза работы со складом. То есть автоматизация с использованием машинного обучения. Еще будет про Spark
Склад не резиновый!
МАЕ Mean Absolute Error - чем меньше, тем лучше.
В 2018 и трава была зеленее, и небо голубее, и МАЕ меньше. На самом деле - не стоим на месте, данных больше, абсолютный значение ошибки растут.
Нашли сезонные товары по которым есть большая история (2 года) и с помощью их обучили алгоритм на другие товары
Примеры найденных кластеров. Вот этот волосатый график - про новогодние.
Чем дальше в лес, чем позже вылез или как random forest метод показал вполне приличный результат, другие просто не понадобились.
В общем МАРЕ (...Р - percentage) стало на 10% лучше, а ручного труда меньше. Ёлки в январе больше не заказываем.
Я не знаю почему такая высокая интерференция на фотках, конфа не про физику.
Будут слайды в PDF. Идея предыдущей картинки - разница в МАЕ микроскопическая, но правая модель значитеьно лучше покрывает дорогие товары (которых мало) поэтому она значительно лучше!
Ошибки всё еще будут, их не избежать. Но мы будем знать их масштаб и готовиться к этому.
Формула успеха.