Forwarded from Машинное обучение от ИЦ "ГЕВИССТА"
Марк – американец русского происхождения. Традиционно он приезжает на годовщины компании, ну и постоянно смешит меня своими реакциями.
- Слышал, в марте прошлого года у Яндекс.Еды произошла утечка данных?
- Ого, и сколько в итоге они по индивидуальным, коллективным искам выплатили?
- Слышал, в марте прошлого года у Яндекс.Еды произошла утечка данных?
- Ого, и сколько в итоге они по индивидуальным, коллективным искам выплатили?
#ml #voting #ensembling #err #borda #bucklin #condorcet #coombs #reciprocalranking #instantrunoff #fs #featureselection
Гуглил методы голосования (БордА и прочее), и неожиданно наткнулся на их применение в... отборе признаков! Вот уж чего никогда не видел раньше. Есть некий шанс, что это полезно, т.к. один из методов такого "демократического ансамблирования" (Ensemble Reciprocal Ranking) зарулил "лучший одиночный метод" (это был SHAP).
https://towardsdatascience.com/ensemble-feature-selection-for-machine-learning-c0df77b970f9
Гуглил методы голосования (БордА и прочее), и неожиданно наткнулся на их применение в... отборе признаков! Вот уж чего никогда не видел раньше. Есть некий шанс, что это полезно, т.к. один из методов такого "демократического ансамблирования" (Ensemble Reciprocal Ranking) зарулил "лучший одиночный метод" (это был SHAP).
https://towardsdatascience.com/ensemble-feature-selection-for-machine-learning-c0df77b970f9
#dl #tensorflow
Сильно удивился, что с релиза 2.11 TF перестал поддерживать GPU на винде. Да и правильно, хрен с ней, ведь в мире никто не пользуется виндой. Но вроде появились какие-то плагины directml, которые якобы могут задействовать на винде любой GPU, в т.ч. и от AMD. Тестить пока страшно. Кстати, версии куда, которые использует TF, по-прежнему отстают от того что релизит Нвидия. отстают уже почти на 2 года. почему команде tensorflow настолько насрать на их продукт?
conda install -c conda-forge cudatoolkit=11.2 cudnn=8.1.0
# Anything above 2.10 is not supported on the GPU on Windows Native
pip install "tensorflow<2.11"
При том, что текущая версия Cuda уже 12+.
Сильно удивился, что с релиза 2.11 TF перестал поддерживать GPU на винде. Да и правильно, хрен с ней, ведь в мире никто не пользуется виндой. Но вроде появились какие-то плагины directml, которые якобы могут задействовать на винде любой GPU, в т.ч. и от AMD. Тестить пока страшно. Кстати, версии куда, которые использует TF, по-прежнему отстают от того что релизит Нвидия. отстают уже почти на 2 года. почему команде tensorflow настолько насрать на их продукт?
conda install -c conda-forge cudatoolkit=11.2 cudnn=8.1.0
# Anything above 2.10 is not supported on the GPU on Windows Native
pip install "tensorflow<2.11"
При том, что текущая версия Cuda уже 12+.
TensorFlow
GPU device plugins | TensorFlow
😨1
#catboost
В Катбусте тоже всем пофигу на баги, похоже. Уже вторую неделю висит issue, что с Precision и F1 в early stopping модели не обучаются из-за неправильного дефолта при расчёте точности. Всем насрать, хотя и в чате у них этот вопрос обсудили, и даже с другим юзером из чата сами нашли причину. На производительность тоже пофиг, roc_auc у них считается даже немного медленнее, чем в sklearn. На мой пост о том, что с помощью numba и алгоритма из fastauc можно запросто ускорить её расчёт в 8 раз никто из команды не отреагировал. Я был об этой команде лучшего мнения, видимо, зря.
В Катбусте тоже всем пофигу на баги, похоже. Уже вторую неделю висит issue, что с Precision и F1 в early stopping модели не обучаются из-за неправильного дефолта при расчёте точности. Всем насрать, хотя и в чате у них этот вопрос обсудили, и даже с другим юзером из чата сами нашли причину. На производительность тоже пофиг, roc_auc у них считается даже немного медленнее, чем в sklearn. На мой пост о том, что с помощью numba и алгоритма из fastauc можно запросто ускорить её расчёт в 8 раз никто из команды не отреагировал. Я был об этой команде лучшего мнения, видимо, зря.
GitHub
Precision calculation error in Early Stopping. Request to add pos_label. · Issue #2422 · catboost/catboost
Problem: catboost version: 1.2 Operating System: Win CPU: + GPU: + Я думаю, в коде catboost вычисляющем precision где-то перепутаны предсказания и истинные значения, поэтому ранняя остановка по точ...
🎉1💔1
#ml #mlops #mlflow #me #metrics #multimodel
Очень срезонировало это выступление. Я сейчас разрабатываю как раз такую систему, с мультиметриками, несколькими моделями разных классов. Даже ещё добавляю сразу ансамбли. Про ME (Maximum Error) как обязательную regression-метрику кажется очень полезно, никогда раньше не слышал. От себя бы добавил в обязательные метрики классификации что-то калибрационное: MAE/std над бинами калибрационной кривой, к примеру.
https://www.youtube.com/watch?v=VJWrSTAlxEs
Очень срезонировало это выступление. Я сейчас разрабатываю как раз такую систему, с мультиметриками, несколькими моделями разных классов. Даже ещё добавляю сразу ансамбли. Про ME (Maximum Error) как обязательную regression-метрику кажется очень полезно, никогда раньше не слышал. От себя бы добавил в обязательные метрики классификации что-то калибрационное: MAE/std над бинами калибрационной кривой, к примеру.
https://www.youtube.com/watch?v=VJWrSTAlxEs
YouTube
Андрей Зубков - Без чего с ML в проде жизнь не мила
Data Fest 2023:
https://ods.ai/events/datafestonline2023
Трек "MLOps":
https://ods.ai/tracks/df23-mlops
Наши соц.сети:
Telegram: https://news.1rj.ru/str/datafest
Вконтакте: https://vk.com/datafest
https://ods.ai/events/datafestonline2023
Трек "MLOps":
https://ods.ai/tracks/df23-mlops
Наши соц.сети:
Telegram: https://news.1rj.ru/str/datafest
Вконтакте: https://vk.com/datafest
#docs #keras #bollocks
Пример плохо, по-мудацки написанной документации.
Вроде технически все опции описаны, но не сказано, в какой ситуации какую применять и зачем. Будущий юзер отрывает доку, читает, и не может понять, а нафига это всё нагородили вообще. Например: когда может понадобиться mask_token? Какая выгода от multi_hot? итд
https://keras.io/api/layers/preprocessing_layers/categorical/string_lookup/#stringlookup-class
Хреновая дока ведёт к тому, что люди постоянно задают на других ресурсах вопросы: а в чём различие, а какую опцию мне лучше использовать, а что это даст? типа этого. Особенно это касается специфичной для продукта функциональности, которая не является общеизвестной в области, или вообще является "уникальной фишкой". А всё потому, что разработчики поленились и не подумали объяснить концепции на высоком уровне в форме, понятной для пользователей. То же самое, кстати, чувствуется при чтении документации Catboost.
Пример плохо, по-мудацки написанной документации.
Вроде технически все опции описаны, но не сказано, в какой ситуации какую применять и зачем. Будущий юзер отрывает доку, читает, и не может понять, а нафига это всё нагородили вообще. Например: когда может понадобиться mask_token? Какая выгода от multi_hot? итд
https://keras.io/api/layers/preprocessing_layers/categorical/string_lookup/#stringlookup-class
Хреновая дока ведёт к тому, что люди постоянно задают на других ресурсах вопросы: а в чём различие, а какую опцию мне лучше использовать, а что это даст? типа этого. Особенно это касается специфичной для продукта функциональности, которая не является общеизвестной в области, или вообще является "уникальной фишкой". А всё потому, что разработчики поленились и не подумали объяснить концепции на высоком уровне в форме, понятной для пользователей. То же самое, кстати, чувствуется при чтении документации Catboost.
keras.io
Keras documentation: StringLookup layer
#featureselection #masters #mlgems
Нашёл в книге Тима Мастерса "Data Mining Algorithms in C++" такую любопытную модификацию Forward Selection:
Forward Selection Preserving Subsets
"There is a straightforward extension of forward stepwise selection that can often produce a significant improvement in performance at little cost. We simply preserve the best few candidates at each step, rather than preserving just the single best. For example, we may find that X4, X7, and X9 are the three best single variables. (Three is an arbitrary choice made by the developer, considering the trade-off between quality and compute time.) We then test X4 paired with each remaining candidate, X7 paired with each, and finally X9 paired with each. Of these many pairs tested, we identify the best three pairs. These pairs will each be tested with the remaining candidates as trios, and so forth. The beauty of this algorithm is that we gain a lot with relatively little cost. The chance of missing an important combination is greatly reduced, while compute time goes up linearly, not exponentially. I highly recommend this approach."
Нашёл в книге Тима Мастерса "Data Mining Algorithms in C++" такую любопытную модификацию Forward Selection:
Forward Selection Preserving Subsets
"There is a straightforward extension of forward stepwise selection that can often produce a significant improvement in performance at little cost. We simply preserve the best few candidates at each step, rather than preserving just the single best. For example, we may find that X4, X7, and X9 are the three best single variables. (Three is an arbitrary choice made by the developer, considering the trade-off between quality and compute time.) We then test X4 paired with each remaining candidate, X7 paired with each, and finally X9 paired with each. Of these many pairs tested, we identify the best three pairs. These pairs will each be tested with the remaining candidates as trios, and so forth. The beauty of this algorithm is that we gain a lot with relatively little cost. The chance of missing an important combination is greatly reduced, while compute time goes up linearly, not exponentially. I highly recommend this approach."
👍2
#featureselection #masters #mlgems #chisquare #cramerv
The chi-square test need not be restricted to categorical variables. It is legitimate to partition the range of numeric variables into bins and treat these bins as if they were categories. Of course, this results in some loss of information because variation within each bin is ignored. But if the data is noisy or if one wants to detect relationship patterns of any form without preconceptions, a chi-square formulation may be appropriate.
Chi-squared itself has little intuitive meaning in terms of its values. It is highly dependent on the number of cases and the number of bins for each variable, so any numeric value of chi-squared is essentially uninterpretable. This can be remedied by a simple monotonic transformation to produce a quantity called Cramer’s V.
The chi-square test need not be restricted to categorical variables. It is legitimate to partition the range of numeric variables into bins and treat these bins as if they were categories. Of course, this results in some loss of information because variation within each bin is ignored. But if the data is noisy or if one wants to detect relationship patterns of any form without preconceptions, a chi-square formulation may be appropriate.
Chi-squared itself has little intuitive meaning in terms of its values. It is highly dependent on the number of cases and the number of bins for each variable, so any numeric value of chi-squared is essentially uninterpretable. This can be remedied by a simple monotonic transformation to produce a quantity called Cramer’s V.
#news #tesla
"В 2020 году один из институциональных инвесторов Tesla, пенсионный фонд, подал иск к членам совета директоров компании, обвинив их в получении неоправданно высоких вознаграждений за свою деятельность в виде акций, которые они получали с июня 2017 года. Суд в итоге обязал членов совета директоров Tesla вернуть компании $735 млн.
Как поясняет CNBC, решение по отдельному иску к Илону Маску (Elon Musk), который оспаривает справедливость выплаты ему $56 млрд компенсации за работу, пока не принято, а потому будет вынесено чуть позже. Членам совета директоров, тем не менее, предстоит вернуть компании $735 млн, которые были в форме акций Tesla выплачены им за период с июня 2017 года по 2020 год. За это время члены совета директоров компании получили 11 млн акций Tesla в качестве вознаграждения, из них они обязуются вернуть в стоимостном эквиваленте 3,1 млн штук.
Члены совета директоров Tesla также обязуются воздержаться от получения вознаграждений за 2021, 2022 и 2023 годы в указанной форме, а также пересмотреть систему компенсации, которая до этого позволяла им получать существенные суммы после реализации полученных акций компании на рынке. Tesla пыталась защитить интересы членов совета директоров, ссылаясь на существенный рост котировок акций, который и привёл к пропорциональному обогащению членов правления, а также упоминая об общности интересов руководства и инвесторов компании."
https://3dnews.ru/1090122/sud-obyazal-chlenov-soveta-direktorov-tesla-vernut-poluchennie-735-mln
"В 2020 году один из институциональных инвесторов Tesla, пенсионный фонд, подал иск к членам совета директоров компании, обвинив их в получении неоправданно высоких вознаграждений за свою деятельность в виде акций, которые они получали с июня 2017 года. Суд в итоге обязал членов совета директоров Tesla вернуть компании $735 млн.
Как поясняет CNBC, решение по отдельному иску к Илону Маску (Elon Musk), который оспаривает справедливость выплаты ему $56 млрд компенсации за работу, пока не принято, а потому будет вынесено чуть позже. Членам совета директоров, тем не менее, предстоит вернуть компании $735 млн, которые были в форме акций Tesla выплачены им за период с июня 2017 года по 2020 год. За это время члены совета директоров компании получили 11 млн акций Tesla в качестве вознаграждения, из них они обязуются вернуть в стоимостном эквиваленте 3,1 млн штук.
Члены совета директоров Tesla также обязуются воздержаться от получения вознаграждений за 2021, 2022 и 2023 годы в указанной форме, а также пересмотреть систему компенсации, которая до этого позволяла им получать существенные суммы после реализации полученных акций компании на рынке. Tesla пыталась защитить интересы членов совета директоров, ссылаясь на существенный рост котировок акций, который и привёл к пропорциональному обогащению членов правления, а также упоминая об общности интересов руководства и инвесторов компании."
https://3dnews.ru/1090122/sud-obyazal-chlenov-soveta-direktorov-tesla-vernut-poluchennie-735-mln
3DNews - Daily Digital Digest
Суд обязал членов совета директоров Tesla вернуть компании $735 млн вознаграждений за их работу
В 2020 году один из институциональных инвесторов Tesla, пенсионный фонд, подал иск к членам совета директоров компании, обвинив их в получении неоправданно высоких вознаграждений за свою деятельность в виде акций, которые они получали с июня 2017 года.
#hpc #tesla #dojo
"Tesla сообщила о запуске производства суперкомпьютера собственной разработки Dojo, предназначенного для обучения систем автопилота. Компания собирается потратить на проект $1 млрд. Компания рассчитывает уже к октябрю следующего года преодолеть барьер в 100 Эфлопс производительности — это более чем в 60 раз мощнее самого мощного суперкомпьютера на сегодняшний день."
https://3dnews.ru/1090287/tesla-zapustila-proizvodstvo-superkompyuterov-dojo-dlya-obucheniya-avtopilota-na-proekt-potratyat-1-milliard
"Tesla сообщила о запуске производства суперкомпьютера собственной разработки Dojo, предназначенного для обучения систем автопилота. Компания собирается потратить на проект $1 млрд. Компания рассчитывает уже к октябрю следующего года преодолеть барьер в 100 Эфлопс производительности — это более чем в 60 раз мощнее самого мощного суперкомпьютера на сегодняшний день."
https://3dnews.ru/1090287/tesla-zapustila-proizvodstvo-superkompyuterov-dojo-dlya-obucheniya-avtopilota-na-proekt-potratyat-1-milliard
3DNews - Daily Digital Digest
Tesla запустила производство суперкомпьютеров Dojo и за 15 месяцев хочет достичь производительности в 100 Эфлопс
Tesla сообщила о запуске производства суперкомпьютера собственной разработки Dojo, предназначенного для обучения систем автопилота.