The Matthew effect, Matthew principle, or Matthew effect of accumulated advantage can be observed in many aspects of life and fields of activity. It is sometimes summarized by the adage "the rich get richer and the poor get poorer".
https://en.wikipedia.org/wiki/Matthew_effect
https://en.wikipedia.org/wiki/Matthew_effect
1) https://habr.com/ru/post/417167/
2) https://webdevblog.ru/tematicheskoe-modelirovanie-s-pomoshhju-gensim-python/
3) https://stackoverflow.com/questions/32215827/simple-python-implementation-of-collaborative-topic-modeling
2) https://webdevblog.ru/tematicheskoe-modelirovanie-s-pomoshhju-gensim-python/
3) https://stackoverflow.com/questions/32215827/simple-python-implementation-of-collaborative-topic-modeling
Хабр
Запускаем LDA в реальном мире. Подробное руководство
Предисловие На просторах интернета имеется множество туториалов объясняющих принцип работы LDA(Latent Dirichlet Allocation — Латентное размещение Дирихле) и то, как применять его на практике. Примеры...
Есть известный (но слегка устаревший) обзор от Robin Burke, где в основном рассматриваются методы на основе пред- или пост-обработки коллаборативных моделей и многое объясняется именно на пальцах, формул почти нет:
http://josquin.cs.depaul.edu/~rburke/pubs/burke-umuai02.pdf
Более продвинутыми являются объединенные модели, где процесс обучения не бьется на фазы и вся информация учитывается сразу при обучении. В прикрепленных постах к этому каналу есть описание нескольких таких подходов, основанных на матричной факторизации. В дополнение к тем моделям можно добавить еще несколько (тоже на основе матричной факторизации):
Feature transformation, где латентные факторы подвергаются всевозможным линейным преобразованиям, основанным на признаковом описании.
Recommending New Movies: Even a Few Ratings Are More Valuable Than Metadata
http://moscow.sci-hub.bz/85febb4cfda627ca8aa98805f9cacda0/pilszy2009.pdf
Latent factor representations for cold-start video recommendation
http://twin.sci-hub.bz/bbd822117f87d17a0f40de3fda12740c/roy2016.pdf
Cold-start item and user recommendation with decoupled completion and transduction (чем-то напоминает coupled factorization)
http://www.egr.msu.edu/waves/people/iman_files/recsys2015_coldstart.pdf
https://www.cse.msu.edu/~forsati/cold-recsys2015.pdf
Feature aggregation (в дополнение к SLIM модели в прошлом посте):
FHSM: Factored Hybrid Similarity Methods for Top-N Recommender Systems
http://link.springer.com/chapter/10.1007/978-3-319-45817-5_8
Feature augmentation, где каждый признак становится "фиктивным объектом" , например, новым айтемом и добавляется в основную матрицу рейтингов для обучения
Predicting User Preference Based on Matrix Factorization by Exploiting Music Attributes
http://twin.sci-hub.bz/1b97bbe14b4e9b959d9944b591fffe83/nabizadeh2016.pdf
Probabilistic approaches
A Unified Approach to Building Hybrid Recommender Systems
http://moscow.sci-hub.bz/b322d362e8bdb6b73b202b83e2fb1376/gunawardana2009.pdf
Bayesian Matrix Factorization with Side Information and Dirichlet Process Mixtures
https://www.ics.uci.edu/~welling/publications/papers/bpmfpp.pdf
Feature-related regularization, где добавляются всевозможные регуляризационные слагаемые, тоже на основе признаковых описаний (сюда же можно отнести и пример из презентации яндекса, о котором вы с @hushpar говорили)
Content-boosted Matrix Factorization Techniques for Recommender Systems
https://arxiv.org/pdf/1210.5631.pdf
Leveraging High-Dimensional Side Information for Top-N Recommendation
https://arxiv.org/pdf/1702.01516.pdf
http://josquin.cs.depaul.edu/~rburke/pubs/burke-umuai02.pdf
Более продвинутыми являются объединенные модели, где процесс обучения не бьется на фазы и вся информация учитывается сразу при обучении. В прикрепленных постах к этому каналу есть описание нескольких таких подходов, основанных на матричной факторизации. В дополнение к тем моделям можно добавить еще несколько (тоже на основе матричной факторизации):
Feature transformation, где латентные факторы подвергаются всевозможным линейным преобразованиям, основанным на признаковом описании.
Recommending New Movies: Even a Few Ratings Are More Valuable Than Metadata
http://moscow.sci-hub.bz/85febb4cfda627ca8aa98805f9cacda0/pilszy2009.pdf
Latent factor representations for cold-start video recommendation
http://twin.sci-hub.bz/bbd822117f87d17a0f40de3fda12740c/roy2016.pdf
Cold-start item and user recommendation with decoupled completion and transduction (чем-то напоминает coupled factorization)
http://www.egr.msu.edu/waves/people/iman_files/recsys2015_coldstart.pdf
https://www.cse.msu.edu/~forsati/cold-recsys2015.pdf
Feature aggregation (в дополнение к SLIM модели в прошлом посте):
FHSM: Factored Hybrid Similarity Methods for Top-N Recommender Systems
http://link.springer.com/chapter/10.1007/978-3-319-45817-5_8
Feature augmentation, где каждый признак становится "фиктивным объектом" , например, новым айтемом и добавляется в основную матрицу рейтингов для обучения
Predicting User Preference Based on Matrix Factorization by Exploiting Music Attributes
http://twin.sci-hub.bz/1b97bbe14b4e9b959d9944b591fffe83/nabizadeh2016.pdf
Probabilistic approaches
A Unified Approach to Building Hybrid Recommender Systems
http://moscow.sci-hub.bz/b322d362e8bdb6b73b202b83e2fb1376/gunawardana2009.pdf
Bayesian Matrix Factorization with Side Information and Dirichlet Process Mixtures
https://www.ics.uci.edu/~welling/publications/papers/bpmfpp.pdf
Feature-related regularization, где добавляются всевозможные регуляризационные слагаемые, тоже на основе признаковых описаний (сюда же можно отнести и пример из презентации яндекса, о котором вы с @hushpar говорили)
Content-boosted Matrix Factorization Techniques for Recommender Systems
https://arxiv.org/pdf/1210.5631.pdf
Leveraging High-Dimensional Side Information for Top-N Recommendation
https://arxiv.org/pdf/1702.01516.pdf
Lessons Learned from Building Real-Life Recommender Systems
by Xavier Amatriain (Quora, USA) and Deepak Agarwal (LinkedIn, USA)
https://www.youtube.com/watch?v=VJOtr47V0eo
http://www.slideshare.net/dipu1025/recsys2016-tutorial-by-xavier-and-deepak
https://www.slideshare.net/xamat/recsys-2016-tutorial-lessons-learned-from-building-reallife-recommender-systems
by Xavier Amatriain (Quora, USA) and Deepak Agarwal (LinkedIn, USA)
https://www.youtube.com/watch?v=VJOtr47V0eo
http://www.slideshare.net/dipu1025/recsys2016-tutorial-by-xavier-and-deepak
https://www.slideshare.net/xamat/recsys-2016-tutorial-lessons-learned-from-building-reallife-recommender-systems
YouTube
RecSys 2016: Tutorial on Lessons Learned from Building Real-life Recommender Systems
Xavier Amatriain, Deepak Agarwal
https://doi.org/10.1145/2959100.2959194
In 2006, Netflix announced a \$1M prize competition to advance recommendation algorithms. The recommendation problem was simplified as the accuracy in predicting a user rating measured…
https://doi.org/10.1145/2959100.2959194
In 2006, Netflix announced a \$1M prize competition to advance recommendation algorithms. The recommendation problem was simplified as the accuracy in predicting a user rating measured…