Курс MITx: Введение в вычислительное мышление и науку о данных научит вас использовать вычисления для достижения различных целей и предоставит краткое введение в различные темы решения вычислительных задач.
Охватываемые темы включают в себя:
•Продвинутое программирование на Python 3
•Задача о рюкзаке, Графы и оптимизация графов
•Динамическое программирование
•Построение графиков с помощью пакета pylab
•Случайные прогулки
•Вероятность, Распределения
•Моделирование Монте-Карло
•Подгонка кривой
•Статистические ошибки
Курс длится до 21 декабря!
Охватываемые темы включают в себя:
•Продвинутое программирование на Python 3
•Задача о рюкзаке, Графы и оптимизация графов
•Динамическое программирование
•Построение графиков с помощью пакета pylab
•Случайные прогулки
•Вероятность, Распределения
•Моделирование Монте-Карло
•Подгонка кривой
•Статистические ошибки
Курс длится до 21 декабря!
🔥7
🔥Любопытная статья предлагает решение проблемы overconfidence в последовательных рекомендательных моделях с помощью Generalised Binary Cross-Entropy Loss function. Она превосходит популярную модель BERT4Rec при этом требуя меньше времени для обучения.
Статья получила награду the Best Paper award at ACM RecSys 2023
Статья получила награду the Best Paper award at ACM RecSys 2023
❤7
Обширный обзор включает в себя краткие описания более чем 40 библиотек Python. Автор выделяет ключевые особенности каждой библиотеки, подчеркивая их уникальные характеристики и более подходящие сферы применения.
Идеальный ресурс в качестве 'шпаргалки'.
Идеальный ресурс в качестве 'шпаргалки'.
❤7🔥1
Крутая статья демонстрирующая оптимизацию нейронных сетей методом Левенберга-Марквардта (LM) с использованием TensorFlow. Статья предоставляет понятное объяснение самого метода и важных аспектов, связанных с выбором оптимальных значений его параметров. Каждый шаг сопровождается примерами кода, математической базой и наглядными визуализациями.
В дополнение можно глянуть эту статейку с реализацией того же LM на Python.
В дополнение можно глянуть эту статейку с реализацией того же LM на Python.
❤7
Исчерпывающий гид, включающий в себя пошаговые инструкции по скрапингу, парсингу, восстановлению неполных данных, а также созданию репрезентативной выборки. Автор уделяет особое внимание визуализации, важности векторизации и параллельным вычислениям, делая процесс понятным на каждом этапе даже новичку.
❤13
Любопытная статья, где рассматривается проблема галлюцинаций в больших языковых моделях (LLM). Aвтор представляет широкий спектр стратегий для их устранения: oт разъяснения понятия 'галлюцинаций' и методов их измерения до разработки продуктов и выбора моделей. В статья предложен всесторонний подход к решению этой проблемы с сопутствующей визуализацией.
❤7
Крутой курс по книге Hands-On Machine Learning with Scikit-Learn, Keras, and TensorFlow, где автор подробно разбирает по одной главе в каждом видео с сопутствующими практическими примерами.
Сама книга представляет собой идеальное руководство по supervised и unsupervised learning.
Одни из тем, разобранных в книге: виды регрессии и классификации, деревья решений, ансамбли, RNN, CNN, GAN и многое другое.
Сама книга представляет собой идеальное руководство по supervised и unsupervised learning.
Одни из тем, разобранных в книге: виды регрессии и классификации, деревья решений, ансамбли, RNN, CNN, GAN и многое другое.
❤6
Любопытная статья DISCOVERING LATENT KNOWLEDGE IN LANGUAGE
MODELS WITHOUT SUPERVISION, в которой авторы предложили нестандартный подход: вероятности ответов на вопросы должны суммироваться в единицу для уверенности модели. Используя пары вопросов и ответов, они модифицировали активации модели, настроили лосс и создали вероятности. К статье приложен также код.
MODELS WITHOUT SUPERVISION, в которой авторы предложили нестандартный подход: вероятности ответов на вопросы должны суммироваться в единицу для уверенности модели. Используя пары вопросов и ответов, они модифицировали активации модели, настроили лосс и создали вероятности. К статье приложен также код.
❤5
Исчерпывающий гайд o Support Vector Machine (SVM), начиная с его базовых принципов и математического обоснования, и до практической реализации в Python. Статья содержит информацию о разных типах алгоритмов SVM, работе с ядрами, выборе гиперпараметров и другом.
В дополнение можно пройтись по данной статье, где SVM рассматривается более визуально.
В дополнение можно пройтись по данной статье, где SVM рассматривается более визуально.
❤9
Конкурс для C++ программистов и их любимых багов.
Что для этого нужно сделать? Всё очень просто! Вспомните свой самый эпичный, мемный или глупый фейл при написании кода. Отправьте его через специальную форму на этой странице и ждите подведения итогов в январе. Авторы 10 самых прикольных, крутых или глупых фейлов получат уникальную книгу от Андрея Карпова "Вредные советы для C++ программистов" с подписью автора.
Конкурс длится до 30 декабря!
Что для этого нужно сделать? Всё очень просто! Вспомните свой самый эпичный, мемный или глупый фейл при написании кода. Отправьте его через специальную форму на этой странице и ждите подведения итогов в январе. Авторы 10 самых прикольных, крутых или глупых фейлов получат уникальную книгу от Андрея Карпова "Вредные советы для C++ программистов" с подписью автора.
Конкурс длится до 30 декабря!
🔥6❤1
Доклад о значимости последовательных методов Монте-Карло (SMC) для приближения апостериорных распределений динамических стохастических моделей общего равновесия. Исследуется возможность адаптивного выбора графика темперирования, эксплорируются преимущества варианта SMC, названного обобщенным темперированием, для "онлайн" оценки, и предоставляются примеры мультимодальных апостериорных распределений, хорошо уловленных методами SMC.
Авторы рассматривают меняется ли прогностическая способность DSGE-моделей при использовании более широких априорных распределений по сравнению с теми, которые обычно используются в литературе.
Авторы рассматривают меняется ли прогностическая способность DSGE-моделей при использовании более широких априорных распределений по сравнению с теми, которые обычно используются в литературе.
❤6
В статье автор продемонстрировал, как перевести сложную агентно-ориентированную модель в вероятностную графическую модель, чтобы получить обучаемую АОМ, подгоняемую к данным. Путем использования методов, таких как оценка максимального правдоподобия, автор оценивает латентные микростаты переменных агентов способом, согласующимся как с моделью, так и с наблюдаемыми данными.
Данный подход позволяет внедрить обученные переменные в АОМ, обеспечивая симуляцию микростатов, соответствующую предоставленным данным.
Данный подход позволяет внедрить обученные переменные в АОМ, обеспечивая симуляцию микростатов, соответствующую предоставленным данным.
❤6
Курс по Advanced Data Visualization рассматривает как обычные, так и нестандартные типы графиков, грамматику графики и даже разбирает явление Симпсона.
Всего в курсе 5 глав. К каждому уроку есть конспект и детальный разбор на YouTube от автора.
Must-have для всех, кто стремится расширить навыки визуализации данных.
Всего в курсе 5 глав. К каждому уроку есть конспект и детальный разбор на YouTube от автора.
Must-have для всех, кто стремится расширить навыки визуализации данных.
❤🔥12
Книга о математическом введении в глубокое обучение: методы, реализации и теория.
https://arxiv.org/abs/2310.20360
https://arxiv.org/abs/2310.20360
❤7
Статья о том, как научиться прогнозировать цены с помощью методов анализа данных и машинного обучения.
https://habr.com/ru/companies/rosatom/articles/771534/
https://habr.com/ru/companies/rosatom/articles/771534/
🔥11