Data Secrets – Telegram
Data Secrets
78.8K subscribers
6.42K photos
666 videos
20 files
2.7K links
Главный по машинному обучению

Сотрудничество: @veron_28

РКН: clck.ru/3FY3GN
Download Telegram
Data Secrets
Photo
Введение в PyTorch: ЧАСТЬ 2
👍18
Вот так, используя Stable Diffusion, можно реконструировать изображения из данных фМРТ мозга. Верхний ряд — картинки, на которые смотрит человек, нижний — то, что генерирует SD по активности его зрительной коры.

Модель учили на Natural Scenes Dataset, где собраны сканы мозга испытуемых, отсмотревших тысячи изображений. Нюанс в том, что у каждой картинки есть текстовая аннотация, нейросеть ее тоже учитывает. Это и дает впечатляющий результат.

High-resolution image reconstruction with latent diffusion models from human brain activity | bioRxiv (2022)
🔥20👍92
История нейроных сетей: XOR problem

Перед тем как двигаться дальше, давайте рассмотрим, что это за проблема исключающего или. Которая и затормозила дальнейшее развитие, которую и привели в качестве примера в критике перцептрона⁉️

0123
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🍓3🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросеть, генерирующая фотореалистичный трехмерные миры

Теперь ИИ рендерит бесконечное управляемое движение над ландшафтами по одной фотке. Ждем с нетерпением, какую-нибудь игру с реалистичными пролетами над стилистически похожим миром
👍27🔥93
Что такое Papers with Code?

Название говорит само за себя. Papers with Code - это платформа, которая содержит исследовательские работы с реализациями кода авторов или сообщества 📝

Papers with Code приобрели популярность путем предоставления полной экосистемы для исследований машинного обучения: можно воспроизвести результаты, используя код; проверить все предыдущие реализации с помощью метрик, моделей и методов, используемых в работе.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2615
Все, что вам нужно знать о log loss

Функции потерь являются мерой точности модели машинного обучения в прогнозировании. Функция затрат и функция потерь относятся к одному и тому же: процессу обучения, который использует обратное распространение ошибки для уменьшения разницы между фактическим и ожидаемым результатом. Функция log loss измеряет перекрестную энтропию ошибки между двумя распределениями вероятностей. Этот пост посвящен изучению log loss 📉
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍22🤩3