Data Portal | DS & ML – Telegram
Data Portal | DS & ML
8.84K subscribers
187 photos
74 videos
4 files
249 links
Всё самое интересное из мира Data Science и машинного обучения

Связь: @devmangx
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Это лучший способ понять, как на самом деле работают ML-модели

Используйте Drawdata, чтобы нарисовать 2D-датасет прямо в Jupyter. С его помощью можно интерактивно выбирать данные через виджет и обновлять модель по мере того, как данные добавляются

Полностью интерактивно, в реальном времени и с открытым исходным кодом

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍4
Open-source RAG-стек (2025)

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
10👍2
Обучайте модели ИИ на данных, которых даже не существует

SDV — это open-source фреймворк, который с помощью ML изучает паттерны ваших реальных данных и генерирует синтетические табличные данные в больших масштабах.

Поддерживает встроенную анонимизацию, валидацию и многое другое.

GitHub: SDV

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍6👎1
Бесплатный курс, чтобы научиться строить LLM с нуля, используя только чистый PyTorch

Этот курс проведёт вас через весь жизненный цикл: от базовых концептов до продвинутых техник алайнмента

К концу у вас будет глубокий практический опыт, достаточный, чтобы собирать и кастомизировать собственные LLM

https://www.youtube.com/watch?v=p3sij8QzONQ

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
👍105
11 типов переменных в датасете наглядно

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍5
Забирайте в закладки этот бесплатный визуальный гайд по эмбеддингам LLM

Ты узнаешь:
- Что такое эмбеддинги?
- Каким должен быть хороший эмбеддинг?
- Традиционные техники эмбеддингов
- BERT
- Эмбеддинги в современных LLM
- Эмбеддинги в действии
- Эмбеддинги как графы: анализ сети

Ссылка: LLM Embeddings Explained: A Visual and Intuitive Guide

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1
4 стратегии, которые используют LLM для генерации текста

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
👍52
Сооснователь super.com, который сам разработчик и у его компании годовой ревенью $200M, собрал список материалов по тому, что он сам выучил про ИИ, и сказал: «Прочитайте это за две недели»:

https://github.com/henrythe9th/AI-Crash-Course

Я посмотрел, что он там накидал - реально интересно. В основном это базовые статьи по искусственному интеллекту, и действительно для успеха нет короткого пути: нужно учиться :)

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥84
This media is not supported in your browser
VIEW IN TELEGRAM
MCP-серверы могут предоставлять богатые UI-возможности

MCP-серверы в Claude/Cursor пока не предлагают никакого UI, например, графики. Это просто текст/JSON.

mcp-ui позволяет добавлять в вывод интерактивные веб-компоненты, которые может отрендерить MCP-клиент.

Забираем с GitHub

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Годный проект с GitHub, который предоставляет единое sandbox-окружение для разработки AI-агентов. Он объединяет браузер, терминал, файловую систему, VS Code и Jupyter в одном Docker-контейнере, готовый к использованию "из коробки".

Все компоненты работают с общей файловой системой: файл, скачанный в браузере, сразу доступен в терминале или коде.

В контейнер также предустановлены несколько MCP-серверов, благодаря чему AI Agent может напрямую вызывать различные возможности без дополнительной сложной настройки окружения.

Есть поддержка Chrome DevTools Protocol для программного управления браузером, а также встроенный порт-форвардинг и мониторинг сервисов для удобного предпросмотра и отладки веб-приложений.

Предоставляются SDK для Python, TypeScript и Golang, запуск возможен в один клик через Docker.

GitHub: AIO Sandbox

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32👎1
Генеративные vs. дискриминативные модели в ML

(популярный вопрос на собеседованиях по ML)

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍1
Эта статья Себастьяна Рашки пошагово проводит через реализацию self-attention с нуля, далее расширяя разбор до multi-head и cross-attention, с понятными объяснениями и примерами кода на PyTorch.

Обязательное чтение, если хотите глубоко разобраться в трансформерах. Читайте здесь

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1
Forwarded from IT Portal
Стенфорд запустил бесплатный курс по Deep Learning, который ведёт основатель Coursera — Эндрю Ын

Программа охватывает всё: от базовых принципов нейросетей до LLM, RL, агентов, RAG и мультимодальных моделей

Первая лекция здесь. Материалы и расписание здесь

@IT_Portal
11👍5🤔1
Когда мы говорим про RAG, обычно думают так: проиндексировал документ → потом извлёк тот же самый документ.

Но индексация ≠ извлечение.

Данные, которые ты индексируешь, не обязаны быть теми же данными, которые ты подаёшь в LLM во время генерации.

Вот 4 умных способа индексировать данные:

1) Chunk Indexing (индексация чанков)

🔹Самый распространённый подход.

🔹Документ разбивается на чанки, затем каждый чанк преобразуется в эмбеддинг и сохраняется в векторную БД.

🔹При запросе извлекаются ближайшие чанки по косинусному сходству (или другому метрике).

Просто и эффективно, но слишком большие или «шумные» чанки могут снизить точность.

2) Sub-chunk Indexing (индексация под-чанков)

🔹Берём исходные чанки и дополнительно разбиваем их на более мелкие под-чанки.

🔹Индексируем именно эти мелкие фрагменты.

🔹При извлечении всё ещё возвращаем более крупный чанк для контекста.

Этот подход полезен, если документ содержит несколько разных концепций в одном разделе - повышается шанс точного совпадения с запросом.

3) Query Indexing (индексация по запросам)

🔹Вместо того чтобы индексировать сырой текст, генерируются гипотетические вопросы, на которые, по мнению LLM, данный чанк может ответить.

🔹Эти вопросы эмбеддятся и сохраняются.

🔹При реальном запросе пользователя поиск происходит по этим «синтетическим» вопросам.

🔹Похожая идея используется в HyDE, но там сопоставляется гипотетический ответ с реальными чанками.

Отличный вариант для систем вопрос–ответ (QA), поскольку он сокращает семантический разрыв между пользовательским запросом и индексированными данными.

4) Summary Indexing (индексация по суммаризации)

🔹Используется LLM, чтобы сгенерировать краткое семантическое представление (summary) для каждого чанка.

🔹В индекс попадает именно summary, а не исходный текст.

🔹При извлечении возвращается оригинальный чанк для контекста.

Особенно эффективно для плотных или структурированных данных (например, CSV или таблиц), где эмбеддинги сырого текста не дают осмысленных результатов.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍3
3 ключевые свойства следа матрицы в Deep Learning

1. L2-регуляризация: Квадрат нормы Фробениуса, ||W||² = tr(WᵀW), используется для штрафования больших весов и предотвращения переобучения.

2. Вычисление градиентов: Циклическое свойство следа, tr(AB) = tr(BA), упрощает вывод матричных производных при обратном распространении ошибки (backpropagation).

3. Инвариантность: След инвариантен к замене базиса, tr(P⁻¹AP) = tr(A); это свойство используется при поиске нового, более удобного базиса в PCA.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍1
This media is not supported in your browser
VIEW IN TELEGRAM
На GitHub есть репозиторий free-programming-books, где собрано более 4000 бесплатных книг, 2000 курсов и других полезных ресурсов по программированию

Для удобства поиска можно использовать этот инструмент

Этот проект - яркий пример силы опенсорс сообщества, который из клона списка со StackOverflow стал одним из самых популярных на GitHub ✌️

🔸 Русскоязычная версия ресурсов

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍2🤔1
Эндрю Ын анонсировал новый бесплатный курс: Agentic AI

Здесь учат собирать LLM-агентов с нуля, без фреймворков, на чистом Python. Всё чётко, с разбором того, как устроены агенты под капотом.

Что внутри:

- Reflection — агент сам анализирует свои ответы и улучшает их;
- Tool use — учим LLM вызывать функции: искать в вебе, слать письма, писать код;
- Planning — разбиваем задачи на подзадачи и строим план выполнения;
- Multi-agent collaboration — создаём несколько специализированных агентов, которые работают вместе, как команда.

Плюс отдельный блок про evals и анализ ошибок

В итоге соберёте исследовательского агента, который сам ищет, анализирует и пишет отчёты.

Проходится в своём темпе, подходит всем, кто знаком с Python и немного с LLM. Забираем здесь

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍1👀1
Я никогда не использую метод describe из Pandas

Skimpy — гораздо более удобная (и опенсорс) альтернатива, которая предоставляет расширенное описание данных: форму датасета, типы данных по колонкам, статистику, графики распределений и т.д.

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
12🤔5👍3
Один из лучших ресурсов, если хочешь выучить SQL на практике и с нуля 👍

Это интерактивные уроки прямо в браузере, без регистрации и бесплатно. Всё подается шаг за шагом: от базовых запросов до более сложных тем, таких как JOIN и агрегации

Весь процесс строится на упражнениях, так что теорию сразу применяешь на практике

Всем, кто хочет научиться SQL с нуля, рекомендую заценить: https://sqlbolt.com/

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
8🔥1🤔1
Бесплатный курс по изучению концепций глубокого обучения

Концептуальное и архитектурное путешествие по моделям компьютерного зрения в глубоком обучении, прослеживающее эволюцию от LeNet и AlexNet до ResNet, EfficientNet и Vision Transformers.

Курс объясняет принципы проектирования, лежащие в основе skip-соединений, bottleneck-блоков, сохранения тождества, компромиссов глубины/ширины и attention.

Каждая глава сочетает наглядные иллюстрации, исторический контекст и сравнения «бок о бок», чтобы показать, почему архитектуры выглядят именно так и как они обрабатывают информацию.

Забираем на YouTube

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
5🤔1
Находка: репозиторий, где куча туториалов по созданию AI-агентов, готовых к продакшену и с реальными кейсами использования

Весь код в открытом доступе и есть объяснение, как их развернуть. GitHub: agents-towards-production

👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
1