Обрабатывай датасеты больше доступной RAM с автоспилловером DuckDB
Когда объем данных превышает доступную память, большинство инструментов падают во время выполнения.
Из-за этого приходится руками резать данные на чанки или апгрейдить железо только ради того, чтобы довести базовый запрос до конца.
DuckDB автоматически сбрасывает промежуточные результаты во временные файлы, когда данные выходят за пределы выделенной памяти.
Плюсы:
• Обработка датасетов больше RAM без правок в коде
• Настраиваемые лимиты памяти, чтобы избежать крашей системы
• Автоматический спилловер на диск при заполнении памяти
• Никаких ручных чанков или батчинга
Полная статья: https://bit.ly/4oEj5WW
Запустить пример: https://bit.ly/4ovyUir
👉 @DataSciencegx
Когда объем данных превышает доступную память, большинство инструментов падают во время выполнения.
Из-за этого приходится руками резать данные на чанки или апгрейдить железо только ради того, чтобы довести базовый запрос до конца.
DuckDB автоматически сбрасывает промежуточные результаты во временные файлы, когда данные выходят за пределы выделенной памяти.
Плюсы:
• Обработка датасетов больше RAM без правок в коде
• Настраиваемые лимиты памяти, чтобы избежать крашей системы
• Автоматический спилловер на диск при заполнении памяти
• Никаких ручных чанков или батчинга
Полная статья: https://bit.ly/4oEj5WW
Запустить пример: https://bit.ly/4ovyUir
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1
Погоди, Microsoft только что выкатили open-source инструмент для запуска AI-моделей локально?!
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local
👉 @DataSciencegx
Без облака, подписок и авторизации.
Все на 100% приватно.
И при этом он без проблем встраивается в приложения через OpenAI-совместимый API.
Просто вбиваешь в терминале:
→ winget install Microsoft(dot)FoundryLocal (Windows)
→ brew install microsoft/foundrylocal/foundrylocal (macOS)
Вот официальный веб-сайт со всей документацией и доступными моделями: https://foundrylocal.ai
И репозиторий GitHub: https://github.com/microsoft/foundry-local
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3❤1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
K-means один из самых широко используемых алгоритмов кластеризации в data science и машинном обучении. Ключевая часть алгоритма - сходимость (процесс, при котором центры кластеров и назначения точек постепенно стабилизируются за счёт повторяющихся обновлений.) Cкажу так, понимание того, как и почему происходит сходимость, помогает получать надёжные и осмысленные результаты кластеризации.
✔️ Быстро сходится на большинстве наборов данных, что делает его эффективным для задач большого масштаба
✔️ Предлагает простую и интерпретируемую структуру для выявления групп
✔️ Хорошо масштабируется на больших дата-сетах за счёт низкой вычислительной сложности
❌ Результаты сильно зависят от начальной инициализации кластеров
❌ Может искажать структуру данных, если признаки неправильно отмасштабированы
❌ Может порождать пустые или нестабильные кластеры при некорректной настройке
Чтобы обеспечить стабильную сходимость:
- Используйте k-means++ для более грамотного выбора начальных центров
- Применяйте масштабирование признаков, чтобы переменные с большим масштабом не доминировали
- Задавайте адекватные значения лимита итераций и порога сходимости
На изображении показан процесс сходимости K-means. Точки данных назначаются ближайшему центру по квадрату расстояния. После этого каждый центр пересчитывается как среднее значение всех закреплённых за ним точек. Эти шаги повторяются до тех пор, пока положения центров не перестают заметно изменяться.
👉 @DataSciencegx
Чтобы обеспечить стабильную сходимость:
- Используйте k-means++ для более грамотного выбора начальных центров
- Применяйте масштабирование признаков, чтобы переменные с большим масштабом не доминировали
- Задавайте адекватные значения лимита итераций и порога сходимости
На изображении показан процесс сходимости K-means. Точки данных назначаются ближайшему центру по квадрату расстояния. После этого каждый центр пересчитывается как среднее значение всех закреплённых за ним точек. Эти шаги повторяются до тех пор, пока положения центров не перестают заметно изменяться.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Визуализация того, что находится внутри моделей ИИ. Это представляет слои взаимосвязанных нейронных сетей. И да, со временем формируются паттерны, и они могут образовывать своего рода сигнатуру того, как модель мыслит.
Этот паттерн можно рассматривать как процесс мышления.
👉 @DataSciencegx
Этот паттерн можно рассматривать как процесс мышления.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥23❤9
Команда Hugging Face только что научила Claude Code полноценно обучать открытые LLM.
Ты просто говоришь что-то вроде:
«Дообучи Qwen3-0.6B на open-r1/codeforces-cots».
А дальше Claude делает всё сам.
▸ Подбирает оптимальный облачный GPU под размер модели
▸ Загружает датасет (или ищет его, если не указан)
▸ Запускает задачу: тестовый прогон или основной запуск
▸ Отслеживает прогресс через дашборд Trackio
▸ Загружает чекпоинты и финальную модель в Hugging Face Hub
👉 @DataSciencegx
Ты просто говоришь что-то вроде:
«Дообучи Qwen3-0.6B на open-r1/codeforces-cots».
А дальше Claude делает всё сам.
▸ Подбирает оптимальный облачный GPU под размер модели
▸ Загружает датасет (или ищет его, если не указан)
▸ Запускает задачу: тестовый прогон или основной запуск
▸ Отслеживает прогресс через дашборд Trackio
▸ Загружает чекпоинты и финальную модель в Hugging Face Hub
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8👍4🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Введение в In-Context Learning для агентных AI
Здесь собрали простой, дружелюбный для новичков разбор In-Context Learning с Colab-примерами. В демках есть оптимизация, регрессия, классификация, RL, перевод и куча других задач.
👉 @DataSciencegx
Здесь собрали простой, дружелюбный для новичков разбор In-Context Learning с Colab-примерами. В демках есть оптимизация, регрессия, классификация, RL, перевод и куча других задач.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤3
Сегодня я узнал, как получить forward-traceback, который соответствует ошибке в backward. Полезно, когда пытаешься понять, откуда прилетает OOM в фазе backward — и всё это можно сделать через torch.autograd.detect_anomaly().
Ссылка
👉 @DataSciencegx
Ссылка
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Когда ты вызываешь torch.compile, TorchInductor генерирует Python-обёртку, в которой есть удобная функция benchmark_compiled_module. Смотри на простой пример матмул выше.
То есть мы получаем не только промежуточный код, но и встроенный способ прогнать бенчмарк.
Кому интересно, ставим лукас и смотрим😊
👉 @DataSciencegx
То есть мы получаем не только промежуточный код, но и встроенный способ прогнать бенчмарк.
Кому интересно, ставим лукас и смотрим
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7
Unsloth :
Теперь можно обучать LLM в 3 раза быстрее без потери точности, благодаря новым RoPE и MLP-ядрам.
Это стало возможным благодаря новым RoPE и MLP-ядрам, собранным на Triton и использующим авто-packing.
По цифрам выходит не только трёхкратное ускорение, но и до 30% экономии VRAM по сравнению с оптимизированными FA3-конфигурациями. В демо Qwen3-4B обучают в три раза быстрее всего на 3.9 ГБ видеопамяти.
Блог: https://docs.unsloth.ai/new/3x-faster-training-packing
Если хочешь тонко настроить модель или запустить RL на open-source моделях локально, вроде Llama, OpenAI gpt-oss, TTS — глянь эти 100+ бесплатных ноутбуков на GitHub.
👉 @DataSciencegx
Теперь можно обучать LLM в 3 раза быстрее без потери точности, благодаря новым RoPE и MLP-ядрам.
Это стало возможным благодаря новым RoPE и MLP-ядрам, собранным на Triton и использующим авто-packing.
По цифрам выходит не только трёхкратное ускорение, но и до 30% экономии VRAM по сравнению с оптимизированными FA3-конфигурациями. В демо Qwen3-4B обучают в три раза быстрее всего на 3.9 ГБ видеопамяти.
Блог: https://docs.unsloth.ai/new/3x-faster-training-packing
Если хочешь тонко настроить модель или запустить RL на open-source моделях локально, вроде Llama, OpenAI gpt-oss, TTS — глянь эти 100+ бесплатных ноутбуков на GitHub.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Диаграмма Вороного (черные точки) вычисляется как вертикальная проекция нижней оболочки n трехмерных графиков функций {(x, yᵢ(x))} с yᵢ(x) = D(xᵢ, x) (розовые). Когда расстояние D(x, x′) = ‖x − x′‖², графики yᵢ представляют собой параболоиды, а границы ячеек Вороного получаются линейными.
👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥12❤7🤔5👍1
Бесплатные курсы и проекты по ИИ, Data Science и облакам на Cognitive Class от IBM: больше 100 материалов по современным технологиям.
👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Подожди секунду, Mistral 3 Large использует архитектуру DeepSeek V3, включая MLA?
Только что пробежался по конфигам: единственная разница, которую я увидел, это что в Mistral 3 Large экспертов в 2 раза меньше, но каждый эксперт в 2 раза больше.
Возможно, это проще заметить в сравнении архитектур бок о бок
👉 @DataSciencegx
Только что пробежался по конфигам: единственная разница, которую я увидел, это что в Mistral 3 Large экспертов в 2 раза меньше, но каждый эксперт в 2 раза больше.
Возможно, это проще заметить в сравнении архитектур бок о бок
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤6
Media is too big
VIEW IN TELEGRAM
Очень рад рассказать про TeXPen! Он конвертит твой рукописный ввод и скриншоты прямо в LaTeX.
Он сделан так, чтобы целиком работать в браузере на WebGPU/WebAssembly. Прикольно и непросто заставить модели крутиться на клиенте, зато это дает нулевую задержку и полную приватность.
Попробовать можно тут:
https://texpen.github.io
Первоначальная настройка требует только скачать OleehyO/TexTeller: 298M параметров в FP32 (≈1.2GB), после чего оно сохраняется в кэше браузера для будущего использования.
Этот проект вообще стал возможен только потому, что на 100% держится на модели OleehyO/TexTeller, которая очень хороша для распознавания рукописного/печатного LaTeX при всего 298M параметров (≈1.2GB):
https://github.com/OleehyO
Проект с открытым исходным кодом, код тут
👉 @DataSciencegx
Он сделан так, чтобы целиком работать в браузере на WebGPU/WebAssembly. Прикольно и непросто заставить модели крутиться на клиенте, зато это дает нулевую задержку и полную приватность.
Попробовать можно тут:
https://texpen.github.io
Первоначальная настройка требует только скачать OleehyO/TexTeller: 298M параметров в FP32 (≈1.2GB), после чего оно сохраняется в кэше браузера для будущего использования.
Этот проект вообще стал возможен только потому, что на 100% держится на модели OleehyO/TexTeller, которая очень хороша для распознавания рукописного/печатного LaTeX при всего 298M параметров (≈1.2GB):
https://github.com/OleehyO
Проект с открытым исходным кодом, код тут
Please open Telegram to view this post
VIEW IN TELEGRAM
❤9
NeuralOperator теперь входит в экосистему PyTorch. Это PyTorch-native библиотека для обучения нейрооператоров и моделирования переходов функция→функция в научно-инженерных задачах на базе ИИ.
👉 @DataSciencegx
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
SQLite-Vec: крошечная и портируемая vectorDB, построенная поверх SQLite.
Очень быстрая и лёгкая, отлично подходит для on-device RAG-решений.
Ключевые фичи:
- matryoshka-слайсинг эмбеддингов
- уменьшение объёма хранения в 32 раза за счёт бинарной квантизации
- поддержка расстояний L2, cosine и Hamming
👉 @DataSciencegx
Очень быстрая и лёгкая, отлично подходит для on-device RAG-решений.
Ключевые фичи:
- matryoshka-слайсинг эмбеддингов
- уменьшение объёма хранения в 32 раза за счёт бинарной квантизации
- поддержка расстояний L2, cosine и Hamming
Please open Telegram to view this post
VIEW IN TELEGRAM
❤7🔥3
NVIDIA выложила открытую модель на 30B, которая обходит GPT-OSS и Qwen3-30B -» и работает в 2.2–3.3 раза быстрее.
Nemotron 3 Nano:
- контекст до 1 млн токенов
- MoE: 31.6B параметров всего, 3.6B активных
- лучшая в классе производительность на SWE-Bench
- открытые веса + инструкция по обучению + датасеты с правом перераспространения
Модель можно запускать локально -» достаточно 24 ГБ ОЗУ.
👉 @DataSciencegx
Nemotron 3 Nano:
- контекст до 1 млн токенов
- MoE: 31.6B параметров всего, 3.6B активных
- лучшая в классе производительность на SWE-Bench
- открытые веса + инструкция по обучению + датасеты с правом перераспространения
Модель можно запускать локально -» достаточно 24 ГБ ОЗУ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5
Новая статья от Apple просто взрывает мозг.
Они показали, что одного слоя attention достаточно, чтобы превратить предобученные vision-фичи в SoTA-генераторы изображений.
Это сильно упрощает диффузионные модели, при этом качество остаётся на топовом уровне.
👉 @DataSciencegx
Они показали, что одного слоя attention достаточно, чтобы превратить предобученные vision-фичи в SoTA-генераторы изображений.
Это сильно упрощает диффузионные модели, при этом качество остаётся на топовом уровне.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6❤3
Способность RoPE кодировать относительные позиции при минимальном числе параметров сделала возможным появление LLM с длинным контекстом.
Нельзя просто так запихнуть вход на 4k токенов в модель с контекстом 2k, но решение стоит недорого.
В итоге расширение контекста превращается в задачу дообучения за $5K, а не полного переобучения за $500K.
👉 @DataSciencegx
Нельзя просто так запихнуть вход на 4k токенов в модель с контекстом 2k, но решение стоит недорого.
В итоге расширение контекста превращается в задачу дообучения за $5K, а не полного переобучения за $500K.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2