🚀 AutoMathText-V2 - один из самых масштабных STEM-датасетов для обучения ИИ на сегодняшний день.
Что это такое:
- 2.46 триллиона токенов
- полностью AI-curated датасет по математике и STEM-дисциплинам
- 132 000 загрузок только за последний месяц
Зачем это важно:
- датасет используется для обучения следующего поколения frontier-моделей Kimi от Moonshot
- фокус не на количестве текста, а на качественной логике, доказательствах и рассуждениях
- специально отобранные данные для обучения reasoning, а не поверхностных ответов
Почему это меняет игру:
- математика и STEM - ключ к сильному reasoning
- большие модели упираются не в архитектуру, а в данные
- AI-curated датасеты становятся стандартом вместо ручной разметки
Тренд очевиден:
- больше токенов
- выше плотность знаний
- меньше «шума»
- лучшее обобщение и рассуждение
🔗 https://huggingface.co/collections/math-ai/training
Что это такое:
- 2.46 триллиона токенов
- полностью AI-curated датасет по математике и STEM-дисциплинам
- 132 000 загрузок только за последний месяц
Зачем это важно:
- датасет используется для обучения следующего поколения frontier-моделей Kimi от Moonshot
- фокус не на количестве текста, а на качественной логике, доказательствах и рассуждениях
- специально отобранные данные для обучения reasoning, а не поверхностных ответов
Почему это меняет игру:
- математика и STEM - ключ к сильному reasoning
- большие модели упираются не в архитектуру, а в данные
- AI-curated датасеты становятся стандартом вместо ручной разметки
Тренд очевиден:
- больше токенов
- выше плотность знаний
- меньше «шума»
- лучшее обобщение и рассуждение
🔗 https://huggingface.co/collections/math-ai/training
👍3❤1🔥1
Владение Docker - навык, который отличает новичка от профи,
Сегодня почти всё разворачивается в контейнерах.
Если ты не умеешь работать с Docker, ты медленнее, зависим от чужих настроек и постоянно ловишь баги «у меня локально работает».
• как упаковывать проекты в контейнеры
• как поднимать целые системы за минуты
• как избегать типичных ошибок в продакшене
• как делать стабильные и повторяемые окружения
•в нем разобраны все возможные ошибки
Только практика и реальные кейсы от авторов Docker Академии- с нуля до уверенного уровня.
🎁 Скидка 40 процентов действует 48 часов
👉 Записывайся и сделай Docker своим настоящим рабочим инструментом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4❤1
🚀 Автономные AI-агенты с Ralph Loop
Ralph Loop Agent — это фреймворк для создания автономных AI-агентов, который использует методику непрерывного выполнения задач. Он позволяет агентам повторять попытки до тех пор, пока задача не будет успешно завершена, обеспечивая проверку результатов и обратную связь.
🚀Основные моменты:
- Итеративное выполнение задач до подтверждения завершения
- Полная совместимость с AI SDK
- Гибкие условия остановки
- Управление контекстом для долгосрочных задач
- Поддержка потоковой передачи результатов
📌 GitHub: https://github.com/vercel-labs/ralph-loop-agent
Ralph Loop Agent — это фреймворк для создания автономных AI-агентов, который использует методику непрерывного выполнения задач. Он позволяет агентам повторять попытки до тех пор, пока задача не будет успешно завершена, обеспечивая проверку результатов и обратную связь.
🚀Основные моменты:
- Итеративное выполнение задач до подтверждения завершения
- Полная совместимость с AI SDK
- Гибкие условия остановки
- Управление контекстом для долгосрочных задач
- Поддержка потоковой передачи результатов
📌 GitHub: https://github.com/vercel-labs/ralph-loop-agent
❤2
🚀 Ускорение Mixture-of-Experts с SonicMoE
SonicMoE — это высокопроизводимая реализация Mixture-of-Experts, оптимизированная для GPU NVIDIA Hopper. Использует CuTeDSL и Triton для достижения выдающихся результатов благодаря IO-оптимизациям.
🚀 Основные моменты:
- Поддержка архитектуры NVIDIA Hopper.
- Высокая производительность благодаря эффективным алгоритмам.
- Простота интеграции с PyTorch.
- Открытый код и возможность внесения вкладов.
📌 GitHub: https://github.com/Dao-AILab/sonic-moe
#python
SonicMoE — это высокопроизводимая реализация Mixture-of-Experts, оптимизированная для GPU NVIDIA Hopper. Использует CuTeDSL и Triton для достижения выдающихся результатов благодаря IO-оптимизациям.
🚀 Основные моменты:
- Поддержка архитектуры NVIDIA Hopper.
- Высокая производительность благодаря эффективным алгоритмам.
- Простота интеграции с PyTorch.
- Открытый код и возможность внесения вкладов.
📌 GitHub: https://github.com/Dao-AILab/sonic-moe
#python
👍1🔥1🥰1
⚡️ Похоже, DeepSeek готовит новый флагман.
Сразу несколько источников пишут, что уже в следующем месяце выйдет их топовая модель:
R2 (или V4).
И самое интересное - у них недавно вышла статья, где описаны идеи, которые могут сильно повлиять на индустрию:
- сделать обучение стабильнее
- ускорить тренинг
- заметно снизить стоимость обучения моделей
Если это подтвердится - это будет не “ещё одна LLM”, а шаг в сторону более дешёвого и масштабируемого AI.
А по ранним отзывам тестеров модель уже показывает очень сильный кодинг - и некоторые говорят, что она может быть лучше Claude / GPT в программировании.
Если релиз реально случится - будет один из главных AI-дропов года.
Сразу несколько источников пишут, что уже в следующем месяце выйдет их топовая модель:
R2 (или V4).
И самое интересное - у них недавно вышла статья, где описаны идеи, которые могут сильно повлиять на индустрию:
- сделать обучение стабильнее
- ускорить тренинг
- заметно снизить стоимость обучения моделей
Если это подтвердится - это будет не “ещё одна LLM”, а шаг в сторону более дешёвого и масштабируемого AI.
А по ранним отзывам тестеров модель уже показывает очень сильный кодинг - и некоторые говорят, что она может быть лучше Claude / GPT в программировании.
Если релиз реально случится - будет один из главных AI-дропов года.
❤17👍6🔥3
🤖 Многопользовательская система с латентным мышлением
LatentMAS — это фреймворк для многопользовательского рассуждения, который переводит взаимодействие агентов в латентное пространство, обеспечивая более эффективное использование токенов и ускорение вычислений. Он совместим с любыми моделями Hugging Face и предлагает стабильную генерацию без необходимости в обучении.
🚀 Основные моменты:
- Эффективное многократное рассуждение с меньшим количеством токенов
- Латентное выравнивание без обучения
- Поддержка любых моделей HF и vLLM
- Значительное сокращение времени обработки (до 7 раз быстрее)
📌 GitHub: https://github.com/Gen-Verse/LatentMAS
#python
LatentMAS — это фреймворк для многопользовательского рассуждения, который переводит взаимодействие агентов в латентное пространство, обеспечивая более эффективное использование токенов и ускорение вычислений. Он совместим с любыми моделями Hugging Face и предлагает стабильную генерацию без необходимости в обучении.
🚀 Основные моменты:
- Эффективное многократное рассуждение с меньшим количеством токенов
- Латентное выравнивание без обучения
- Поддержка любых моделей HF и vLLM
- Значительное сокращение времени обработки (до 7 раз быстрее)
📌 GitHub: https://github.com/Gen-Verse/LatentMAS
#python
❤2👍1🔥1
🚨 Новые утечки про “железо” OpenAI: похоже, они реально готовят **замену AirPods**.
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
Что слили:
🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)
И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)
Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.
https://x.com/zhihuipikachu/status/2010745618734759946
❤6👍2🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Мо Гавдат (бывший Google CBO): самое интересное, о чём почти не говорят - самоэволюционирующий ИИ
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
“Главный инженер мира со временем станет ИИ.
И тогда вопрос простой:
кого вы наймёте, чтобы создавать следующий ИИ?
— Конечно, этот ИИ.
Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”
Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.
И тогда гонка идёт не за “ещё одну модель”.
А за того, кто первым получит систему, способную улучшать саму себя.
😁5👍3😢2
🌊⚙️ Wavelet Matrix: Эффективная структура для работы с последовательностями
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.
🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.
📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix
#rust
GitHub
GitHub - math-hiyoko/wavelet-matrix: wavelet-matrix library for Python
wavelet-matrix library for Python. Contribute to math-hiyoko/wavelet-matrix development by creating an account on GitHub.
❤1👍1🔥1
Media is too big
VIEW IN TELEGRAM
🧠 Sakana AI выпустили RePo - модуль, который делает LLM устойчивее к шуму и длинным текстам
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.
✅ RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше
И это даёт сильный рост качества именно там, где LLM обычно ломаются.
📊 Результаты в цифрах (главное)
✅ Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:
- Обычный RoPE: 21.07
- RePo: 28.31
📈 Прирост: +7.24 пункта (очень много)
Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).
🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)
✅ Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.
Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.
Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
❤4🔥3👍2
🧠 Claude HUD: Инструмент для улучшения работы с Claude Code
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.
🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал
📌 GitHub: https://github.com/jarrodwatts/claude-hud
GitHub
GitHub - jarrodwatts/claude-hud: A Claude Code plugin that shows what's happening - context usage, active tools, running agents…
A Claude Code plugin that shows what's happening - context usage, active tools, running agents, and todo progress - jarrodwatts/claude-hud
❤2👍2🔥1
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
🔥1
🚀 Легкий плагин для оркестрации агентов OpenCode
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.
🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.
📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim
#python
👎1