Машинное обучение RU – Telegram
Машинное обучение RU
17.8K subscribers
1.59K photos
212 videos
11 files
2.05K links
Все о машинном обучении

админ - @workakkk

@data_analysis_ml - анализ даннных

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram -лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python 📚

@datascienceiot - 📚

РКН: clck.ru/3FmrUw
Download Telegram
🖥 На Stepik вышел курс, который учит работать с Docker на реальных проектах.

Владение Docker - навык, который отличает новичка от профи,

Сегодня почти всё разворачивается в контейнерах.

Если ты не умеешь работать с Docker, ты медленнее, зависим от чужих настроек и постоянно ловишь баги «у меня локально работает».

• как упаковывать проекты в контейнеры
• как поднимать целые системы за минуты
• как избегать типичных ошибок в продакшене
• как делать стабильные и повторяемые окружения
•в нем разобраны все возможные ошибки

Только практика и реальные кейсы от авторов Docker Академии- с нуля до уверенного уровня.

🎁 Скидка 40 процентов действует 48 часов


👉 Записывайся и сделай Docker своим настоящим рабочим инструментом.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41
🚀 Автономные AI-агенты с Ralph Loop

Ralph Loop Agent — это фреймворк для создания автономных AI-агентов, который использует методику непрерывного выполнения задач. Он позволяет агентам повторять попытки до тех пор, пока задача не будет успешно завершена, обеспечивая проверку результатов и обратную связь.

🚀Основные моменты:
- Итеративное выполнение задач до подтверждения завершения
- Полная совместимость с AI SDK
- Гибкие условия остановки
- Управление контекстом для долгосрочных задач
- Поддержка потоковой передачи результатов

📌 GitHub: https://github.com/vercel-labs/ralph-loop-agent
2
🚀 Ускорение Mixture-of-Experts с SonicMoE

SonicMoE — это высокопроизводимая реализация Mixture-of-Experts, оптимизированная для GPU NVIDIA Hopper. Использует CuTeDSL и Triton для достижения выдающихся результатов благодаря IO-оптимизациям.

🚀 Основные моменты:
- Поддержка архитектуры NVIDIA Hopper.
- Высокая производительность благодаря эффективным алгоритмам.
- Простота интеграции с PyTorch.
- Открытый код и возможность внесения вкладов.

📌 GitHub: https://github.com/Dao-AILab/sonic-moe

#python
👍1🔥1🥰1
⚡️ Похоже, DeepSeek готовит новый флагман.

Сразу несколько источников пишут, что уже в следующем месяце выйдет их топовая модель:
R2 (или V4).

И самое интересное - у них недавно вышла статья, где описаны идеи, которые могут сильно повлиять на индустрию:
- сделать обучение стабильнее
- ускорить тренинг
- заметно снизить стоимость обучения моделей

Если это подтвердится - это будет не “ещё одна LLM”, а шаг в сторону более дешёвого и масштабируемого AI.

А по ранним отзывам тестеров модель уже показывает очень сильный кодинг - и некоторые говорят, что она может быть лучше Claude / GPT в программировании.

Если релиз реально случится - будет один из главных AI-дропов года.
17👍6🔥3
🤖 Многопользовательская система с латентным мышлением

LatentMAS — это фреймворк для многопользовательского рассуждения, который переводит взаимодействие агентов в латентное пространство, обеспечивая более эффективное использование токенов и ускорение вычислений. Он совместим с любыми моделями Hugging Face и предлагает стабильную генерацию без необходимости в обучении.

🚀 Основные моменты:
- Эффективное многократное рассуждение с меньшим количеством токенов
- Латентное выравнивание без обучения
- Поддержка любых моделей HF и vLLM
- Значительное сокращение времени обработки (до 7 раз быстрее)

📌 GitHub: https://github.com/Gen-Verse/LatentMAS

#python
2👍1🔥1
🚨 Новые утечки про “железо” OpenAI: похоже, они реально готовят **замену AirPods**.

Что слили:

🎧 Это аудио-носима (wearable), которую делают как “следующую платформу” вместо наушников
🧩 Кодовое имя: Sweetpea
👀 Внешний вид: металлический “eggstone” + две маленькие капсулы за ухом
⚙️ Железо: ставка на 2nm-чип + возможный кастомный чип для “действий как у телефона”
📦 Амбиции дикие: 40–50 млн устройств в первый год (это почти уровень AirPods по масштабу)

И это только начало: по утечкам Foxconn готовится к массовому производству сразу 5 устройств к Q4 2028 — среди них упоминаются:
- домашний девайс
- “ручка” (pen/stylus)

Если это правда — OpenAI явно строит целую линейку новой экосистемы, а не “один гаджет ради хайпа”.

https://x.com/zhihuipikachu/status/2010745618734759946
6👍2🔥1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
🧠 Мо Гавдат (бывший Google CBO): самое интересное, о чём почти не говорят - самоэволюционирующий ИИ

“Главный инженер мира со временем станет ИИ.

И тогда вопрос простой:
кого вы наймёте, чтобы создавать следующий ИИ?
— Конечно, этот ИИ.


Поэтому AGI - это уже не просто технология.
Это вопрос национальной стратегической важности.”


Суть мысли очень жёсткая, если ИИ становится лучшим разработчиком ИИ, то прогресс начинает ускоряться сам по себе - без человеческого лимита.

И тогда гонка идёт не за “ещё одну модель”.

А за того, кто первым получит систему, способную улучшать саму себя.
😁5👍3😢2
🌊⚙️ Wavelet Matrix: Эффективная структура для работы с последовательностями

Wavelet Matrix — это высокопроизводительная структура данных для индексированных последовательностей, обеспечивающая быстрые запросы по диапазону и динамическим обновлениям. Она поддерживает операции ранжирования, выбора и вычисления квантилей.

🚀Основные моменты:
- Высокая производительность для работы с большими данными.
- Поддержка динамических обновлений.
- Удобные методы для анализа и манипуляции данными.

📌 GitHub: https://github.com/math-hiyoko/wavelet-matrix

#rust
1👍1🔥1
Media is too big
VIEW IN TELEGRAM
🧠 Sakana AI выпустили RePo - модуль, который делает LLM устойчивее к шуму и длинным текстам

Проблема обычных LLM:
они читают контекст как “ленту токенов”.
Если важная инфа далеко, а рядом куча мусора - внимание размазывается, и качество падает.

RePo (Context Re-Positioning) решает это так:
модель учится переставлять контекст по смыслу:
- важное “подтягивает” ближе
- шум “отодвигает” дальше

И это даёт сильный рост качества именно там, где LLM обычно ломаются.

📊 Результаты в цифрах (главное)

Noisy Context (контекст с шумом)
Среднее по 8 noisy-бенчмаркам:

- Обычный RoPE: 21.07
- RePo: 28.31

📈 Прирост: +7.24 пункта (очень много)

Отдельно авторы фиксируют:
RePo лучше RoPE на noisy-eval на +11.04 пункта (4K контекст).

🔥 Примеры по задачам:
- TriviaQA: 61.47 → 73.02 (**+11.55**)
- GovReport: 6.23 → 16.80 (**+10.57**)
- 2WikiMultihopQA: 23.32 → 30.86 (**+7.54**)
- MuSiQue: 7.24 → 13.45 (**+6.21**)

Длинные контексты (8K / 16K)
Самое важное:
преимущество RePo не исчезает, а растёт на 8K и 16K,
даже если такие длины не встречались в обучении.

Итог:
RePo - это шаг к LLM, которые не просто “читают” промпт,
а сами наводят порядок в памяти: главное ближе, шум дальше.

Paper: arxiv.org/abs/2512.14391
Видео: https://youtu.be/cqWiBIbMK80
4🔥3👍2
🧠 Claude HUD: Инструмент для улучшения работы с Claude Code

Claude HUD предоставляет визуальную информацию о текущем состоянии вашей сессии в Claude Code. Он показывает активные инструменты, статус агентов и прогресс задач, оставаясь всегда на виду под вашим вводом.

🚀Основные моменты:
- Отображает текущее имя проекта и состояние контекста
- Следит за активностью инструментов и агентов в реальном времени
- Обновляет данные каждые ~300 мс
- Работает без отдельного окна, интегрируясь в терминал

📌 GitHub: https://github.com/jarrodwatts/claude-hud
3👍2🔥1
Forwarded from Python RU
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?

Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.

Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.

Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.

🎁 48 часов действует скидка в 40% процентов

👉 Начать учиться на Stepik
🔥21👍1
🚀 Легкий плагин для оркестрации агентов OpenCode

oh-my-opencode-slim — это облегченная версия плагина, позволяющая вашему ИИ-ассистенту управлять сложными задачами через специализированные подагенты. С минимальным потреблением токенов, он идеально подходит для многозадачности и фоновых поисков.

🚀 Основные моменты:
- Легкая интеграция с Antigravity для оптимальной работы.
- Поддержка многопоточных рабочих процессов.
- Настраиваемые модели для каждого агента.
- Эффективное управление задачами с помощью специализированных агентов.

📌 GitHub: https://github.com/alvinunreal/oh-my-opencode-slim

#python
👎1