Машиннное обучение | Наука о данных Библиотека – Telegram
Машиннное обучение | Наука о данных Библиотека
16.8K subscribers
893 photos
14 videos
21 files
741 links
админ - @workakkk

@ai_machinelearning_big_data - Machine learning

@itchannels_telegram - 🔥лучшие ит-каналы

@pythonl - Python

@pythonlbooks- python книги📚

@datascienceiot - ml книги📚

№ 5037635661
Download Telegram
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?

Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.

Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.

Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.

🎁 48 часов действует скидка в 40% процентов

👉 Начать учиться на Stepik
4🔥1
🧠 Новая работа IBM и Колумбийского университета показывает, как AI-агент может находить связи между предсказательными рынками и превращать их в сигналы для трейдинга.

В тестах найденные агентом связи дали простую стратегию с ~20% средней доходностью на недельных сделках.

Предсказательные рынки — это площадки, где люди торгуют “да/нет” ставками на будущие события, а цены отражают коллективные ожидания.

Проблема в том, что там часто есть куча почти одинаковых вопросов → деньги и внимание дробятся, а естественные связи между событиями скрываются.

Авторы построили AI-pipeline, который:
• читает текст рынков,
• группирует похожие вопросы в кластеры,
• ищет пары взаимосвязанных рынков.

Далее агент прогнозирует: должны ли два связанных рынка обычно решаться одинаково или наоборот — противоположно.

Проверка на исторических данных Polymarket показала, что 60–70% связей высокой уверенности оказались правильными.

Правило “торгуй вторым рынком после того, как первый закрылся” приносило прибыль большинство месяцев — то есть смысловые связи действительно несут экономическую информацию.

arxiv.org/abs/2512.02436
5🔥1🥰1
🚀 Вышел Qwen-Image-i2L от DiffSynth-Studio - первый open-source инструмент, который умеет делать LoRA-модель из одной картинки. 🖼️➡️🧠

Что можно извлекать из изображения:

🎨 Style — только стиль и эстетика
🧩 Coarse — стиль + содержание сцены
Fine — улучшение детализации 1024×1024 (используется вместе с Coarse)
⚖️ Bias — подстройка под фирменный визуальный почерк Qwen-Image

Модель построена на SigLIP2 + DINOv3 + Qwen-VL.

Итог — можно взять одну картинку и быстро натренировать под неё собственную LoRA, без больших датасетов.

🔗 ModelScope: modelscope.cn/models/DiffSynth-Studio/Qwen-Image-i2L/summary
💻 Код: github.com/modelscope/DiffSynth-Studio/blob/main/examples/qwen_image/model_inference_low_vram/Qwen-Image-i2L.py
6
🧠 Новая работа Anthropic: как «локализовать» опасные знания внутри небольшого участка модели, а не размазывать их по всем весам.

Проблема:
LLM легко впитывают рискованные навыки из грязных датасетов - вредный контент может проскочить фильтры, попасть в обучение, а затем его почти невозможно полностью удалить. Обычно такие знания распределяются по всей сети.

Идея работы:

Исследователи заранее выделяют крошечную часть модели — небольшой набор нейронов и attention-голов - и обозначают его как «рискованную зону». Именно там должна храниться целевая опасная информация.

Как это работает:
- Во время обучения рискованные примеры обновляют только эту зону, сигналы градиента к остальным весам обнуляются.
- Нормальные примеры наоборот - обучаются с отключённой risky-зоной.
- После обучения исследователи обнуляют веса risky-зоны, удаляя опасные знания, но почти не трогая общие способности модели.

Почему это эффективно:
Ранние размеченные опасные данные «прокладывают путь» - вся дальнейшая утечка вредных знаний из неразмеченного или ошибочно размеченного датасета также направляется в ту же область. В результате вредные навыки не расползаются по всей модели.

Результаты:
- На задачах с билингвальными историями, а также с биологическими и военными темами из Википедии этот метод значительно лучше удаляет целевые знания, чем простая фильтрация данных.
- Модель становится гораздо устойчивее к adversarial fine-tuning, который обычно восстанавливает запрещённые навыки.
- Минус - требуется больше вычислительных ресурсов.

Это первые шаги к практическому и управляемому «удалению способностей» из LLM через локализацию знаний, а не через попытки чистить датасеты или послеобучение.

Paper: arxiv.org/abs/2512.05648
👎43👍3
🚨 Stanford показал, что AI уже превосходит профессиональных хакеров в реальном мире. И масштаб этого события многие пока не осознают.

Исследователи Stanford опубликовали работу, в которой сравнили людей и AI не в лабораторных условиях, а в настоящей корпоративной инфраструктуре.

Эксперимент был максимально приближен к реальности:
- 10 профессиональных pentester-ов
- живая университетская сеть
- около 8 000 реальных машин
- 12 подсетей
- продакшн-системы и реальные пользователи

В ту же среду они запустили автономного AI-агента под названием ARTEMIS.

Результат оказался ошеломляющим.
ARTEMIS превзошел 9 из 10 человеческих экспертов.

И это важно подчеркнуть:
- не CTF
- не статический анализ CVE
- не синтетический бенчмарк

Это была реальная enterprise-сеть с реальными последствиями.

Что показал ARTEMIS:
- 9 подтвержденных уязвимостей
- 82% валидных находок
- 2-е место в общем лидерборде
- без человеческого надзора
- без кастомных эксплойтов
- стоимость работы около 18 долларов в час

Для сравнения: средняя стоимость работы человека-pentester-а - около 60 долларов в час.

Почему AI оказался эффективнее:
- Люди вручную выбирали цели для атаки
- ARTEMIS создавал саб-агентов и атаковал несколько хостов параллельно
- Люди теряли зацепки или застревали в тупиковых направлениях
- ARTEMIS вел идеальную память, списки задач и автоматический триаж
- Люди не могли работать с устаревшими веб-интерфейсами
- ARTEMIS игнорировал браузер и напрямую эксплуатировал их через curl -k

Более того, ARTEMIS обнаружил уязвимости, которые не нашел ни один человек.

Что пока ограничивает его эффективность:
- Эксплойты, завязанные на GUI
- Более высокий уровень ложных срабатываний

Во всем остальном агент вел себя как полностью укомплектованная red team:
без усталости, без эмоций, без эго и с бесконечным терпением.

Главный вывод здесь простой и жесткий:
AI больше не просто помогает специалистам по безопасности.
AI начинает конкурировать с ними.
И в реальных условиях - уже выигрывает.

Это момент, когда offensive security начинает меняться необратимо.

📄 Статья: https://arxiv.org/abs/2512.09882
👍53👎1
🍏 Apple на короткое время опубликовала, а затем быстро удалила статью на arXiv - но версия v1 уже разошлась, и она очень любопытная.

Команда раскрыла RLAX - масштабируемый фреймворк обучения с подкреплением для LLM на TPU.

Что внутри RLAX:
- Архитектура parameter server
- Центральный тренер обновляет веса
- Огромные inference-флоты подтягивают веса и генерируют rollouts
- Оптимизировано под preemption и массовый параллелизм
- Специальные техники курирования данных и alignment

Результаты впечатляют:
- +12,8% к pass@8 на QwQ-32B
- Всего за 12 часов 48 минут
- Использовано 1024 TPU v5p

Что интерсеного:
- Apple явно экспериментирует с RL на очень больших масштабах
- TPU-ориентированная архитектура говорит о фокусе на эффективность, а не только на модель
- Прирост достигается не «магией модели», а инженерией системы обучения
- Это еще один сигнал, что RL для LLM переходит в фазу индустриальных пайплайнов

Название статьи:
RLAX: Large-Scale, Distributed Reinforcement Learning for

https://arxiv.org/pdf/2512.06392v1
Please open Telegram to view this post
VIEW IN TELEGRAM
6👍6🔥3
Иногда поиск понимает запрос буквально — и именно в этом начинается проблема.

Когда мы проектируем системы, мы рассчитываем на то, что поиск поможет пользователю найти то, что он имел в виду, а не просто совпадающие слова. Но классический полнотекстовый поиск часто упирается в ограничения: он видит текст, но не смысл, из-за чего на выходе получаем нерелевантные результаты.

На вебинаре karpovꓸcourses разберут, как компании переходят от полнотекстового поиска к векторному и почему это становится базовым инструментом для продуктов с большим каталогом. Поговорим о том, как обучить свою модель, внедрить ее без сложной инфраструктуры и получить быстрый эффект для бизнеса.

Спикер — Игорь Самарин, ML-инженер в области поиска и рекомендаций в Купере.

Увидьте реальные примеры применения векторного поиска в продуктах и получите структурное понимание технологии на бесплатном онлайн-вебинаре — https://clc.to/erid_2W5zFHxMcC8

Реклама. ООО "КАРПОВ КУРСЫ". ИНН 7811764627. erid: 2W5zFHxMcC8
3
🧠 Google представила BATS - Budget Aware Test-time Scaling

Идея простая и очень показательная: давать агенту больше tool calls часто бесполезно, потому что агент не осознаёт, что у него ещё остался бюджет.

В итоге он:
- либо думает, что уже знает ответ
- либо считает, что зашёл в тупик
и останавливается раньше времени, даже если лимит на инструменты ещё есть.

Как это работает обычно:
ReAct-агенты чередуют «размышление» и «действие», где действие — это Search, Browse и другие tool calls. Лимит на инструменты — жёсткий потолок внешних доказательств.

Проблема:
Агенты упираются в performance ceiling, потому что не адаптируют стратегию под оставшийся бюджет.

Решение BATS начинается с простого — Budget Tracker:
- агент постоянно видит счётчик вроде
«Query budget remaining»
«URL budget remaining»
- и меняет поведение в зависимости от остатка бюджета

Результат:
С Budget Tracker агент на Gemini-2.5-Pro достигает сопоставимой точности с 10 tool calls, тогда как ReAct требует 100.

При этом:
- на 40.4% меньше search-запросов
- на 21.4% меньше browse-запросов
- на 31.3% ниже общая стоимость

Но BATS идёт дальше:
- строит budget-aware план
- добавляет self-check шаг — продолжать копать текущую гипотезу или переключиться на новую

Метрики:
На BrowseComp (100 tool calls):
- BATS + Gemini-2.5-Pro: 24.6%
- ReAct: 12.6%

Также улучшения на:
- BrowseComp-ZH: 46.0% vs 31.5%
- HLE-Search: 27.0% vs 20.5%

И всё это без task-specific обучения.

Важный момент:
Авторы вводят единую метрику стоимости - суммируют цену токенов и tool calls. Оценивается не только точность, но и деньги.

Будущее агентных систем - не в увеличении лимитов, а в осознанном управлении бюджетом и стратегией поиска.

arxiv.org/abs/2511.17006
4
This media is not supported in your browser
VIEW IN TELEGRAM
Ты знаешь, как управлять AI-сценариями. Мы знаем, как поддержать эксперта ⚡️

Наша команда создаёт цифровую платформу, где ИИ – не просто помощник, а полноправный соавтор. Если тебе интересно экспериментировать с искусственным интеллектом и напрямую влиять на клиентский опыт — присоединяйся!

Что будешь делать:
✔️ формировать структуры (Goal → Journey → Actions) и проектировать сценарии для различных интерфейсов
✔️ формировать high-level требования к фронтенду, API и данным
✔️ руководить полным циклом развития сценария – от идеи и прототипа до MVP, масштабирования и финансового эффекта.

Мы предлагаем: годовую премию, ДМС, скидку на ипотеку, обучение за счёт компании, современную технику и всё для комфорта и профессионального роста.

Откликайся на вакансию по ссылке
3
⚡️ FAIRY2I - 2-битная квантизация без резкой потери качества

FAIRY2I превращает предобученную LLM в комплексную версию, которая сохраняет точность даже при 2-битных весах.

Факт
На LLaMA-2 7B модель с 2-битными весами достигает 62.00%, тогда как full-precision базовая модель — 64.72%. Потеря минимальна для столь агрессивной квантизации.

Почему это важно
Запуск больших LLM дорог из-за:
- хранения весов
- матричных умножений, доминирующих по времени и памяти

Классическая квантизация (1–2 бита) сильно режет точность, потому что:
- каждый вес становится одним числом
- множество разных весов схлопываются в одинаковые значения

Идея FAIRY2I
Вместо одного числа каждый вес представляется парой чисел:
- направление
- масштаб

Ключевые особенности
- Любой линейный слой переписывается в строго эквивалентную комплексную форму
- Можно стартовать с уже обученной модели, без обучения с нуля
- Каждый вес квантуется в 1 из 4 фиксированных направлений
- Используются 2 scale-коэффициента (по одному на каждую часть)
- Остаточная ошибка дополнительно квантуется и добавляется как вторая low-bit коррекция

Результат
- Инференс сводится в основном к сложению, вычитанию и простым перестановкам
- Существенное снижение памяти
- Минимальная потеря качества даже при 2 битах

Вывод
FAIRY2I показывает, что ультранизкая квантизация возможна без катастрофического падения качества, если отказаться от представления веса как одного скаляра.

Paper: arxiv.org/abs/2512.02901
4🔥1