Математика Дата саентиста – Telegram
🚀 Высокопроизводительная библиотека тензоров Axiom

Axiom — это открытая библиотека на C++, которая сочетает в себе простоту NumPy и PyTorch с высокой производительностью. Она предлагает интуитивно понятный API и поддержку GPU, обеспечивая отличные результаты в вычислениях.

🚀 Основные моменты:
- Python-подобный API с перегрузкой операторов
- Высокая производительность с SIMD и BLAS
- Полная поддержка GPU через Metal
- Интуитивные операции с тензорами и интеграция с einops
- Кроссплатформенная совместимость и надежные тесты

📌 GitHub: https://github.com/frikallo/axiom

#cpp
❤‍🔥8👍4
🚀 Gemini Deep Think - новый режим для научных и математических задач

DeepMind представили Gemini Deep Think — режим рассуждения, созданный для сложных задач в науке, математике и исследованиях.

Главная идея — дать модели больше времени и вычислений на обдумывание, чтобы улучшить качество решений в задачах, где важна логика, а не скорость.

Что умеет Deep Think

- Выполняет глубокое многошаговое рассуждение
- Параллельно исследует несколько вариантов решения
- Сравнивает гипотезы и выбирает лучший результат
- Лучше справляется со сложной математикой и научными задачами

Где это интересно:

- Математические доказательства и сложные задачи
- Научные исследования и анализ данных
- Поиск новых идей и гипотез
- Долгие цепочки логических рассуждений

Почему это важно

Обычные модели оптимизированы на скорость ответа.
Deep Think делает ставку на другое:

меньше скорости → больше качества рассуждений.

Это особенно важно для:
- научных открытий
- инженерных задач
- исследований, где ошибка дорого стоит

Следующий этап развития AI - не просто быстрые ответы,
а модели, которые думают дольше и глубже, когда задача этого требует.

Источник:
https://deepmind.google/blog/accelerating-mathematical-and-scientific-discovery-with-gemini-deep-think/
11👍4🔥4🥰1
ИИ начинает решать задачи, которые раньше были под силу только топ-математикам.

OpenAI провели внутренний эксперимент: модель с минимальным участием человека участвовала в челлендже First Proof — это 10 исследовательских задач на переднем крае современной математики.

Результаты всего за 1 неделю:

- Модель предложила решения для большинства задач
- Минимум 6 решений эксперты считают вероятно корректными
- Работа велась практически без человеческого контроля

Важно: это был всего лишь побочный спринт, а не полноценный исследовательский проект.

Но вывод очевиден:

ИИ больше не просто объясняет математику.
Он начинает создавать новую математику.

Следующий этап развития:

- поиск доказательств сложных теорем
- обнаружение новых закономерностей
- помощь в научных исследованиях
- ускорение фундаментальных открытий

Мы движемся от AI-ассистента к AI-исследователю.

И это только начало.

https://x.com/merettm/status/2022517085193277874
👍16🤨148👎2🥰1😁1
Forwarded from Machinelearning
📌 AxiomProver доказала нерешенные математические гипотезы.

История началась с тупика, в который зашли математики Давей Чен и Квентин Жендрон. Пять лет назад они пытались разобраться в сложном разделе алгебраической геометрии, связанном с дифференциалами - элементами математического анализа, используемыми для измерения расстояний вдоль изогнутых поверхностей.

В ходе работы они зашли в тупик: их рассуждения опирались на странную формулу из теории чисел, но ни доказать ее, ни обосновать они не смогли. В итоге Чэнь и Жандрон опубликовали работу, в которой представили свою идею как гипотезу, а не как теорему.

Попытки Чена использовать ChatGPT для поиска решения оказались бесполезными - языковая модель просто не справлялись с задачей такого уровня абстракции.

Прорыв случился благодаря встрече Чена с Кеном Оно, известным математиком, работающим в Axiom. Узнав о проблеме, Кен загрузил исходные данные в систему AxiomProver.

К утру ИИ выдал готовое доказательство. Prover обнаружил связь между задачей Чена-Жендрона и числовым феноменом, впервые изученным еще в XIX веке. Затем система сама разработала доказательство и, что важно, самостоятельно его верифицировала.

По словам Кена Оно, алгоритм нашел то, что упустили все люди-эксперты, работавшие над темой. Результат оформили и опубликовали на arXiv и положили на Github.

AxiomProver представляет собой гибрид LLM и уникального движка для логического вывода с использованием языка формальной верификации Lean. Этот микс позволяет системе строить цепочки рассуждений, математическая корректность которых проверяется автоматически.


Подход напоминает систему AlphaProof от Google, но, по словам CEO Axiom Карины Хонг, они задействовали ряд новых техник, позволяющих выходить за рамки простого поиска по существующей литературе.

Еще более впечатляющим выглядит кейс системы с гипотезой Феля, касающейся сизигий - математических соотношений, в которых числа выстраиваются в алгебраические закономерности. Она опирается на формулы, впервые обнаруженные более 100 лет назад в записных книжках легендарного индийского математика Сринивасы Рамануджана.

В этом случае AxiomProver не просто заполнил недостающее звено - он разработал доказательство от начала до конца. Воспроизвести трек доказательства может любой желающий, код - на Github.

К слову, система буквально в январе этого года решила все 12 задач математической олимпиады Putnam, самого престижного конкурса для студентов бакалавриата.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
11👍9🔥3
⚡️ Датасет **UltraData-Math** сейчас в топе трендов на HuggingFace. Его идея - сделать упор не на объём, а на качество данных для обучения математическому мышлению.

После обучения на этом наборе модель MiniCPM-1.2B показала результат 61.79 на GSM8K - уровень, который обычно требуют гораздо более крупные модели и массивные датасеты. При этом она сохраняет общие знания.

Что в нём особенного

- Минимум шума - данные проходят оценку качества, слабые примеры удаляются
- Не только учебники — есть обсуждения с форумов, разборы решений и многошаговые диалоги
- Несколько уровней плотности (L1–L3) — можно выбрать вариант под свои вычислительные ресурсы

Вывод простой

Для сильной модели важен не только размер, но и чистота и полезность данных.

Датасет подойдёт тем, кто работает с дообучением или обучает компактные модели.

https://huggingface.co/datasets/openbmb/UltraData-Math
9
Forwarded from Machinelearning
📌 Аnthropic измерил, как люди на самом деле используют ИИ-агентов.

Создатели Claude проанализировали миллионы взаимодействий в Claude Code и через публичный API с помощью их инструмента Clio, чтобы понять, сколько автономии люди реально дают агентам, в каких доменах те работают и насколько рискованны их действия.

🟡 Агенты работают все дольше без участия человека.

За 3 месяца медианная длина самых долгих сессий в Claude Code почти удвоилась - с 25 до более чем 45 минут непрерывной работы. Причем рост плавный и не коррелирует с релизами новых моделей.

Это значит, что дело не только в возможностях модели, а в том, как пользователи выстраивают взаимодействие с агентом.

🟡Опытные пользователи ведут себя иначе, чем новички.

Среди тех, кто только начинает пользоваться Claude Code, около 20% сессий запускают с полным авто-апрувом, это когда агент выполняет все действия без подтверждений.

У опытных пользователей эта доля больше 40%. Плюс они чаще прерывают агента вручную.
Аnthropic предполагает, что это не потому, что теряется доверие, а потому что они берутся за более сложные задачи и лучше понимают, когда нужно вмешаться.

🟡Неочевидный факт: агент сам ограничивает свою автономию чаще, чем это делает человек.

На самых сложных задачах Claude Code останавливается и задает уточняющий вопрос вдвое чаще, чем по принудительному прерыванию человеком.

🟡Картина по доменам

Почти половина всей агентной активности через API - за разработкой ПО.

Есть прирост использования в медицине, финансах и кибербезопасности, но пока в небольших объемах.

По итогу исследования, Аnthropic пришла к выводу, что эффективный надзор за агентами требует не только технических ограничений, но и новой инфраструктуры пост-деплойного мониторинга и новых паттернов взаимодействия - где и человек, и агент совместно управляют автономией и рисками.

Текущие модели, по данным компании, технически способны на большую самостоятельность, чем им позволяют на практике.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍91
👍19🔥10🙏53👎2😭2
Курсы повышения квалификации при МГУ "Машинное обучение. Искусственные нейронные сети и генетические алгоритмы"

Заканчивается прием заявок на прохождение курсов повышения квалификации "Машинное обучение. Искусственные нейронные сети и генетические алгоритмы", проводимых НИИ ядерной физики имени Д.В.Скобельцына Московского Государственного Университета имени М.В.Ломоносова.

Окончившим курсы МГУ выдаёт удостоверение установленного образца о повышении квалификации на бланке строгого учёта с подписью проректора и гербовой печатью МГУ, в твёрдом переплёте.

Внимание! Занятия будут проходить в двойном формате - очно на территории МГУ на Воробьевых горах с возможностью подключения через zoom, что позволяет обучаться лицам из любого региона РФ.

Занятия будут проходить два раза в неделю в вечернее время.

Регистрация открыта до 5 марта 2026г (включительно).

Получить более подробную информацию о программе обучения и подать заявку для прохождение курсов Вы можете по этому адресу.
4👀2🔥1🥴1
⚡️ Карпаты поделился наблюдением, которое хорошо описывает то, что сейчас происходит с разработкой.

За последние пару месяцев программирование изменилось не постепенно, а резко. Раньше кодинг-агенты выглядели как интересный эксперимент - могли помочь с фрагментами кода, но не тянули реальные задачи. Сейчас ситуация другая: модели научились держать контекст, последовательно решать проблемы и доводить работу до конца.

По сути, они получили главное качество инженера - упорство.

Типичный сценарий сегодня выглядит так: ты ставишь задачу высокого уровня, агент подключается к серверу, настраивает окружение, устанавливает зависимости, поднимает сервисы, пишет код, тестирует, исправляет ошибки и возвращается с готовым результатом и отчётом. То, что раньше занимало выходные, теперь может решаться за десятки минут автономной работы.

И это меняет сам подход к разработке.

Раньше основной навык был - писать код.
Теперь основной навык - формулировать задачи, декомпозировать их и управлять процессом.

Новый рабочий процесс:

* описываешь цель на естественном языке
* запускаешь агента
* наблюдаешь за прогрессом
* проверяешь результат
* корректируешь направление

Ключевая компетенция смещается вверх по уровням абстракции:

* архитектурное мышление
* правильная декомпозиция
* настройка инструментов и среды
* оркестрация нескольких агентов
* контроль качества

Это ещё не магия. Агентам всё ещё нужны:

* чёткие спецификации
* понятные критерии успеха
* тесты и верификация
* человеческое суждение и вкус

Лучше всего они работают там, где результат можно проверить автоматически.

Но главное изменение уже произошло.

Программирование постепенно превращается из «написания кода» в управление вычислительной системой, которая пишет код за тебя.

И сейчас выигрывают не те, кто быстрее печатает,
а те, кто умеет мыслить на уровне систем, задач и результатов.

Если раньше ценился coding,
то теперь растёт ценность agent-engineering.

https://x.com/karpathy/status/2026731645169185220
16🔥6👎3👍1😢1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Sakana AI представили два исследования - Text-to-LoRA и Doc-to-LoRA, которые делают кастомизацию LLM быстрее и значительно проще.

Идея в том, чтобы модели могли мгновенно адаптироваться к новым задачам или информации — без долгого fine-tuning, сложных пайплайнов и огромных промптов.

Сегодня у LLM есть проблема:
чтобы обучить модель под новую задачу или добавить знания, обычно требуется:
- дорогое и длительное дообучение
- context distillation
- или длинные, затратные по памяти промпты

Sakana AI предложили другой подход.

Они обучили гиперсеть (Hypernetwork), которая генерирует LoRA-адаптеры «на лету».
Теперь вместо сложного процесса оптимизации достаточно одного forward-pass, чтобы:
- адаптировать модель под новую задачу
- или «встроить» в неё новый документ

Что показывают эксперименты:

Text-to-LoRA
- модель специализируется под новую задачу
- достаточно текстового описания на естественном языке

Doc-to-LoRA
- модель может «внутренне запомнить» длинный документ
- показывает почти идеальную точность на задачах, где текст в 5 раз длиннее контекстного окна
- способна переносить визуальные знания из vision-language модели в текстовую LLM

При этом обе технологии работают с задержкой меньше секунды.

Главное значение работы — снижение порога кастомизации.
Вместо сложного ML-процесса пользователь сможет специализировать модель простым текстовым запросом.

Код и исследования уже открыты для сообщества:

Doc-to-LoRA
Paper: https://arxiv.org/abs/2602.15902
Code: https://github.com/SakanaAI/Doc-to-LoRA

Text-to-LoRA
Paper: https://arxiv.org/abs/2506.06105
Code: https://github.com/SakanaAI/Text-to-LoRA

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
10
🔥 Легендарный математик - Дональд Кнут начал свою новую научную работу словами: “Shock! Shock!”

Почему?

Потому что Claude Opus 4.6 решил открытую задачу, над которой Кнут работал несколько недель.
Речь о гипотезе разложения графов из легендарной книги The Art of Computer Programming.

Кнут даже назвал статью в честь ИИ:

“Claude’s Cycles”

Что произошло:

- Claude провёл 31 исследование
- на это ушло примерно 1 час
- Кнут изучил результат
- оформил формальное математическое доказательство

И закончил работу фразой:

> *«Похоже, мне придётся пересмотреть своё мнение о генеративном ИИ.»*

Это сказал человек, который написал библию компьютерных наук.

И назвал научную работу в честь ИИ.

Почитать саму работу можно здесь:
https://cs.stanford.edu/~knuth/papers/claude-cycles.pdf
👍8🔥43
🖥 Большинство парсеров умирают через 2 дня.

Ты научишься делать те, которые работают в продакшене.

Это не про BeautifulSoup ради галочки.
Это про системы сбора данных, которые:

• не падают из-за мелких изменений на сайте
• собирают данные в разы быстрее
• обновляют всё автоматически по расписанию
• обходят ограничения и блокировки
• выглядят как полноценный сервис, а не как хаос из файлов

Ты начнёшь видеть сайты не как страницы, а как источники данных, к которым можно подключаться.

В итоге ты сможешь:

• забирать данные для своих проектов
• автоматизировать чужую рутину
• создавать инструменты для аналитики
• брать коммерческие заказы на сбор данных

Это навык, который напрямую превращается в деньги.
Не «знаю Python», а «умею профессионально добывать данные из интернета».

🎁 Скидка 50% на Stepik действует 48 часов: https://stepik.org/a/269942/
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍1🤡1
⚡️ Бесплатный клон Perplexity сейчас активно хайпует - Perplexica.

Это опенсорс-поисковик с ИИ, который делает глубокий ресерч, проверяет факты и собирает ответы со ссылками на источники.

• Глубокий поиск и фактчекинг — аккуратно собирает информацию и добавляет источники
• Работает как с локальной Ollama, так и с облачными моделями Google, OpenAI и Anthropic
• Можно загружать файлы — документы, видео, аудио и изображения для уточнения запроса
• Есть набор инструментов и виджетов для проведения полноценного исследования
• Умные подсказки помогают лучше сформулировать запрос и получить точный результат
• Упор на приватность - сервис минимизирует утечки данных и контролирует их использование

https://github.com/ItzCrazyKns/Perplexica
👍7🔥54
GPT-5.4 Pro только что показал 38% на FrontierMath Tier 4 - одном из самых сложных математических бенчмарков.

Эти 50 исследовательских задач по математике могут занимать у математиков недели на решение.

Еще год назад лучший результат был 2% (модель o3).
Лучший open-source результат сейчас - 4.2% (Kimi K2.5).

Очень впечатляющий скачок.
15🔥5👎1
🌟 Эрик Шмидт (бывший CEO Google) выпустил сильную колонку в Time о будущем ИИ.

Главная мысль: следующая революция ИИ произойдёт не в софте, а в физическом мире.

Мы больше десяти лет наблюдали, как «software eats the world».
Теперь начинается новая фаза - hardware eats the world.

Пока американские AI-лаборатории соревнуются в лидербордах LLM, Китай делает ставку на физический ИИ: роботы, сенсоры, промышленность и реальные устройства.

Несколько факторов дают Китаю серьёзное преимущество:

- около 70% мирового рынка лидар-сенсоров
- массовое производство harmonic reducers - ключевых механических редукторов для движения роботов
- огромная производственная база

За счёт масштаба Китай уже смог снизить цену домашних роботов-ассистентов примерно до $1400.

Главный вывод Шмидта:

Доминирование в софте не спасёт, если другая страна контролирует железо и цепочки поставок.

ИИ выходит из компьютеров и начинает управлять физическим миром - роботами, машинами, фабриками и инфраструктурой.

И именно здесь сейчас начинается настоящая геополитическая гонка.

Источник
time.com/7382151/china-dominates-the-physical-ai-race/

🎯Полезные Мл-ресурсы 🚀 Max

@data_math
Please open Telegram to view this post
VIEW IN TELEGRAM
👍65🔥1