This media is not supported in your browser
VIEW IN TELEGRAM
Я всегда говорю студентам, что для того, чтобы стать по-настоящему хорошим математиком, нужно быть ленивым
То есть вы смотрите на это и думаете: да, можно сразу взять, проинтегрировать, подставить значение и получить ноль
А можно на минутку отвлечься и подумать, есть ли какой-то трюк, который позволит получить ответ без лишних вычислений
И ответ — да, есть
То есть вы смотрите на это и думаете: да, можно сразу взять, проинтегрировать, подставить значение и получить ноль
А можно на минутку отвлечься и подумать, есть ли какой-то трюк, который позволит получить ответ без лишних вычислений
И ответ — да, есть
Artificial Analysis представила обновленный рейтинг Ml-систем Intelligence Index 4.0.
Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла
По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI
Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла
По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI
Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Исследователи представили KernelEvolve — фреймворк, который использует LLM и поиск по графу для автоматической генерации высокопроизводительных ядер на языке Triton
Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных
Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch
Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных
https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных
Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch
Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных
https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
arXiv.org
KernelEvolve: Scaling Agentic Kernel Coding for Heterogeneous AI...
Making deep learning recommendation model (DLRM) training and inference fast and efficient is important. However, this presents three key system challenges - model architecture diversity, kernel...
Ещё одна электронная книга (небольшая) с визуализацией концепций ML
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)
https://ml-visualized.com/
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)
https://ml-visualized.com/
"Тебе что, все по три раза повторять надо?!" - DA
Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо повторить задачу три раза (не меняя) для существенного повышения качества ответа
Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца
Не благодарите
Не благодарите
Не благодарите
Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо повторить задачу три раза (не меняя) для существенного повышения качества ответа
Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца
Не благодарите
Не благодарите
Не благодарите
Подходят к концу каникулы, продолжают работу математические кружки МЦНМО — присоединяйтесь или умрёте
по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)
Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО
mccme.ru/ru/math-circles/circles-mccme/20252026/
по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)
Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО
mccme.ru/ru/math-circles/circles-mccme/20252026/
Forwarded from COLUMNA
Ml-новое: ииизм (почему не просто "иизм", если "шиизм"?), слоптимизм (как совпало с поптимизмом то) и (в шутку) иишница
Слова такие свежие (прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея специфиичные-вкусы-вы-не-поймете
Потому что это не слоп!
P. S. Можно сократить до "и3зм", как нумероним W3C
Слова такие свежие (прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея специфиичные-вкусы-вы-не-поймете
Потому что это не слоп!
P. S. Можно сократить до "и3зм", как нумероним W3C
На этой неделе GPT-5.2 Pro решила уже две открытые математические задачи, которые люди не могли решить на протяжении многих лет
Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао
Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс
Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао
Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было
Задача была решена более или менее автономно (после получения обратной связи по результатам первоначальной попытки), и результат (насколько нам известно) не был воспроизведен в литературе (хотя были найдены результаты, доказанные аналогичными методами)
Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое
2. Вторая – № 397. Ее засабмитил Нил Сомани, а проверил Теренс
Доказательство было сгенерировано GPT 5.2 Pro и оформлено с помощью Harmonic
Много открытых проблем просто сидят и ждут, когда кто-нибудь предложит ChatGPT решить их
X (formerly Twitter)
Neel Somani (@neelsomani) on X
Weekend win: The proof I submitted for Erdos Problem #397 was accepted by Terence Tao.
The proof was generated by GPT 5.2 Pro and formalized with Harmonic.
Many open problems are sitting there, waiting for someone to prompt ChatGPT to solve them:
The proof was generated by GPT 5.2 Pro and formalized with Harmonic.
Many open problems are sitting there, waiting for someone to prompt ChatGPT to solve them:
Математическая лингвистика: от грамматик к трансформерам
От регулярных языков и конечных автоматов — к контекстно‑свободным и магазинной памяти, дальше к КЗ и языкам типа 0 и машинам Тьюринга — уже не как к музейным экспонатам, а как к линейке моделей
Добавляем структурную лингвистику: фонемы, морфемы, синтаксические деревья
Затем поверх этого три слоя: статистическую ОЕЯ, нейросетевой подход и, наконец, трансформеры и большие языковые модели как синтез всех предыдущих идей
Зачем всё это, если есть готовые парсеры и ChatGPT?
Чтобы понимать, что происходит внутри этих моделей и как воспроизвести их поведение своими руками, а не ждать очередного чуда от чёрного ящика
От регулярных языков и конечных автоматов — к контекстно‑свободным и магазинной памяти, дальше к КЗ и языкам типа 0 и машинам Тьюринга — уже не как к музейным экспонатам, а как к линейке моделей
Добавляем структурную лингвистику: фонемы, морфемы, синтаксические деревья
Затем поверх этого три слоя: статистическую ОЕЯ, нейросетевой подход и, наконец, трансформеры и большие языковые модели как синтез всех предыдущих идей
Зачем всё это, если есть готовые парсеры и ChatGPT?
Чтобы понимать, что происходит внутри этих моделей и как воспроизвести их поведение своими руками, а не ждать очередного чуда от чёрного ящика
4-месячный стартап Axiom сообщил, что их ИИ AxiomProver решил 9 из 12 задач в языке Lean
Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация
Что именно сделал их Ml:
- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %
Что говорят сами математики:
1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира
2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта
3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств
Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде
Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)
Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt
Стартап привлек уже $64.000.000 от Menlo Ventures
У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic
Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam
Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства
Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства
Стартап выявил 3 категории задач и вот, что они показывают:
1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода
2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей
AxiomProver решил обе такие задачи на Putnam
3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически
Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция
Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Axiom строит Ml-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация
Что именно сделал их Ml:
- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %
Что говорят сами математики:
1. Это первый случай, когда Ml даёт полностью верифицируемые доказательства на уровне топ-5 мира
2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта
3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств
Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде
Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows)
Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt
Стартап привлек уже $64.000.000 от Menlo Ventures
У кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic
Ml AxiomProver решил 12 из 12 задач самой сложной студенческой математической олимпиады в мире Putnam
Стартап Axiom создал ИИ AxiomProver, генерирующий формально верифицированные доказательства
Ключевое отличие от других Ml-систем - каждое решение - это не ответ, а полное формальное доказательство на языке Lean, которое можно машинно верифицировать
Lean не принимает неправильные доказательства
Стартап выявил 3 категории задач и вот, что они показывают:
1. Простое для людей, мучительное для формализации - задачи на матанализ
Человек смотрит на график и видит ответ
А чтобы Ml записать это в Lean нужны сотни строк кода
2. Задачи, которые AxiomProver неожиданно решил - комбинаторика и геометрия - исторически слабые места Ml-систем
Нерешённые задачи IMO 2024 и 2025 как раз из этих областей
AxiomProver решил обе такие задачи на Putnam
3. Люди и Ml решили по-разному задачи, например,
в задаче A4 люди интуитивно тянулись к алгебре
Ml подошел к решению геометрически
Главный вопрос - что делает математическую задачу сложной для Ml?
То, что сложно людям, и то, что сложно Ml - разные вещи
У людей есть интуиция
Теория «машинной сложности» — что структурно делает задачи лёгкими или трудными для автоматических доказательств— это открытое исследовательское направление
Перплексия теперь не модно. Эпиплексия модно
Всё на благо ограниченных наблюдателей!
Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю
В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)
Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал
Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)
Подробнее: https://news.1rj.ru/str/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья: https://arxiv.org/abs/2601.03220
Ревью: https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking
Всё на благо ограниченных наблюдателей!
Авторы ввели понятие эпиплексии (epiplexity) — новую метрику из теории информации, которая оценивает объём структурной информации, доступной *вычислительно ограниченному* наблюдателю
В отличие от энтропии Шеннона или колмогоровской сложности, подразумевающих бесконечные ресурсы, эпиплексия явно учитывает конечность модели (программы) и процесса обучения (вычислений)
Этот фреймворк разрешает старые парадоксы, где теория противоречит практике глубокого обучения — например, почему детерминированные процессы (вроде симуляций или self-play) создают ценный сигнал
Практически это даёт строгую метрику для отбора данных: для предобучения важен не минимум финального лосса (энтропии), а максимум усваиваемой структуры (эпиплексии)
Подробнее: https://news.1rj.ru/str/gonzo_ML_podcasts/2022
Epiplexity: Quantifying the Structural Value of Data for Bounded Observers
Marc Finzi, Shikai Qiu, Yiding Jiang, Pavel Izmailov, J. Zico Kolter, Andrew Gordon Wilson
Статья: https://arxiv.org/abs/2601.03220
Ревью: https://arxiviq.substack.com/p/from-entropy-to-epiplexity-rethinking