Ml – Telegram
112 subscribers
68 photos
11 videos
44 files
342 links
Machine learning
Download Telegram
Ученые из Университета Ватерлоо (Канада) впервые придумали способ безопасно сохранять и дублировать информацию в квантовых компьютерах

Раньше это считалось невозможным
Дело в том, что квантовую информация нельзя просто скопировать и вставить, как обычный файл

Это фундаментальный закон квантовой физики – теорема о невозможности клонирования (no-cloning theorem)
Она гласит, что невозможно создать механизм, который бы делал точную копию какого-либо квантового состояния

Обойти это удалось с помощью шифрования информации
Сначала квантовые данные зашифровывают, и только потом копируют
Причем делать это можно сколько угодно раз, но есть нюанс: когда одна копия расшифровывается, ключ шифрования тут же физически разрушается, и больше его использовать нельзя
То есть все копии вскрываются как бы одновременно

Если хотите разобраться в процессе подробнее:
uwaterloo.ca/news/media/scientists-discover-first-method-safely-back-quantum

Oткрываются виды и на квантовое облачное хранение, и на распределенные квантовые системы
Сорок лет назад проходил курс по логическому (ЛП) и функциональному программированию (ФП) у очень взрослых преподавателей МИФИ

За эти годы мир изменился категорически, и я менялся вместе с ним, сохранив ядро знаний: формальную логику, резолюцию, работу с символьными знаниями…
Давно выйдя на стык дисциплин — нейросимвольную интеграцию — когда нейросеть распознаёт образы, а логическая система на Prolog делает объяснимый вывод, агентное моделирование — когда в NetLogo агенты взаимодействуют по правилам, похожим на логические протоколы (ломает стереотип, что Prolog — лишь для учебных задач), связь с теорией автоматов (весь «зоопарк» вычислительных моделей), с математической лингвистикой, с теми же монадами в ФП

Зачем это в эпоху нейросетей?
Логика есть основа мышления
Машинное обучение нуждается не только в данных, но и в смысле, в правилах, в способности объяснять свои решения
И здесь логическое программирование оказывается не реликтом, а инструментом

Курс 50-летней давности, который классика-классика и читался ещё Николаем Геннадьевичем Волчёнковым, который сам получил его в наследство от его учителей на кафедре 22 «Кибернетика» эволюционировал до математических моделей социальных процессов и построения управленческих коллективов и алгоритмы принятия ими решений

Объективизация и достоверность — логика, на основе которой строится история и узнается будущее
Cтатья от MIT про дообучение моделей после деплоя

Фанфэкт: некоторые из авторов работают в OpenAI, так что читаем внимательно

Подход красиво назвали тюленем: SEAL – Self-Adapting Language Models

Суть тюленя в том, что модель учится извлекать из условных чатов информацию в таком виде, которая дообучит ее лучше всего
Звучит немного запутанно, поэтому разбираемся:

1. Модель получает на вход некоторый контекст и извлекает из него так называемые self-edit (SE)
Это структура, на которой модель дальше будет дообучаться (например, список следствий/импликаций из абзаца)

2. Таких SE генерируется много, а затем по каждому из них мы делаем мини-файнтюн и смотрим, какие SE улучшили знания модели лучше всего
Тестирование проходит на той же downstream-задаче (например, вопросах по абзацу без подсказки-абзаца в контексте)

3. Чем лучше SE обучил модель, тем больший reward он получает
Далее политика генерации self-edit обновляется так, чтобы в следующий раз SE были более и полезными

То есть модель как бы учиться выбирать наилучшую процедуру адаптации для самой себя
Красиво, да?

И работает неплохо
Из примера в статье: на бенчмарке SQuAD тюлень улучшил Qwen2.5-7B аж на 15 процентных пунктов
В сравнении, base model + дообучение на синтетике от сильной GPT-4.1 дает результат на пару процентов меньше, хотя разница в размере моделей «учителей» огромна

Есть, конечно, и парочка НО

Например:

– Это дорого
Одна оценка self-edit занимает примерно 30–45 секунд
750 итераций – это 6 часов на двух H100
Авторы предлагают это немного сгладить, применяя вместо мини-файнтюнингов Proxy reward, когда SE оценивает другая LLM
Это уже не так интересно, и метрики чуть хуже, но как вариант

– Для тестов требуется разметка
Хотя тут, опять же, можно генерировать

– Модели показывают деградацию на прошлых задачах по мере числа обновлений
Это частично лечится reward shaping, но полностью проблема не исчезает

Статья полностью здесь ->

https://arxiv.org/abs/2506.10943
This media is not supported in your browser
VIEW IN TELEGRAM
Я всегда говорю студентам, что для того, чтобы стать по-настоящему хорошим математиком, нужно быть ленивым

То есть вы смотрите на это и думаете: да, можно сразу взять, проинтегрировать, подставить значение и получить ноль

А можно на минутку отвлечься и подумать, есть ли какой-то трюк, который позволит получить ответ без лишних вычислений
И ответ — да, есть
Artificial Analysis представила обновленный рейтинг Ml-систем Intelligence Index 4.0.

Результаты показали неожиданную картину - разница между тремя ведущими моделями практически исчезла

По итогам измерений на первой строчке оказалась GPT-5.2 X-High от OpenAI

Однако её преимущество над Claude Opus 4.5 и Gemini 3 Pro настолько мало, что находится в пределах статистической ошибки
Исследователи представили KernelEvolve — фреймворк, который использует LLM и поиск по графу для автоматической генерации высокопроизводительных ядер на языке Triton

Система применяет RAG (retrieval-augmented generation), чтобы подтягивать спецификации железа (NVIDIA, AMD и кастомные чипы MTIA), что позволяет оптимизировать как вычислительно тяжелые операции, так и задачи препроцессинга данных

Это стратегический сдвиг в AI-инфраструктуре, отвязывающий архитектуру модели от ограничений железа
Система достигла 100 % корректности на бенчмарке KernelBench и показала ускорение до 17× относительно PyTorch

Это доказывает, что агенты способны справиться с комбинаторным взрывом операторов и типов ускорителей, что критически важно для внедрения проприетарного кремния (MTIA), для которого у публичных LLM нет обучающих данных

https://arxiv.org/abs/2512.23236
https://arxiviq.substack.com/p/kernelevolve-scaling-agentic-kernel
https://triton-lang.org/
https://arxiv.org/abs/2502.10517
Ещё одна электронная книга (небольшая) с визуализацией концепций ML
Сделано аккуратно: приводятся формулы, код и доводится до красивой картинки (или видео)
Правда, всего 4 главы: оптимизация, кластеризация, линейные модели и нейросети
Материал "начального уровня" (но удобно, что он тут собран)

https://ml-visualized.com/
"Тебе что, все по три раза повторять надо?!" - DA

Метод строгих училок снова в строю
Простым, не рассуждающим AI-моделям надо
повторить задачу три раза (не меняя) для существенного повышения качества ответа

Особено если запрос длинный - модель успевает забыть его начало когда дочитывает до конца

Не благодарите
Не благодарите
Не благодарите
Подходят к концу каникулы, продолжают работу математические кружки МЦНМО — присоединяйтесь или умрёте

по вторникам с 13 января — 4 и 5 кл. (Т.В. Казицына)
по четвергам с 15 января — 7 кл. (Д.А. Калинин)
по субботам с 17 января — 6 кл. (рук. В.В. Миронов)
по понедельникам с 19 января — 8 кл. (Н.А. Солодовников)

Как обычно: для всех желающих заниматься (бесплатно, без вступительных экзаменов, без предварительной регистрации и смс); кружки очные, в МЦНМО

mccme.ru/ru/math-circles/circles-mccme/20252026/
Forwarded from COLUMNA
Ml-новое: ииизм (почему не просто "иизм", если "шиизм"?), слоптимизм (как совпало с поптимизмом то) и (в шутку) иишница

Слова такие свежие (
прелогизмы), что даже определения давать лишнее, они сами за себя говорят достаточно
Я наверное, иист, но не считаю себя слоптимистом, даже имея
специфиичные-вкусы-вы-не-поймете
Потому
что это не слоп!

P. S. Можно сократить до "и3зм", как
нумероним W3C
На этой неделе GPT-5.2 Pro решила уже две открытые математические задачи, которые люди не могли решить на протяжении многих лет

Речь снова пойдет про список Эрдеша
И тут сразу оговорка для тех, кто помнит октябрьскую историю (GPT-5 просто откопала ответ на задачку в старых статьях, а в OpenAI заявили, что она «нашла решение»): на этот раз все честно, автономность решения в обоих случаях подтвердил сам Теренс Тао

Итак:
1. Первая задачка – под номером 728
Ее отдал GPT-5.2 сам Теренс
Прикол с этой задачкой в том, что исходная формулировка Эрдеша была неверной, и корректная постановка была получена только несколько месяцев назад, так что предшествующей литературы по ней вообще не было

Задача была решена более или менее автономно (после получения обратной связи по результатам первоначальной попытки), и результат (насколько нам известно) не был воспроизведен в литературе (хотя были найдены результаты, доказанные аналогичными методами)


Обратите внимание на последнее предложение: это не умаляет результат, НО модель все еще воспроизводит известные доказательства, а не придумывает что-то нечеловеческое

2. Вторая – № 397. Ее
засабмитил Нил Сомани, а проверил Теренс

Доказательство было сгенерировано GPT 5.2 Pro и оформлено с помощью Harmonic

Много открытых проблем просто сидят и ждут, когда кто-нибудь предложит ChatGPT решить их