Открытый код ФКН ВШЭ
Итоги конкурса open-source проектов ФКН Рады сообщить, что 23 октября мы подводим итоги первого конкурса открытых проектов для студентов ФКН! На мероприятии будут объявлены победители конкурса и пройдет торжественное вручение наград. Также у участников будет…
Мы начинаем через 15 минут. Приходите!
glgenn
В репозитории опубликован код GLGENN — новой эквивариантной архитектуры нейросетей на основе геометрических алгебр. Модель сохраняет эквивариантность ко всем псевдоортогональным преобразованиям пространства, включая повороты и отражения, и при этом использует заметно меньше обучаемых параметров благодаря продуманному разделению и совместному использованию весов, согласованному со структурой геометрических алгебр. Ключевая идея — обобщённые группы Липшица и построение слоёв, которые действуют сразу на четыре фундаментальные подпространства алгебры, задаваемые инволюцией по разряду и ревёрсией. Это даёт лёгкую по параметрам реализацию без потери выразительности и автоматически гарантирует нужную эквивариантность. Предложены слои проекций, геометрического произведения и нормализации, а также слой конъюгаций с дискретными коэффициентами, что упрощает обучение и повышает устойчивость. В экспериментах на эталонных задачах архитектура либо превосходит, либо не уступает существующим эквивариантным моделям при существенно меньшем числе параметров. Показаны результаты на регрессии с симметрией O(5), оценке объёма выпуклой оболочки в пространствах O(5) и O(7), а также на задаче взаимодействия N-тел. По сравнению с CGENN достигается сопоставимое или лучшее качество, при этом число параметров и время обучения ниже; отмечена меньшая склонность к переобучению на малых выборках. Работа может быть полезна исследователям эквивариантных архитектур, специалистам по моделированию физических систем и робототехнике, а также командам, которым важны строгие симметрии при ограниченных данных и ресурсах.
статья | код
В репозитории опубликован код GLGENN — новой эквивариантной архитектуры нейросетей на основе геометрических алгебр. Модель сохраняет эквивариантность ко всем псевдоортогональным преобразованиям пространства, включая повороты и отражения, и при этом использует заметно меньше обучаемых параметров благодаря продуманному разделению и совместному использованию весов, согласованному со структурой геометрических алгебр. Ключевая идея — обобщённые группы Липшица и построение слоёв, которые действуют сразу на четыре фундаментальные подпространства алгебры, задаваемые инволюцией по разряду и ревёрсией. Это даёт лёгкую по параметрам реализацию без потери выразительности и автоматически гарантирует нужную эквивариантность. Предложены слои проекций, геометрического произведения и нормализации, а также слой конъюгаций с дискретными коэффициентами, что упрощает обучение и повышает устойчивость. В экспериментах на эталонных задачах архитектура либо превосходит, либо не уступает существующим эквивариантным моделям при существенно меньшем числе параметров. Показаны результаты на регрессии с симметрией O(5), оценке объёма выпуклой оболочки в пространствах O(5) и O(7), а также на задаче взаимодействия N-тел. По сравнению с CGENN достигается сопоставимое или лучшее качество, при этом число параметров и время обучения ниже; отмечена меньшая склонность к переобучению на малых выборках. Работа может быть полезна исследователям эквивариантных архитектур, специалистам по моделированию физических систем и робототехнике, а также командам, которым важны строгие симметрии при ограниченных данных и ресурсах.
статья | код
GitHub
GitHub - katyafilimoshina/glgenn: Generalized Lipschitz Group Equivariant Neural Networks (GLGENN) [ICML 2025]
Generalized Lipschitz Group Equivariant Neural Networks (GLGENN) [ICML 2025] - katyafilimoshina/glgenn
🔥6❤3👍1
Forwarded from Yandex Open Source Jam /chat
Псс 👀 еще не забыли про нас?
Yandex Open Source Jam возвращается!
Уже 24 ноября мы будем ждать вас в Москве и онлайн на нашем третьем опенсорс-джеме. В этот раз мероприятие проходит при поддержке платформы для разработчиков SourceCraft: ребята подготовили для вас много интересных активностей и приятные призы.
Что еще вас ждет на джеме — смотрите на сайте. И регистрируйтесь по ссылке ❤️
До встречи!
Yandex Open Source Jam возвращается!
Уже 24 ноября мы будем ждать вас в Москве и онлайн на нашем третьем опенсорс-джеме. В этот раз мероприятие проходит при поддержке платформы для разработчиков SourceCraft: ребята подготовили для вас много интересных активностей и приятные призы.
Что еще вас ждет на джеме — смотрите на сайте. И регистрируйтесь по ссылке ❤️
До встречи!
❤4
when-punctuation-matters
В репозитории опубликован код и протокол масштабного сравнения методов повышения устойчивости моделей к формату запроса. Авторы берут 8 открытых LLM из семейств Llama, Qwen и Gemma, 52 задачи из набора Natural Instructions и системно оценивают пять подходов: калибровку батча, ансамбли шаблонов, чувствительное к возмущениям декодирование, дообучение LoRA с форматными аугментациями и LoRA с согласующим штрафом. Результаты дополнены проверкой на GPT-4.1 и DeepSeek V3, чтобы понять, как ведут себя «флагманские» модели при изменении пробелов, пунктуации и разметки вариантов ответа. Авторы выяснили, что калибровка батча одновременно повышает точность и снижает разброс качества между разными форматами, оставаясь почти бесплатной по вычислениям; однако при сильном перекосе классов её преимущество исчезает. Исследователи также проверяют переносимость под сдвигами распределения: при композиционном сдвиге по форматам влияние невелико, а при переносе между наборами данных точность LoRA зависит от домена исходного обучения. Работа может быть полезна практикам, которым нужна стабильность LLM в продакшене; исследователям оценки и калибровки; командам, внедряющим ботов и ассистентов в чувствительных сценариях, где изменение шаблона промпта недопустимо.
статья | код
В репозитории опубликован код и протокол масштабного сравнения методов повышения устойчивости моделей к формату запроса. Авторы берут 8 открытых LLM из семейств Llama, Qwen и Gemma, 52 задачи из набора Natural Instructions и системно оценивают пять подходов: калибровку батча, ансамбли шаблонов, чувствительное к возмущениям декодирование, дообучение LoRA с форматными аугментациями и LoRA с согласующим штрафом. Результаты дополнены проверкой на GPT-4.1 и DeepSeek V3, чтобы понять, как ведут себя «флагманские» модели при изменении пробелов, пунктуации и разметки вариантов ответа. Авторы выяснили, что калибровка батча одновременно повышает точность и снижает разброс качества между разными форматами, оставаясь почти бесплатной по вычислениям; однако при сильном перекосе классов её преимущество исчезает. Исследователи также проверяют переносимость под сдвигами распределения: при композиционном сдвиге по форматам влияние невелико, а при переносе между наборами данных точность LoRA зависит от домена исходного обучения. Работа может быть полезна практикам, которым нужна стабильность LLM в продакшене; исследователям оценки и калибровки; командам, внедряющим ботов и ассистентов в чувствительных сценариях, где изменение шаблона промпта недопустимо.
статья | код
GitHub
GitHub - AIRI-Institute/when-punctuation-matters
Contribute to AIRI-Institute/when-punctuation-matters development by creating an account on GitHub.
❤5🔥3
ProcrustesGPT
В репозитории опубликован код ProcrustesGPT — подхода к сжатию больших языковых моделей, который опирается на структурированные матрицы и ортогональные преобразования весов. Авторы используют тот факт, что выход трансформера не меняется, если внутри слоя повернуть скрытое пространство ортогональной матрицей и соответствующим образом скорректировать скип-соединения. Рассматриваются два семейства представлений: суммы произведений Кронекера и так называемые GS-матрицы, обобщающие известные Monarch-структуры. Эксперименты на моделях OPT и Llama2 показывают, что при сжатии порядка 14–36 % по числу параметров ProcrustesGPT даёт меньшую потерю качества, чем SliceGPT и другие методы без дообучения, как по перплексии на WikiText2, так и по нулевому обучению на задачах ARC, HellaSwag, PIQA и WinoGrande. Особенно заметен выигрыш на моделях Llama2, где средняя точность после сжатия остаётся близкой к исходной и существенно превосходит альтернативы. Работа демонстрирует, что грамотно подобранные ортогональные преобразования могут сделать структурированные разложения практичным инструментом сжатия LLM без дополнительного обучения. Код может быть полезен исследователям сжатия нейросетей, инженерам, внедряющим LLM в ресурсно-ограниченные среды, и разработчикам, работающим со структурированными матричными разложениями.
статья | код
В репозитории опубликован код ProcrustesGPT — подхода к сжатию больших языковых моделей, который опирается на структурированные матрицы и ортогональные преобразования весов. Авторы используют тот факт, что выход трансформера не меняется, если внутри слоя повернуть скрытое пространство ортогональной матрицей и соответствующим образом скорректировать скип-соединения. Рассматриваются два семейства представлений: суммы произведений Кронекера и так называемые GS-матрицы, обобщающие известные Monarch-структуры. Эксперименты на моделях OPT и Llama2 показывают, что при сжатии порядка 14–36 % по числу параметров ProcrustesGPT даёт меньшую потерю качества, чем SliceGPT и другие методы без дообучения, как по перплексии на WikiText2, так и по нулевому обучению на задачах ARC, HellaSwag, PIQA и WinoGrande. Особенно заметен выигрыш на моделях Llama2, где средняя точность после сжатия остаётся близкой к исходной и существенно превосходит альтернативы. Работа демонстрирует, что грамотно подобранные ортогональные преобразования могут сделать структурированные разложения практичным инструментом сжатия LLM без дополнительного обучения. Код может быть полезен исследователям сжатия нейросетей, инженерам, внедряющим LLM в ресурсно-ограниченные среды, и разработчикам, работающим со структурированными матричными разложениями.
статья | код
GitHub
GitHub - GrishKate/ProcrustesGPT
Contribute to GrishKate/ProcrustesGPT development by creating an account on GitHub.
🔥15❤2
Tight Bounds for Schrödinger Potential Estimation
В репозитории опубликован код для воспроизведения результатов работы по оценке потенциала Шрёдингера в задачах генеративного моделирования и переноса распределений без парных данных. Авторы рассматривают постановку моста Шрёдингера, где по выборкам из начального и целевого распределений нужно построить наиболее близкую к опорной динамике стохастическую связь между ними. В качестве опорного процесса вместо классического броуновского движения берётся процесс Орнштейна–Уленбека с экспоненциальным смешением, что позволяет лучше учитывать структуру данных и уменьшить нежелательную долгую зависимость между начальным и конечным состояниями. Для проверки теории авторы модифицируют практический алгоритм Light Schrödinger Bridge, заменяя в нём опорную динамику на процесс Орнштейна–Уленбека. Новый вариант, обозначаемый как LightSB-OU, демонстрирует более точное восстановление целевого распределения в задачах на смесях нормальных распределений, даёт улучшения по расстоянию Васерштейна и MMD и лучше покрывает моды. На биологических данных по динамике клеток метод показывает качество на уровне лучших современных подходов и улучшает базовый LightSB. В задаче непарного переноса изображений взрослый–ребёнок и мужчина–женщина в латентном пространстве автоэнкодера модель на основе процесса Орнштейна–Уленбека лучше сохраняет важные визуальные признаки, такие как оттенок кожи и форма лица. Работа будет интересна исследователям стохастического оптимального управления и моста Шрёдингера, специалистам по генеративным моделям, а также практикам, которым требуется строгий контроль обобщающей ошибки при обучении по непарным данным.
статья | код
В репозитории опубликован код для воспроизведения результатов работы по оценке потенциала Шрёдингера в задачах генеративного моделирования и переноса распределений без парных данных. Авторы рассматривают постановку моста Шрёдингера, где по выборкам из начального и целевого распределений нужно построить наиболее близкую к опорной динамике стохастическую связь между ними. В качестве опорного процесса вместо классического броуновского движения берётся процесс Орнштейна–Уленбека с экспоненциальным смешением, что позволяет лучше учитывать структуру данных и уменьшить нежелательную долгую зависимость между начальным и конечным состояниями. Для проверки теории авторы модифицируют практический алгоритм Light Schrödinger Bridge, заменяя в нём опорную динамику на процесс Орнштейна–Уленбека. Новый вариант, обозначаемый как LightSB-OU, демонстрирует более точное восстановление целевого распределения в задачах на смесях нормальных распределений, даёт улучшения по расстоянию Васерштейна и MMD и лучше покрывает моды. На биологических данных по динамике клеток метод показывает качество на уровне лучших современных подходов и улучшает базовый LightSB. В задаче непарного переноса изображений взрослый–ребёнок и мужчина–женщина в латентном пространстве автоэнкодера модель на основе процесса Орнштейна–Уленбека лучше сохраняет важные визуальные признаки, такие как оттенок кожи и форма лица. Работа будет интересна исследователям стохастического оптимального управления и моста Шрёдингера, специалистам по генеративным моделям, а также практикам, которым требуется строгий контроль обобщающей ошибки при обучении по непарным данным.
статья | код
GitHub
GitHub - denvar15/Tight-Bounds-for-Schrodinger-Potential-Estimation: Official implementation of "Tight Bounds for Schrödinger Potential…
Official implementation of "Tight Bounds for Schrödinger Potential Estimation in Unpaired Image-to-Image Translation Problems" - denvar15/Tight-Bounds-for-Schrodinger-Potential-Estimation
🔥4❤2👍1
autojudge
В репозитории опубликован код AutoJudge — метода ускорения вывода больших языковых моделей за счёт приближённого семплирования вместо точного повторения вывода исходной модели. Вместо того чтобы строго отклонять все расхождения между черновой и целевой моделью, AutoJudge автоматически определяет, какие различающиеся токены действительно важны для качества ответа, а какие можно сгенерировать быстрее упрощённой моделью без заметной потери точности. Важность токена определяется не по форме, а по влиянию на конечный результат задачи. Авторы предлагают поисковый алгоритм, который последовательно подменяет токены ответа целевой модели на варианты черновой модели и заново достраивает продолжение. Метод не требует ручной разметки и легко встраивается в существующие фреймворки вывода. В экспериментах на задачах математического рассуждения (GSM8K) и программирования (LiveCodeBench) с моделями семейств Llama 3 и Qwen2.5 AutoJudge позволяет принимать в среднем 20–45 токенов за один шаг проверки целевой моделью и даёт ускорение до ~2 раз по сравнению со стандартным speculative decoding при падении точности не более чем на 1–2 процентных пункта. Отдельные эксперименты с vLLM показывают прирост скорости до 1.5–2 раз для связок 8B→70B и даже 8B→405B параметров. Работа будет полезна исследователям, занимающимся ускорением вывода и тест-тайм вычислениями в LLM, инженерам, внедряющим большие модели, а также разработчикам инфраструктуры вывода и фреймворков для генерации.
статья | код
В репозитории опубликован код AutoJudge — метода ускорения вывода больших языковых моделей за счёт приближённого семплирования вместо точного повторения вывода исходной модели. Вместо того чтобы строго отклонять все расхождения между черновой и целевой моделью, AutoJudge автоматически определяет, какие различающиеся токены действительно важны для качества ответа, а какие можно сгенерировать быстрее упрощённой моделью без заметной потери точности. Важность токена определяется не по форме, а по влиянию на конечный результат задачи. Авторы предлагают поисковый алгоритм, который последовательно подменяет токены ответа целевой модели на варианты черновой модели и заново достраивает продолжение. Метод не требует ручной разметки и легко встраивается в существующие фреймворки вывода. В экспериментах на задачах математического рассуждения (GSM8K) и программирования (LiveCodeBench) с моделями семейств Llama 3 и Qwen2.5 AutoJudge позволяет принимать в среднем 20–45 токенов за один шаг проверки целевой моделью и даёт ускорение до ~2 раз по сравнению со стандартным speculative decoding при падении точности не более чем на 1–2 процентных пункта. Отдельные эксперименты с vLLM показывают прирост скорости до 1.5–2 раз для связок 8B→70B и даже 8B→405B параметров. Работа будет полезна исследователям, занимающимся ускорением вывода и тест-тайм вычислениями в LLM, инженерам, внедряющим большие модели, а также разработчикам инфраструктуры вывода и фреймворков для генерации.
статья | код
GitHub
GitHub - garipovroma/autojudge: Official PyTorch implementation for the paper AutoJudge: Judge Decoding Without Manual Annotation
Official PyTorch implementation for the paper AutoJudge: Judge Decoding Without Manual Annotation - garipovroma/autojudge
❤5❤🔥1👎1🔥1🤨1
QuAP
В репозитории представлен код для воспроизведения результатов работы по теории и оцениванию долей смешения в популяционной геномике. Авторы обращают внимание, что такие величины, как admixture fractions, давно стали стандартным инструментом в анализе данных (например, в программах Structure и ADMIXTURE), но их статистические свойства в рамках строгих моделей изучены недостаточно. В работе получены теоретические выражения, позволяющие предсказывать средние значения и дисперсии долей смешения внутри популяции с учётом рекомбинации и генетического дрейфа. На основе этих результатов предложен практический метод оценивания параметров потока генов по уже рассчитанным долям смешения. Авторы показывают, как корректировать оценки моментов с учётом ошибок, возникающих при вычислении admixture fractions, и как работать с неполными данными генотипов. Предложенная процедура, реализованная в пакете QuAP, использует регрессию наблюдаемых статистик по хромосомам разной длины на теоретические кривые и позволяет восстанавливать время начала, длительность и интенсивность миграции. Работа будет полезна исследователям в области популяционной генетики и вычислительной геномики.
статья | код
В репозитории представлен код для воспроизведения результатов работы по теории и оцениванию долей смешения в популяционной геномике. Авторы обращают внимание, что такие величины, как admixture fractions, давно стали стандартным инструментом в анализе данных (например, в программах Structure и ADMIXTURE), но их статистические свойства в рамках строгих моделей изучены недостаточно. В работе получены теоретические выражения, позволяющие предсказывать средние значения и дисперсии долей смешения внутри популяции с учётом рекомбинации и генетического дрейфа. На основе этих результатов предложен практический метод оценивания параметров потока генов по уже рассчитанным долям смешения. Авторы показывают, как корректировать оценки моментов с учётом ошибок, возникающих при вычислении admixture fractions, и как работать с неполными данными генотипов. Предложенная процедура, реализованная в пакете QuAP, использует регрессию наблюдаемых статистик по хромосомам разной длины на теоретические кривые и позволяет восстанавливать время начала, длительность и интенсивность миграции. Работа будет полезна исследователям в области популяционной генетики и вычислительной геномики.
статья | код
GitHub
GitHub - Genomics-HSE/QuAP: The method for estimating of parameters of a constant migration.
The method for estimating of parameters of a constant migration. - Genomics-HSE/QuAP
❤4👍2🔥1
gfnx
Библиотека gfnx — быстрая и масшатбируемая JAX-платформа для обучения и оценки Generative Flow Networks. В отличие от существующих решений вроде torchgfn, где логика среды работает на процессоре и постоянно обменивается данными с видеокартой, gfnx переносит и среды, и обучение целиком на GPU. Вся вычислительная цепочка компилируется целиком с помощью JIT, что резко уменьшает накладные расходы и упрощает крупные серии экспериментов. Библиотека включает набор типовых сред из литературы по GFlowNet: синтетические гиперрешётки, генерацию двоичных последовательностей, задачи проектирования ДНК-последовательностей (TFBind8), генерацию молекул (QM9), синтез антимикробных пептидов (AMP), построение филогенетических деревьев, байесовское восстановление структуры графов и выборки из модели Изинга. Эксперименты показывают серьёзный выигрыш по времени работы при том же качестве выборок. На задачах последовательностей и молекул gfnx ускоряет обучение по сравнению с PyTorch-реализациями в десятки раз. В гиперрешётках и биологических задачах библиотека достигает тех же метрик расхождения с истинным распределением, что и базовые реализации, но при значительно большем числе итераций в секунду. Работа может быть полезна исследователям GFlowNet и обучения с подкреплением, а также тем, кто занимается амортизированным семплированием в комбинаторных и научных задачах.
статья | код
Библиотека gfnx — быстрая и масшатбируемая JAX-платформа для обучения и оценки Generative Flow Networks. В отличие от существующих решений вроде torchgfn, где логика среды работает на процессоре и постоянно обменивается данными с видеокартой, gfnx переносит и среды, и обучение целиком на GPU. Вся вычислительная цепочка компилируется целиком с помощью JIT, что резко уменьшает накладные расходы и упрощает крупные серии экспериментов. Библиотека включает набор типовых сред из литературы по GFlowNet: синтетические гиперрешётки, генерацию двоичных последовательностей, задачи проектирования ДНК-последовательностей (TFBind8), генерацию молекул (QM9), синтез антимикробных пептидов (AMP), построение филогенетических деревьев, байесовское восстановление структуры графов и выборки из модели Изинга. Эксперименты показывают серьёзный выигрыш по времени работы при том же качестве выборок. На задачах последовательностей и молекул gfnx ускоряет обучение по сравнению с PyTorch-реализациями в десятки раз. В гиперрешётках и биологических задачах библиотека достигает тех же метрик расхождения с истинным распределением, что и базовые реализации, но при значительно большем числе итераций в секунду. Работа может быть полезна исследователям GFlowNet и обучения с подкреплением, а также тем, кто занимается амортизированным семплированием в комбинаторных и научных задачах.
статья | код
GitHub
GitHub - d-tiapkin/gfnx: Environments and Algorithms for Generative Flow Networks in JAX
Environments and Algorithms for Generative Flow Networks in JAX - d-tiapkin/gfnx
🔥8👍4❤1🤩1
miad
В репозитории опубликован код модели Mirage Atom Diffusion — диффузионного генератора для de novo синтеза кристаллов, который умеет менять число атомов в ячейке прямо в процессе генерации. Авторы исходят из того, что современные диффузионные модели для материалов работают с фиксированным числом атомов и тем самым ограничивают пространство траекторий. Модель не может добавить или убрать атом по ходу синтеза, что ухудшает как разнообразие, так и качество структур. В расширенном пространстве структур к каждому реальному кристаллу добавляются миражные атомы специального типа. Они ведут себя как обычные атомы в диффузионном процессе, но при обучении их координаты не штрафуются в функции потерь. MiAD строится поверх базовой совместной диффузионной модели для решётки, дробных координат и типов атомов и обучается на наборе MP-20. Качество оценивается по метрике S.U.N. (Stable, Unique, Novel) — доле материалов, которые одновременно стабильны, уникальны и отсутствуют в обучающем наборе. На 10 000 сгенерированных кристаллах MiAD достигает 8,2 % S.U.N. (по DFT), заметно обгоняя лучшие предыдущие модели, включая ADiT и WyFormer, и даёт до ×2,5 улучшения по S.U.N. по сравнению с исходным DiffCSP без mirage infusion. Аналогичные преимущества сохраняются и при более дешёвой оценке стабильности с помощью ML-потенциалов CHGNet и eq-V2. Работа может быть полезна исследователям новых материалов и генеративных моделей.
статья | код
В репозитории опубликован код модели Mirage Atom Diffusion — диффузионного генератора для de novo синтеза кристаллов, который умеет менять число атомов в ячейке прямо в процессе генерации. Авторы исходят из того, что современные диффузионные модели для материалов работают с фиксированным числом атомов и тем самым ограничивают пространство траекторий. Модель не может добавить или убрать атом по ходу синтеза, что ухудшает как разнообразие, так и качество структур. В расширенном пространстве структур к каждому реальному кристаллу добавляются миражные атомы специального типа. Они ведут себя как обычные атомы в диффузионном процессе, но при обучении их координаты не штрафуются в функции потерь. MiAD строится поверх базовой совместной диффузионной модели для решётки, дробных координат и типов атомов и обучается на наборе MP-20. Качество оценивается по метрике S.U.N. (Stable, Unique, Novel) — доле материалов, которые одновременно стабильны, уникальны и отсутствуют в обучающем наборе. На 10 000 сгенерированных кристаллах MiAD достигает 8,2 % S.U.N. (по DFT), заметно обгоняя лучшие предыдущие модели, включая ADiT и WyFormer, и даёт до ×2,5 улучшения по S.U.N. по сравнению с исходным DiffCSP без mirage infusion. Аналогичные преимущества сохраняются и при более дешёвой оценке стабильности с помощью ML-потенциалов CHGNet и eq-V2. Работа может быть полезна исследователям новых материалов и генеративных моделей.
статья | код
GitHub
GitHub - andrey-okhotin/miad: Official implementation of paper MiAD: Mirage Atom Diffusion for De Novo Crystal Generation
Official implementation of paper MiAD: Mirage Atom Diffusion for De Novo Crystal Generation - andrey-okhotin/miad
❤6🔥3👍1🤔1
MAD-CV
В репозитории представлен код для воспроизведения результатов работы по снижению дисперсии оценок для аддитивных функционалов марковских цепей на основе нового мартингального разложения. Авторы рассматривают задачу вычисления среднего по стационарному распределению, когда прямые независимые выборки сделать нельзя и приходится использовать методы Маркова–Монте-Карло. Предлагаемый подход не требует знать стационарное распределение, не опирается на обратимость переходного оператора и применим как к классическим MCMC-алгоритмам, так и к дискретизациям диффузионных процессов. Для цепей с гауссовским шумом получены строгие неасимптотические оценки. В численных экспериментах рассмотрены одномерный и двумерный случаи. Показано, что предложенный метод даёт значительное уменьшение дисперсии при разумных вычислительных затратах. Коэффициент стоимость-к-дисперсии заметно лучше, чем у наивного метода без контрольных вариаций. Работа будет полезна исследователям в области Монте-Карло и марковских цепей, специалистам по байесовской статистике и стохастическому анализу.
статья | код
В репозитории представлен код для воспроизведения результатов работы по снижению дисперсии оценок для аддитивных функционалов марковских цепей на основе нового мартингального разложения. Авторы рассматривают задачу вычисления среднего по стационарному распределению, когда прямые независимые выборки сделать нельзя и приходится использовать методы Маркова–Монте-Карло. Предлагаемый подход не требует знать стационарное распределение, не опирается на обратимость переходного оператора и применим как к классическим MCMC-алгоритмам, так и к дискретизациям диффузионных процессов. Для цепей с гауссовским шумом получены строгие неасимптотические оценки. В численных экспериментах рассмотрены одномерный и двумерный случаи. Показано, что предложенный метод даёт значительное уменьшение дисперсии при разумных вычислительных затратах. Коэффициент стоимость-к-дисперсии заметно лучше, чем у наивного метода без контрольных вариаций. Работа будет полезна исследователям в области Монте-Карло и марковских цепей, специалистам по байесовской статистике и стохастическому анализу.
статья | код
GitHub
GitHub - svsamsonov/MAD-CV: Variance reduction with martingale representations
Variance reduction with martingale representations - svsamsonov/MAD-CV
❤4👍3🔥3
Привет!
Возможно вам или вашим знакомым будет интересно🔭
Сейчас в НИУ ВШЭ проходит кампания по привлечению международных специалистов на вакансию Assistant Professor in Computer Science в рамках Tenure Track.
Tenure Track — программа международной академической карьеры для кандидатов, которые имеют степень PhD, полученную в ведущем зарубежном университете или исследовательском центре.
Прием заявок продлится до 15 января 2026 года. Подробности о конкурсе по направлению Computer Science — на странице Центра рекрутинга и аттестации международных специалистов НИУ ВШЭ: https://iri.hse.ru/ru/TT_CompSci_2025.
Возможно вам или вашим знакомым будет интересно
Сейчас в НИУ ВШЭ проходит кампания по привлечению международных специалистов на вакансию Assistant Professor in Computer Science в рамках Tenure Track.
Tenure Track — программа международной академической карьеры для кандидатов, которые имеют степень PhD, полученную в ведущем зарубежном университете или исследовательском центре.
Прием заявок продлится до 15 января 2026 года. Подробности о конкурсе по направлению Computer Science — на странице Центра рекрутинга и аттестации международных специалистов НИУ ВШЭ: https://iri.hse.ru/ru/TT_CompSci_2025.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2👎2🔥1🐳1
Коллеги из Центра глубинного обучения и байесовских методов делятся своим новым проектом с открытым кодом
Forwarded from А когда не Мишан?
This media is not supported in your browser
VIEW IN TELEGRAM
Дорогие коллеги 🦔
Наша работа🐮 CasTex🐮 принята на конференцию WACV 2026! Мы выложили новую версию статьи на arXiv и код — будем очень рады вашим звездочкам ⭐️ и репостам 💋
CasTex: Cascaded Text-to-Texture Synthesis via Explicit Texture Maps and Physically-Based Shading
🐮 CasTex🐮 — это метод генерации переосвещаемых PBR-текстур по текстовому промпту на основе Score Distillation Sampling (SDS). Мы заметили, что стандартная связка SDS с латентной диффузией часто создает неестественные артефакты и требует сложной неявной параметризации для их маскировки. В противовес этому мы предлагаем использовать каскадные модели непосредственно в пиксельном пространстве. Это позволяет нам напрямую и эффективно оптимизировать явные текстурные карты (albedo, roughness, metalness, normals), получая на выходе физически корректные материалы.
🐮 arXiv — ставьте лайки на alphaxiv
📱 Twitter — репостните наш пост
📱 GitHub — ставьте звездочки
🌐 Project Page — там классные визуализации
P.S. Мы также сделали эмодзи- и стикер-паки наших коровок, которые вы можете себе добавить❤️
Наша работа
CasTex: Cascaded Text-to-Texture Synthesis via Explicit Texture Maps and Physically-Based Shading
P.S. Мы также сделали эмодзи- и стикер-паки наших коровок, которые вы можете себе добавить
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9❤7👍6
HyperDomainNet
В репозитории опубликован код к работе HyperDomainNet: Universal Domain Adaptation for GANs, посвящённой адаптации StyleGAN2 к новым стилям и доменам при очень малом числе параметров. Вместо дообучения всех 30 миллионов весов генератора авторы предлагают domain-modulation: для каждого целевого домена оптимизируется один вектор размерности около 6 тысяч координат, который подключается в модуль модулируемых свёрток StyleGAN2 и управляет сдвигом стиля. При этом качество адаптации практически не уступает полному дообучению модели. Поверх этого подхода вводится новый регуляризатор indomain angle consistency, который заставляет сохранять попарные косинусные расстояния между изображениями в пространстве эмбеддингов CLIP до и после адаптации. Это заметно уменьшает эффект схлопывания мод и помогает сохранить разнообразие сгенерированных лиц в новом стиле, что видно и по метрикам, и по примерам для доменов вроде аниме-портрет. Авторский вариант MindTheGap с новым параметрическим представлением и этим регуляризатором даёт сопоставимое качество с исходным методом при сокращении числа обучаемых параметров примерно в тысячу раз. Работа будет полезна исследователям генеративных моделей, тем, кто занимается few-shot-адаптацией GAN по тексту или единичным изображениям, а также разработчикам интерактивных инструментов для художественного и стилистического редактирования изображений.
статья | код
В репозитории опубликован код к работе HyperDomainNet: Universal Domain Adaptation for GANs, посвящённой адаптации StyleGAN2 к новым стилям и доменам при очень малом числе параметров. Вместо дообучения всех 30 миллионов весов генератора авторы предлагают domain-modulation: для каждого целевого домена оптимизируется один вектор размерности около 6 тысяч координат, который подключается в модуль модулируемых свёрток StyleGAN2 и управляет сдвигом стиля. При этом качество адаптации практически не уступает полному дообучению модели. Поверх этого подхода вводится новый регуляризатор indomain angle consistency, который заставляет сохранять попарные косинусные расстояния между изображениями в пространстве эмбеддингов CLIP до и после адаптации. Это заметно уменьшает эффект схлопывания мод и помогает сохранить разнообразие сгенерированных лиц в новом стиле, что видно и по метрикам, и по примерам для доменов вроде аниме-портрет. Авторский вариант MindTheGap с новым параметрическим представлением и этим регуляризатором даёт сопоставимое качество с исходным методом при сокращении числа обучаемых параметров примерно в тысячу раз. Работа будет полезна исследователям генеративных моделей, тем, кто занимается few-shot-адаптацией GAN по тексту или единичным изображениям, а также разработчикам интерактивных инструментов для художественного и стилистического редактирования изображений.
статья | код
❤5🔥2👍1