Институт AIRI – Telegram
Институт AIRI
11.8K subscribers
913 photos
9 videos
2 files
672 links
Канал Института AIRI ⚡️

Рассказываем про технологии ИИ и о том, как исследователи развивают их в России и мире: https://airi.net/ru/

ВКонтакте: https://vk.com/airi_institute

Регистрация в РКН: https://gosuslugi.ru/snet/686cce31f794ae555409516c
Download Telegram
Forwarded from N + 1
Институту AIRI исполнилось 4 года! В честь своего дня рождения они попросили крутых ученых из разных областей науки рассказать о том, как ИИ применяется в материаловедении, геологии, экономике, квантовой физике и астрономии. Читайте их ответы в карточках

#ИскусственныйИнтеллект | #Реклама
42
Что такое цвет? Отвечаем на этот вопрос в новой статье на Хабре ⤵️

Вычислительная фотография — это пересечение физики, физиологии и компьютерных наук. Именно на стыке этих дисциплин рождаются новые подходы к регистрации и обработке изображений.

Кандидат физико-математических наук, руководитель группы «Цветовая вычислительная фотография» AIRI Егор Ершов читает курс по этой теме в МФТИ. Теперь же он решил адаптировать его в текстовый формат на нашем Хабре.

📎В первой статье курса — введение в теорию цвета и обзор ключевых задач, связанных с регистрацией изображений.
Please open Telegram to view this post
VIEW IN TELEGRAM
38
До закрытия приёма заявок на школу по искусственному интеллекту «Лето с AIRI» в ТГУ — всего 4 дня!

Все лекции и семинары прошлого года доступны в VK Видео — загляните, чтобы почувствовать атмосферу Школы и вдохновиться на участие.

Подавайте заявки по ссылке до 29 апреля 23:59📌
Please open Telegram to view this post
VIEW IN TELEGRAM
24
Исследователи AIRI на ICLR 2025 ⚡️

На этой неделе в Сингапуре стартовала конференция ICLR — одно из важнейших мероприятий в мире машинного обучения. В этом году от AIRI туда приехали сразу 32 исследователя. Они подготовили 9 статей на основном треке:

⚫️XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning
⚫️POGEMA: A Benchmark Platform for Cooperative Multi-Agent Navigation
⚫️Tight Time Complexities in Parallel Stochastic Optimization with Arbitrary Computation Dynamics
⚫️Robust Barycenter Estimation using Semi-Unbalanced Neural Optimal Transport
⚫️Associative memory and dead neurons
⚫️A3D: Does Diffusion Dream about 3D Alignment?
⚫️Learning Successor Features with Distributed Hebbian Temporal Memory
⚫️Efficient Distribution Matching of Representations via Noise-Injected Deep InfoMax
⚫️On the Fourier analysis in the SO (3) space: EquiLoPO Network

Кроме того, наши исследователи представляют 14 докладов на воркшопах.

Делимся фотографиями с конференции!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
104
Продлеваем дедлайн подачи заявок на «Лето с AIRI» до 7 мая включительно ⚡️

В этом году программа пройдёт в Томске — городе студентов, науки и белых ночей. С 30 июня по 10 июля вас ждут лекции и семинары по ИИ, проектная работа, постерная сессия и внеучебные активности — от тёплых вечеров в историческом центре до сапов на реке. Отличная возможность прокачать навыки, найти единомышленников и вдохновение для новых исследований.

Если вам нужно будет приглашение от университета (например, чтобы вуз помог с оплатой билетов), мы можем его оформить — просто напишите нам. У многих авиакомпаний есть студенческие скидки, уточняйте при бронировании. Также будет организован трансфер из Новосибирска до Томска.

Подавайте заявку и рассказывайте друзьям — это лето может стать ярким! Если у вас остались вопросы, пишите нам на event@airi.net 📌
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
73
Приглашаем на следующий #AIRI_Seminars, который пройдет 7-го мая в 17:00 ⤵️

Артём Жолус, PhD-студент в Mila и исследователь в Meta*, представит доклад «Современные трансформеры для видео и не только». Оппонентом выступит Константин Соболев — руководитель группы «Генеративный ИИ для видео» лаборатории FusionBrain, AIRI.

📌Подробное описание семинара и регистрация на офлайн-формат на сайте.

VK Видео | YouTube

*организация признана экстремистской, и ее деятельность запрещена на территории РФ
Please open Telegram to view this post
VIEW IN TELEGRAM
47
Для тех, кто впервые готовит Research Proposal: рассказываем, с чего начать, зачем он нужен и как его подготовить ⤵️

Research Proposal — это способ обосновать и спланировать будущую работу: показать, что вы понимаете контекст, видите важную задачу, умеете критически оценивать существующие подходы — по сути, всё то, что важно для любого хорошего исследования. Это не про то, чтобы всё знать заранее — это про умение задавать вопросы и двигаться от идеи к исследованию.

Чтобы подготовить Research Proposal:

1. Выберите статью уровня Core A/A* (например, с конференций NeurIPS, ICML, ICLR, CVPR, ACL и др. — полный список можно посмотреть тут).

2. Кратко опишите суть метода и выделите сильные и слабые стороны.

3. Предложите развитие идеи и подкрепите Research Proposal небольшим экспериментом.

Даже если вы только начинаете свой путь в науке, подавайте заявку
по ссылке до 7 мая включительно📌
Please open Telegram to view this post
VIEW IN TELEGRAM
43
На днях в Альбукерке завершила свою работу конференция NAACL 2025 ⤵️

В этом году конференцию посетили руководитель группы «Прикладное NLP» Елена Тутубалина и руководитель группы «Вычислительная семантика» Александр Панченко.

Исследователи представили 8 статей AIRI:

⚫️SynthDetoxM: Modern LLMs are Few-Shot Parallel Detoxification Data Annotators (main track)
В статье описан пайплайн для генерации многоязычных данных для параллельной детоксификации, а также представлен новый датасет для этой задачи под названием SynthDetoxM.

⚫️Token-Level Density-Based Uncertainty Quantification Methods for Eliciting Truthfulness of Large Language Models (main track)
Исследователи разработали новый метод оценки неопределённости с учителем, основанный на генерации текста с помощью расстояния Махаланобиса.

⚫️Inference-Time Selective Debiasing to Enhance Fairness in Text Classification Models (main track)
Авторы представили новый механизм повышения качества развёрнутой модели с точки зрения производительности и справедливости прогнозирования, основанный на выборочном устранении смещений.

⚫️LLM-Microscope: Uncovering the Hidden Role of Punctuation in Context Memory of Transformers (findings)
Авторы этой статьи выяснили, что токены, кодирующие знаки препинания, артикли и стоп-слова, играют более важную роль в обработке информации языковыми моделями, чем считалось ранее.

⚫️How Much Knowledge Can You Pack into a LoRA Adapter without Harming LLM? (findings)
Авторы исследовали, можно ли внедрять новые факты в LLM с использованием LoRA без ущерба для ранее полученных знаний.

⚫️SkipCLM: Enchancing Crosslingual Alignment of Decoder Transformer Models via Contrastive Learning and Skip Connection (SRW)
В данной статье предлагается SkipCLM — новый метод улучшения многоязычного машинного перевода в декодерах-трансформерах.

⚫️Through the Looking Glass: Common Sense Consistency Evaluation of Weird Images (SRW)
В статье описан новый метод оценки согласованности изображений с использованием LVLM и энкодера на основе архитектуры трансформера.

⚫️SPY: Enhancing Privacy with Synthetic PII Detection Dataset (SRW)
Статья посвящена новому датасету SPY, который может быть полезен в задаче обнаружения персональных данных, позволяющих идентифицировать человека.

Делимся фотографиями с конференции!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
57
AIRI Seminars в эфире, ссылки на трансляции: VK Видео, YouTube 🍿
44