causality links – Telegram
causality links
609 subscribers
45 photos
5 videos
109 links
people say (hope) we're invariant

personal channel of @vkurenkov
Download Telegram
causality links
something’s cooking
cooked 🥳
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥21🔥51
Transformers Learn Temporal Difference Methods for In-Context Reinforcement Learning

https://arxiv.org/pdf/2405.13861
4🔥21
This media is not supported in your browser
VIEW IN TELEGRAM
Alumni!

В Университете Иннополис есть клевое коммьюнити выпускников. Каждый год ребята собираются отметить выдающихся алюмней и просто поговорить, что происходит в университете сегодня и как дела у самих выпускников.

💖 Спустя 5 лет (жесть!) после выпуска наконец-то смог добраться до этой встречи: было оч круто оказаться в кругу знакомых лиц, с которыми связано много приятных воспоминаний и узнать как мы все дошли до жизни такой 🌚

💕 В добавок ко всему, выпускники отметили меня как outstanding alumni (залутал худи) и отдельно подсветили наши потуги с @lua_b над стипендией.

В очередной раз для себя сделал пометку насколько повезло с университетом и людьми, которые собрались вокруг него. Community building круто, всем желаю такого 🏡
Please open Telegram to view this post
VIEW IN TELEGRAM
💯189🍓6😁1
Зарелизили первый публичный и огромный (100 миллиардов таплов!) датасет для In-Context Reinforcement Learning'a. Ждем ваших апвоутов ❤️

https://huggingface.co/papers/2406.08973
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31🥰1
Forwarded from ду́но
Привет! Это ду́но.

Мы группа исследователей на базе AIRI. Нас можно знать как экс-команду из Tinkoff Research, которая делала заметный движ с Reinforcement Learning: 7 статей на NeurIPS / ICML за последние три года.

Этот канал — точка сборки, где мы будем рассказывать про наши новые статьи, технологии, проекты, эвенты и возможности поработать с нами. Мы строим свою работу на нескольких принципах:

Technology-first. Построение frontier-технологий и движение научного дискурса рука об руку. Мы не занимаемся публикациями ради публикаций, наша работа направлена на поиск и разработку новых технологий.

No new science, no new technology. Мы понимаем, что построение новых технологий невозможно без поиска и влёта с ноги в новые (иногда неочевидные и рисковые) научные области. Мы постоянно ищем их и размышляем, за какими из них будущее.

Deep connections. Мы взращиваем студентов, стараясь образовывать стабильные и долгосрочные связи с ними за счет активного менторства. Мы не даём 50 идей для рисерча🥴и не бросаем студентов на волю судьбы, мы занимаемся наукой и технологиями вместе.

Построить ASI не обещаем, но интересные вещи сделаем и поделимся ими здесь с вами.

Stay tuned.

- - —
Влад К., Саша Н., Никита Л., Илья З., Андрей П.
🔥174👍4🥰1
https://h-frac.org/

Есть ощущение, что индекс хирша всегда был с нами, но на самом деле он был предложен только в 2005 году. Обосновывался не последним образом как число которое коррелирует ((кендалл в районе 0.3 - 0.4)) с научными наградами вроде нобелевки.

Спустя 15 лет внезапно выяснилось, что ученые заоптимизировали его в край и теперь корреляция в районе нуля (справедливо как минимум для физиков).

Решение оказалось простым — аллоцировать хирш фракционно среди соавторов. Этой прекрасной статье уже три (!!!) года, но системного перехода на эту метрику замечено не было 🤭
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11🥰1😁1
Forwarded from ду́но
Мы ищем стажеров!

👩‍🌾 shorties — это персональная программа, в которой мы выращиваем таланты до полноценных Research Engineer’ов или Research Scientist’ов в зависимости от ваших интересов.

🔭 Intern Research Scientist

Вы будете заниматься написанием статей на top-tier ИИ конференции (NeurIPS, ICLR, ICML) и участием в научном дискурсе: проведение экспериментов, проверка и генерация исследовательских идей, которые направлены на развитие научного знания.


🧪 Intern Research Engineer

Вы будете заниматься созданием новых frontier-технологий и применением Reinforcement Learning в реальных задачах.


Тестовые задания и подробные описания позиций можно найти по ссылкам выше, дедлайн подачи заявки — 15 августа.

- - —
@dunnolab
🔥10👏7👍5🥰1
😘 Первая публикация дорогого брата Ильи Зисмана (@suessmann) на ICML'e первым автором, проделал кучу работы и прошел через несколько кругов ада с Watermaze'ом.

Клевая и простая идея, с которой дальше будет гораздо легче скейлить in-context rl.

https://news.1rj.ru/str/dunnolab/20
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17👍6💯62🥰1
> два года назад: ура, нашу статью приняли на нипс

> сегодня: депрессия, потому что приняли только 1 статью на нипс

🫠
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯22😁9😢6🍌3🙏2🥰1
ахахахаххаха
9🔥1🥰1😁1🌭1
Forwarded from Does RL work yet? (Александр Никулин)
Прошла тут статейка на ICLR 2025, настрадались с ней ужас 🫠
10🔥10🏆4👏3🥰1
no rest for the wicked

думали взять небольшую передышку после сабмитов на ICML, но произошел нюанс

2 / 3 сабмитов на ICML с concurrent work, которые судя по абстракту делают примерно тоже самое

let the twitter war begin 🔫🔫🔫🔫🔫

https://news.1rj.ru/str/rllinks/67
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8🤯4👍2🥰1
https://news.1rj.ru/str/airi_research_institute/755

если вы поддерживаете благотворительные организации или хотите начать, мы сейчас в институте участвуем в MeetForCharity — благотворительном аукционе встреч с успешными успехами из разных сфер, от бизнеса и технологий до театра и кино

тоже участвую в этом году и выбрал «Дом с маяком» — хоспис, который поддерживает около 800 детей

мне кажется история очень здравая, там много интересных людей, которых просто так не вытащишь, а это отличная возможность и познакомиться и людям помочь 🙂
11🔥4🥰1
Forwarded from Does RL work yet?
Самое время подвести итоги сабмитов на ICLR 2025. Не все успели довести до фулл статей, но и воркшопы тоже хорошо!

Что-то уже есть на архиве (и еще будет обновлятся с новыми результатами), так что делюсь:
1. XLand-100B: A Large-Scale Multi-Task Dataset for In-Context Reinforcement Learning (Main, Poster), by @howuhh and @suessmann and @zzmtsvv
2. Latent Action Learning Requires Supervision in the Presence of Distractors (Workshop, World Models), by @howuhh
3. Object-Centric Latent Action Learning (Workshop, World Models), by @cinemere
4. N-Gram Induction Heads for In-Context RL: Improving Stability and Reducing Data Needs (Workshop, SCOPE), by @suessmann
5. Yes, Q-learning Helps Offline In-Context RL (Workshop, SSI-FM), by @adagrad
🔥10