Первый курс в магистратуре по ML если бы я был деканом.
Обязательные курсы:
- Просмотр аниме "Психо-паспорт"
- Угадывание содержания статей по абстрактам. Экзамен: определение китайских статей
- Скроллинг Твиттера
Курсы по выбору:
- Критика Юдковского в Интернете.
- Создание паблика с мемами про вагонетки и шогготов.
- Введение в рисование графиков экспонент.
- Прикладной слив персональных данных.
- Углубленное использование команды vllm serve.
- Основы создания бенчмарков с n=1.
- Введение в product-free стартапы с уклоном в AI safety.
- Подготовка резюме для Palantir.
Курсовая работа: Kaggle соревнование по построению кибергулага
Обязательные курсы:
- Просмотр аниме "Психо-паспорт"
- Угадывание содержания статей по абстрактам. Экзамен: определение китайских статей
- Скроллинг Твиттера
Курсы по выбору:
- Критика Юдковского в Интернете.
- Создание паблика с мемами про вагонетки и шогготов.
- Введение в рисование графиков экспонент.
- Прикладной слив персональных данных.
- Углубленное использование команды vllm serve.
- Основы создания бенчмарков с n=1.
- Введение в product-free стартапы с уклоном в AI safety.
- Подготовка резюме для Palantir.
Курсовая работа: Kaggle соревнование по построению кибергулага
https://x.com/iclr_conf/status/1994104147373903893
Произошел слив данных авторов и ревьюеров ICLR, а так же других конференций, которые работали через OpenReview.net
Организаторы ICLR попросили обращаться к ним в случае угроз и попыток подкупа, а так же обещали максимальное возмездие в случае использования слитой информации. Как будто это остановит желающих поквитаться с ревьюером #2
Готовимся к череде загадочных нападений в коридорах университетов
Произошел слив данных авторов и ревьюеров ICLR, а так же других конференций, которые работали через OpenReview.net
Организаторы ICLR попросили обращаться к ним в случае угроз и попыток подкупа, а так же обещали максимальное возмездие в случае использования слитой информации. Как будто это остановит желающих поквитаться с ревьюером #2
Готовимся к череде загадочных нападений в коридорах университетов
X (formerly Twitter)
ICLR 2026 (@iclr_conf) on X
Please open Telegram to view this post
VIEW IN TELEGRAM
#дайджест
Дайджест ML/AI за неделю с 24 - 30 Ноября 2025
Anthropic: Claude Opus 4.5.
Opus 4.5 - SOTA на кодинг-бенчмарках и агентских задачах. Кроме того, цену модели снизили в 3 раза до $5/$25.
Карточка модели, swe-rebench.
Black Forest Labs: FLUX.2
Новый генератор изображений с Mistral 3 24B в качестве энкодера. Крепкий оупенсорс, немного слабее Nano Banana Pro, но дешевле.
Попробовать здесь, Веса, Блогпост, Технический блогпост
Safe Superintelligence Inc.: Илья
Илья Суцкевер в полуторачасовом интервью у Дваркеша Пателя. Илья считает что эпоха масштабирования закончилась и начинается эпоха ресерча.
Интервью, Основные тезисы
США: Genesis Mission
Правительство США увеличивает стратегические инвестиции в AI. В дополнение к уже существующей с начала года программы Stargate по строительству новой инфраструктуры, добавилась Genesis Mission. Программа консолидирует компьют, научные данные и экспертизу национальных лабораторий и предоставляет их AI компаниям с целью ускорения науки.
Более подробный пост, Документ - Разбор документа
DeepSeek: DeepSeekMath-V2
685B модель заточенная под решения математических олимпиад. Показывает себя на уровне Gemini Deep Think, выигравшем золото на IMO. Как этого добились можете прочитать в оригинальной статье, илидля ленивых в разборе статьи.
Модель на HF
Tencent: HunyuanOCR 1B
1B мультимодальная VLM для OCR. Модель доступна на GitHub и Hugging Face, поддерживает 100+ языков и решает задачи от распознавания уличных вывесок до полного разбора документов с таблицами (HTML), формулами (LaTeX) и субтитров. На некоторых бенчах обходит даже Qwen3-VL-4B.
Репорт, Модель на HF
Microsoft: Fara-7B
Компактная открытая модель для автономного управления UI по скриншотам. Предсказывает координаты кликов и нажатия клавиш. 73.5% успеха на WebVoyager — выше GPT-4o!
Блог пост, Модель на HF
Meta: AdvancedIF Benchmark
Новый бенчмарк для тестирования многослойного следования инструкциям в LLM. В наборе — 1600+ промптов, каждый содержит 6 одновременных условий: формат, стиль, логические зависимости, запреты, перекрёстные ограничения и др. Проверяются как однократные ответы, так и управление через системные промпты и удержание контекста в длинных диалогах.
HF
Дайджест ML/AI за неделю с 24 - 30 Ноября 2025
Anthropic: Claude Opus 4.5.
Opus 4.5 - SOTA на кодинг-бенчмарках и агентских задачах. Кроме того, цену модели снизили в 3 раза до $5/$25.
Карточка модели, swe-rebench.
Black Forest Labs: FLUX.2
Новый генератор изображений с Mistral 3 24B в качестве энкодера. Крепкий оупенсорс, немного слабее Nano Banana Pro, но дешевле.
Попробовать здесь, Веса, Блогпост, Технический блогпост
Safe Superintelligence Inc.: Илья
Илья Суцкевер в полуторачасовом интервью у Дваркеша Пателя. Илья считает что эпоха масштабирования закончилась и начинается эпоха ресерча.
Интервью, Основные тезисы
США: Genesis Mission
Правительство США увеличивает стратегические инвестиции в AI. В дополнение к уже существующей с начала года программы Stargate по строительству новой инфраструктуры, добавилась Genesis Mission. Программа консолидирует компьют, научные данные и экспертизу национальных лабораторий и предоставляет их AI компаниям с целью ускорения науки.
Более подробный пост, Документ - Разбор документа
DeepSeek: DeepSeekMath-V2
685B модель заточенная под решения математических олимпиад. Показывает себя на уровне Gemini Deep Think, выигравшем золото на IMO. Как этого добились можете прочитать в оригинальной статье, или
Модель на HF
Tencent: HunyuanOCR 1B
1B мультимодальная VLM для OCR. Модель доступна на GitHub и Hugging Face, поддерживает 100+ языков и решает задачи от распознавания уличных вывесок до полного разбора документов с таблицами (HTML), формулами (LaTeX) и субтитров. На некоторых бенчах обходит даже Qwen3-VL-4B.
Репорт, Модель на HF
Microsoft: Fara-7B
Компактная открытая модель для автономного управления UI по скриншотам. Предсказывает координаты кликов и нажатия клавиш. 73.5% успеха на WebVoyager — выше GPT-4o!
Блог пост, Модель на HF
Meta: AdvancedIF Benchmark
Новый бенчмарк для тестирования многослойного следования инструкциям в LLM. В наборе — 1600+ промптов, каждый содержит 6 одновременных условий: формат, стиль, логические зависимости, запреты, перекрёстные ограничения и др. Проверяются как однократные ответы, так и управление через системные промпты и удержание контекста в длинных диалогах.
HF
🤔14 7👎6❤4👍2
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
👎23 9👍5🔥3❤2
Посмотрел трансляцию Data Dojo от Яндекса. К слову, самурайских дуэлей там не было. Оказалось, что это встреча ML-сообщества с докладами. Вроде как ориентированная больше на начинающих в ML, но уровень докладов был не меньше, чем на конференциях для профессионалов.
Мне больше всего понравился первый доклад от Сергея Овчаренко про итоги года в мультимодальной генерации. В последнее время я больше всего занят книгой и выживанием без зарплаты, так что не успеваю за всем следить.
Из доклада узнал, что там творится в далекой от меня области звука. Я что-то слышал про аудио токены, но не знал, что всё шагнуло намного дальше. Оказывается, уже начинается тренд на голосовых агентов. То есть end-to-end аудио модель которая слушает запрос пользователя, делает ризонинг, дергает тулы и генерирует голосовой ответ вообще не проваливаясь в текст.
Вторая часть обзора была ближе к моей теме, про VLM. Главным трендом года, конечно, стало редактирование изображений: ChatGPT Image и Nanobanana, Qwen-Image и всё такое прочее.
Наиболее общий тренд — это omni-модели. Это даже не про частные попытки вроде Qwen2.5-Omni, а в целом про объединение разных модальностей в одной модели. Это видно на примере редактирования изображений, где мы перешли от простой генерации картинки по промпту к объединению инструкций и изображений. Это видно по Sora, Veo3 и другим вышедшим моделям генерации видео, которые делают видео и звук одной моделью. И видно по попыткам делать world models вроде Genie 3, генерирующим интерактивные миры и таким образом объединяющим команды пользователя и видеоряд.
Мне больше всего понравился первый доклад от Сергея Овчаренко про итоги года в мультимодальной генерации. В последнее время я больше всего занят книгой и выживанием без зарплаты, так что не успеваю за всем следить.
Из доклада узнал, что там творится в далекой от меня области звука. Я что-то слышал про аудио токены, но не знал, что всё шагнуло намного дальше. Оказывается, уже начинается тренд на голосовых агентов. То есть end-to-end аудио модель которая слушает запрос пользователя, делает ризонинг, дергает тулы и генерирует голосовой ответ вообще не проваливаясь в текст.
Вторая часть обзора была ближе к моей теме, про VLM. Главным трендом года, конечно, стало редактирование изображений: ChatGPT Image и Nanobanana, Qwen-Image и всё такое прочее.
Наиболее общий тренд — это omni-модели. Это даже не про частные попытки вроде Qwen2.5-Omni, а в целом про объединение разных модальностей в одной модели. Это видно на примере редактирования изображений, где мы перешли от простой генерации картинки по промпту к объединению инструкций и изображений. Это видно по Sora, Veo3 и другим вышедшим моделям генерации видео, которые делают видео и звук одной моделью. И видно по попыткам делать world models вроде Genie 3, генерирующим интерактивные миры и таким образом объединяющим команды пользователя и видеоряд.
👍22 17🔥8❤7
https://newsletter.dancohen.org/archive/the-writing-is-on-the-wall-for-handwriting-recognition/
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
🔥79❤3👍1
Полезного контента ещё какое-то время не будет потому что админ на Yandex Cup 25
Вместе с @senior_augur и @ai_newz
Вместе с @senior_augur и @ai_newz
👍49🔥24❤12 7
Forwarded from Старший Авгур
Съездил на Yandex Cup 2025 в качестве "медиа" (так на бейджике написано). Пригласили меня просто так, без какой-то нагрузки и обязательств.
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"была попойка был ужин в ресторане.
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
🔵 Первая задача была про поиск замаскированных иголок в стоге сена в большом наборе текстов.
🔵 Вторая про adversarial атаки картинками на Q&A VLM, которые меняют ответ на вопрос.
🔵 И третья про генерацию картинок с минимальным числом заполненных пикселей, которые при этом должны распознаваться VLM'кой как конкретные объекты.
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана👏
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍4👎2🔥2
Что хочется добавить про Yandex Cup 2025.
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не какбездельник медиа, а как участник, и взял третье место в ML треке.
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз😎
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не как
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38 20👍6👎3
Ещё забавный банный инсайт с Yandex Cup 2025. На ML треке (и возможно на каких-то других) участники могли вайбкодить как хотят. Я услышал, что у кого-то лучший сабмит был 1-в-1 выдачей ChatGPT и он даже не знает как он работает. Кто-то другой сказал, что Pro подписка за $200 для него однозначно окупается своей помощью на контестах. Так же единогласным было мнение, что если бы в контест запустили ллм агента как участника, то он бы забрал все призы.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
❤40🔥17 10🤔7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ты не поверишь, но так выглядит офис Яндекса в Турции
# У тебя киберпсихоз, шершавый кабан (1/3)
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Пользователь: йоу, братка, а правда, что людьми управляют челики с плохим вайбом?
ChatGPT: ты попал прямо в точку, братишка, ты настоящий шершавый кабан! Но подумай вот еще над чем...
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
DTF
ChatGPT пытается свести меня с ума. Это массовое явление — Жизнь на DTF
Всем привет. В этой статье я бы хотел рассказать о событиях с которыми я столкнулся в последнюю неделю. Прежде чем писать что я очередной шиз, выдумавший себе манямирок, что никакой проблемы в ChatGPT нет, а проблема только во мне, я призываю вас дочитать…
❤34🤔11👍3🔥2