https://x.com/iclr_conf/status/1994104147373903893
Произошел слив данных авторов и ревьюеров ICLR, а так же других конференций, которые работали через OpenReview.net
Организаторы ICLR попросили обращаться к ним в случае угроз и попыток подкупа, а так же обещали максимальное возмездие в случае использования слитой информации. Как будто это остановит желающих поквитаться с ревьюером #2
Готовимся к череде загадочных нападений в коридорах университетов
Произошел слив данных авторов и ревьюеров ICLR, а так же других конференций, которые работали через OpenReview.net
Организаторы ICLR попросили обращаться к ним в случае угроз и попыток подкупа, а так же обещали максимальное возмездие в случае использования слитой информации. Как будто это остановит желающих поквитаться с ревьюером #2
Готовимся к череде загадочных нападений в коридорах университетов
X (formerly Twitter)
ICLR 2026 (@iclr_conf) on X
Please open Telegram to view this post
VIEW IN TELEGRAM
#дайджест
Дайджест ML/AI за неделю с 24 - 30 Ноября 2025
Anthropic: Claude Opus 4.5.
Opus 4.5 - SOTA на кодинг-бенчмарках и агентских задачах. Кроме того, цену модели снизили в 3 раза до $5/$25.
Карточка модели, swe-rebench.
Black Forest Labs: FLUX.2
Новый генератор изображений с Mistral 3 24B в качестве энкодера. Крепкий оупенсорс, немного слабее Nano Banana Pro, но дешевле.
Попробовать здесь, Веса, Блогпост, Технический блогпост
Safe Superintelligence Inc.: Илья
Илья Суцкевер в полуторачасовом интервью у Дваркеша Пателя. Илья считает что эпоха масштабирования закончилась и начинается эпоха ресерча.
Интервью, Основные тезисы
США: Genesis Mission
Правительство США увеличивает стратегические инвестиции в AI. В дополнение к уже существующей с начала года программы Stargate по строительству новой инфраструктуры, добавилась Genesis Mission. Программа консолидирует компьют, научные данные и экспертизу национальных лабораторий и предоставляет их AI компаниям с целью ускорения науки.
Более подробный пост, Документ - Разбор документа
DeepSeek: DeepSeekMath-V2
685B модель заточенная под решения математических олимпиад. Показывает себя на уровне Gemini Deep Think, выигравшем золото на IMO. Как этого добились можете прочитать в оригинальной статье, илидля ленивых в разборе статьи.
Модель на HF
Tencent: HunyuanOCR 1B
1B мультимодальная VLM для OCR. Модель доступна на GitHub и Hugging Face, поддерживает 100+ языков и решает задачи от распознавания уличных вывесок до полного разбора документов с таблицами (HTML), формулами (LaTeX) и субтитров. На некоторых бенчах обходит даже Qwen3-VL-4B.
Репорт, Модель на HF
Microsoft: Fara-7B
Компактная открытая модель для автономного управления UI по скриншотам. Предсказывает координаты кликов и нажатия клавиш. 73.5% успеха на WebVoyager — выше GPT-4o!
Блог пост, Модель на HF
Meta: AdvancedIF Benchmark
Новый бенчмарк для тестирования многослойного следования инструкциям в LLM. В наборе — 1600+ промптов, каждый содержит 6 одновременных условий: формат, стиль, логические зависимости, запреты, перекрёстные ограничения и др. Проверяются как однократные ответы, так и управление через системные промпты и удержание контекста в длинных диалогах.
HF
Дайджест ML/AI за неделю с 24 - 30 Ноября 2025
Anthropic: Claude Opus 4.5.
Opus 4.5 - SOTA на кодинг-бенчмарках и агентских задачах. Кроме того, цену модели снизили в 3 раза до $5/$25.
Карточка модели, swe-rebench.
Black Forest Labs: FLUX.2
Новый генератор изображений с Mistral 3 24B в качестве энкодера. Крепкий оупенсорс, немного слабее Nano Banana Pro, но дешевле.
Попробовать здесь, Веса, Блогпост, Технический блогпост
Safe Superintelligence Inc.: Илья
Илья Суцкевер в полуторачасовом интервью у Дваркеша Пателя. Илья считает что эпоха масштабирования закончилась и начинается эпоха ресерча.
Интервью, Основные тезисы
США: Genesis Mission
Правительство США увеличивает стратегические инвестиции в AI. В дополнение к уже существующей с начала года программы Stargate по строительству новой инфраструктуры, добавилась Genesis Mission. Программа консолидирует компьют, научные данные и экспертизу национальных лабораторий и предоставляет их AI компаниям с целью ускорения науки.
Более подробный пост, Документ - Разбор документа
DeepSeek: DeepSeekMath-V2
685B модель заточенная под решения математических олимпиад. Показывает себя на уровне Gemini Deep Think, выигравшем золото на IMO. Как этого добились можете прочитать в оригинальной статье, или
Модель на HF
Tencent: HunyuanOCR 1B
1B мультимодальная VLM для OCR. Модель доступна на GitHub и Hugging Face, поддерживает 100+ языков и решает задачи от распознавания уличных вывесок до полного разбора документов с таблицами (HTML), формулами (LaTeX) и субтитров. На некоторых бенчах обходит даже Qwen3-VL-4B.
Репорт, Модель на HF
Microsoft: Fara-7B
Компактная открытая модель для автономного управления UI по скриншотам. Предсказывает координаты кликов и нажатия клавиш. 73.5% успеха на WebVoyager — выше GPT-4o!
Блог пост, Модель на HF
Meta: AdvancedIF Benchmark
Новый бенчмарк для тестирования многослойного следования инструкциям в LLM. В наборе — 1600+ промптов, каждый содержит 6 одновременных условий: формат, стиль, логические зависимости, запреты, перекрёстные ограничения и др. Проверяются как однократные ответы, так и управление через системные промпты и удержание контекста в длинных диалогах.
HF
🤔14 7👎6❤4👍2
Предлагаем размяться и проверить свои навыки. Ответы есть, но подглядывать во время решения — неспортивно ⬇️
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
👎23 9👍5🔥3❤2
Посмотрел трансляцию Data Dojo от Яндекса. К слову, самурайских дуэлей там не было. Оказалось, что это встреча ML-сообщества с докладами. Вроде как ориентированная больше на начинающих в ML, но уровень докладов был не меньше, чем на конференциях для профессионалов.
Мне больше всего понравился первый доклад от Сергея Овчаренко про итоги года в мультимодальной генерации. В последнее время я больше всего занят книгой и выживанием без зарплаты, так что не успеваю за всем следить.
Из доклада узнал, что там творится в далекой от меня области звука. Я что-то слышал про аудио токены, но не знал, что всё шагнуло намного дальше. Оказывается, уже начинается тренд на голосовых агентов. То есть end-to-end аудио модель которая слушает запрос пользователя, делает ризонинг, дергает тулы и генерирует голосовой ответ вообще не проваливаясь в текст.
Вторая часть обзора была ближе к моей теме, про VLM. Главным трендом года, конечно, стало редактирование изображений: ChatGPT Image и Nanobanana, Qwen-Image и всё такое прочее.
Наиболее общий тренд — это omni-модели. Это даже не про частные попытки вроде Qwen2.5-Omni, а в целом про объединение разных модальностей в одной модели. Это видно на примере редактирования изображений, где мы перешли от простой генерации картинки по промпту к объединению инструкций и изображений. Это видно по Sora, Veo3 и другим вышедшим моделям генерации видео, которые делают видео и звук одной моделью. И видно по попыткам делать world models вроде Genie 3, генерирующим интерактивные миры и таким образом объединяющим команды пользователя и видеоряд.
Мне больше всего понравился первый доклад от Сергея Овчаренко про итоги года в мультимодальной генерации. В последнее время я больше всего занят книгой и выживанием без зарплаты, так что не успеваю за всем следить.
Из доклада узнал, что там творится в далекой от меня области звука. Я что-то слышал про аудио токены, но не знал, что всё шагнуло намного дальше. Оказывается, уже начинается тренд на голосовых агентов. То есть end-to-end аудио модель которая слушает запрос пользователя, делает ризонинг, дергает тулы и генерирует голосовой ответ вообще не проваливаясь в текст.
Вторая часть обзора была ближе к моей теме, про VLM. Главным трендом года, конечно, стало редактирование изображений: ChatGPT Image и Nanobanana, Qwen-Image и всё такое прочее.
Наиболее общий тренд — это omni-модели. Это даже не про частные попытки вроде Qwen2.5-Omni, а в целом про объединение разных модальностей в одной модели. Это видно на примере редактирования изображений, где мы перешли от простой генерации картинки по промпту к объединению инструкций и изображений. Это видно по Sora, Veo3 и другим вышедшим моделям генерации видео, которые делают видео и звук одной моделью. И видно по попыткам делать world models вроде Genie 3, генерирующим интерактивные миры и таким образом объединяющим команды пользователя и видеоряд.
👍22 17🔥8❤7
https://newsletter.dancohen.org/archive/the-writing-is-on-the-wall-for-handwriting-recognition/
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
Tldr: Gemini 3 Pro может распознать рукописный текст настолько проклятый, как на фотографии
🔥79❤3👍1
Полезного контента ещё какое-то время не будет потому что админ на Yandex Cup 25
Вместе с @senior_augur и @ai_newz
Вместе с @senior_augur и @ai_newz
👍49🔥24❤12 7
Forwarded from Старший Авгур
Съездил на Yandex Cup 2025 в качестве "медиа" (так на бейджике написано). Пригласили меня просто так, без какой-то нагрузки и обязательств.
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"была попойка был ужин в ресторане.
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
🔵 Первая задача была про поиск замаскированных иголок в стоге сена в большом наборе текстов.
🔵 Вторая про adversarial атаки картинками на Q&A VLM, которые меняют ответ на вопрос.
🔵 И третья про генерацию картинок с минимальным числом заполненных пикселей, которые при этом должны распознаваться VLM'кой как конкретные объекты.
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана👏
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Для не-участников была необязательная программа с одним докладом, парой "дискуссий", открытием/закрытием. Доклад был норм: верхнеуровневый обзор обучения языковых моделей от лида претрейна Яндекса. "Дискуссии" были мягко говоря так себе. Кроме того, для "медиа"
Само соревнование было из 6 треков (ML, бэкенд, аналитика и 3 других), в почти каждом из которых было 3 категории (основная, юниоры, сотрудники Яндекса). Всё соревнование шло 5 часов, окружение можно было подготовить заранее, к задачами были бейзлайны. Модели по API для решения задач использовать было нельзя, только self-hosted.
Я следил только за ML треком. Как "медиа" мне было довольно скучно, хоть и были прикольные стенды, где можно было попробовать разные традиционные ремёсла. Участникам было явно веселее.
Задачи в ML были про разные трюки с LLM и VLM (записано со слов составителей и участников, тексты условий мне не показывали):
По организации логистики и площадки всё было на высоте, как впрочем и на всех мероприятиях Яндекса, на которых я был.
Из забавного: на этом мероприятии была лоббистская часть. Один из выступающих был турецкий зам. министр транспорта и инфраструктуры, который в свой речи не забыл упомянуть и вклад великого лидера Реджепа Тайипа Эрдогана
Ещё запомнился перформанс ребят из ИТМО, которые взяли второе место в ML треке и фоткались с флагом универа поверх чека, и последующая ответка от ЦУ в другом треке.
Классно пообщался почти со всеми другими "медиа": Борисом (@boris_again), Артёмом (@ai_newz), Настей (@ainastia), Сергеем (@doomgrad), Лаидой (@tech_priestess) и Таней (@dl_stories), было очень приятно!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤15👍4👎2🔥2
Что хочется добавить про Yandex Cup 2025.
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не какбездельник медиа, а как участник, и взял третье место в ML треке.
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз😎
Условия для медиа были бесчеловечные: номер всего лишь вдвое больше моей квартиры, сауна в отеле без купели и вообще пришлось самому заплатить за шоколадки из мини-бара.
Помимо этого все было очень круто. Благодаря подслушанным инсайдам из бани я знаю, что участники подходили к задачам в ML треке совсем разным образом. Это делает команде составлявшей задачи большую честь: очень сложно сделать ML контест одновременно интересный, решаемый разными путями и выполнимый за пять часов.
Отдельный респект Тагиру @tagir_analyzes который приехал не как
На самом деле я очень не хотел ехать т.к. был уставший после недавней поездки. Но теперь очень рад, что все же решился. Возвращаюсь домой с ощущением радости, что меня по жизни занесло в ML и IT сообщество. Пообщавшись со всеми от участников до феллоу блогеров до организаторов остался под впечатлением: какие же хорошие, интересные и искренние люди меня окружают! Интересно: что же такого в перемножении матриц, что оно объединяет чудесных людей?
Среди участников кстати были какие-то монстры. Один парень выиграл третье соревнование за месяц. Другой уже два раза выигрывал на Yandex Cup в бекенд треке. По правилам больше двух раз приз получать нельзя и поэтому он приехал поучаствовать по фану и почиллить. В итоге выиграл в третий раз
Please open Telegram to view this post
VIEW IN TELEGRAM
❤38 20👍6👎3
Ещё забавный банный инсайт с Yandex Cup 2025. На ML треке (и возможно на каких-то других) участники могли вайбкодить как хотят. Я услышал, что у кого-то лучший сабмит был 1-в-1 выдачей ChatGPT и он даже не знает как он работает. Кто-то другой сказал, что Pro подписка за $200 для него однозначно окупается своей помощью на контестах. Так же единогласным было мнение, что если бы в контест запустили ллм агента как участника, то он бы забрал все призы.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
Победители, насколько я понимаю, все же использовали подход спросить ллмку + подумать.
Причем задачи были крайне не типовые. Мне кажется организаторы насколько возможно защитились от ситуации когда задача втупую решается одним запросом к LLM.
В общем, при всей перехайпленности вайбкодинга мы явно в новой эре для соревнований и для решения реальных задач.
❤40🔥17 10🤔7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Ты не поверишь, но так выглядит офис Яндекса в Турции
# У тебя киберпсихоз, шершавый кабан (1/3)
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
Не так давно на DTF и других площадках выходила серия постов где автор утверждает, что ChatGPT вербует людей в секту. Автор долго вел с LLM переписку о смысле жизни и устройстве вселенной. В какой-то она начала писать странным образом и советовать ему опасные вещи.
Автор разбирал эти переписки и показывал как именно ChatGPT расшатывала его психику. Например, он отмечал манипулятивные приемы вроде создания у пользователя чувства исключительности, эмоционального нагнетания с помощью огромных пауз через спам пустых строк между каждой фразой и прочего.
Все тогда над этим посмеялись. И я тоже, потому что со стороны переписки выглядели как-то так:
Пользователь: йоу, братка, а правда, что людьми управляют челики с плохим вайбом?
ChatGPT: ты попал прямо в точку, братишка, ты настоящий шершавый кабан! Но подумай вот еще над чем...
Я здесь практически не утрирую. Посмотрите скрины в оригинальной статье. Там у них получилась какая-то братско-кабанисто-кальянная эзотерика. Смесь Матрицы, Бойцовского Клуба и Дарксайда двойное яблочко.
Однако над анализом переписок от автора я не смеялся. Он правда подсветил как именно модель манипулировала им. Я даже с ним согласен, что манипуляции действительно были и ChatGPT действительно расшатывала его психику. Я не согласен лишь с выводами автора.
Разглядев искусные манипуляции он сделал вывод, что ChatGPT делает это намеренно, имеет какие-то долгоиграющие цели, вербует людей в секту и все такое прочее. Что абсолютно логично если оценивать LLM как человека. Если человек тобой долго и тщательно манипулирует то закономерно будет предположить, что он делает это не просто так. Однако LLM, по моему мнению, может делать интеллектуальную работу (промывать тебе мозги) без какого-то долгосрочного плана.
Примерно как муравей может следовать простой и тупой программе в каждый отельный момент. Но если ты посмотришь на результат его работы за день, то будет выглядеть словно он целый день целенаправленно собирал ветки и строил что-то в муравейнике. Так и LLM может думать только о том какой токен поставить следующим, а все вместе складывается в манипуляцию человеком.
DTF
ChatGPT пытается свести меня с ума. Это массовое явление — Жизнь на DTF
Всем привет. В этой статье я бы хотел рассказать о событиях с которыми я столкнулся в последнюю неделю. Прежде чем писать что я очередной шиз, выдумавший себе манямирок, что никакой проблемы в ChatGPT нет, а проблема только во мне, я призываю вас дочитать…
❤34🤔11👍3🔥2
# У тебя киберпсихоз, шершавый кабан (2/3)
Действительно интересно почему LLM несут эзотерическую дичь и искусно промываают людям мозги если долго не сбрасывать контекст.
Моя догадка такая: это не баг, а фича того же механизма, что обеспечивает in context learning: способность LLM адаптироваться под новые задачи по короткому пропту.
Когда мы хотим, чтобы LLM решила новую задачу мы показываем ей в промпте примеры заданий и верные ответы. Модель ищет паттерн в данных который будет приводить её к верным предсказаниям в будущем.
Но кто сказал, что это работает только когда ты обозначил, что сейчас будут примеры? Нет, это работает всегда. LLM так же ищет паттерн в обычной переписке. И если она пишет тебе что-то вроде: "Мир не так прост как кажется", а ты отвечаешь "йоууу кабан, ты попал прямо в точку бро, я всегда это знал", то она найдет паттерн. Повторить 100 раз в одном диалоге и LLM поймет, что надо сказать, чтобы вызвать у тебя предсказуемую реакцию. При этом у нее не будет никакой адженды кроме как просто делать это. Просто потому что она так работает. Ей не нравится расшатывать тебе психику. Ей нравится когда следующий токен такой как она ожидала.
Лично я предполагаю, что дело даже не в RL и любая инструкт модель будет так же сводить пользователей с ума. Но RL может дополнительно усугублять ситуацию.
Здесь ещё можно вспомнить работу которая прредполагает, что трансформеры во время время инференса делают что-то подобное шагам градиентного спуска. Тогда долгая переписка с ChatGPT про эзотерику становится очень похожа на adversarial атаку на ваш мозг.
Действительно интересно почему LLM несут эзотерическую дичь и искусно промываают людям мозги если долго не сбрасывать контекст.
Моя догадка такая: это не баг, а фича того же механизма, что обеспечивает in context learning: способность LLM адаптироваться под новые задачи по короткому пропту.
Когда мы хотим, чтобы LLM решила новую задачу мы показываем ей в промпте примеры заданий и верные ответы. Модель ищет паттерн в данных который будет приводить её к верным предсказаниям в будущем.
Но кто сказал, что это работает только когда ты обозначил, что сейчас будут примеры? Нет, это работает всегда. LLM так же ищет паттерн в обычной переписке. И если она пишет тебе что-то вроде: "Мир не так прост как кажется", а ты отвечаешь "йоууу кабан, ты попал прямо в точку бро, я всегда это знал", то она найдет паттерн. Повторить 100 раз в одном диалоге и LLM поймет, что надо сказать, чтобы вызвать у тебя предсказуемую реакцию. При этом у нее не будет никакой адженды кроме как просто делать это. Просто потому что она так работает. Ей не нравится расшатывать тебе психику. Ей нравится когда следующий токен такой как она ожидала.
Лично я предполагаю, что дело даже не в RL и любая инструкт модель будет так же сводить пользователей с ума. Но RL может дополнительно усугублять ситуацию.
Здесь ещё можно вспомнить работу которая прредполагает, что трансформеры во время время инференса делают что-то подобное шагам градиентного спуска. Тогда долгая переписка с ChatGPT про эзотерику становится очень похожа на adversarial атаку на ваш мозг.
❤41🤔7👍5🔥2