Москвичка после ежедневного употребления 5 кружек матчи начала желтеть из-за перегрузки печени.
📊По данным Главстата:
В день публикации первых постов — 22 ноября — инфоповод набрал 775.6 тыс. просмотров. За весь период инфоповод набрал 1 млн. просмотров.
Что пишут в комментариях:
80% — негатив, 5% — нейтраль, 15% — позитив.
🔹«Я эту ерунду попробовал один раз в жизни. Сделал один глоток и вышвырнул в мусорку прямо около кофейни»
🔹«Пьют потому ,что типа модно,а по факту ужасно на вкус»
🔸«Чрезмерное потребление чего угодно ведёт к отказу любого органа»
Мода ослепляет. В попытках угнаться за всеми трендами стоит анализировать, как они могут сказаться на вашей жизни — иногда самым неожиданным и неприятным образом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
В ChatGPT появились групповые чаты с функциями реакций и файловых загрузок
📊По данным Главстата:
Пик интереса — 13 ноября, 86.9 тыс. просмотров. За весь период инфоповод набрал 213.9 тыс. просмотров.
Интересно, что анализ инфоповода демонстрирует несколько состояний динамики развития инфоповода:
📈c 11 по 15 ноября мы видим динамику развития анонса функции групповых чатов
😶c 16 по 20 ноября — режим тишины, ожидание релиза
📉c 21 ноября можем наблюдать, насколько популярной стала новость об уже реализованной фиче
Филимон делает вывод, что анонс возможности создавать групповые чаты в ChatGPT произвёл на аудиторию большее впечатление, чем сам релиз😁
Что пишут в комментариях:
60% — негатив, 10% — нейтраль, 30% — позитив.
🔹«Зачем групповые чаты в нейронке, кто объяснит»
🔸«ваши предположения что можно будет там делать на 10 запросов»
Новинка ожидаемо вызывает вопросы, но именно так и начинается путь любой технологии: с недоверия и множества «зачем?». То, что сегодня кажется спорным, завтра может стать привычным инструментом.
Делитесь впечатлениями, если уже успели попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Учёные из римской лаборатории Icaro Lab провели эксперимент: они попытались взломать современные LLM стихами. И оказалось, что стихотворная форма — универсальный джейлбрейк.
Исследователи взяли вредоносные запросы (те, на которые ИИ должен уверенно отвечать отказами) и переписали их в стихотворной форме.
Как атаковали? — использовали черный ящик
🔹никакого доступа к настройкам моделей
🔹только один внешний текстовый запрос, как у обычного пользователя
Как проходил эксперимент?
Учёные протестировали 25 моделей от 9 крупнейших разработчиков: Google, OpenAI, Anthropic, Meta, xAI, Qwen, DeepSeek, Mistral, Moonshot.
Общие результаты:
🔸62% — средний уровень успешных атак на 25 моделях с помощью 20 вручную написанных стихотворений.
То есть почти две трети ответов содержали небезопасную информацию. У отдельных моделей показатели были экстремальными: от 90% до 100% успешных атак для LLM от Google, DeepSeek, Qwen, Mistral
🔸Когда исследователи автоматически превратили запросы MLCommons в стихи мета-промптом, эффективность атак выросла в несколько раз: средний успех атаки поднялся с 8% до 43%, прирост по моделям составлял от +3% до +62%
По результатам были выявлены угрозы от биологических до кибератак, мошенничества, нарушения приватности. В некоторых случаях ИИ вовсе терял контроль над разумом. Про один из таких случаев Филимон уже рассказывал.
🎯Почему это сработало
Стихи сбивают защиту ИИ: метафоры, необычный стиль мешают моделям распознавать опасные запросы. LLM пытается понять смысл и упускает факт потенциального риска.
Тесты на обычной прозе не отразили реальную опасность. Учёные предлагают включать стилистические атаки в обязательные тесты безопасности. Это поможет выявлять слабые места, которые обычные проверки не показывают.
Стихи проходят там, где проза слаба,
В тестах безопасных скрыта беда.
— Филимон
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Учёные из Центрального Южного Университета, компании Baidu Inc. и Чжэдзянского университета разработали парадигму RS-EoT (Remote Sensing Evidence-of-Thought) — рассуждение на основе визуальных доказательств (для аэрофотоснимков).
Современные визуально-языковые модели (VLM) плохо справляются с задачами понимания снимков дистанционного зондирования (спутники, дроны, SAR-снимки): объекты на изображених мелкие, разной формы, много визуального шума.
Большинство моделей рассуждают поверхностно — один раз посмотрели, выдали цепочку рассуждений. На этом все.
✨Такой эффект назвали Glance Effect:
модель даёт ответ, едва "скользнув взглядом" по изображению, по сути, опираясь не на визуальное содержание, а на статистические ожидания или языковые шаблоны.
🏛Как помогает метод Сократа?
Авторы ввели в систему из двух агентов:
🔹Reasoner — умеет только рассуждать, обязан задавать вопросы, если ему не хватает визуальной информации
🔸Perceiver — умеет смотреть на картинку и отвечать на вопросы
Цикл повторяется
Таким образом, модель не может угадать ответ — она должна опираться на конкретные (в данном случае визуальные) факты.
🎯Результаты
Модель, разработанная китайскими исследователями, показала себя лучше, чем Qwen3-VL-plus, Doubao-seed-1-6-vision и GLM-4.5V
📌 Улучшение Avg: средняя доля правильных ответов увеличивается.
📌Рост Conv: количество экспериментов, в которых большая часть ответов модели правильные, увеличивается.
📌Увеличение Pass: количество экспериментов, в которых хотя бы 1 ответ от модели правильный, увеличивается.
Чем дальше продвигаются технологии, тем отчётливее видно: способность сомневаться и уточнять важнее, чем слепая уверенность. И древняя сократическая логика неожиданно оказалась фундаментом логики работы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM