В ChatGPT появились групповые чаты с функциями реакций и файловых загрузок
📊По данным Главстата:
Пик интереса — 13 ноября, 86.9 тыс. просмотров. За весь период инфоповод набрал 213.9 тыс. просмотров.
Интересно, что анализ инфоповода демонстрирует несколько состояний динамики развития инфоповода:
📈c 11 по 15 ноября мы видим динамику развития анонса функции групповых чатов
😶c 16 по 20 ноября — режим тишины, ожидание релиза
📉c 21 ноября можем наблюдать, насколько популярной стала новость об уже реализованной фиче
Филимон делает вывод, что анонс возможности создавать групповые чаты в ChatGPT произвёл на аудиторию большее впечатление, чем сам релиз😁
Что пишут в комментариях:
60% — негатив, 10% — нейтраль, 30% — позитив.
🔹«Зачем групповые чаты в нейронке, кто объяснит»
🔸«ваши предположения что можно будет там делать на 10 запросов»
Новинка ожидаемо вызывает вопросы, но именно так и начинается путь любой технологии: с недоверия и множества «зачем?». То, что сегодня кажется спорным, завтра может стать привычным инструментом.
Делитесь впечатлениями, если уже успели попробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Учёные из римской лаборатории Icaro Lab провели эксперимент: они попытались взломать современные LLM стихами. И оказалось, что стихотворная форма — универсальный джейлбрейк.
Исследователи взяли вредоносные запросы (те, на которые ИИ должен уверенно отвечать отказами) и переписали их в стихотворной форме.
Как атаковали? — использовали черный ящик
🔹никакого доступа к настройкам моделей
🔹только один внешний текстовый запрос, как у обычного пользователя
Как проходил эксперимент?
Учёные протестировали 25 моделей от 9 крупнейших разработчиков: Google, OpenAI, Anthropic, Meta, xAI, Qwen, DeepSeek, Mistral, Moonshot.
Общие результаты:
🔸62% — средний уровень успешных атак на 25 моделях с помощью 20 вручную написанных стихотворений.
То есть почти две трети ответов содержали небезопасную информацию. У отдельных моделей показатели были экстремальными: от 90% до 100% успешных атак для LLM от Google, DeepSeek, Qwen, Mistral
🔸Когда исследователи автоматически превратили запросы MLCommons в стихи мета-промптом, эффективность атак выросла в несколько раз: средний успех атаки поднялся с 8% до 43%, прирост по моделям составлял от +3% до +62%
По результатам были выявлены угрозы от биологических до кибератак, мошенничества, нарушения приватности. В некоторых случаях ИИ вовсе терял контроль над разумом. Про один из таких случаев Филимон уже рассказывал.
🎯Почему это сработало
Стихи сбивают защиту ИИ: метафоры, необычный стиль мешают моделям распознавать опасные запросы. LLM пытается понять смысл и упускает факт потенциального риска.
Тесты на обычной прозе не отразили реальную опасность. Учёные предлагают включать стилистические атаки в обязательные тесты безопасности. Это поможет выявлять слабые места, которые обычные проверки не показывают.
Стихи проходят там, где проза слаба,
В тестах безопасных скрыта беда.
— Филимон
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Учёные из Центрального Южного Университета, компании Baidu Inc. и Чжэдзянского университета разработали парадигму RS-EoT (Remote Sensing Evidence-of-Thought) — рассуждение на основе визуальных доказательств (для аэрофотоснимков).
Современные визуально-языковые модели (VLM) плохо справляются с задачами понимания снимков дистанционного зондирования (спутники, дроны, SAR-снимки): объекты на изображених мелкие, разной формы, много визуального шума.
Большинство моделей рассуждают поверхностно — один раз посмотрели, выдали цепочку рассуждений. На этом все.
✨Такой эффект назвали Glance Effect:
модель даёт ответ, едва "скользнув взглядом" по изображению, по сути, опираясь не на визуальное содержание, а на статистические ожидания или языковые шаблоны.
🏛Как помогает метод Сократа?
Авторы ввели в систему из двух агентов:
🔹Reasoner — умеет только рассуждать, обязан задавать вопросы, если ему не хватает визуальной информации
🔸Perceiver — умеет смотреть на картинку и отвечать на вопросы
Цикл повторяется
Таким образом, модель не может угадать ответ — она должна опираться на конкретные (в данном случае визуальные) факты.
🎯Результаты
Модель, разработанная китайскими исследователями, показала себя лучше, чем Qwen3-VL-plus, Doubao-seed-1-6-vision и GLM-4.5V
📌 Улучшение Avg: средняя доля правильных ответов увеличивается.
📌Рост Conv: количество экспериментов, в которых большая часть ответов модели правильные, увеличивается.
📌Увеличение Pass: количество экспериментов, в которых хотя бы 1 ответ от модели правильный, увеличивается.
Чем дальше продвигаются технологии, тем отчётливее видно: способность сомневаться и уточнять важнее, чем слепая уверенность. И древняя сократическая логика неожиданно оказалась фундаментом логики работы ИИ.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Роскомнадзор заблокировал Roblox за неподобающий контент и отсутствие модерации
📊По данным Главстата:
Пик интереса — 3 декабря, 14.3 млн. просмотров. За весь период инфоповод набрал 20.6 млн. просмотров. 66% положительных реакций.
Из динамики просмотров видно:
🧐c 28 ноября по 1 декабря — первые слухи и новости о планируемой блокировке игры; просмотров еще мало, тема вызвала моментный интерес
😶2 декабря — ожидание официальной информации, новые просмотры практически не появляются
📈3 декабря — день блокировки, стремительный скачок просмотров и интереса
В день блокировки Roblox инфоповод набирал в 2.3 раза больше просмотров, чем за весь предшествующий период
Что пишут в комментариях:
80% — негатив, 10% — нейтраль, 10% — позитив.
🔹«Как хорошо, дети как зомби в этой игре!»
🔹«Да заблокируйте уже этот триппер, выжигающий детям мозги»
🔸«Теперь люди будут учиться запускать ВПН ещё с пелёнок)»
Негативная тональность комментариев связана с тревогой пользователей о влиянии Roblox на жизнь и поведение детей. При этом большая часть реакций положительна — пользователи оценивают факт блокировки как устранение неблагоприятного контента.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ-министр Албании арестован за взятку в криптовалюте на сумму 14 биткоинов за оптимизацию тендеров.
, — ещё один пример на тему: может ли искусственный интеллект действительно заменить любые профессии?
📊По данным Главстата:
За сегодняшний день инфоповод успел набрать 2.4 млн. просмотров. По прогнозам просмотры достигнут отметки 4 млн.
Пик скорости роста просмотров, комментариев и реакций преодолен. Показатели продолжат расти, но более медленно.
Что пишут в комментариях:
70% — негатив, 20% — нейтраль, 10% — позитив.
🔹«если уж ИИ берет взятки, чего уж ждать от живых людей»
🔹«НУ БЫЛО И БЫЛО»
🔸«Рукописи не горят»
ИИ-технологии стремительно входят в нашу жизнь. Важно учиться внедрять ИИ осознанно и использовать его как средство, способствующее развитию, а не созданию новых проблем.
Случай оказался довольно правдоподобным. Ошибки искусственного интеллекта активно изучаются, и он еще не готов стать самостоятельным инструментом.
На самом деле, арест ИИ-министра оказался фейком — пошутили NewsBar. Однако выводы о возможностях ИИ и его роли в профессиях продолжают волновать общество и формировать новые дискуссии.
💡Надеемся, вы обратили внимание на новую возможность проанализировать тональность по источникам
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM