Роскомнадзор заблокировал Roblox за неподобающий контент и отсутствие модерации
📊По данным Главстата:
Пик интереса — 3 декабря, 14.3 млн. просмотров. За весь период инфоповод набрал 20.6 млн. просмотров. 66% положительных реакций.
Из динамики просмотров видно:
🧐c 28 ноября по 1 декабря — первые слухи и новости о планируемой блокировке игры; просмотров еще мало, тема вызвала моментный интерес
😶2 декабря — ожидание официальной информации, новые просмотры практически не появляются
📈3 декабря — день блокировки, стремительный скачок просмотров и интереса
В день блокировки Roblox инфоповод набирал в 2.3 раза больше просмотров, чем за весь предшествующий период
Что пишут в комментариях:
80% — негатив, 10% — нейтраль, 10% — позитив.
🔹«Как хорошо, дети как зомби в этой игре!»
🔹«Да заблокируйте уже этот триппер, выжигающий детям мозги»
🔸«Теперь люди будут учиться запускать ВПН ещё с пелёнок)»
Негативная тональность комментариев связана с тревогой пользователей о влиянии Roblox на жизнь и поведение детей. При этом большая часть реакций положительна — пользователи оценивают факт блокировки как устранение неблагоприятного контента.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
ИИ-министр Албании арестован за взятку в криптовалюте на сумму 14 биткоинов за оптимизацию тендеров.
, — ещё один пример на тему: может ли искусственный интеллект действительно заменить любые профессии?
📊По данным Главстата:
За сегодняшний день инфоповод успел набрать 2.4 млн. просмотров. По прогнозам просмотры достигнут отметки 4 млн.
Пик скорости роста просмотров, комментариев и реакций преодолен. Показатели продолжат расти, но более медленно.
Что пишут в комментариях:
70% — негатив, 20% — нейтраль, 10% — позитив.
🔹«если уж ИИ берет взятки, чего уж ждать от живых людей»
🔹«НУ БЫЛО И БЫЛО»
🔸«Рукописи не горят»
ИИ-технологии стремительно входят в нашу жизнь. Важно учиться внедрять ИИ осознанно и использовать его как средство, способствующее развитию, а не созданию новых проблем.
Случай оказался довольно правдоподобным. Ошибки искусственного интеллекта активно изучаются, и он еще не готов стать самостоятельным инструментом.
На самом деле, арест ИИ-министра оказался фейком — пошутили NewsBar. Однако выводы о возможностях ИИ и его роли в профессиях продолжают волновать общество и формировать новые дискуссии.
💡Надеемся, вы обратили внимание на новую возможность проанализировать тональность по источникам
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Исследование китайских ученых показало, что современные LLM совсем не так уверенно работают с данными, как нам казалось. Учёные решили проверить, могут ли модели справляться с реальными задачами дата-инженеров и аналитиков, а не только с игрушечными SQL-запросами.
Возникла проблема:
Почти все существующие тесты для LLM проверяют что-то очень узкое и простое: одну строчку SQL, один небольшой скрипт, один график. В реальности аналитик работает с огромными массивами данных, запутанными пайплайнами, сложной логикой. До сих пор не существовало решения, которое проверяло бы полный цикл такой работы. Поэтому и был создан DAComp.
Это первый тест, который моделирует реальные задачи данных: от построения архитектуры данных до полноценного анализа и объяснения результатов. Задачи делятся на два направления: DE (Data Engineering) и DA (Data Analysis). В DE моделям приходится проектировать и менять настоящие репозитории с SQL-кодом, а в DA — анализировать данные, строить выводы и давать рекомендации как настоящий аналитик.
Процесс решения выглядит так: модель читает задачу, планирует действия, пишет SQL- или Python-скрипт, запускает вычисления, анализирует промежуточные результаты и формирует итоговый вывод. Затем решение оценивается — инженерия данных проверяется через выполнение кода, а аналитические ответы оцениваются LLM-судьей. Получается почти как в реальной работе специалиста по данным — только всё полностью автоматизировано.
⚙️Как справляются LLM с задачами?
На задачах инженерии данных даже самые продвинутые LLM — GPT-5, Gemini-Pro — показали менее 20% успеха. Пайплайны ломались, SQL-запросы не работали. На аналитических задачах результаты оказались лучше, но всё равно низкими — ~30–40%. Модели способны описать, что произошло, но им плохо даётся понимание причинно-следственных связей и особенно часть исправления проблемы. При этом основная часть ошибок — почти 60% — связана с неправильными вычислениями, то есть кодом, который не работает или дает неверные данные. Остальное — ошибки последовательности выполнения алгоритма и интерпретации.
🧑⚖️LLM-судья
Без него весь проект был бы невозможен. Открытые аналитические задачи не имеют одного правильного ответа, и человек не может оценить тысячи таких решений вручную. Поэтому исследователи создали судью-модель, которая оценивает логику, интерпретации и выводы по строгим критериям. Его протестировали на совпадение с людьми, и оказалось, что он работает почти как эксперт-аналитик.
🎯Результаты исследования
Итоги исследования получились не слишком положительными, но честными. DAComp показал, что современные LLM ещё далеки от роли настоящих аналитиков-профессионалов. Модели слабо справляются с большими пайплайнами, ошибаются в вычислениях, часто неверно интерпретируют данные и плохо дают рекомендации.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔В недавней работе, опубликованной в Nature Communications, исследователи поставили цель проверить, насколько внутренняя организация LLM связана с реальной динамикой обработки языка в человеческом мозге.
LLM все чаще рассматриваются не просто как инженерные решения, а как возможные вычислительные модели когнитивных процессов. Однако до этого момента сходство между ними и мозгом в основном обсуждалось на уровне метафор. Авторы решили проверить, как это происходит в действительности, сопоставив слои языковой модели с временной структурой нейронной активности при восприятии живой речи человеческим мозгом.
⚡️В чем заключалась проблема?
🤖В языковых моделях обработка информации организована виртуально: входное слово последовательно проходит через десятки слоев, где на каждом шаге контекст преобразуется всё более абстрактным образом.
🧠В человеческом мозге обработка речи разворачивается во времени: после появления слова нейронная активность в языковых зонах меняется в течение сотен миллисекунд.
Было неясно, существует ли между этими двумя механизмами какое-то логические соответствие. Или сходство между LLM и мозгом ограничивается лишь конечным результатом.
🧬Суть эксперимента:
сравнить эти две динамики.
Участники
Тот же самый текст подавался в языковую модель, и для каждого слова из каждого слоя модели извлекались контекстные векторные представления.
В результате ранние слои языковой модели лучше всего соответствовали ранним фазам нейронной активности мозга, тогда как более глубокие слои показывали максимальное совпадение с более поздней активностью — через сотни миллисекунд после появления слова. Продвижение по слоям модели соответствовало движению вперед во времени в мозге.
Глубина нейронной сети = временная последовательность шагов обработки данных в человеческом мозге
🔹В эксперименте участвовали люди с эпилепсией: по медицинским показаниям им временно установили электроды на поверхность мозга для подготовки к операции. Исследователи использовали эти уже установленные электроды, не вмешиваясь в лечение. Это позволило напрямую измерять активность мозга.
Интересно больше узнать о схожести ИИ с человеком? — ставь
Please open Telegram to view this post
VIEW IN TELEGRAM
Дисней инвестирует $1 млрд в OpenAI для легальной генерации ИИ-контента с персонажами Marvel, Pixar и «Звездных войн».
📊По данным Главстата:
После вчерашнего анонса инфоповод успел набрать почти 2 млн. просмотров. Однако динамика преодолела свой пик, и активность пользователей постепенно падает. Реакции неоднозначны: 45% положительных против 55% отрицательных.
Что пишут в комментариях:
80% — негатив, 5% — нейтраль, 15% — позитив.
🔹«я должен сам себе рисовать мультики и платить за это?»
🔹«опертивка и еще дороже станет»
🔸«А помните, когда-то мультики рисовали сами?»
Технологии развиваются с такой скоростью, что скоро ИИ будет рисовать мультики быстрее, чем мы успеем открыть кошелек. Раньше они создавались по-другому: все, что было нужно — карандаши, терпение и душа…
В сети уже появлялись ИИ-мультфильмы. Будем ждать премьеры от Disney.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM