Главкодим потихонечку 🧑‍💻 – Telegram
Главкодим потихонечку 🧑‍💻
114 subscribers
282 photos
1 video
50 links
💻 Разрабатываем ПО и проводим ИТ-консалтинг
✍️ Дзен https://dzen.ru/glavcode
👋 О нас: https://glavcode.ru/about-us
Download Telegram
😸Филимон нашел новый подход в работе с ИИ-моделями: Философия Сократа

Учёные из Центрального Южного Университета, компании Baidu Inc. и Чжэдзянского университета разработали парадигму RS-EoT (Remote Sensing Evidence-of-Thought) — рассуждение на основе визуальных доказательств (для аэрофотоснимков).

Современные визуально-языковые модели (VLM) плохо справляются с задачами понимания снимков дистанционного зондирования (спутники, дроны, SAR-снимки): объекты на изображених мелкие, разной формы, много визуального шума.

Большинство моделей рассуждают поверхностно — один раз посмотрели, выдали цепочку рассуждений. На этом все.

Такой эффект назвали Glance Effect:
модель даёт ответ, едва "скользнув взглядом" по изображению, по сути, опираясь не на визуальное содержание, а на статистические ожидания или языковые шаблоны.

🏛Как помогает метод Сократа?
Авторы ввели в систему из двух агентов:
🔹Reasoner — умеет только рассуждать, обязан задавать вопросы, если ему не хватает визуальной информации
🔸Perceiver — умеет смотреть на картинку и отвечать на вопросы

🔜Reasoner формирует гипотезу и задаёт конкретный уточняющий вопрос
🔜Perceiver отвечает по изображению
🔜Reasoner корректирует гипотезу
Цикл повторяется

Таким образом, модель не может угадать ответ — она должна опираться на конкретные (в данном случае визуальные) факты.

🎯Результаты
Модель, разработанная китайскими исследователями, показала себя лучше, чем Qwen3-VL-plus, Doubao-seed-1-6-vision и GLM-4.5V

📌 Улучшение Avg: средняя доля правильных ответов увеличивается.
📌Рост Conv: количество экспериментов, в которых большая часть ответов модели правильные, увеличивается.
📌Увеличение Pass: количество экспериментов, в которых хотя бы 1 ответ от модели правильный, увеличивается.

Чем дальше продвигаются технологии, тем отчётливее видно: способность сомневаться и уточнять важнее, чем слепая уверенность. И древняя сократическая логика неожиданно оказалась фундаментом логики работы ИИ.

😸Филимон обещает вернуться с интересными исследованиями
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1163👍1
😸Филимон обнаружил новый инфоповод в киберпространстве

Роскомнадзор заблокировал Roblox за неподобающий контент и отсутствие модерации


📊По данным Главстата:
Пик интереса — 3 декабря, 14.3 млн. просмотров. За весь период инфоповод набрал 20.6 млн. просмотров. 66% положительных реакций.

Из динамики просмотров видно:
🧐c 28 ноября по 1 декабря — первые слухи и новости о планируемой блокировке игры; просмотров еще мало, тема вызвала моментный интерес
😶2 декабря — ожидание официальной информации, новые просмотры практически не появляются
📈3 декабря — день блокировки, стремительный скачок просмотров и интереса

В день блокировки Roblox инфоповод набирал в 2.3 раза больше просмотров, чем за весь предшествующий период

Что пишут в комментариях:
80% — негатив, 10% — нейтраль, 10% — позитив.
🔹«Как хорошо, дети как зомби в этой игре!»
🔹«Да заблокируйте уже этот триппер, выжигающий детям мозги»
🔸«Теперь люди будут учиться запускать ВПН ещё с пелёнок)»

Негативная тональность комментариев связана с тревогой пользователей о влиянии Roblox на жизнь и поведение детей. При этом большая часть реакций положительна — пользователи оценивают факт блокировки как устранение неблагоприятного контента.

😸Филимон убегает за новым инфоповодом, чтобы держать вас в курсе самого интересного
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
11😁54
😸Филимон продолжает делиться тем, как ИИ все больше внедряется в различные сферы общества

ИИ-министр Албании арестован за взятку в криптовалюте на сумму 14 биткоинов за оптимизацию тендеров.

, — ещё один пример на тему: может ли искусственный интеллект действительно заменить любые профессии?

📊По данным Главстата:
За сегодняшний день инфоповод успел набрать 2.4 млн. просмотров. По прогнозам просмотры достигнут отметки 4 млн.
Пик скорости роста просмотров, комментариев и реакций преодолен. Показатели продолжат расти, но более медленно.

Что пишут в комментариях:
70% — негатив, 20% — нейтраль, 10% — позитив.
🔹«если уж ИИ берет взятки, чего уж ждать от живых людей»
🔹«НУ БЫЛО И БЫЛО»
🔸«Рукописи не горят»

ИИ-технологии стремительно входят в нашу жизнь. Важно учиться внедрять ИИ осознанно и использовать его как средство, способствующее развитию, а не созданию новых проблем.

Случай оказался довольно правдоподобным. Ошибки искусственного интеллекта активно изучаются, и он еще не готов стать самостоятельным инструментом.

На самом деле, арест ИИ-министра оказался фейком — пошутили NewsBar. Однако выводы о возможностях ИИ и его роли в профессиях продолжают волновать общество и формировать новые дискуссии.

😸Филимон советует проверять достоверность источников, прежде чем распространять инфоповод

💡Надеемся, вы обратили внимание на новую возможность проанализировать тональность по источникам
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍2🔥1😁1
😸Филимон с новостями в мире ИИ-технологий: Как LLM решают задачи в области анализа данных

Исследование китайских ученых показало, что современные LLM совсем не так уверенно работают с данными, как нам казалось. Учёные решили проверить, могут ли модели справляться с реальными задачами дата-инженеров и аналитиков, а не только с игрушечными SQL-запросами.

Возникла проблема:
Почти все существующие тесты для LLM проверяют что-то очень узкое и простое: одну строчку SQL, один небольшой скрипт, один график. В реальности аналитик работает с огромными массивами данных, запутанными пайплайнами, сложной логикой. До сих пор не существовало решения, которое проверяло бы полный цикл такой работы. Поэтому и был создан DAComp.

Это первый тест, который моделирует реальные задачи данных: от построения архитектуры данных до полноценного анализа и объяснения результатов. Задачи делятся на два направления: DE (Data Engineering) и DA (Data Analysis). В DE моделям приходится проектировать и менять настоящие репозитории с SQL-кодом, а в DA — анализировать данные, строить выводы и давать рекомендации как настоящий аналитик.

Процесс решения выглядит так: модель читает задачу, планирует действия, пишет SQL- или Python-скрипт, запускает вычисления, анализирует промежуточные результаты и формирует итоговый вывод. Затем решение оценивается — инженерия данных проверяется через выполнение кода, а аналитические ответы оцениваются LLM-судьей. Получается почти как в реальной работе специалиста по данным — только всё полностью автоматизировано.

⚙️Как справляются LLM с задачами?
На задачах инженерии данных даже самые продвинутые LLM — GPT-5, Gemini-Pro — показали менее 20% успеха. Пайплайны ломались, SQL-запросы не работали. На аналитических задачах результаты оказались лучше, но всё равно низкими — ~30–40%. Модели способны описать, что произошло, но им плохо даётся понимание причинно-следственных связей и особенно часть исправления проблемы. При этом основная часть ошибок — почти 60% — связана с неправильными вычислениями, то есть кодом, который не работает или дает неверные данные. Остальное — ошибки последовательности выполнения алгоритма и интерпретации.

🧑‍⚖️LLM-судья
Без него весь проект был бы невозможен. Открытые аналитические задачи не имеют одного правильного ответа, и человек не может оценить тысячи таких решений вручную. Поэтому исследователи создали судью-модель, которая оценивает логику, интерпретации и выводы по строгим критериям. Его протестировали на совпадение с людьми, и оказалось, что он работает почти как эксперт-аналитик.

🎯Результаты исследования
Итоги исследования получились не слишком положительными, но честными. DAComp показал, что современные LLM ещё далеки от роли настоящих аналитиков-профессионалов. Модели слабо справляются с большими пайплайнами, ошибаются в вычислениях, часто неверно интерпретируют данные и плохо дают рекомендации.

😸LLM продолжают учиться, а Филимон убегает искать свежие инфоповоды
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
133👍3
😸Филимон обнаружил, что принцип работы LLM схож с принципом работы человеческого мозга

🤔В недавней работе, опубликованной в Nature Communications, исследователи поставили цель проверить, насколько внутренняя организация LLM связана с реальной динамикой обработки языка в человеческом мозге.

LLM все чаще рассматриваются не просто как инженерные решения, а как возможные вычислительные модели когнитивных процессов. Однако до этого момента сходство между ними и мозгом в основном обсуждалось на уровне метафор. Авторы решили проверить, как это происходит в действительности, сопоставив слои языковой модели с временной структурой нейронной активности при восприятии живой речи человеческим мозгом.

⚡️В чем заключалась проблема?

🤖В языковых моделях обработка информации организована виртуально: входное слово последовательно проходит через десятки слоев, где на каждом шаге контекст преобразуется всё более абстрактным образом.
🧠В человеческом мозге обработка речи разворачивается во времени: после появления слова нейронная активность в языковых зонах меняется в течение сотен миллисекунд.

Было неясно, существует ли между этими двумя механизмами какое-то логические соответствие. Или сходство между LLM и мозгом ограничивается лишь конечным результатом.

🧬Суть эксперимента:
сравнить эти две динамики.

Участники (самые настоящие люди) слушали непрерывный 30-минутный аудиорассказ, а исследователи регистрировали электрическую активность их мозга — измеряли нейронные сигналы с высокой временной точностью.

Тот же самый текст подавался в языковую модель, и для каждого слова из каждого слоя модели извлекались контекстные векторные представления.

В результате ранние слои языковой модели лучше всего соответствовали ранним фазам нейронной активности мозга, тогда как более глубокие слои показывали максимальное совпадение с более поздней активностью — через сотни миллисекунд после появления слова. Продвижение по слоям модели соответствовало движению вперед во времени в мозге.

Глубина нейронной сети = временная последовательность шагов обработки данных в человеческом мозге

🔹В эксперименте участвовали люди с эпилепсией: по медицинским показаниям им временно установили электроды на поверхность мозга для подготовки к операции. Исследователи использовали эти уже установленные электроды, не вмешиваясь в лечение. Это позволило напрямую измерять активность мозга.

Интересно больше узнать о схожести ИИ с человеком? — ставь 😸
Please open Telegram to view this post
VIEW IN TELEGRAM
12👍32👾1
😸Филимон обнаружил интересный инфоповод

Дисней инвестирует $1 млрд в OpenAI для легальной генерации ИИ-контента с персонажами Marvel, Pixar и «Звездных войн».


📊По данным Главстата:
После вчерашнего анонса инфоповод успел набрать почти 2 млн. просмотров. Однако динамика преодолела свой пик, и активность пользователей постепенно падает. Реакции неоднозначны: 45% положительных против 55% отрицательных.

Что пишут в комментариях:
80% — негатив, 5% — нейтраль, 15% — позитив.
🔹«я должен сам себе рисовать мультики и платить за это?»
🔹«опертивка и еще дороже станет»
🔸«А помните, когда-то мультики рисовали сами?»

Технологии развиваются с такой скоростью, что скоро ИИ будет рисовать мультики быстрее, чем мы успеем открыть кошелек. Раньше они создавались по-другому: все, что было нужно — карандаши, терпение и душа…

В сети уже появлялись ИИ-мультфильмы. Будем ждать премьеры от Disney.

😸Филимон вернется на следующей неделе. Хороших выходных😉
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
102👍2