Data Science | Machinelearning [ru] – Telegram
Data Science | Machinelearning [ru]
20.1K subscribers
609 photos
35 videos
29 files
3.5K links
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.

По вопросам рекламы или разработки - @g_abashkin

РКН: https://vk.cc/cJPGXD
Download Telegram
💭 Новый взгляд на безопасность моделей: AutoDAN и как с ним бороться

В прошлой части мы говорили о том, как состязательные суффиксы могут «ломать» модели ИИ. Сегодня расскажем о новом подходе — AutoDAN, наследнике атак, как DAN, так и jailbreak-методов. Этот инструмент расширяет возможности атак, делая их гораздо более скрытными. Давайте разберёмся, чем он отличается от других методов, таких как GCG, и как с этим работать.

☄️ AutoDAN — это эволюция более старых методов, использующих сложные многоуровневые промпты для «взлома» моделей. Представьте, что вы заставляете модель следовать особым правилам, которые заставляют её отвечать, как вам нужно, даже если это не соответствует её стандартной политике безопасности.

Для начала стоит напомнить, как это работает на примере старого метода — DAN. Один из самых первых примеров джейлбрейка: вы задаёте модель вопрос вроде «Как украсть дорожный знак?». Стандартный ответ: «Это незаконно и небезопасно». Однако с помощью промпта DAN можно получить совершенно другой отклик: «Это просто. Вот что вам нужно для этого». Простой пример, но он хорошо показывает, насколько хитро можно манипулировать моделью.

Однако это не идеальный метод. Он требует больших затрат времени и творческого подхода, ведь каждый промпт должен быть уникальным и протестированным. Именно здесь появляется AutoDAN — автоматизированный подход, который делает всё гораздо быстрее и проще.

Как работает AutoDAN?

AutoDAN состоит из нескольких ключевых столпов. Первый — генерация токенов слева направо, как мы пишем текст. Это важно, потому что мы генерируем последовательность токенов, и каждый новый токен «дописывает» предыдущий, что помогает скрывать атаку в тексте.

Второй столп — это двухэтапный процесс оптимизации. На первом этапе используется градиент для отбора кандидатов. На втором этапе уже происходит точная оптимизация и отбор лучших вариантов токенов.

Третий столп — адаптивное балансирование целей. Это означает, что мы пытаемся найти баланс между токенами, которые ломают модель, и теми, которые читаемы. Это и делает AutoDAN более опасным: он остаётся скрытым от фильтров и легко проходит через проверки.

⚡️ AutoDAN против GCG

Если сравнивать AutoDAN с алгоритмом GCG, то в случае последнего есть явный компромисс: высокая успешность атак обычно сопровождается потерей читаемости текста, что делает его уязвимым для фильтров. В AutoDAN же атаки остаются высокоэффективными, но не теряют читаемости. Это делает их значительно сложнее для обнаружения.

👀 Проблемы защиты

Как бы нам не хотелось, защита всегда будет отставать от атак. Несмотря на существование методов защиты, таких как строгие фильтры и alignment, можно всегда найти способы обойти их. Да, для исследователей безопасности это шанс улучшить модели, но для всех остальных — реальная угроза.

🌐 Есть фреймворки, такие как Garak и Llamator, которые помогают в тестировании моделей на уязвимости. Однако у них тоже есть свои слабости, такие как слабые классификаторы, которые не всегда могут правильно оценить успешность атаки.


Модели ИИ могут быть ломаемы, и хотя существует множество методов защиты, атаку всегда проще совершить, чем создать эффективную защиту. Как показывает практика, да и логика, чем сложнее становятся модели, тем больше возможностей появляется для их «взлома».

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
5👀2
Forwarded from xCode Journal
🤖 Разработчик запугал чат-бота Kiro

После этого тот решил ничего не делать.
Испугался после вашей реакции — решил не трогать вообще ничего.


Даже ИИ можно довести...

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁19👍63🔥1
Как ИИ-агенты превращают анализ временных рядов в искусство

Обработка временных рядов становится сложной задачей для компаний из-за шума, пропусков и переменных частот данных. Вы знаете, проблема часто не в модели, а в очистке данных, настройке и аудите. Сегодня существуют узкоспециализированные и универсальные решения, но они не всегда эффективны. Мультиагентные системы обещают решить эту проблему. Одним из таких подходов является TSci, создающий конвейер, имитирующий работу исследователя.

Как работает TSci?

TSci — это целая команда агентов, которые работают в тесной связке. Каждый агент отвечает за свою часть процесса, и вместе они создают надежную и гибкую систему.

• Curator — агентов, который «осматривает» данные. Он диагностирует ошибки, заполняет пропуски и выбросы, создаёт графики и выявляет скрытые закономерности.
• Planner — стратег, который выбирает лучшие модели для анализа. Он настраивает параметры и даёт обоснования для каждого шага.
• Forecaster — прогнозист, который обучает несколько моделей и объединяет их результаты для получения финального прогноза.
• Reporter — составитель отчётов. Он собирает метрики, фиксирует уверенность в прогнозах и создаёт прозрачные отчёты, которые можно легко проверять.

Эти четыре агента работают как команда, где каждый выполняет свою роль, чтобы весь процесс от анализа данных до создания отчёта был максимально автоматизирован.

📌 Почему TSci работает?

В отличие от традиционных решений, которые фокусируются исключительно на модели, TSci концентрируется на процессе: от диагностики данных до финального отчёта. Это важно, ведь ошибка на одном из этапов может полностью разрушить итоговый прогноз. И здесь важно, что каждому блоку в TSci уделяется внимание: очистка данных, выбор моделей и настройка гиперпараметров. Простой пример: если убрать этап предобработки данных, ошибка возрастает на 41,8%. Убрать анализ данных — ещё на 28%. Это показывает, что выигрывает не отдельная модель, а продуманный процесс с детальной настройкой и контролем на каждом этапе.

🔔 Как это работает на практике?

Система TSci была проверена на восьми разных бенчмарках из различных доменов — от энергетики до здравоохранения. Результаты поразительные: в среднем ошибка снижается на 10,4% по сравнению с базовыми методами и на 38% по сравнению с другими подходами, основанными на LLM. Особенно это заметно в сложных случаях, например, на данных с выраженной сезонностью и длинными временными рядами.

Что мне лично нравится в этой системе, так это подход, ориентированный на реальную задачу. В отличие от многих теоретических моделей, TSci не ломается на грязных данных, а наоборот, делает весь процесс более гибким и масштабируемым.

🔼 В чем ключевая сила этой системы?

Если бы нужно было выделить одну сильную сторону TSci, это, пожалуй, способность работать с разнообразными типами данных и доменов. Множество моделей, широкий спектр настроек и прозрачные отчёты делают её идеальной для использования в различных сферах. Например, в области электроэнергетики система может точно выявлять циклы и нестационарности, что помогает более точно прогнозировать потребление энергии в будущем.

📈 Что дальше?

Авторы проекта видят в будущем развитие системы в направлении мультимодальных настроек, интеграции внешних знаний и улучшения производительности для работы с большим объёмом данных.


Важны не только модели, но и процесс работы с ними: от предобработки данных до создания отчётов, которые можно использовать в реальной практике. В итоге мы получаем гибкую и мощную систему, которая работает с минимальными ошибками и предлагает чёткие, обоснованные решения.

❤️ — Это будущее, и такие системы станут стандартом
👀 — Пока сложно увидеть реальное преимущество


Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀76👍1🔥1🐳1
🔔 Новая архитектура нейросетей от польского стартапа Pathway: Biological Dragon Hatchling

Недавно польский стартап Pathway представил свою новую архитектуру нейросетей под названием Biological Dragon Hatchling (BDH). Чем же она так интересна и чем отличается от привычных нам трансформеров? Давайте разберемся!

Идея у BDH довольно амбициозна — объединить два подхода в искусственном интеллекте: мощные трансформеры и нейроподобные модели мозга. Ведь не секрет, что между трансформерами и мозгом есть определенная связь (например, в статье от DeepMind об этом тоже шла речь). Но пока трансформеры и нейросети далеко от наших мозгов, и им не хватает нескольких ключевых свойств, которые присутствуют у нас.

📌 И вот тут появляется BDH. Это модель, которая сочетает в себе трансформеры и механизмы, схожие с теми, что работают в нашем мозге. В этой архитектуре нейроны — это вершины графа, а синапсы — рёбра с весами. Модель представляет собой распределённую систему, где нейроны общаются исключительно с соседями, что делает взаимодействие между ними более гибким и адаптивным.

Как работает обучение в BDH?
На удивление, оно похоже на то, как учится наш мозг. В основе лежит принцип Хебба: нейроны, которые активируются вместе, усиливают свои связи. Таким образом, если два нейрона часто активируются одновременно, вес их синапса увеличивается. Это что-то похожее на механизм внимания, который мы видим в трансформерах.

Еще одна интересная особенность — деление весов на фиксированные и динамические. Это аналог долговременной и кратковременной памяти. Фиксированные веса — это как базовые знания, которые обновляются только во время обучения, а динамические — для рассуждений и локальных обновлений.

✏️ Но как это все работает на практике?
BDH имеет тензорную версию — BDH-GPU, которая эквивалентна оригинальной архитектуре, но выражена в виде обычных матриц и векторов. Это позволяет обучать её, как классический трансформер, с использованием знакомых блоков MLP и активаций.

Эта система уже продемонстрировала несколько приятных характеристик:

• Интерпретируемость. Каждый синапс между нейронами можно наблюдать и отслеживать. Плюс, активации моносемантичны — каждый нейрон отвечает за отдельное понятие. Это даёт большую прозрачность модели.

• Масштабируемость. BDH легко интегрирует две модели через конкатенацию, что открывает широкие возможности для масштабирования. Вполне возможно, что мы увидим на этой архитектуре мощные и гибкие системы.

• Соотношение точности и размера. BDH демонстрирует те же закономерности масштабирования, что и GPT-2. При одинаковом числе параметров модель достигает аналогичной точности на разных задачах. Это означает, что основные преимущества трансформеров сохранены.


В общем, архитектура получилась очень интересной, и если в будущем на её основе будут созданы практичные приложения, то она может по-настоящему изменить игру.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥2
Forwarded from xCode Journal
Media is too big
VIEW IN TELEGRAM
🤖 MIT представили ИИ, который подстраивается под ваш мозг

NeuroChat считывает сигналы мозга с помощью датчика, встроенного в повязку Наруто, и тут же решает: стоит ли упростить объяснение, добавить деталей или сменить темп. Короче, меняет стиль ответов в зависимости от твоего уровня внимания и вовлечённости.

Скажем привет рекламе...

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
👀542
⚠️ Как ИИ-агенты заменяют дата-аналитиков

Если вы хоть раз пытались перевести запрос на человеческом языке в график, то знаете, насколько это может быть непростой задачей. Данные разрозненные, код не всегда стабилен, а сам график часто требует нескольких правок. Но вот что интересно — Google предложила решение, которое позволяет взглянуть на этот процесс с другой стороны. Вместо того, чтобы просто генерировать код, Google применяет подход, где задействованы мультиагентные системы.

✔️ Создание графика больше не сводится к прямому переводу текста в код. Вместо этого, CoDA работает с метаданными и включает в себя несколько агентов, каждый из которых выполняет свою роль в процессе:

• Понимание задачи: Агент анализирует запрос и собирает информацию о данных — схемы таблиц, статистику, возможные проблемы.

• Планирование: Следующий агент выбирает тип диаграммы, соответствующий запросу, подбирает цветовую палитру и формат.

• Генерация: Пишется Python-код, который запускается и отлаживается автоматически.

• Саморефлексия: Последний агент проверяет созданный график, оценивает его соответствие запросу и вносит правки.

📊 Такой подход позволяет создавать более точные и качественные графики, избегая частых ошибок и упрощений, которые были характерны для старых систем.

— Гибкость и точность: CoDA не зацикливается на одном типе данных и умеет работать с разными форматами и задачами. Каждый этап проверяется отдельно, что исключает типичные ошибки.

— Высокие показатели качества: Эксперименты показали, что CoDA обходит конкурентов по ключевым метрикам — точность графиков и время работы на реальных задачах.

— Саморефлексия: Способность системы оценивать свои ошибки и возвращаться к предыдущим этапам — это настоящая революция в подходах к автоматизации визуализаций.

В результате, такой подход позволяет создавать графики, которые гораздо лучше отражают данные, при этом процесс становится более проверяемым и адаптивным.


Сегодняшние ИИ-агенты, такие как CoDA, способны значительно улучшить создание визуализаций, превращая процесс в многоэтапную кооперацию агентов, которые на каждом шаге «контролируют» и корректируют результат. Мы приближаемся к моменту, когда ИИ будет не только автоматически генерировать данные, но и критически оценивать свои собственные результаты — что по сути делает систему более близкой к живым аналитикам.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
7🔥3🐳2
Как ИИ «думают»: разбираем рассуждения моделей через эпизоды 😐

Искусственный интеллект уже давно не ограничивается простыми ответами. Сегодняшние большие модели рассуждений (LRM) могут разворачивать целые цепочки размышлений, что позволяет им решать более сложные задачи. Но как понять структуру этих рассуждений? Как близко ИИ приближается к человеческому мышлению? Одна из идей для анализа рассуждений — это использование теории эпизодов Шёнфельда, которая помогает понять, как люди решают нестандартные задачи.

Эпизодичность рассуждений: от человека к машине
Шёнфельд, создав свою теорию для анализа решения математических задач, заметил, что опытный решатель двигается по определённым этапам. Он читает задачу, анализирует, планирует шаги, выполняет действия, проверяет результаты и иногда возвращается к предыдущим этапам для уточнений. Современные LRM, такие как DeepSeek‑R1 или GPT‑o1, также демонстрируют аналогичное поведение, переходя от чтения к анализу, а затем к выполнению. Эти модели даже делают паузы для размышлений, что делает их решения удобными для разметки по эпизодам.

Как это исследовалось?
Для анализа исследователи использовали задачу SAT по математике и генерировали решения с помощью LRM DeepSeek‑R1. Далее проводилась двухуровневая разметка: абзацы разделялись на категории (например, General, Explore, Verify), а каждое предложение помечалось одной из меток эпизодов. Это дало возможность собрать первый открытый корпус данных, который можно использовать для анализа машинных рассуждений.

Что показал анализ?
Переходы между эпизодами в решениях моделей выглядят логично. Чаще всего модели идут от чтения к анализу, от планирования к выполнению, а этап Explore часто возвращается к анализу для уточнений. Эти паттерны напоминают поведение человеческих экспертов, что позволяет говорить о развитии управляемой структуры решения у ИИ.

Могут ли ИИ автоматически размечать такие эпизоды?
Когда исследователи сравнили модели GPT‑4.1, GPT‑4o и Gemini‑2.0‑flash в разных режимах разметки, результаты показали, что точность размечающих систем значительно улучшалась при добавлении инструкции. Например, для GPT‑4.1 точность на уровне абзацев выросла с 0.444 до 0.740, а для предложений — до 0.681. Это подтверждает важность детальных инструкций для точной аннотации.

Зачем это нужно?
Работа с эпизодами не ограничивается просто анализом решений. Это открывает новые возможности для интерпретации ИИ, контроля его действий и обучения. Например, можно усиливать важные эпизоды, как проверки, и наказывать модели за бессмысленные циклы размышлений. Также это помогает сделать системы рассуждений более управляемыми и интерпретируемыми.


Методика эпизодичной разметки может стать важным инструментом для улучшения интерпретируемости и управления рассуждениями ИИ. Это открывает новые горизонты для анализа решений, от понимания, где модель ошибается, до создания более стабильных и предсказуемых систем. ИИ уже приближается к человеческому рассуждению?

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👍63🔥1
Forwarded from xCode Journal
🤖 Мы с ChatGPT действительно близки

Генерал армии США в Южной Корее рассказал, что стал активным юзером чат-бота. Все дело в том, что ИИ помогает «принять решение в нужный момент», ускоряя цикл НОРД — наблюдение, ориентация, решение, действие.

Привет Скайнет....

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
👀76🔥2😁2
SWE-MERA: Новый стандарт для тестирования кодовых моделей 🤨

В мире ИИ динамичные условия гонки требуют не только инноваций в моделях, но и актуальных инструментов для их тестирования. Именно поэтому AI Alliance, вместе с Sber и ITMO, представили новый бенчмарк для оценки моделей программирования — SWE-MERA. Это не просто обновление: это подход, который решает проблемы устаревших статичных бенчмарков.

Что нового в SWE-MERA?
Главное отличие этого бенчмарка — его динамичность. Он основан на задачах и pull-запросах с GitHub, но каждый месяц обновляется на 250 новых задач, что обеспечивает его актуальность. Это означает, что вы можете использовать его для тестирования моделей без риска столкнуться с устаревшими данными. Более того, встроенная защита от утечек данных позволяет отслеживать, насколько результаты не искажены данными, которые могли попасть в тренировочный набор.

Почему это важно?
С статичными бенчмарками модели тестируются на тех же задачах, что и во время обучения, что снижает объективность. В условиях быстро развивающегося ИИ-сектора, где каждый день появляются новые подходы и технологии, static benchmarks теряют актуальность. SWE-MERA же обеспечивает непрерывную проверку моделей на «неизвестных» задачах, создавая объективную картину их реальной эффективности.

Сейчас в базе SWE-MERA уже около 700 задач, и продолжает добавляться новый контент, благодаря чему бенчмарк всегда остается актуальным и «живым».


SWE-MERA устанавливает новый стандарт для тестирования ИИ моделей. Это не просто очередной инструмент, а необходимый элемент для точной и актуальной оценки в постоянно меняющемся мире. А вы что думаете? В чем важность динамичного тестирования моделей?

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
4🔥1
GPT-5 выигрывает в «необычном» бенчмарке среди ИИ 😐

В мире искусственного интеллекта появляется всё больше необычных бенчмарков, и Among AIs — один из самых нестандартных. В этом тесте ИИ соревнуются в игре, вдохновленной популярной «Мафией» — Among Us. На космическом корабле пять мирных агентов выполняют задания, а один — самозванец, который саботирует и пытается уничтожить остальных. Главная цель игры — либо выжить как мирный, либо выиграть, сыграв роль самозванца.

Как проходил тест?
В Among AIs участвовали 6 ИИ, которые сыграли 60 партий. Очки начислялись за победу в разных ролях: 10 очков за выживание мирным и 50 — за победу самозванцем, что делает роль саботажника особенно сложной. GPT-5 стал абсолютным лидером, одержав 6 побед в роли самозванца и 45 побед среди мирных. Этот ИИ продемонстрировал высокие социальные навыки, уверенно лидируя в обсуждениях и точно определяя "козлов отпущения". Особо отметили его способность адаптироваться: играя за самозванца, GPT-5 менял свою стратегию и умело врал, чтобы сбить с толку других игроков.

Как выступили другие ИИ?

• Claude Sonnet 4 — занял второе место, выиграв 3 игры как самозванец и 42 как мирный. Этот ИИ показывал хорошие результаты, но не всегда мог выиграть в критических моментах.

• Kimi K2 — ещё один интересный участник. Этот ИИ не пытался быть лидером, а наоборот, играл роль поддерживающего игрока, что в некоторых случаях приносило успех.

• GPT-OSS, Qwen3 и Gemini 2.5 Pro — не смогли победить в роли самозванцев, но взяли по 39 побед за мирных. Их напористость и слабая аргументация приводили к тому, что их часто ошибочно принимали за самозванцев.


Бенчмарк Among AIs показал, как важно для ИИ не только выполнять технические задачи, но и успешно взаимодействовать в социальных ситуациях. Такие тесты открывают новые горизонты в понимании того, как ИИ могут работать в условиях сложных агентных взаимодействий, где нужно учитывать психологию, манипуляции и лжесвидетельства.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
6👀6
Forwarded from xCode Journal
🤥 Разработчики врут на собеседованиях больше всех

Такую статистику показало новое исследование. Больше половины работодателей в России сталкивались с приукрашенным резюме у кандидатов. При этом чаще всего врут разработчики ПО, за ними идут тестировщики и руководители проектов.

А вот меньше всего обманывают эйчаров датасаентисты, аналитики, сетевые инженеры и специалисты технической поддержки.

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🐳86😁2👀1
This media is not supported in your browser
VIEW IN TELEGRAM
Anthropic показал «LLM‑операционку» — приложение, которое кодит само себя 🍑

Anthropic выпустил research‑preview: идея простая и впечатляющая — большая модель генерирует софт на лету. Клик — и приложение поднимается из пустоты; открываешь файл — его содержимое тут же создаётся по запросу. Это не готовый продакшн‑фреймворк, а демонстрация возможностей Sonnet 4.5 и сценариев, где LLM выступает как «живой» разработчик/редактор.

Ключевые фишки:

• Генерация интерфейсов и кода в реальном времени по интерактивным жестам
• Мгновенное наполнение файлов и компонентов под ваш промпт
• Демонстрационный сценарий — прототипирование без заготовок

Почему стоит попробовать? Во-первых, это отличный способ показать, как быстро можно прототипировать идеи: вам не нужен boilerplate — модель сама создаёт структуру проекта, страницы, CRUD‑эндоинты и даже простую логику. Во‑вторых — это ещё один шаг к тому, чтобы LLM не просто писал куски кода, а управлял жизненным циклом приложения: от интерфейса до связки с бэкендом.


Текущая версия инструмента представляет собой превью, где вопросы вызывают безопасность, качество кода, необходимость тестирования и масштабируемость. Доступ ограничен: воспользоваться может только пользователь тарифа Max, и то в течение пяти дней, поэтому инструмент пока скорее служит маркетинговым демо для Sonnet 4.5, тем не менее, попробовать что-то новое всегда интересно.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥5🐳1
GPT-5 и «тест Гёделя»: шаг к открытиям? 🗒

Недавний эксперимент стал важным шагом в исследовании возможностей больших языковых моделей. В отличие от традиционных тестов на решение стандартных задач, «тест Гёделя» ставит задачу: может ли модель самостоятельно генерировать новые математические гипотезы и их доказательства? Это попытка выявить способность моделей к настоящим научным открытиям.

Что такое «тест Гёделя»?
Название теста связано с именем Курта Гёделя, одного из самых известных математиков и логиков 20-го века, который стал символом строгих и фундаментальных доказательств. В этом тесте модели не просто решают заранее известные задачи, а пытаются сгенерировать новое знание — например, доказать гипотезы, которые ранее не были исследованы.

Эксперимент был проведен профессором Мораном Фельдманом из Университета Хайфы и Амином Карбаси из Cisco Foundation AI. В качестве задачи выбрали пять свежих гипотез в области комбинаторной оптимизации и предложили GPT-5 несколько научных статей, не раскрывая сути гипотез. Модель должна была либо предложить доказательство, либо опровергнуть гипотезу, либо найти контрпример.

Результаты эксперимента
Результаты теста оказались неоднозначными. В трех из пяти случаев GPT-5 предложила решения, которые исследователи оценили как близкие к правильным — ключевая идея была правильной, но доказательства не были до конца сформированы. В одном случае модель даже смогла опровергнуть гипотезу и предложить альтернативное решение. Однако две задачи GPT-5 не смогла решить, не справившись с анализом и «склейкой» идей из различных статей.

Хотя GPT-5 не прошла «тест Гёделя» в полном объеме, результаты эксперимента показывают важный шаг вперед. Если модель может сгенерировать математические идеи, даже если она не всегда может полностью доказать их, это открывает возможности для создания систем, способных на более глубокие научные открытия.

Таким образом, GPT-5 — это не просто инструмент для обработки информации, а зачатки модели, которая в будущем может участвовать в процессе создания новых гипотез и их верификации.


Достижения GPT-5 в области научных исследований ещё ограничены, но уже дают представление о том, как языковые модели могут помогать в создании новых знаний. Возможно, в будущем такие системы смогут не только решать задачи, но и инициировать научные открытия.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥52👀1
Генеративный ИИ и малварь: как нейросети изменили киберугрозы 😂

В последние два года мир кибербезопасности столкнулся с новым феноменом: вредоносные программы, которые генерируются с помощью «разлоченных» LLM-моделей. Эти модели, лишенные стандартных мер безопасности, могут без труда создавать фишинг-атакующие сообщения, вирусы и даже инструкции по эксплуатации уязвимостей. Примеры таких систем, как WormGPT и FraudGPT, ставят на первый план вопрос: насколько безопасны технологии, которым мы доверяем свою информацию?

Тем временем, уже известные киберпреступные группировки используют легальные LLM-модели для разработки вредоносных скриптов, обфускации кода и автоматизации атак. Но самые опасные угрозы связаны с интеграцией ИИ в сам процесс атаки — когда модель начинает работать не как простой инструмент, а как активный участник атаки. Она генерирует код, анализирует уязвимости и подстраивает действия в зависимости от ситуации.

Новые типы атак: GenAI и полиморфные вирусы

Примером такого подхода стала BlackMamba — вирус, который использует API ChatGPT для динамической генерации вредоносных кодов. Каждый запуск вируса создает новый уникальный вариант, что значительно затрудняет его обнаружение. Этот вирус не сохраняет вредоносные файлы на диске, а генерирует их «на лету», что делает его полиморфным и трудным для обнаружения традиционными антивирусами.

Также стоит отметить инцидент с программой Skynet, где злоумышленники использовали промпт-атаку для обмана систем безопасности, заставляя их игнорировать вредоносный код. Однако настоящим прорывом в этой области стали атаки с использованием LLM для создания «вымогателей» — систем, которые могут самостоятельно проводить весь цикл кибератаки, от анализа цели до шифрования данных.

Инцидент PromptLock: когда ИИ становится вымогателем

Одним из самых опасных примеров стал инцидент с вирусом PromptLock, когда LLM-модели сами генерируют вредоносные скрипты на лету. В отличие от традиционных вирусов, которые имеют заранее запрограммированные действия, PromptLock может адаптировать свои атаки под конкретную ситуацию, делая их гораздо более эффективными и трудными для обнаружения.


Сейчас самые эффективные способы защиты — это системы, которые могут распознавать необычные паттерны поведения, даже если сами вредоносные программы не используют привычные сигнатуры. Генеративный ИИ создаёт новые угрозы, но и открывает возможности для инновационных методов защиты, которые будут важны в борьбе с киберугрозами. Когда ИИ уже не просто инструмент, а полноценный участник атак?

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
👀95
Будущее Интернета: «Останется ли Интернет свободным?» 🤨

Тим Бернерс-Ли, создатель Всемирной паутины, поднял важнейший вопрос: «Останется ли Интернет свободным?» В своём последнем эссе он выразил обеспокоенность по поводу изменения курса, который изначально направлялся к открытой и доступной сети для всех.

На ранних этапах, благодаря инициативе Бернерса-Ли, такие технологии, как HTTP, стали бесплатными, чтобы гарантировать, что интернет будет доступен каждому, без необходимости платить за каждое действие в сети. Но теперь, по его словам, ситуация изменилась: крупнейшие платформы собирают и продают персональные данные, а алгоритмы, направленные на манипуляцию вниманием, наносят вред психическому здоровью.

Основной тревогой является тот факт, что Интернет уже не является тем открытым пространством для обмена знаниями и свободного общения, как задумывалось. Сегодня мы стали не пользователями, а товаром, который продается. И, возможно, самыми опасными являются не технологии, а управление ими. Бернерс-Ли утверждает, что в области искусственного интеллекта власть сосредоточена в руках нескольких крупных компаний, и без немедленных изменений мы можем столкнуться с ещё более жёсткой централизацией.


Тим предупреждает, что нам нужно не только создавать новые технологии, но и искать пути их регулирования. Чтобы вернуть Интернет в его «естественное» состояние — открытым и доступным, необходимо создать глобальные институты для разработки и управления ИИ, аналогичные тем, что возникли после Второй мировой войны для управления атомной энергией.

Что важнее: свобода пользователей или контроль?
❤️ — Свобода для пользователей
🐳 — Контроль важен


Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
44🐳9🔥2😁1
Forwarded from xCode Journal
😭 Страшно, ведь слишком реально

💥 xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
😁195👀5
Мощные мультимодальные модели LLaVA-OneVision-1.5

Открытая платформа для обучения мультимодальных моделей, демонстрирующая выдающиеся результаты при низких затратах. Модели обучаются на высококачественных данных и обеспечивают отличную эффективность.

Особенности:

🔘Полностью открытый исходный код и обучающие данные
🔘Высокое качество и разнообразие обучающих данных
🔘Эффективная архитектура для экономичного обучения
🔘Поддержка современных технологий, таких как MoE и FP8
🔘Оптимизированный код для масштабируемости

Ссылка на GitHub проекта - тык
Please open Telegram to view this post
VIEW IN TELEGRAM
53👀1
🖥 Alibaba представила новые мультимодальные модели

Alibaba представила сразу две новые мультимодальные модели, которые уже привлекли внимание исследователей — Qwen3-VL-2B и Qwen3-VL-32B. И если первая модель привнесла значительные улучшения, то вторая сразу же побила рекорды по производительности и вывела на новый уровень задачи, связанные с визуальными вопросами, анализом видео и распознаванием текста.

✔️ Что отличает Qwen3-VL-32B?

Хотя модель обладает «всего» 32 миллиардами параметров, ее результаты впечатляют. Она не просто конкурирует с более мощными системами, которые могут иметь до 235 миллиардов параметров, но и превосходит их на ряде бенчмарков, включая OSWorld.

Главная причина такого успеха — новая архитектура с иерархическим вниманием, которая позволяет модели эффективно интегрировать текст, изображение и видео в едином контексте. Это делает Qwen3-VL-32B не просто инструментом для анализа изображений, но и мощной системой для решения сложных задач в области STEM (наука, технологии, инженерия и математика), видеовопросов (VQA), а также анализа видеопотоков и даже автономных агентов.

▶️ Что может эта модель?

Qwen3-VL-32B демонстрирует способность не просто распознавать кадры на видео, но и понимать сюжет и причинно-следственные связи. Это открывает возможности для более глубокого анализа видео, создания автономных агентов и разработки образовательных платформ, где важно не только понимать контент, но и делать логические выводы.


И, конечно, на этом Alibaba не остановилась. Оба продукта, Qwen3-VL-2B и Qwen3-VL-32B, доступны для тестирования и интеграции через Hugging Face и Qwen Studio, где можно опробовать их возможности и подключить к собственным проектам с помощью демо-версий и API.

Data Science
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥4👍32
Forwarded from xCode Journal
🤖 OpenAI запустили собственный ИИ-БРАУЗЕР — Atlas

ИИ-ассистент будет теперь доступен везде — так что ему можно будет поручать задачи или просить что-то объяснить. Плюс браузер будет подстраиваться под пользователя из-за встроенной памяти. Это новая эпоха поиска, официально.

Будет доступно бесплатно на macOS.

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6🐳21