Анализ данных (Data analysis) – Telegram
Анализ данных (Data analysis)
52.4K subscribers
2.9K photos
348 videos
1 file
2.45K links
Data science, наука о данных.

@haarrp - админ

РКН: clck.ru/3FmyAp
Download Telegram
✔️ Рассуждающие агенты требуют не только ума, но и железа

Когда провайдеры запускают «агентов», пользователи видят красивый интерфейс.
Инженеры видят ад.

Потому что агентские сценарии — это не «запрос-ответ». Это:

- длинные диалоги с историей
- вызов внешних инструментов (поиск, интерпретация кода, внешние приложения)
- гигабайты промежуточных данных между шагами

Если просто «поднять контейнер на GPU» — TTFT (время до первого токена) поплывёт, TBT (время между токенами) просядет, и агент будет тормозить на ровном месте.

Что с этим делают

Yandex AI Studio, например, на днях запустила инференс DeepSeek V3.2 и при этом полностью пересобрала инфраструктуру.

Внедрили разделение prefill/decode:
- prefill-ноды — быстрый прогон длинных контекстов
- decode-ноды — стабильная генерация с низкой задержкой

Это потребовало научиться передавать KV-кэши между серверами в реальном времени. Помимо прочего сбалансировали запросы с учётом «сессионности» и выстроить иерархию KV-кэшей от HBM GPU до распределённой памяти и/или NVMe.

Безопасность и тарификация

- Управляемые правила модерации ответов модели
- Доступ к моделям через частные эндпоинты по выделенному сетевому каналу для работы без выхода в публичный интернет

Новая тарификация:
- токены инструментов и кэширования — в 4 раза дешевле обычных входящих
- чем длиннее сессия, тем выгоднее

Потому что платить стоит не за факт обращения к модели, а за новую вычисленную информацию.
Всё остальное можно и нужно кэшировать.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥106🥰4🤣2👍1
⚠️ GPT-5.4 впервые получил статус “высокого уровня киберугрозы” среди универсальных AI-моделей.

GPT-5.4 - официально признана high cybersecurity risk.

Это означает, что модель уже способна самостоятельно планировать и выполнять сложные кибератаки на симулированные корпоративные сети.

Основание для такой оценки - тесты Capture the Flag (CTF).

В индустрии кибербезопасности CTF - это соревнования по взлому систем.
Участники должны проникнуть в симулированную сеть, найти уязвимости, взломать сервисы и добыть скрытые данные - так называемые *flags*.

Для этого требуется:
- взламывать шифрование
- делать reverse engineering программ
- находить уязвимости в веб-приложениях
- строить сложные цепочки атак

По результатам официальных тестов GPT-5.4 набрал 88% в профессиональных CTF-сценариях.

Это очень высокий показатель.

Фактически это означает, что модель уже умеет:
- находить уязвимости в системах
- писать эксплойты
- строить стратегии взлома

Если AI способен проходить профессиональные hacking-челленджи, значит он обладает теми же навыками, которые используют реальные хакеры для взлома корпоративных инфраструктур.

Главная проблема - масштабирование атак.

Если раньше хакеру нужно было вручную искать слабые места, то теперь AI может автоматически анализировать систему и находить уязвимости.

Это резко ускоряет и удешевляет кибератаки.

Именно поэтому GPT-5.4 стал первой универсальной AI-моделью, официально получившей высокий уровень киберриска в системной карте безопасности.

deploymentsafety.openai.com/gpt-5-4-thinking/gpt-5-4-thinking.pdf
18👍13🤣6😱3🥱3🔥2👏1
🚀 Вышла FireRed-Image-Edit-1.1 - одна из самых мощных open-source моделей для редактирования изображений.

Главная фишка - сильное сохранение идентичности персонажа. Даже после сложных правок лицо, стиль и детали остаются узнаваемыми.

Что умеет модель:

- сохраняет идентичность персонажа при редактировании
- объединяет 10+ элементов в одном изображении
- агент автоматически делает crop и stitch
- поддерживает портретный макияж
- перенос стиля текста
- восстановление фотографий

При этом модель работает довольно быстро - около 4.5 секунды на генерацию, требует примерно 30GB VRAM.

Используются техники:
- distillation
- quantization
- static compile

Дополнительно:

- открыто обучение LoRA
- поддержка ComfyUI
- поддержка GGUF

По бенчмаркам модель обходит:

- Imgedit
- Gedit
- RedEdit

Лицензия - Apache 2.0, можно использовать в коммерческих проектах.

Модель: https://modelscope.cn/models/FireRedTeam/FireRed-Image-Edit-1.1
12👍5🔥4😍2
⚡️ Anthropic опубликовала исследование о влиянии ИИ на рынок труда.

Главный вывод - между тем, что ИИ умеет делать сегодня, и тем, что он теоретически сможет делать в будущем, существует огромный разрыв.

И именно этот разрыв уже начинает создавать проблему для людей, которые только начинают карьеру в индустрии.

Навыки, которые раньше считались входным билетом в профессию, постепенно автоматизируются. В результате стартовые позиции могут сокращаться, а требования к новичкам будут расти.

Это означает, что будущим специалистам придется быстрее осваивать более сложные задачи и учиться работать вместе с ИИ, а не конкурировать с ним.

Синий - где ИИ теоретически может выполнять большую часть задач

Красный - где ИИ реально используется сейчас
🤣11🔥83👍3😁3🙏1🤨1
⚡️ Claude, похоже, решает одну из самых раздражающих проблем разработчиков.

Anthropic анонсировала экспериментальную функцию Auto Mode для Claude Code, которая должна появиться примерно 12 марта 2026 года.

Идея простая: позволить Claude самостоятельно обрабатывать запросы на разрешения во время программирования, чтобы разработчикам не приходилось постоянно подтверждать каждое действие.

Это избавляет от надоедливых permission-окошек во время длинных сессий кодинга.

Раньше, чтобы работать без остановок, приходилось запускать Claude с флагом --dangerously-skip-permissions. Он действительно убирал все подтверждения, но при этом полностью отключал защитные механизмы.

Новый Auto Mode предлагает более умный вариант.

Claude сам будет принимать решения по разрешениям, но при этом продолжит блокировать потенциальные угрозы, например prompt-injection атаки.

Это значит, что теперь можно запускать долгие задачи и не следить постоянно за экраном, ожидая очередного подтверждения.

Поскольку функция пока находится в research preview, её рекомендуют запускать в изолированных средах — sandbox или контейнерах.

Также стоит ожидать небольшого увеличения расхода токенов и задержек, потому что модели требуется дополнительное время на проверки безопасности.

После выхода функции её можно будет включить одной командой:

claude --enable-auto-mode

Если вы управляете командой разработчиков и хотите, чтобы действия всё же подтверждались вручную, эту функцию можно ограничить через MDM-инструменты (например Jamf или Intune) или через конфигурационные файлы.

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
🔥23👍106🤣3
📊 Раскройте данные с DataClaw! 🚀
DataClaw — это инструмент для структурирования истории взаимодействия с AI, позволяющий экспортировать данные в Hugging Face. Он очищает ваши сессии от конфиденциальной информации и создает готовый к публикации набор данных.

🚀Основные моменты:
- Преобразует историю взаимодействия с AI в структурированные данные
- Автоматически редактирует конфиденциальную информацию
- Публикует данные на Hugging Face с одним командным вызовом
- Создает распределенный набор данных для совместной работы человека и AI

📌 GitHub: https://github.com/peteromallet/dataclaw

#python
10🔥1😍1🌚1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ OpenAI расширяет поддержку мейнтейнеров открытого кода.

Программа Codex Open Source Fund, запущенная год назад, получила апдейт льгот для разработчиков, которые поддерживают публичные репозитории.

Теперь участники программы получают не только API-кредиты, но и полный доступ к ChatGPT Pro с Codex на полгода.

Обновленный набор поддержки выглядит теперь так:

🟢API-кредиты для проектов, которые уже интегрировали Codex в pull request review, релизные пайплайны или другую инфраструктуру OSS.

🟢6 месяцев ChatGPT Pro с Codex.

🟠Условный доступ к Codex Security

Условность в том, то Codex Security одобряется вручную. OpenAI объясняет это возможностями GPT-5.4, команда рассматривает каждую заявку отдельно, чтобы убедиться, что инструмент применяется осознанно.


OpenAI формулирует требования к просителям программы размыто: core maintainer с write access к широко используемому публичному проекту. Что считается широко используемым - не уточняется.

Если проект не вписывается в стандартные критерии, OpenAI все равно рекомендует подавать заявку с объяснением роли проекта в экосистеме.

Неделю назад Antropic запустила похожую тему поддержки опен-сорса.

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥114👍3
⚡️ Андрей Карпаты выложил минимальный репозиторий Autoresearch - систему, где AI сам проводит исследования.

Это упрощённая версия ядра обучения LLM из nanoGPT/nanochat:
весь код обучения помещается в один файл (~630 строк) и работает на одной GPU.

Как это устроено:

- человек редактирует prompt (.md)
- AI-агент автоматически меняет training code (.py)

Дальше начинается цикл автономных экспериментов.

Каждая точка на графике — полный запуск обучения LLM (~5 минут).

AI-агент работает в бесконечном цикле:

- создаёт git-ветку
- меняет архитектуру модели
- подбирает optimizer
- оптимизирует гиперпараметры
- запускает обучение
- коммитит улучшения

Если validation loss становится ниже, изменение сохраняется.

Фактически агент сам оптимизирует собственный код обучения и постепенно улучшает модель.

Можно запускать несколько агентов с разными промптами и сравнивать, кто быстрее двигает исследование.

Карпаты шутит, что раньше AI-исследования делали люди между:

- едой
- сном
- митингами

Теперь же исследования могут выполнять рои автономных AI-агентов, которые бесконечно гоняют эксперименты на кластерах.

GitHub: github.com/karpathy/autoresearch

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
1👍339🤩3🔥2
💰 Forbes: разработчикам могут больше не нужны редакторы кода.

Новая реальность AI-разработки: программирование постепенно уходит от ручного набора кода к автономным агентам, которые могут реализовывать целые проекты самостоятельно.

По данным Forbes, компания Cursor - один из самых быстрорастущих AI-стартапов в программировании - уже сталкивается с этой трансформацией. С появлением мощных агентных систем вроде Claude Code сама идея классического code editor может устареть.

AI-лабы готовы тратить огромные деньги, чтобы переманить их на свои платформы.

Внутренний анализ Cursor показал, что подписка Claude Code за $200 в месяц могла потреблять до $2000 вычислительных ресурсов - фактически Anthropic субсидировала пользователей.

Но сейчас масштабы ещё больше.

По данным источников, знакомых с расходами на compute, тот же план за $200 способен потреблять уже около $5000 вычислительных ресурсов.

AI-компании сейчас сознательно работают в убыток, чтобы захватить рынок разработчиков и закрепить свои инструменты как стандарт индустрии.

forbes.com/sites/annatong/2026/03/05/cursor-goes-to-war-for-ai-coding-dominance/

🎯Полезные Мл-ресурсы 🚀 Max

@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
13👍10🤣4🔥1😁1
Разработчики раньше vs разработчики сейчас
💯29🥴84😐4😁3👍2🥱2🔥1👌1