Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Новый инструмент сканирует кодовую базу и предлагает патчи для исправления найденных проблем. Сейчас он доступен в режиме ограниченного превью для Enterprise и Team клиентов, а мейнтейнеры репозиториев могут запросить приоритетный бесплатный доступ.
Обычный статический анализ ищет совпадения с известными паттернами уязвимостей. Этого достаточно, чтобы поймать торчащие наружу пароли или устаревшее шифрование.
Но прорехи в бизнес-логике или сломанный контроль доступа такие инструменты пропускают - там нужно понимать, как компоненты взаимодействуют между собой и куда движутся данные.
Claude Code Security делает именно это: читает и анализирует код так, как его читал бы человек-исследователь безопасности.
Каждая находка проходит многоступенчатую верификацию. Claude сам перепроверяет результаты, пытаясь опровергнуть собственные выводы и отсеять ложные срабатывания.
Финальные находки появляются в дашборде с оценкой серьезности и уровнем уверенности модели. Решение, применять предложенный патч или нет остается за людьми, без человеческого одобрения ничего не меняется.
За инструментом - более года исследований. Команда Frontier Red Team тестировала Claude на соревнованиях CTF и совместно с Pacific Northwest National Laboratory отрабатывала защиту критической инфраструктуры.
С Opus 4.6 команда обнаружила в open-source проектах более 500 уязвимостей, которые не замечали годами, несмотря на регулярный аудит.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤8🔥5😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Стартаперы после того, как потратили $50 000 на вайб-кодинг приложения, которым никто не пользуется:
😁42👍8❤3
Компания CXMT продаёт модули DDR4 почти в два раза дешевле рыночной цены, несмотря на то, что сами цены на память резко растут.
За последний месяц стоимость DRAM выросла на 23,7% - до $11,50, а в годовом выражении увеличилась более чем в 8 раз.
Пока мировой рынок дорожает из-за дефицита и спроса, китайские компании пытаются захватить долю рынка за счёт низких цен.
https://www.koreaherald.com/article/10679206
Please open Telegram to view this post
VIEW IN TELEGRAM
❤23👍17🔥6
Anthropic выпустили исследование AI Fluency Index. И главный вывод - большинство людей уже используют AI каждый день, но почти никто не умеет работать с ним правильно.
Вот самое важное и неожиданное из исследования.
Главный навык работы с AI - не запрос, а диалог
85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.
Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат
уровень AI-грамотности в 2 раза выше.
Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает
Вывод: первый ответ AI - это черновик, а не результат.
Самая продуктивная модель - AI как напарник
Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях
AI усиливает человека, а не заменяет его.
Опасный эффект: чем красивее результат, тем меньше его проверяют
Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы
люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)
Если результат выглядит готовым - его принимают на веру.
Это один из главных рисков эпохи AI.
Люди хорошо управляют AI, но плохо контролируют результат
В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)
Но при этом меньше анализируют итог.
Только 30% пользователей задают правила работы с AI
Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»
А это напрямую влияет на качество результата.
Главный вывод
Разрыв будущего будет не между программистами и не-программистами.
Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ
AI-грамотность - это новый базовый навык.
И самый важный принцип из исследования:
Первый ответ AI - это начало работы, а не конец.
https://www.anthropic.com/research/AI-fluency-index
@data_analysis_ml
Вот самое важное и неожиданное из исследования.
Главный навык работы с AI - не запрос, а диалог
85,7% эффективных взаимодействий - это не один вопрос, а серия уточнений.
Когда человек:
- уточняет
- просит доработать
- спорит
- улучшает результат
уровень AI-грамотности в 2 раза выше.
Такие пользователи:
- в 5,6 раза чаще проверяют логику ответа
- в 4 раза чаще замечают, чего не хватает
Вывод: первый ответ AI - это черновик, а не результат.
Самая продуктивная модель - AI как напарник
Наиболее эффективные пользователи не делегируют работу полностью, а используют AI как:
- мыслительного партнёра
- соавтора
- помощника в размышлениях
AI усиливает человека, а не заменяет его.
Опасный эффект: чем красивее результат, тем меньше его проверяют
Когда AI создаёт:
- код
- документы
- приложения
- интерфейсы
люди:
- реже проверяют факты (-3,7%)
- реже замечают недостающий контекст (-5,2%)
- реже задают вопросы по логике (-3,1%)
Если результат выглядит готовым - его принимают на веру.
Это один из главных рисков эпохи AI.
Люди хорошо управляют AI, но плохо контролируют результат
В задачах с готовыми материалами пользователи чаще:
- чётко описывают цель (+14,7%)
- задают формат (+14,5%)
- дают примеры (+13,4%)
Но при этом меньше анализируют итог.
Только 30% пользователей задают правила работы с AI
Например:
- «Если мои предположения неверны - поправь»
- «Объясни логику перед ответом»
- «Скажи, в чём ты не уверен»
А это напрямую влияет на качество результата.
Главный вывод
Разрыв будущего будет не между программистами и не-программистами.
Разрыв будет между:
- теми, кто ведёт диалог с AI
- и теми, кто копирует первый ответ
AI-грамотность - это новый базовый навык.
И самый важный принцип из исследования:
Первый ответ AI - это начало работы, а не конец.
https://www.anthropic.com/research/AI-fluency-index
@data_analysis_ml
👍29❤14🔥4🥱2
⚡️ AI-войны продолжаются
Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax.
По данным компании:
- использовано ~24 000 фейковых аккаунтов
- сгенерировано более 16 миллионов диалогов с Claude
- цель - воспроизвести сильные стороны модели
- агентное мышление
- работу с инструментами
- программирование
- сложное рассуждение
Фактически - это массовое извлечение поведения модели через API, чтобы обучить свои системы на её ответах.
И самое интересное:
Anthropic утверждает, что выявила схемы автоматически - по паттернам использования и аномальной активности.
Это новая реальность рынка AI:
https://x.com/AnthropicAI/status/2025997928242811253
#Anthropic
@data_analysis_ml
Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax.
По данным компании:
- использовано ~24 000 фейковых аккаунтов
- сгенерировано более 16 миллионов диалогов с Claude
- цель - воспроизвести сильные стороны модели
- агентное мышление
- работу с инструментами
- программирование
- сложное рассуждение
Фактически - это массовое извлечение поведения модели через API, чтобы обучить свои системы на её ответах.
И самое интересное:
Anthropic утверждает, что выявила схемы автоматически - по паттернам использования и аномальной активности.
Это новая реальность рынка AI:
https://x.com/AnthropicAI/status/2025997928242811253
#Anthropic
@data_analysis_ml
❤11🔥8😁3🥱3👍2🤨1
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4
Анализ данных (Data analysis)
⚡️ AI-войны продолжаются Anthropic заявили, что обнаружили масштабные кампании по «дистилляции» их моделей со стороны DeepSeek, Moonshot и MiniMax. По данным компании: - использовано ~24 000 фейковых аккаунтов - сгенерировано более 16 миллионов диалогов…
Ответ Маска убил 😂 -
Как они смеют красть то, что Anthropic сама украла у программистов?
Как они смеют красть то, что Anthropic сама украла у программистов?
👏51👍10😐8❤6🔥3😁2
⚠️ Большинство ошибок в машинном обучении начинаются не с модели, а с окружения. Конфликты библиотек, «падающие» ноутбуки, хаос в зависимостях — знакомо?
🦾 На открытом вебинаре OTUS мы разберём, как с нуля выстроить стабильную и воспроизводимую среду для ML-разработки. Настроим Python, виртуальные окружения, Jupyter и VS Code, покажем рабочую структуру ML-проекта и подходы к управлению зависимостями.
Вы увидите, как перейти от разрозненных ноутбуков к полноценной инженерной практике: аккуратный код, понятная структура, предсказуемые сборки. Это база, без которой невозможно расти в ML и Data Science.
➡️ Встречаемся 26 февраля в 18:00 МСК в преддверие старта курса «Специализация Machine Learning». Присоединяйтесь и заложите правильный фундамент для карьеры ML-инженера: https://tglink.io/fdf1843d38da49?erid=2W5zFJhF4wB
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🦾 На открытом вебинаре OTUS мы разберём, как с нуля выстроить стабильную и воспроизводимую среду для ML-разработки. Настроим Python, виртуальные окружения, Jupyter и VS Code, покажем рабочую структуру ML-проекта и подходы к управлению зависимостями.
Вы увидите, как перейти от разрозненных ноутбуков к полноценной инженерной практике: аккуратный код, понятная структура, предсказуемые сборки. Это база, без которой невозможно расти в ML и Data Science.
➡️ Встречаемся 26 февраля в 18:00 МСК в преддверие старта курса «Специализация Machine Learning». Присоединяйтесь и заложите правильный фундамент для карьеры ML-инженера: https://tglink.io/fdf1843d38da49?erid=2W5zFJhF4wB
Реклама. ООО «Отус онлайн-образование», ОГРН 1177746618576
Реклама. ООО "ОТУС ОНЛАЙН-ОБРАЗОВАНИЕ". ИНН 9705100963.
🤣5❤1👍1
Исследование MIT показало эффект, который они называют когнитивным долгом при активном использовании AI.
Главные выводы:
- Чем чаще вы полагаетесь на LLM, тем хуже работает самостоятельное мышление
- Мозг перестаёт «тренироваться» - когнитивные навыки постепенно ослабевают
- Возникает привычка сразу обращаться к AI вместо того, чтобы анализировать самому
Механизм простой:
Если не использовать когнитивные «мышцы» — они деградируют.
AI снижает трение мышления, но вместе с этим может снижать глубину обработки информации.
Риск не в самом AI, а в модели использования:
- копировать ответы вместо понимания
- просить решение вместо попытки подумать
- делегировать анализ, логику и формулировки
Правильный подход:
AI — как усилитель мышления, а не замена.
Лучшие практики:
- сначала подумать самому → потом сверить с AI
- просить объяснения, а не готовый ответ
- использовать AI для идей, проверки и расширения, а не для «думать за меня»
Тренд:
AI повышает продуктивность, но при пассивном использовании может снижать когнитивную самостоятельность.
В эпоху LLM главным навыком становится не просто использование AI, а сохранение способности думать без него.
https://arxiv.org/abs/2506.08872
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥30❤4👍4