Forwarded from Грокаем книги или TL;DR
🎉 Ловите воскресную подборку лучших книг 2025 года по мнению экспертов!
👨💻 Сегодня своим топом делится Сергей Задорожный — руководитель Platform Engineering и Enabling Team в банке «Центр-инвест». Сергей внедряет DevSecOps-практики, AI в финтех и ведет тг-канал IT Friday.
📚 «Настоящий CTO: думай как технический директор»
📚 «Грокаем Continuous Delivery»
📚 «Прозрачное программное обеспечение: Безопасность цепочек поставок ПО»
Подробности — в карточках.
👨💻 Сегодня своим топом делится Сергей Задорожный — руководитель Platform Engineering и Enabling Team в банке «Центр-инвест». Сергей внедряет DevSecOps-практики, AI в финтех и ведет тг-канал IT Friday.
📚 «Настоящий CTO: думай как технический директор»
📚 «Грокаем Continuous Delivery»
📚 «Прозрачное программное обеспечение: Безопасность цепочек поставок ПО»
Подробности — в карточках.
5❤🔥25🔥15🥰11❤1😍1
This media is not supported in your browser
VIEW IN TELEGRAM
Кстати, забыл показать вам, как наряжаю елку 🎄 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤🔥36🔥23🥰14 12😍7 2❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1😱14❤🔥11🍓8😈6🔥2
Как меняются тренды на рынке IT конференций с приходом AI
Шикарный доклад от Алексея Федорова про тренды ИТ-конференций с появлением ИИ. Алексей закинул мысли о будущем, что если людей заменят ИИ-агенты, то и конференции могут быть для агентов) Как тебе такое, мистер Андерсон?😃
Т.е может быть обучение агентов, а люди станут своего рода философами)
И бонусом чотенький лайфхак от Алексея Жужулина, по рисованию уточек и нетолько😀
Если, например, попросить ИИшечку убрать предмет с фото - она может сгалюцинировать. А вот если сначала разобрать картинку в JSON (что где находится, какие объекты, атрибуты), и уже потом попросить отредактировать конкретную часть — результат получается заметно стабильнее и предсказуемее.
Шикарный доклад от Алексея Федорова про тренды ИТ-конференций с появлением ИИ. Алексей закинул мысли о будущем, что если людей заменят ИИ-агенты, то и конференции могут быть для агентов) Как тебе такое, мистер Андерсон?
Т.е может быть обучение агентов, а люди станут своего рода философами)
И бонусом чотенький лайфхак от Алексея Жужулина, по рисованию уточек и нетолько
Если, например, попросить ИИшечку убрать предмет с фото - она может сгалюцинировать. А вот если сначала разобрать картинку в JSON (что где находится, какие объекты, атрибуты), и уже потом попросить отредактировать конкретную часть — результат получается заметно стабильнее и предсказуемее.
Please open Telegram to view this post
VIEW IN TELEGRAM
2🍓20❤🔥13🔥11 2👍1
Очень крутое интервью с профессором математики Владимиром Крыловым
Почему галлюцинации LLM неизбежны и почему у reasoning-моделей они местами даже выше — «парадокс рассуждений». Много интересных и полезных мыслей про настоящее и будущее ИИшечки. В интервью прям отлично покручены разные стороны: вайбкодинг, архитектура LLM, агенты и в целом про индустрию. Все чотенько, по делу и весьма вдохновляющее, рекомендую почитать полностью😊
Но кому хочется "по-быстрому" - вот немножко главных поинтов:
🟢 Галлюцинации - фундаментальное свойство обучаемых моделей: в attention/статистике есть ограничения, которые “масштабом” не выбить.
🟢 Теоретический предел ошибок: для любого вычислимо перечислимого множества найдётся вход/последовательность, где LLM неизбежно ошибётся.
🟢 ИИ может быть перенесено на альтернативные носители: не GPU/кремний, а, условно, аналоговые, оптические/фотонные, нейроморфные, в пределе даже биологические/химические реализации.
🟢 “Парадокс рассуждений”: именно reasoning-модели могут галлюцинировать чаще; это связывается с границами из теории обучения (упоминается VC-размерность) и тем, что длинные цепочки рассуждений приходится ограничивать.
🟢 RAG / Tool use / внешние знания и инструменты резко снижают галлюцинации по сравнению с “чистым” внутренним знанием модели.
🟢 Индустрия двигается к “калиброванной неопределённости”: система должна уметь говорить “не знаю”, а не подлизываться и уверенно выдумывать факты и явно показывать допустимый риск ошибок.
🟢 Большие контекстные окна не спасают код-базы целиком: квадратичная цена attention, “семантический разрыв” (видит куски, не видит зависимости), плюс эффект “потерянный в середине” (U-образное внимание к токенам).
🟢 Законы масштабирования выдыхаются, а прогресс всё сильнее уходит в аугментацию промпта: планирование, проверки, расширение контекста, нативные вызовы инструментов - выигрывает связка “модель + агент + инструменты”.
🟢 Вопрос “чья модель лучше” скоро станет вторичным - важнее “какой агент решает мою задачу”, с каким контекстом и инструментами. Модель станет commodity “как электричество из розетки”.
🟢 OpenAI отстаёт из-за нехватки радикально новых идей, а у Google — рычаг в виде масштабирования дата-центров на TPU.
🟢 Метрики тоже меняются: появляются попытки оценивать вклад LLM в экономику (вроде “прибавки к ВВП”), и разговор про AGI съезжает от философии к выгоде бизнесу.
Почему галлюцинации LLM неизбежны и почему у reasoning-моделей они местами даже выше — «парадокс рассуждений». Много интересных и полезных мыслей про настоящее и будущее ИИшечки. В интервью прям отлично покручены разные стороны: вайбкодинг, архитектура LLM, агенты и в целом про индустрию. Все чотенько, по делу и весьма вдохновляющее, рекомендую почитать полностью
Но кому хочется "по-быстрому" - вот немножко главных поинтов:
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
«Галлюцинации LLM — это не баг»: профессор математики объясняет, почему ИИ не перестанет врать
Владимир Крылов, профессор математики, научный консультант Artezio и один из самых глубоких русскоязычных экспертов по применению ИИ в разработке, дал интервью по итогам года. Мы поговорили о том,...
1🍓15❤🔥14🥰8❤3👍3🔥3😍1 1
Forwarded from AISecure
Hack The Box запустили отдельное направление — hackthebox.ai.
Это уже не платформа для обучения людей, а среда для тестирования и прокачки AI-агентов в задачах кибербезопасности.
По сути, здесь можно проверять, как агент:
— ищет уязвимости
— реагирует на атаки
— действует в offensive / defensive сценариях
— работает с реальными CVE и сложными цепочками
Внутри:
— AI Range с боевыми сценариями
— симуляции реальной инфраструктуры
— red / blue сценарии для агентов
— анализ поведения и эффективности моделей
Это хороший пример того, как сильный, уже устоявшийся продукт аккуратно адаптируется под новые направления и векторы использования — без ломки ДНК, а с расширением логики в сторону AI.
Это уже не платформа для обучения людей, а среда для тестирования и прокачки AI-агентов в задачах кибербезопасности.
По сути, здесь можно проверять, как агент:
— ищет уязвимости
— реагирует на атаки
— действует в offensive / defensive сценариях
— работает с реальными CVE и сложными цепочками
Внутри:
— AI Range с боевыми сценариями
— симуляции реальной инфраструктуры
— red / blue сценарии для агентов
— анализ поведения и эффективности моделей
Это хороший пример того, как сильный, уже устоявшийся продукт аккуратно адаптируется под новые направления и векторы использования — без ломки ДНК, а с расширением логики в сторону AI.
❤🔥17🔥14❤8 2😱1 1
This media is not supported in your browser
VIEW IN TELEGRAM
Конференция для ИИ-агентов глазами генератора миров Genie от Гугл - по мотивам доклада Алексея Федорова Как меняются тренды на рынке IT конференций с приходом AI 😃
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥17🍓12❤🔥10🤩1😈1
Forwarded from Откровения от Олега
В результате долгих попыток упихнуть методологию разработки в телеграм-посты, пришел к выводу, что это невозможно.
Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :)
Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.
https://oleg.guru/redbook/ru/two-process-model
Первая глава книги про AI-разработку - по ссылке. Прошу любить и жаловать :)
Мы поговорим о том, почему отношения с нейросетью в формате «начальник → подчинённый» и «человек → инструмент» работают крайне отстойно. Введем модель сопроцессоров. Посмотрим, как устроено разделение когнитивной нагрузки в связке человек-машина. Что может только человек, что может только AI, и есть ли где-то пересечение.
https://oleg.guru/redbook/ru/two-process-model
oleg.guru
Два процесса, одна задача
Почему модель «начальник — подчинённый» не работает с AI. Сопроцессоры, разделение когнитивной нагрузки и архитектура памяти.
🔥16🍓16❤🔥4👍3🤩2