AI4Dev — AI for Development – Telegram
AI4Dev — AI for Development
4.89K subscribers
137 photos
43 videos
5 files
271 links
Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

• Реальные кейсы, pet и бизнес проекты с LLM

• Публичные лекции

В будущее берут не всех!
Download Telegram
🔴 Прямой эфир: интервью с Владимиром Крыловым об ИИ, разработке и трендах 2025–2026

Подключайтесь к трансляции https://www.youtube.com/watch?v=Ht7iooj6O4w

В интервью обсуждаем:
— Главные повороты ИИ-2025 для разработчиков
— Почему гигантские контекстные окна не спасли мир (пока)
— Вайб-кодинг: хайп прошёл, что осталось в декабре
— Возвращение классики: TDD и старые добрые практики снова на коне
— Какие навыки стоит прокачивать разработчику в 2026 году
— Прогноз: что в ИИ изменится, а что по-прежнему упрётся в фундаментальные ограничения

Гость эфира:
Владимир Крылов — доктор технических наук, профессор математики ВШЭ, автор статей на Хабре о моделях o3 и применении ИИ в разработке ПО.
👍92👎1
Live stream finished (1 hour)
Media is too big
VIEW IN TELEGRAM
Что случилось с понятием "вайб-кодинг" за 2025 год и чего ждать в следующем, рассказал Константин Чуйков — автор канала "Вайб-кодинг по Чуйкову" и лидер сообщества Vibe Coding Community.

🎥 Обсудили:
→ Как вайб-кодинг появился и какую вызвал реакцию
→ Как изменились подходы и инструментарий
→ Как мы перешли из промпт-инженерии в контекст-инженерию
→ Как мы пришли к пониманию рабочего воркфлоу и spec-first подходу
→ Как изменился рынок найма
→ Бум курсов по вайб-кодингу

Запись доступна здесь и на других площадках:

➡️ YouTube
➡️ ВКонтакте
➡️ ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥21
🎙 Говорим о чейнинге агентов в Claude Code завтра в 13:00!

После разбиения памяти по разным файлам и агентам пора строить фабрику — пусть агенты сами подхватывают работу друг за другом. Как это сделать, покажет Лёша Берёзка — техлид iOS в Додо Пицце и автор канала о разработке.

Поговорим про:
➡️выстраивание цепочек из агентов;
➡️передачу данных между ними.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Лёше!

P. S. Лекция Леши о работе с памятью Claude Code здесь.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Live stream started
Live stream finished (1 hour)
Как ИИ-агенты могут самосовершенствоваться и воспроизводить себе подобных? Расскажет Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.

Агенты LLM выполняют критически важные задачи и взаимодействуют со сложными средами, поэтому им часто предоставляются расширенные операционные разрешения. Такое сочетание расширенных возможностей генерации, исполнения кода и операционных разрешений полезно для автономного решения сложных задач. Но оно также вызывает опасения по поводу возникающих рисков безопасности, связанных с саморепликацией агентов LLM.

В лекции рассмотрим исследования в этой области, начиная с принципов Асиломара (Asilomar AI Principles, 2017) и заканчивая самыми последними публикациями. Хватит ли способностей моделей к самовоспроизводству и самосовершенствованию для того, чтобы однажды ИИ превзошел человеческий вид?

Лекция выйдет завтра в 9:00 — смотрите на YouTube или RuTube!

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
🔥101💩1
🔴 LIVE | Российский нейроморфный процессор «Алтай»: догоним ли Intel и IBM?

Сегодня в эфире — Валерий Канглер, технический директор компании «Мотив НТ», создатели первого российского нейроморфного процессора.
Поговорим о том, как России удаётся «срезать углы» в гонке за чипами будущего:
⚡️ «Алтай» потребляет в 1000 раз меньше энергии, чем GPU — но как это работает?
⚡️ Техпроцесс 28 нм против Intel 4 — почему отставание всего 2-3 года, а не 15?
⚡️ Кто уже использует процессор и какие задачи решает?
⚡️ Когда нейроморфика станет мейнстримом?
Подключайтесь к трансляции и задавайте вопросы в комментариях — самые интересные зададим гостю в прямом эфире!

📺 Смотреть:
▶️ YouTube: https://www.youtube.com/watch?v=ZWjYnIOFDqg
▶️ RuTube: https://rutube.ru/video/07b5aea3e0ea75caa40a947058b1450b/

Ставьте 🔥, если тема интересна, и пишите вопросы в комментариях 👇
🔥11😁3
Говорим о Claude Code

Лёша Берёзка, техлид iOS в Додо Пицце и автор канала о разработке, показал в онлайне, как работать с памятью Claude и как построить целую фабрику, где агенты сами подхватывают работу друг за другом.

В течение 2 лекций обсудили:
➡️наполнение памяти в CLAUDE.md;
➡️разнесение памяти по разным файлам;
➡️подключение файлов друг к другу;
➡️решение проблем при обогащении памяти через субагентов;
➡️выстраивание цепочек из агентов;
➡️передачу данных между ними.

Предлагаем посмотреть их в записи ☺️

🎥🎥🎥Контекст в Claude Code

YouTube
RuTube
ВКонтакте
ЯндексМузыка

🎥🎥🎥Чейнинг агентов в Claude Code

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍95👎1
Media is too big
VIEW IN TELEGRAM
Как ИИ-агенты могут самосовершенствоваться и воспроизводить себе подобных? Рассказал Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.

Агенты LLM выполняют критически важные задачи и взаимодействуют со сложными средами, поэтому им часто предоставляются расширенные операционные разрешения. Такое сочетание расширенных возможностей генерации, исполнения кода и операционных разрешений полезно для автономного решения сложных задач. Но оно также вызывает опасения по поводу возникающих рисков безопасности, связанных с саморепликацией агентов LLM.

В лекции рассматриваем исследования в этой области, начиная с принципов Асиломара (Asilomar AI Principles, 2017) и заканчивая самыми последними публикациями. Хватит ли способностей моделей к самовоспроизводству и самосовершенствованию для того, чтобы однажды ИИ превзошел человеческий вид?

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👎1
Media is too big
VIEW IN TELEGRAM
Почему галлюцинации LLM — это математическая неизбежность

Владимир Крылов (профессор математики, консультант Artezio) разобрал фундаментальные ограничения LLM в разработке.

Ключевое из интервью:

→ Галлюцинации доказуемо неустранимы. Существует теорема: для любого вычислимого множества найдётся вход, на котором модель ошибётся. Это не вопрос масштаба или архитектуры.

→ Reasoning увеличивает ошибки. 33-48% галлюцинаций у reasoning-моделей против 0.7-1.5% при использовании RAG. Аугментация контекста эффективнее цепочек рассуждений.

→ Большое контекстное окно не решает проблему кодовых баз. U-образное распределение attention: начало и конец обрабатываются, середина теряется. Межфайловые зависимости модель не видит.

→ Практический вывод: сжатые представления репозитория + RAG + работа с изолированными модулями дают лучший результат, чем загрузка всего проекта в контекст.

→ Модель становится commodity. Конкурентное преимущество смещается к экосистеме агентов и инструментов.

В интервью также: ситуация с OpenAI и Google, почему Anthropic лидирует в code generation, перспективы символических процессоров.
👍19🔥6🤔3👎1
LLM будут галлюцинировать всегда

На Хабре вышла текстовая версия нашего интервью с профессором Владимиром Крыловым. Помимо проблемы галлюцинаций больших языковых моделей, интервью затрагивает ряд других важных тем, характеризующих сегодняшнее положение дел в сфере искусственного интеллекта.

Рекомендуем к прочтению (поставьте лайк если понравится)

👉 Читать на Хабре
👍266👎1🤔1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23🤡7🤣4👍1
Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, расскажет о новом протоколе промптинга для LLM.

По утверждениям специалистов из Google, этот протокол помогает снизить уровень ошибок до 40% на сложных задачах. А в основе — подход под названием Role Reversal Prompting. В этом протоколе модель принимает на себя роль пользователя и генерирует основной ответ, затем — роль критика, генерирует замечания и, наконец, окончательный ответ, переработанный с учетом критики. По сути, LLM ведет спор сама с собой.

Лекция выйдет завтра в 9:00 — смотрите на YouTube или RuTube!

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
👍277🤔3👎1
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто.

Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.

Поговорим про:
→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».

Запускаем трансляцию завтра, 30 января, в 12:00.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Анне!
👍18🔥119😁1
Live stream started
Live stream finished (1 hour)
Media is too big
VIEW IN TELEGRAM
Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, рассказал о новом протоколе промптинга для LLM.

По утверждениям специалистов из Google, этот протокол помогает снизить уровень ошибок до 40% на сложных задачах. А в основе — подход под названием Role Reversal Prompting. В этом протоколе модель принимает на себя роль пользователя и генерирует основной ответ, затем — роль критика, генерирует замечания и, наконец, окончательный ответ, переработанный с учетом критики. По сути, LLM ведет спор сама с собой.

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85😁1
Думает ли нейросеть? Хард-ток с доктором технических наук

Мы в эфире! В гостях — Владимир Крылов. Говорим о фундаментальных ограничениях современных LLM и будущем AGI.

Мы собрали неудобные вопросы из свежих пейперов (Шолле, ЛеКун, Бенджио), чтобы увести разговор от абстрактной философии к конкретной инженерии и математике.

В программе:

Проблема «Китайской комнаты» в 2026 году.

Интерполяция против Экстраполяции: может ли ИИ создать новое?

Почему масштабирование (Scale) может быть тупиком.

Это будет глубоко. Пишите свои вопросы в комментариях!

👉 Rutub
👉 Youtube
👍101
Media is too big
VIEW IN TELEGRAM
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто

Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.

Говорим про:

→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍31🤔1🤮1👌1
«Мы не догоняем Intel». Как в России создают нейроморфный процессор «Алтай»

Коллеги, на Хабре вышла текстовая версия нашего интервью с Валерием Канглером, техническим директором компании «Мотив НТ».

Оно о том, как нейроморфный чип «Алтай» бросает вызов архитектуре фон Неймана, почему трансформеры — это не вершина эволюции, и когда в России появится серийное производство процессоров, работающих по принципам человеческого мозга.

Интервью можно посмотреть на нашем Youtube-канале (подпишитесь, чтобы не пропускать новые видео).

В тексте:

• как нейроморфная архитектура имитирует работу мозга и обрабатывает данные событийно, а не потоками чисел
• за счёт чего такие чипы могут потреблять в сотни и тысячи раз меньше энергии, чем GPU
• где нейроморфные процессоры уже имеют смысл: автономные системы, робототехника, протезы, edge-устройства
• почему будущее AI-железа может оказаться не быстрее, а «умнее»

Если вы интересуетесь развитие нейроморфных процессоров и хотите знать, что в этой области происходит в России — будет полезно почитать.

👉 https://habr.com/ru/articles/997052/
👍108😁3🤡32