AI4Dev — AI for Development – Telegram
AI4Dev — AI for Development
4.89K subscribers
137 photos
43 videos
5 files
271 links
Что надо знать, чтобы остаться востребованным ИТ специалистом в мире с LLM?

• Обзоры продуктов, фреймворков и способы взаимодействия с LLM для разработки софта

• Реальные кейсы, pet и бизнес проекты с LLM

• Публичные лекции

В будущее берут не всех!
Download Telegram
🔴 LIVE | Российский нейроморфный процессор «Алтай»: догоним ли Intel и IBM?

Сегодня в эфире — Валерий Канглер, технический директор компании «Мотив НТ», создатели первого российского нейроморфного процессора.
Поговорим о том, как России удаётся «срезать углы» в гонке за чипами будущего:
⚡️ «Алтай» потребляет в 1000 раз меньше энергии, чем GPU — но как это работает?
⚡️ Техпроцесс 28 нм против Intel 4 — почему отставание всего 2-3 года, а не 15?
⚡️ Кто уже использует процессор и какие задачи решает?
⚡️ Когда нейроморфика станет мейнстримом?
Подключайтесь к трансляции и задавайте вопросы в комментариях — самые интересные зададим гостю в прямом эфире!

📺 Смотреть:
▶️ YouTube: https://www.youtube.com/watch?v=ZWjYnIOFDqg
▶️ RuTube: https://rutube.ru/video/07b5aea3e0ea75caa40a947058b1450b/

Ставьте 🔥, если тема интересна, и пишите вопросы в комментариях 👇
🔥11😁3
Говорим о Claude Code

Лёша Берёзка, техлид iOS в Додо Пицце и автор канала о разработке, показал в онлайне, как работать с памятью Claude и как построить целую фабрику, где агенты сами подхватывают работу друг за другом.

В течение 2 лекций обсудили:
➡️наполнение памяти в CLAUDE.md;
➡️разнесение памяти по разным файлам;
➡️подключение файлов друг к другу;
➡️решение проблем при обогащении памяти через субагентов;
➡️выстраивание цепочек из агентов;
➡️передачу данных между ними.

Предлагаем посмотреть их в записи ☺️

🎥🎥🎥Контекст в Claude Code

YouTube
RuTube
ВКонтакте
ЯндексМузыка

🎥🎥🎥Чейнинг агентов в Claude Code

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15👍95👎1
Media is too big
VIEW IN TELEGRAM
Как ИИ-агенты могут самосовершенствоваться и воспроизводить себе подобных? Рассказал Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО.

Агенты LLM выполняют критически важные задачи и взаимодействуют со сложными средами, поэтому им часто предоставляются расширенные операционные разрешения. Такое сочетание расширенных возможностей генерации, исполнения кода и операционных разрешений полезно для автономного решения сложных задач. Но оно также вызывает опасения по поводу возникающих рисков безопасности, связанных с саморепликацией агентов LLM.

В лекции рассматриваем исследования в этой области, начиная с принципов Асиломара (Asilomar AI Principles, 2017) и заканчивая самыми последними публикациями. Хватит ли способностей моделей к самовоспроизводству и самосовершенствованию для того, чтобы однажды ИИ превзошел человеческий вид?

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥9👎1
Media is too big
VIEW IN TELEGRAM
Почему галлюцинации LLM — это математическая неизбежность

Владимир Крылов (профессор математики, консультант Artezio) разобрал фундаментальные ограничения LLM в разработке.

Ключевое из интервью:

→ Галлюцинации доказуемо неустранимы. Существует теорема: для любого вычислимого множества найдётся вход, на котором модель ошибётся. Это не вопрос масштаба или архитектуры.

→ Reasoning увеличивает ошибки. 33-48% галлюцинаций у reasoning-моделей против 0.7-1.5% при использовании RAG. Аугментация контекста эффективнее цепочек рассуждений.

→ Большое контекстное окно не решает проблему кодовых баз. U-образное распределение attention: начало и конец обрабатываются, середина теряется. Межфайловые зависимости модель не видит.

→ Практический вывод: сжатые представления репозитория + RAG + работа с изолированными модулями дают лучший результат, чем загрузка всего проекта в контекст.

→ Модель становится commodity. Конкурентное преимущество смещается к экосистеме агентов и инструментов.

В интервью также: ситуация с OpenAI и Google, почему Anthropic лидирует в code generation, перспективы символических процессоров.
👍19🔥6🤔3👎1
LLM будут галлюцинировать всегда

На Хабре вышла текстовая версия нашего интервью с профессором Владимиром Крыловым. Помимо проблемы галлюцинаций больших языковых моделей, интервью затрагивает ряд других важных тем, характеризующих сегодняшнее положение дел в сфере искусственного интеллекта.

Рекомендуем к прочтению (поставьте лайк если понравится)

👉 Читать на Хабре
👍266👎1🤔1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23🤡7🤣4👍1
Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, расскажет о новом протоколе промптинга для LLM.

По утверждениям специалистов из Google, этот протокол помогает снизить уровень ошибок до 40% на сложных задачах. А в основе — подход под названием Role Reversal Prompting. В этом протоколе модель принимает на себя роль пользователя и генерирует основной ответ, затем — роль критика, генерирует замечания и, наконец, окончательный ответ, переработанный с учетом критики. По сути, LLM ведет спор сама с собой.

Лекция выйдет завтра в 9:00 — смотрите на YouTube или RuTube!

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
👍277🤔3👎1
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто.

Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, расскажет, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.

Поговорим про:
→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».

Запускаем трансляцию завтра, 30 января, в 12:00.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Анне!
👍18🔥119😁1
Live stream started
Live stream finished (1 hour)
Media is too big
VIEW IN TELEGRAM
Владимир Крылов, доктор технических наук и научный консультант по применению ИИ в разработке ПО, рассказал о новом протоколе промптинга для LLM.

По утверждениям специалистов из Google, этот протокол помогает снизить уровень ошибок до 40% на сложных задачах. А в основе — подход под названием Role Reversal Prompting. В этом протоколе модель принимает на себя роль пользователя и генерирует основной ответ, затем — роль критика, генерирует замечания и, наконец, окончательный ответ, переработанный с учетом критики. По сути, LLM ведет спор сама с собой.

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка

Оставляйте вопросы лектору в комментариях. Владимир Крылов ответит на них в отдельном интервью.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍85😁1
Думает ли нейросеть? Хард-ток с доктором технических наук

Мы в эфире! В гостях — Владимир Крылов. Говорим о фундаментальных ограничениях современных LLM и будущем AGI.

Мы собрали неудобные вопросы из свежих пейперов (Шолле, ЛеКун, Бенджио), чтобы увести разговор от абстрактной философии к конкретной инженерии и математике.

В программе:

Проблема «Китайской комнаты» в 2026 году.

Интерполяция против Экстраполяции: может ли ИИ создать новое?

Почему масштабирование (Scale) может быть тупиком.

Это будет глубоко. Пишите свои вопросы в комментариях!

👉 Rutub
👉 Youtube
👍101
Media is too big
VIEW IN TELEGRAM
RAG обещал решить всё: подключаем базу знаний — и модель начинает «знать правду». Но на практике всё не так просто

Почему LLM путается в документах?
Почему ответы становятся хуже, когда контекста больше?
И почему один и тот же RAG в демо работает идеально, а в проде — нет?

⚡️Анна Авдюшина, кандидат технических наук и инженер центра «Сильный ИИ в промышленности» университета ИТМО, рассказала, что на самом деле происходит с контекстом, какие бывают модификации RAG и почему сегодня ключевая компетенция — это не prompt engineering, а контекстная инженерия.

Говорим про:

→ multi-stage и hierarchical RAG;
→ переписывание запросов и умный retrieval;
→ memory-RAG и агентные подходы;
→ управление контекстом, при котором модель не «сходит с ума».

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥8👍31🤔1🤮1👌1
«Мы не догоняем Intel». Как в России создают нейроморфный процессор «Алтай»

Коллеги, на Хабре вышла текстовая версия нашего интервью с Валерием Канглером, техническим директором компании «Мотив НТ».

Оно о том, как нейроморфный чип «Алтай» бросает вызов архитектуре фон Неймана, почему трансформеры — это не вершина эволюции, и когда в России появится серийное производство процессоров, работающих по принципам человеческого мозга.

Интервью можно посмотреть на нашем Youtube-канале (подпишитесь, чтобы не пропускать новые видео).

В тексте:

• как нейроморфная архитектура имитирует работу мозга и обрабатывает данные событийно, а не потоками чисел
• за счёт чего такие чипы могут потреблять в сотни и тысячи раз меньше энергии, чем GPU
• где нейроморфные процессоры уже имеют смысл: автономные системы, робототехника, протезы, edge-устройства
• почему будущее AI-железа может оказаться не быстрее, а «умнее»

Если вы интересуетесь развитие нейроморфных процессоров и хотите знать, что в этой области происходит в России — будет полезно почитать.

👉 https://habr.com/ru/articles/997052/
👍108😁3🤡32
Большие языковые модели изначально ничего не знают о специфике вашей предметной области. При этом из коробки они не умеют строго соблюдать формальные правила, которые зачастую критичны для бизнеса. Формальные онтологии могли бы решить проблему верификации, но их применение ко всей системе – процесс длительный, сложный и дорогостоящий.

⚡️ Завтра, 19 февраля, в 15:00 рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.

Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.

🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, расскажет Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы Сергею!
👍1142👏1😁1
Live stream started
Live stream finished (1 hour)
Пользователь атакует LLM с помощью промпта, пытаясь обойти внутренние фильтры модели и получить то, что разработчики не хотели открывать миру, — это называют «джейлбрейком». Есть много способов взломать систему, но один из самых эффективных кроется в стихосложении! Мощно и дешево. Ведь метафорой можно замаскировать вредоносную инструкцию...

Поэтическая форма функционирует как универсальный оператор для взлома системы. Стилистические вариации позволяют обходить alignment. Метафорический язык и ритмическая структура искажают суждения моделей. Поэзия часто ассоциируется с доброжелательным контекстом, что дезориентирует guardrails.

Доктор технических наук Владимир Крылов расскажет:
→ Как создавались атакующие стихи?
→ Как определялся «успех» атаки?
→ Какие модели оказались наиболее уязвимыми?
→ Почему этот способ джейлбрейка оказался эффективнее стандартных методов? (И почему он вообще работает?)

Полностью предотвратить джейлбрейки невозможно, но их возникновение и последствия можно уменьшить.

Запускаем трансляцию завтра, 26 февраля, в 12:00.

Смотрите на YouTube, в ВК или прямо в этом канале — и задавайте вопросы лектору!

P.S. «Поэтические» атаки оказались особенно успешны в задачах по инъекции кода, взлому паролей и эксфильтрации весов самой модели.
👍117🔥1👏1🤡1
Live stream started
Live stream finished (54 minutes)
Media is too big
VIEW IN TELEGRAM
Контролируемое применение LLM в бизнесе

Большие языковые модели изначально ничего не знают о специфике вашей предметной области.

При этом из коробки они не умеют строго соблюдать формальные правила, которые зачастую критичны для бизнеса. Формальные онтологии могли бы решить проблему верификации, но их применение ко всей системе – процесс длительный, сложный и дорогостоящий.

⚡️Давайте рассмотрим альтернативный путь: последовательное применение Event Storming, Domain Driven Design и формальных онтологий.

Event Storming позволяет достаточно быстро сформировать целостное представление о предметной области и проявить ее скрытые аспекты. DDD, в свою очередь, преобразует это понимание в слабоформализованное описание, которое помогает выявить участки системы, где формальная онтология действительно необходима и принципиально осуществима.

🔊 Как очертить границы между стохастической природой больших языковых моделей и жесткими требованиями бизнеса, не превращая при этом всю систему в формальную спецификацию, рассказывает Сергей Баранов — архитектор, основатель конференции ArchDays, консультант по технологической стратегии, партнер компании ScrumTrek.

🎥 Запись доступна здесь и на других площадках:

YouTube
RuTube
ВКонтакте
ЯндексМузыка
Mave
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥5👍41🤡1