Генеративный ИИ: суть и выбор инструмента
Генеративный ИИ — это не магия, а технология, создающая новый контент на основе анализа миллионов примеров. Система изучает глубинные закономерности (паттерны) и генерирует уникальный текст, изображение или музыку.
Но как выбрать подходящий инструмент из десятков моделей?
Ключ — в понимании их специализации:
- GPT-5 — для креативных задач и сложных рассуждений.
- Claude — для анализа длинных документов и структурирования.
- Gemini — лучшая мультимодальность (работа с текстом, изображением, видео).
- Llama — для локального запуска и полной конфиденциальности.
Смотрите в карточках сравнение моделей и примеры их применения в России.
Чтобы не пропустить продолжение — подписывайтесь на наш канал! Впереди разберем, что такое «артефакты» в ИИ и как составлять промпты, которые работают. Сохраняйте себе, делитесь с коллегами и смело задавайте вопросы: мы на связи!
Изображения: freepik.com
#практикум_GenAI
Генеративный ИИ — это не магия, а технология, создающая новый контент на основе анализа миллионов примеров. Система изучает глубинные закономерности (паттерны) и генерирует уникальный текст, изображение или музыку.
Но как выбрать подходящий инструмент из десятков моделей?
Ключ — в понимании их специализации:
- GPT-5 — для креативных задач и сложных рассуждений.
- Claude — для анализа длинных документов и структурирования.
- Gemini — лучшая мультимодальность (работа с текстом, изображением, видео).
- Llama — для локального запуска и полной конфиденциальности.
Смотрите в карточках сравнение моделей и примеры их применения в России.
Изображения: freepik.com
#практикум_GenAI
❤4🔥4🥰2✍1
МОЖНО ЛИ ДОВЕРЯТЬ НЕЙРОСЕТЯМ?
📞 Всё больше компаний внедряют различные модели искусственного интеллекта для подготовки коммерческих предложений, анализа данных и отчетов, ответов клиентам через чат-боты или генерации контента для маркетинга.
❗️ НО: ИИ может «галлюцинировать» — выдавать несуществующие факты.
➡️ Почему это происходит:
• ИИ учится на данных из интернета (где есть ошибки)
• Если точного ответа нет, ИИ «додумывает» на основе закономерностей
• Выглядит убедительно, но может быть полностью ложным
➡️ Чем это грозит:
Сценарий 1 Юридические проблемы: Сотрудник использует ChatGPT для подготовки договора → ИИ «галлюцинирует» несуществующую статью закона → компания несет убытки
Сценарий 2 Репутационные потери: Маркетолог генерирует пост с фактами → факты неверны → потеря доверия клиентов
Сценарий 3 Неэффективные решения: Аналитик запрашивает у ИИ отраслевую статистику → получает выдуманные цифры → компания принимает неверное стратегическое решение
➡️ Как избежать проблем:
• ВСЕГДА проверять факты в первоисточниках
• Критически относиться к информации от ИИ
• Помнить: ответственность за использование ложной информации лежит на пользователе, не на ИИ
• Читать условия использования
Дарья Чирва, университет ИТМО:
🤝 Важно помнить: ИИ — это не база данных с единственно верными ответами. Он больше похож на стажера, который учился на всех данных из интернета — и на качественных, и на ошибочных. Поэтому его ответы требуют проверки и критического осмысления.
Пост подготовлен с использованием материалов издания «Белая книга этики в сфере искусственного интеллекта»
Реальный пример (исследование Вашингтонского университета): ученые попросили ИИ Perplexity рассказать о НЕСУЩЕСТВУЮЩЕЙ теории «Jevin's theory of social echoes».
Результат: ИИ предоставил подробную концепцию + ссылки на несуществующие источники.• ИИ учится на данных из интернета (где есть ошибки)
• Если точного ответа нет, ИИ «додумывает» на основе закономерностей
• Выглядит убедительно, но может быть полностью ложным
Сценарий 1 Юридические проблемы: Сотрудник использует ChatGPT для подготовки договора → ИИ «галлюцинирует» несуществующую статью закона → компания несет убытки
Сценарий 2 Репутационные потери: Маркетолог генерирует пост с фактами → факты неверны → потеря доверия клиентов
Сценарий 3 Неэффективные решения: Аналитик запрашивает у ИИ отраслевую статистику → получает выдуманные цифры → компания принимает неверное стратегическое решение
• ВСЕГДА проверять факты в первоисточниках
• Критически относиться к информации от ИИ
• Помнить: ответственность за использование ложной информации лежит на пользователе, не на ИИ
• Читать условия использования
Дарья Чирва, университет ИТМО:
Человек несет ответственность за любое утверждение. Генерация текстов с помощью ИИ не снимает эту ответственность. Проверка любого факта — необходимый элемент грамотного использования ИИ-инструментов.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥3❤2
Искусство промптинга: как разговаривать с ИИ
Главный секрет работы с генеративным ИИ:
Промпт — это не программирование, а коммуникация. Вы даете точную инструкцию, где словами описываете задачу, контекст и ожидаемый результат. Представьте, что объясняете задачу умному помощнику: чем четче, тем лучше.
➡️ Простой промпт → Общий ответ.
➡️ Детальный промпт → Детальный результат.
В карточках — ключевые понятия, структура идеального промпта и мощные техники вроде Few-Shot Learning.
И не забывайте сохранять карточки себе, с этими подсказками вам будет легче начать работать с нейросетями.
Изображения: freepik.com
#практикум_GenAI
Главный секрет работы с генеративным ИИ:
Качество ответа = Качество вашего промпта.Промпт — это не программирование, а коммуникация. Вы даете точную инструкцию, где словами описываете задачу, контекст и ожидаемый результат. Представьте, что объясняете задачу умному помощнику: чем четче, тем лучше.
➡️ Простой промпт → Общий ответ.
➡️ Детальный промпт → Детальный результат.
В карточках — ключевые понятия, структура идеального промпта и мощные техники вроде Few-Shot Learning.
Изображения: freepik.com
#практикум_GenAI
❤4👏4🔥2
ИИ — НА МЫЛО?!
⭕️ 147 лет традиций закончились. Технология победила, но первый же сезон показал: не всё так просто.
Июль 2025, Wimbledon, Centre Court. Мяч британки Сонай Картал уходит за линию — чистый «аут». Система молчит. Анастасия Павлюченкова останавливается, ожидая вызова. Судья поднимает трубку, через минуту объявляет: «Система не смогла отследить мяч».
Павлюченкова теряет гейм. Wimbledon позже, конечно, извинился.
А ведь это впервые за 147 лет, когда турнир убрал всех 300 линейных судей, заменив их искусственным интеллектом.
Что произошло:
⭕️ Все турниры под эгидой Ассоциации теннисистов-профессионалов перешли на Electronic Line Calling Live
⭕️ Wimbledon впервые за 147 лет без судей
⭕️ Технология: 18 камер, точность 3 мм, реакция 0,1 секунды
⭕️ Единственное исключение: French Open сохранил линейных судей
Первый сезон — провальный?
Скандалы Wimbledon 2025:
⭕️ Система отключалась — пропустила 3 мяча «out» в одном матче
⭕️ Технические сбои — вызов «fault» в середине розыгрыша
⭕️ Не слышно — игроки жаловались на тихий автоматический голос
Так ИИ — на мыло?
Не совсем. Защитники технологии правы:
→ Линейные судьи тоже ошибались
→ ИИ точнее в 99% случаев
→ Современные подачи летят 240 км/ч — человек физически не успевает
→ Единообразие на всех турнирах
Проблема в другом: когда линейный судья ошибается — его ошибку видно и можно оспорить. Когда ошибается «чёрный ящик» — непонятно, кто виноват и как это исправить.
Где ещё ИИ работает в спорте
⭕️ Прогнозирование травм — анализ движений выявляет опасные паттерны
⭕️ Персональные тренировки — коррекция техники в реальном времени
⭕️ Анализ соперников — разработка стратегий на основе данных
⭕️ Для болельщиков — персонализированные трансляции, прогнозы
Этика и выводы
⭕️ ИИ в спорте этичен, если не нарушает регламент
⭕️ Должен быть инструментом, а не заменой человека
⭕️ Главное — надёжность и прозрачность
Урок Wimbledon 2025
ИИ точнее человека в 99% случаев. Но 1% ошибок создаёт 100% недоверия. Технология неизбежна, но должна быть надёжной и объяснимой. Когда система сбоит — должен быть запасной план, а не хаос на корте. ИИ должен усиливать справедливость, а не подрывать доверие. Wimbledon 2025 показал: путь к идеальной технологии только начинается. Но отступать уже некуда — будущее за гибридными решениями: ИИ + человеческий контроль.
Источники:
• CNN, Sky Sports, TechCrunch — репортажи с Wimbledon 2025
• «Белая книга этики в сфере ИИ», 2024
Июль 2025, Wimbledon, Centre Court. Мяч британки Сонай Картал уходит за линию — чистый «аут». Система молчит. Анастасия Павлюченкова останавливается, ожидая вызова. Судья поднимает трубку, через минуту объявляет: «Система не смогла отследить мяч».
Павлюченкова теряет гейм. Wimbledon позже, конечно, извинился.
А ведь это впервые за 147 лет, когда турнир убрал всех 300 линейных судей, заменив их искусственным интеллектом.
Что произошло:
Первый сезон — провальный?
Скандалы Wimbledon 2025:
Эмма Радукану, теннисистка:
«Разочаровывает, что могут быть такие ошибки»
Джек Дрейпер, теннисист:
«Не думаю, что это 100% точно. Несколько вызовов были явно неправильными»
Бывший линейный судья Wimbledon (16 лет работы):
«Голос звучит неуверенно — как будто говорит «аут... наверное». Это неловко»
Так ИИ — на мыло?
Не совсем. Защитники технологии правы:
→ Линейные судьи тоже ошибались
→ ИИ точнее в 99% случаев
→ Современные подачи летят 240 км/ч — человек физически не успевает
→ Единообразие на всех турнирах
Проблема в другом: когда линейный судья ошибается — его ошибку видно и можно оспорить. Когда ошибается «чёрный ящик» — непонятно, кто виноват и как это исправить.
Где ещё ИИ работает в спорте
Этика и выводы
Дмитрий Кузнецов, ВШЭ
«ИИ изменит спорт до неузнаваемости. Но в центре всегда остаются Человек, величие его духа и гармония тела».
Урок Wimbledon 2025
ИИ точнее человека в 99% случаев. Но 1% ошибок создаёт 100% недоверия. Технология неизбежна, но должна быть надёжной и объяснимой. Когда система сбоит — должен быть запасной план, а не хаос на корте. ИИ должен усиливать справедливость, а не подрывать доверие. Wimbledon 2025 показал: путь к идеальной технологии только начинается. Но отступать уже некуда — будущее за гибридными решениями: ИИ + человеческий контроль.
• CNN, Sky Sports, TechCrunch — репортажи с Wimbledon 2025
• «Белая книга этики в сфере ИИ», 2024
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥2😨2
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👍2👌2
Продвинутые методики: Фабрика промптов и RAG
Когда базового промптинга становится мало, в игру вступают продвинутые методики, которые превращают ИИ из собеседника в автономного агента.
❤️ Мы в 7LOGIC разработали собственную «Фабрику Промптов» — специального ИИ-помощника, который задает уточняющие вопросы и генерирует готовые системные промпты под вашу задачу. Это снижает количество итераций и стандартизирует работу команды.
📚 Еще один ключевой метод — RAG (Retrieval-Augmented Generation), когда ИИ перед ответом ищет информацию в вашей базе знаний, что резко снижает количество «галлюцинаций».
Подробнее — в карточках.➡️
Изображения: freepik.com
#практикум_GenAI
Когда базового промптинга становится мало, в игру вступают продвинутые методики, которые превращают ИИ из собеседника в автономного агента.
Подробнее — в карточках.
Изображения: freepik.com
#практикум_GenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥2❤1
Карпатый говорит, что создавал проект для совместного чтения книг с моделями и сравнения разных интерпретаций содержания — это помогает глубже вникнуть в суть. Но приложение позволяет в целом сравнивать логику моделей и наблюдать, как они принимают коллективные решения.
Проект доступен на GitHub под названием LLM Council.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3👏2
КУРСОВАЯ С НЕЙРОСЕТЬЮ: СПИСАЛ ИЛИ НЕТ?
В России уже есть правила использования ИИ в образовании. Вот только подходы разные.
🎓НИУ ВШЭ в мае 2024 принял регламент, где прописано чёрным по белому: отсутствие упоминания об использовании нейросетей в работе — нарушение академических норм. Один из вариантов санкций - могут снизить оценку.
🎓МГПУ пошёл совсем другим путём. В августе 2023 университет официально разрешил студентам использовать ИИ для подготовки материалов. Легализовал технологию. Можно применять чат-боты для получения данных и текстов при работе.
📝Снижать оценку только за подозрение — не совсем этично. Но и игнорировать массовое использование ИИ — тоже не выход.
Эксперты сходятся в одном: дело не в инструменте. Дело в том, что именно проверяется. Если цель — запоминание информации, то ИИ делает это бессмысленным. Но если цель — понимание, анализ, критическое мышление... Тогда ИИ — просто инструмент. Как калькулятор.
📱Простая аналогия. Калькулятор на экзамене по математике запрещён — проверяется навык счёта. Но в реальной работе инженер обязан его использовать. Иначе неэффективен.
С ИИ то же самое. Запрещать его в учёбе — готовить людей к миру, которого уже нет.
🗂Та же история в корпоративном мире. Сотрудники используют нейросети для отчётов, презентаций, аналитики. Компании даже требуют использовать ИИ для продуктивности.
А потом приходит время оценивать компетенции. И HR в растерянности: как понять, что сотрудник разбирается в теме, если отчёт написан ИИ?
🚫Старые системы оценки не работают. Решение есть: не наказывать автоматически, но создать прозрачные правила. Требовать указания, где использован ИИ. Сместить фокус с «обнаружения инструмента» на проверку понимания. Устные экзамены, защиты, обсуждения.
Обучать этичной работе с ИИ. Не демонизировать.
✔Главная проблема — отсутствие единого подхода. ВШЭ регламентирует через обязательное указание использования. МГПУ легализует применение. Но нет общей рамки, нет единых стандартов.
ИИ — не «списывание». Это новая реальность. Нужны не запреты, а ясные правила, единые для всех.
❓А вы как считаете, нужно регламентировать применение ИИ в учёбе и работе?
Изображения: freepik.com
В России уже есть правила использования ИИ в образовании. Вот только подходы разные.
🎓НИУ ВШЭ в мае 2024 принял регламент, где прописано чёрным по белому: отсутствие упоминания об использовании нейросетей в работе — нарушение академических норм. Один из вариантов санкций - могут снизить оценку.
🎓МГПУ пошёл совсем другим путём. В августе 2023 университет официально разрешил студентам использовать ИИ для подготовки материалов. Легализовал технологию. Можно применять чат-боты для получения данных и текстов при работе.
📝Снижать оценку только за подозрение — не совсем этично. Но и игнорировать массовое использование ИИ — тоже не выход.
Эксперты сходятся в одном: дело не в инструменте. Дело в том, что именно проверяется. Если цель — запоминание информации, то ИИ делает это бессмысленным. Но если цель — понимание, анализ, критическое мышление... Тогда ИИ — просто инструмент. Как калькулятор.
📱Простая аналогия. Калькулятор на экзамене по математике запрещён — проверяется навык счёта. Но в реальной работе инженер обязан его использовать. Иначе неэффективен.
С ИИ то же самое. Запрещать его в учёбе — готовить людей к миру, которого уже нет.
🗂Та же история в корпоративном мире. Сотрудники используют нейросети для отчётов, презентаций, аналитики. Компании даже требуют использовать ИИ для продуктивности.
А потом приходит время оценивать компетенции. И HR в растерянности: как понять, что сотрудник разбирается в теме, если отчёт написан ИИ?
🚫Старые системы оценки не работают. Решение есть: не наказывать автоматически, но создать прозрачные правила. Требовать указания, где использован ИИ. Сместить фокус с «обнаружения инструмента» на проверку понимания. Устные экзамены, защиты, обсуждения.
Обучать этичной работе с ИИ. Не демонизировать.
✔Главная проблема — отсутствие единого подхода. ВШЭ регламентирует через обязательное указание использования. МГПУ легализует применение. Но нет общей рамки, нет единых стандартов.
ИИ — не «списывание». Это новая реальность. Нужны не запреты, а ясные правила, единые для всех.
❓А вы как считаете, нужно регламентировать применение ИИ в учёбе и работе?
Изображения: freepik.com
❤4👍4🥰2
Умение задавать вопросы, а не искать ответы
Раньше ценились знания. Теперь ещё и способность их получать и интерпретировать. Научите ребёнка формулировать правильные вопросы, а не запоминать готовые решения.
Критическое мышление
ИИ выдаёт ответы уверенно и связно — мозг автоматически им доверяет. Но нейросети ошибаются. Приучайте детей проверять информацию, искать источники, сомневаться в правдоподобности.
Гибкость мышления
Линейные карьеры уходят в прошлое. Сегодняшние дети будут менять профессии несколько раз за жизнь, совмещать разные направления, работать над параллельными проектами. Учите их не бояться смены курса.
Умение управлять ИИ
Это новая грамотность. Так же, как наше поколение училось работать с компьютером, современные дети должны научиться эффективно взаимодействовать с нейросетями: правильно формулировать запросы, понимать ограничения технологии, проверять результаты.
Глубокое мышление
Когда всё можно узнать за секунду, умение думать часами над сложной задачей становится редким преимуществом. Чтение книг, размышления, самостоятельный анализ — это то, что отличает человека от ИИ.
️
Не запрещайте детям пользоваться ИИ — это бесполезно. Учите делать это осознанно. Пусть ребёнок сначала подумает сам, потом спросит у нейросети, затем проверит ответ и сформирует своё мнение.
Развивайте речь. Устная и письменная речь задействует все когнитивные функции: память, внимание, логику, абстрактное мышление. Разговаривайте с детьми о сложном, просите объяснять свои мысли.
Поддерживайте любознательность. В мире, где учиться придётся всю жизнь, умение и желание узнавать новое — главный актив.
Сохраняйте живое общение. Эмоции, эмпатия, совместное творчество — области, где человек всегда будет сильнее ИИ. И они развиваются только через коммуникацию с людьми.
ИИ — это инструмент, который усиливает возможности человека. Но только если человек умеет им управлять. Задача родителей — вырастить не соперников нейросетям, а людей, которые используют технологии для развития собственного мышления, а не для его замены.
Изображение: freepik.com
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥4🤝2