7Logic Интернет-маркетинг – Telegram
7Logic Интернет-маркетинг
55 subscribers
180 photos
12 videos
3 files
53 links
7LOGIC | Digital & AI | агентство с 15-летним опытом работы на рынке. Специализируемся на комплексном развитии бизнеса через ии-внедрение и digital-инструменты.
Download Telegram
Генеративный ИИ: суть и выбор инструмента

Генеративный ИИ — это не магия, а технология, создающая новый контент на основе анализа миллионов примеров. Система изучает глубинные закономерности (паттерны) и генерирует уникальный текст, изображение или музыку.
Но как выбрать подходящий инструмент из десятков моделей?

Ключ — в понимании их специализации:
- GPT-5 — для креативных задач и сложных рассуждений.
- Claude — для анализа длинных документов и структурирования.
- Gemini — лучшая мультимодальность (работа с текстом, изображением, видео).
- Llama — для локального запуска и полной конфиденциальности.

Смотрите в карточках сравнение моделей и примеры их применения в России.

Чтобы не пропустить продолжение — подписывайтесь на наш канал! Впереди разберем, что такое «артефакты» в ИИ и как составлять промпты, которые работают. Сохраняйте себе, делитесь с коллегами и смело задавайте вопросы: мы на связи!

Изображения: freepik.com
#практикум_GenAI
4🔥4🥰21
МОЖНО ЛИ ДОВЕРЯТЬ НЕЙРОСЕТЯМ?

📞Всё больше компаний внедряют различные модели искусственного интеллекта для подготовки коммерческих предложений, анализа данных и отчетов, ответов клиентам через чат-боты или генерации контента для маркетинга.
❗️НО: ИИ может «галлюцинировать» — выдавать несуществующие факты.

Реальный пример (исследование Вашингтонского университета): ученые попросили ИИ Perplexity рассказать о НЕСУЩЕСТВУЮЩЕЙ теории «Jevin's theory of social echoes».
Результат: ИИ предоставил подробную концепцию + ссылки на несуществующие источники.


➡️Почему это происходит:
• ИИ учится на данных из интернета (где есть ошибки)
• Если точного ответа нет, ИИ «додумывает» на основе закономерностей
• Выглядит убедительно, но может быть полностью ложным

➡️Чем это грозит:
Сценарий 1 Юридические проблемы: Сотрудник использует ChatGPT для подготовки договора → ИИ «галлюцинирует» несуществующую статью закона → компания несет убытки
Сценарий 2 Репутационные потери: Маркетолог генерирует пост с фактами → факты неверны → потеря доверия клиентов
Сценарий 3 Неэффективные решения: Аналитик запрашивает у ИИ отраслевую статистику → получает выдуманные цифры → компания принимает неверное стратегическое решение

➡️Как избежать проблем:
• ВСЕГДА проверять факты в первоисточниках
• Критически относиться к информации от ИИ
• Помнить: ответственность за использование ложной информации лежит на пользователе, не на ИИ
• Читать условия использования

Дарья Чирва, университет ИТМО:
Человек несет ответственность за любое утверждение. Генерация текстов с помощью ИИ не снимает эту ответственность. Проверка любого факта — необходимый элемент грамотного использования ИИ-инструментов.

🤝Важно помнить: ИИ — это не база данных с единственно верными ответами. Он больше похож на стажера, который учился на всех данных из интернета — и на качественных, и на ошибочных. Поэтому его ответы требуют проверки и критического осмысления.

Пост подготовлен с использованием материалов издания «Белая книга этики в сфере искусственного интеллекта»
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥32
Искусство промптинга: как разговаривать с ИИ

Главный секрет работы с генеративным ИИ: Качество ответа = Качество вашего промпта.

Промпт — это не программирование, а коммуникация. Вы даете точную инструкцию, где словами описываете задачу, контекст и ожидаемый результат. Представьте, что объясняете задачу умному помощнику: чем четче, тем лучше.

➡️ Простой промпт → Общий ответ.
➡️ Детальный промпт → Детальный результат.

В карточках — ключевые понятия, структура идеального промпта и мощные техники вроде Few-Shot Learning.

И не забывайте сохранять карточки себе, с этими подсказками вам будет легче начать работать с нейросетями.

Изображения: freepik.com
#практикум_GenAI
4👏4🔥2
ИИ — НА МЫЛО?!
⭕️147 лет традиций закончились. Технология победила, но первый же сезон показал: не всё так просто.
Июль 2025, Wimbledon, Centre Court. Мяч британки Сонай Картал уходит за линию — чистый «аут». Система молчит. Анастасия Павлюченкова останавливается, ожидая вызова. Судья поднимает трубку, через минуту объявляет: «Система не смогла отследить мяч».
Павлюченкова теряет гейм. Wimbledon позже, конечно, извинился.
А ведь это впервые за 147 лет, когда турнир убрал всех 300 линейных судей, заменив их искусственным интеллектом.


Что произошло:
⭕️Все турниры под эгидой Ассоциации теннисистов-профессионалов перешли на Electronic Line Calling Live
⭕️Wimbledon впервые за 147 лет без судей
⭕️Технология: 18 камер, точность 3 мм, реакция 0,1 секунды
⭕️Единственное исключение: French Open сохранил линейных судей

Первый сезон — провальный?
Скандалы Wimbledon 2025:
⭕️Система отключалась — пропустила 3 мяча «out» в одном матче
⭕️Технические сбои — вызов «fault» в середине розыгрыша
⭕️Не слышно — игроки жаловались на тихий автоматический голос

Эмма Радукану, теннисистка:
«Разочаровывает, что могут быть такие ошибки»

Джек Дрейпер, теннисист:
«Не думаю, что это 100% точно. Несколько вызовов были явно неправильными»

Бывший линейный судья Wimbledon (16 лет работы):
«Голос звучит неуверенно — как будто говорит «аут... наверное». Это неловко»

Так ИИ — на мыло?
Не совсем.
Защитники технологии правы:
→ Линейные судьи тоже ошибались
→ ИИ точнее в 99% случаев
→ Современные подачи летят 240 км/ч — человек физически не успевает
→ Единообразие на всех турнирах

Проблема в другом: когда линейный судья ошибается — его ошибку видно и можно оспорить. Когда ошибается «чёрный ящик» — непонятно, кто виноват и как это исправить.

Где ещё ИИ работает в спорте
⭕️ Прогнозирование травм — анализ движений выявляет опасные паттерны
⭕️ Персональные тренировки — коррекция техники в реальном времени
⭕️ Анализ соперников — разработка стратегий на основе данных
⭕️ Для болельщиков — персонализированные трансляции, прогнозы

Этика и выводы
⭕️ ИИ в спорте этичен, если не нарушает регламент
⭕️Должен быть инструментом, а не заменой человека
⭕️ Главное — надёжность и прозрачность

Дмитрий Кузнецов, ВШЭ
«ИИ изменит спорт до неузнаваемости. Но в центре всегда остаются Человек, величие его духа и гармония тела».

Урок Wimbledon 2025
ИИ точнее человека в 99% случаев. Но 1% ошибок создаёт 100% недоверия. Технология неизбежна, но должна быть надёжной и объяснимой. Когда система сбоит — должен быть запасной план, а не хаос на корте. ИИ должен усиливать справедливость, а не подрывать доверие. Wimbledon 2025 показал: путь к идеальной технологии только начинается. Но отступать уже некуда — будущее за гибридными решениями: ИИ + человеческий контроль.

Источники:
• CNN, Sky Sports, TechCrunch — репортажи с Wimbledon 2025
• «Белая книга этики в сфере ИИ», 2024
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3🔥2😨2
⭕️Напоминаем, что у нас продолжается серия публикаций с практическими материалами с воркшопа! Сохраняйте полезные карточки по GenAI — всё структурировано и готово к применению. Ищите по хештегу: #практикум_GenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2👌2
Продвинутые методики: Фабрика промптов и RAG
Когда базового промптинга становится мало, в игру вступают продвинутые методики, которые превращают ИИ из собеседника в автономного агента.

❤️ Мы в 7LOGIC разработали собственную «Фабрику Промптов» — специального ИИ-помощника, который задает уточняющие вопросы и генерирует готовые системные промпты под вашу задачу. Это снижает количество итераций и стандартизирует работу команды.

📚 Еще один ключевой метод — RAG (Retrieval-Augmented Generation), когда ИИ перед ответом ищет информацию в вашей базе знаний, что резко снижает количество «галлюцинаций».

Подробнее — в карточках. ➡️

Изображения: freepik.com
#практикум_GenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥21
❤️ Автор вайб-кодинга создал приложение, где ИИ-модели спорят и выбирают лучший ответ

🔴Андрей Карпатый — сооснователь OpenAI и автор понятия «вайб-кодинг» — выложил на GitHub приложение LLM Council. В нём несколько больших языковых моделей параллельно отвечают на один вопрос, сравнивают ответы друг друга и формулируют финальный оптимальный ответ.

🔴Интерфейс напоминает ChatGPT, но с принципиальной разницей: один и тот же запрос отправляется сразу нескольким моделям через OpenRouter, а затем между ними происходят дебаты. По умолчанию в «совет» входят GPT-5.1, Gemini 3 Pro Preview, Claude Sonnet 4.5 и Grok-4, но можно добавить другие модели.

💻 Как это работает: каждая модель получает вопрос и даёт свой вариант ответа в отдельной вкладке. Затем модели получают анонимные ответы «коллег» и оценивают их по точности и полезности. Модель, которую пользователь назначил «главной», резюмирует мысли остальных и выдаёт окончательный ответ.
Карпатый говорит, что создавал проект для совместного чтения книг с моделями и сравнения разных интерпретаций содержания — это помогает глубже вникнуть в суть. Но приложение позволяет в целом сравнивать логику моделей и наблюдать, как они принимают коллективные решения.

❗️Это интересный подход к проблеме точности ИИ: вместо того чтобы полагаться на одну модель, можно получить консенсус нескольких. Как экспертная комиссия, но из нейросетей. В бизнесе это может быть полезно для принятия критически важных решений, где цена ошибки высока.
Проект доступен на GitHub под названием LLM Council.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3👏2