{AI} love you | Нейросет – Telegram
{AI} love you | Нейросет
245 subscribers
89 photos
16 videos
88 links
Авторский канал о prompt-gramming.
Гайды, разборы, ревью, рекомендации и личные инсайты о нейросетях.

Автор — @troclap
____________
Курс "ChatGPT в работе"
на Stepik: https://stepik.org/a/200358
на GetCourse: https://ailoveyou.getcourse.ru/gpt-assistant
Download Telegram
Анонс

На этой неделе стартует очередной набор курса "ChatGPT в работе" (уже 7-ой). Краткая сводка для тех, кто не видел предыдущих анонсов:
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Как всегда, есть обновления:
1️⃣ Записал полноценный блок про ChatGPT Plus (то есть платные функции: работа с файлами / мультимодальность).
2️⃣ Разборы кейсов теперь не только на вебинарах. Есть коллекция видео-разборов на платформе, рядом с видеоуроками.
3️⃣ Появился короткий гайд по установке и запуску Python локально, чтобы перформить код, сгенерированный ChatGPT. Это полезно в массе случаев.
4️⃣ В тестовом режиме появится telegram-бот с бесплатным доступом к GPT-4, чтобы хотя бы прикоснуться к более продвинутому пониманию языка.

Linkset
Подробности на сайте
Простой пример работы готового ИИ-ассистента (нужен VPN)
Презентация учебных ИИ-ассистентов с предыдущего набора

Курс можно также пройти индивидуально в свободном темпе.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤‍🔥111🔥1👏1💯1
Курс начался, курс закончился

Хочу рассказать про самый сильный проект, получившийся на выходе с вот-вот минувшего курса про ChatGPT. Его автор — Александр Скворцов. Идея GPT-ассистента проста и одновременно оригинальна: генератор древних новостей (до н.э.), написанных в репортажном стиле и проиллюстрированных реалистичной фотографией. Результаты можно посмотреть в специальном телеграм-канале, а разбор внутренней механики в презентации ассистента.

⚡️🌧 Потоп остановил строительство пирамиды

Сильнейщий ливень, обрушевшийся сегодня на плато Гизы, стал причиной остановки строительных работ Великой пирамиды. Дата возобновления строительства уточняется.

11 февраля 2567 года до н.э.


Если коротко, ассистент построен на мегапромпте с двумя типами загруженных референсов (эталонные примеры новостей и фотографий). Формат строго выверен, чтобы соответствовать telegram-публикации. Содержание может быть слегка некорректным в историческом плане, но точно позволяет прикоснуться к эпохе, на самом деле, к массе эпох до нашей эры.

В-общем, подписывайтесь на канал и следите за новостями, которые не угнетают в отличие от актуальных 😁

#text #chatgpt #gpts #edu
🔥11👍1
Стабильные юзкейсы

После праздников будет год как случился релиз GPT-4, который до сих пор остается лидером в восприятии людей (хотя Gemini формально побил его по ключевым бенчмаркам). В прошлом марте было много других громких релизов, и сейчас блогеры тоже в предвкушении. Пока ничего такого не произошло, интересно взглянуть на юзкейсы, которые за год докрутили до стабильного использования ⚓️

Есть один с любопытнейшей судьбой. Это генерация SEO-контента.

Весь год десятки людей озвучивали эту идею, потому что очень и очень многие вовлечены в производство текстов. И напрашивается само собой. После месячного тестирования я скорее скептически относился к этой идее, и кажется новички, озвучивавшие идею написания статей, тоже быстро разочаровывались 😕. Все серьезные русскоязычные игроки сконцентрировались на ИИ-помощниках (copilot) для написания текстов. Прикрутили ключевые фичи: переписать, сократить, расширить, заменить на синоним и т.д.

Всё так, но недавно в англоязычном подкасте услышал мысль, что AGI в задаче блогинга уже достигнут, то есть ИИ способен справляться с задачей не хуже профессионала. Автор мысли пояснял, что мы пропустили этот момент из-за размытости формулировки AGI. Это меня удивило 😮. Ощущение из России, что до этого далеко. Мы бы сразу увидели, как ИИ-тексты заполонили бы интернет. Этого нет 🚫

При более внимательном изучении вопроса оказалось, что да, англоязычный Youtube полон рассказов про генерацию 623 статей за 6 минут . Публикуются статьи не сразу, а например, раз в час. И да — это работает на SEO-продвижение в определенных пределах 📈. Одна большая статья с нуля (на 3000 слов с 4-5 хорошими картинками) стоит около 1$, и некоторые реализуют сразу тематические веб-сайты с сотнями страниц за 200$.

Естественная реакция на это, что текст в интернете скоро просто перестанут читать 🤮. Эта точная реакция приводит, на самом деле, к двум противоположным выводам:
1. Нет, не перестанут. Далеко не обо всем уже создан текст в интернете, и грамотные веб-мастера создают именно нишевые тематические веб-сайты, которым всё еще есть место / спрос. А ведь есть области сознательной цензуры 🤐
2. Да, перестанут. Многие американские маркетологи сознательно уходят от текста в сторону мультимедиа, особенно на ютуб, где человеки легко выигрывают конкуренцию у ИИ 🏆

Накидайте в комментариях другие юзкейсы, которые плотно вошли в жизнь. Поищу среди них неочевидные факты и последствия 🕵️‍♂️

#usecase #text #seo
Please open Telegram to view this post
VIEW IN TELEGRAM
Чат с документом 📄💬

В топе юзкейсов также расположился чат с базой знаний. Берешь большой документ (на сотни страниц), не читаешь его, а только достаешь нужные ответы 🔍📖. Все, кто интересовался этой задачей, успели выучить слово RAG (Retrieved Augmented Generation), по-русски это можно перевести как "генерация на основе извлеченного текста". Из документа достаются небольшие фрагменты (chunks) и помещаются в контекстное окно LLM. Выбор кусков происходит на основе схожести (similarity) с промптом, причем в векторном пространстве (то есть после числовой кодировки текста), по-другому эту технологию называют "векторный поиск". Это настолько популярная задача, что она быстро проникла в Zoom как диалог с транскрипцией созвона, в ноябре появилась в ChatGPT, Google внедрил технологию в Google Диск и Gmail. На днях она появилась даже в Adobe Acrobat, внутри него можно общаться с PDF-файлами и делать их саммари.

Казалось бы задача решена 🎯. Однако пользовательские RAG-чатботы страдают случайностью 🎲, потому что извлекают из документа далеко не все нужные для ответа фрагменты. У меня есть RAG-чатбот внутри ChatGPT по расшифровкам всех уроков курса (около 90 страниц текста). Качество взаимодействия очень среднее, при ответе на вопросы, касающиеся всего курса, он залипает на конкретном уроке. Разработчики кастомных RAG-чатботов выстраивают сложную механику: вытаскивают из документа фрагменты через целый ряд промптов, похожих на пользовательский 🔄, чтобы не залипать в одном месте документа. Увеличивается охват релевантной информации перед генерацией ответа. Наверное, это звучит излишне технично. Ровно поэтому все рады очередному расширению контекстного окна до 1М от Gemini 1.5 🎉.
Большое контекстное окно = Избавление от RAG

Вместо векторного поиска LLM просто прочитывает весь документ с надежностью в 99% 👀.

Казалось бы, решение найдено 🎯. Однако за качественное чтение 100-страничного русскоязычного текста при помощи GPT-4 придется заплатить около 0,7$, что окей для серьезных задач и многовато для рутины. Уже сейчас далеко не все LLM-приложения работают на GPT-4, зачастую GPT-3.5 достаточно и нет веских причин переплачивать.

Напоследок, расскажу про самый крутой кейс использования чатбота с документом 🌟. Берете учебник по языкознанию, помещаете его целиком в контекстное окно LLM, приходите к первобытному племени с собственным языком, декодируете новый язык и наслаждаетесь общением с новыми друзьями 😃🌍🗣

#text #rag #chatgpt #usecase
👍2
Forwarded from Сиолошная
Лидерборд LMSYS Chatbot Arena обновился второй раз за неделю!

Добавили модели Claude 3, и ещё во вторник появились модели Mistral Large / Mistral Next.

Для тех, кто не в курсе, Chatbot Arena — это место, где модели вслепую сраниваются реальными людьми. Вы заходите на платформу, пишете запрос, видите два ответа и выбираете лучший. Чем чаще выбираются результаты одной модели, тем выше она в рейтинге. Финальная оценка — рейтинг Эло (как в шахматах). Тут собраны десятки тысяч голосов, поэтому рейтинг достаточно честный и хорошо отражает некоторое абстрактное реальное качество модели.

Долгое время GPT-4-Turbo была в самом топе и в недосягаемости, со значимым отрывом.
1) Claude 3 Opus почти догнала: 1233+-8 очков против 1251+-5 у свежих GPT-4-Turbo
2) Claude 3 Sonet, версия поменьше и подешевле, обгоняет майскую GPT-4, а также Mistral Large
3) свежие Mistral Large / Mistral Medium сидят на 8-9 строчках рейтинга
4) самой лучшей опенсурсной моделью является Qwen1.5-72B-Chat, китайская модель, умеющая в разные языки

В целом, Claude 3 Sonet вышла неплохой — стоит сильно дешевле GPT-4/Turbo, но по ответам не так плоха ($3/$15 за миллион токенов Sonnet против $10/$30 у Trubo, а GPT-4 вообще $60/$120, если брать контекст 32k) . Осталось посмотреть более внимательно на даунстрим задачи, чтобы составить полную картинку.

За наводку спасибо автору @epsiloncorrect
🔥1
Forwarded from Сиолошная
Вернёмся на минутку ко вчерашнему посту про лидерборд Chatbot Arena

Вот написано, что рейтинг GPT-4-Turbo 1251, Claude 3 Opus 1233, а Mistral Large 1155. Такая разница — это много или мало? Как её интерпретировать?

Вообще система Эло рейтинга построена так, что сам рейтинг позволяет оценить вероятность победы одного игрока (или модели) над другим. Если рейтинг одинаковый, то шансы 50/50. Если разница 500 очков, то игрок с более низким рейтингом будет проигрывать 99.9%+ игр.

К сожалению, в расчёте есть маленькая техническая особенность — рейтинг оценивается относительно слабой модели LLAMA-2 (нужна ведь точка отсчёта), а не для каждой-с-каждой LLM. Однако мы можем посмотреть на попарные сравнения конкретных моделей, посчитать долю побед одной и второй, и в целом это должно биться с рейтингом. Так что ниже я оперирую именно процентами побед в «очных встречах», а не рейтингом, но они сильно связаны, и при большом количестве голосов должны быть идентичны.

Итак, давайте сравнивать:
1) GPT-4-Turbo VS Claude 3 Opus. Разница в рейтинге минорная. Но если задать моделям 100 вопросов, то в 54 более предпочтительным будем ответ модели OpenAI, а в 46 — Anthropic. 54/46, достаточно близко!
2) GPT-4-Turbo VS Google Bard: 57/43, уже грустнее
3) GPT-4-Turbo VS Mistral Large: 75/25 (!!! огромнейший разрыв). То есть если вы зададите моделям 100 вопросов, то в 75 из них вы прям заметите, что ответ GPT лучше — это существенная разница.

Ну а дальше всё еще грустнее:
4) GPT-4-Turbo VS ChatGPT (GPT 3.5): 77/23 (поэтому не нужно оценивать качество моделей по бесплатной версии)
5) Claude 3 Sonet (бесплатная в веб-версии) VS ChatGPT: 68/32 (-> не нужно использовать бесплатную модель от OpenAI)

То есть разница в 40-50+ рейтинга — это уже существенное и заметное на практике отличие одной модели от другой.

Остальные цифры можете найти тут или в первом комментарии.
Look Alike 👀🔄

Не раз писал про рекомендательные способности LLM. На праздниках извлек пока самую яркую пользу от этих возможностей. Есть не типичная для меня область — это компьютерные игры 🎮. Мы с дочерью случайно наткнулись на квест-игру Tiny Room Stories от инди гейм-студии Kiary Games (делают русские на Кипре) и влюбились в нее. Оазис в пустыне неизведанного 🏜

Одно обращение к ChatGPT
помогло найти 5 аналогов и понять жанровую специфику (exit-квесты) 🕵️‍♂️. Параллельно воспользовался еще двумя рекомендательными системами (внутри Google Play и Steam), и ChatGPT победил. Наконец, киллерфича look alike через LLM — это рекомендательный трансфер. В моем случае я удовлетворил свой основной запрос и придумал новый: аналоги Tiny Room Stories в мире настольных игр. Получил прекрасный ответ! 🧡 Проверил через Board Game Geek (аналог IMDb среди настольных игр).

Выводы
1. Систем рекомендательного трансфера (видеоигры-в-настолки / книги-в-кино / блюдо-в-кафе) не существует, но они принципиально возможны.
2. Метод Look Alike (или few-shot промпт) контринтуитивно работает лучше в незнакомой среде 🆕
3. Если совместить первые два вывода, получается интересный прием: импортировать данные о себе, которых много (например, кино-музыкальные предпочтения / заметки о себе), и конвертировать в рекомендации среди неизведанного.


#lookalike #text #chatgpt #games
🔥1
Без LLM-галлюцинаций

👻 Галлюцинации (правдоподобные ложные суждения) — одна из наиболее устойчивых проблем языковых нейросетей. Они понижают надежность LLM-приложений и ограничивают сферу применения тем, где невелика цена ошибки ⚖️.

На скриншоте первый способ, как смириться с их существованием и не вестись на обман за счет индикатора уверенности, с которой ИИ-чатбот генерирует ответ (чем выше, тем больше доверия ответу).

Второй способ (тоже не-широко известен) — это подключать LLM к Knowlegde Graph, специальной базе знаний, которая содержит только верные суждения в максимально сжатой форме триад. Например: {"Пеле"; "родом из"; "Бразилия"} ⚽️. Это похоже на текст, высушенный до сухих фактов.

Помимо более мощных LLM-моделей, которые ожидаются во второй половине года, будет много вот такого оптимизаторства 🛠.


#text #gallucination #llm #promptgramming
Маствотч

Редкая видео-рекомендация — интервью Яна ЛеКуна в подкасте у Лекса Фридмана. С множеством технических деталей, но четко обозначающее пределы архитектуры трансформера (текущей версии LLM) и предлагающее альтернативу в виде JEPA. Новая архитектура нацелена обучить машину понимать до-/вне-языковые представления, которые не извлекаемы из естественного языка или извлекаемы, но с избыточной тратой энергии.

#mustwatch #llm #jepa
Prompt-grammer = Знаток интернета 🌐

Как известно, LLM на 2/3 обучалась чтением интернета, остальная треть приходится на чтение книг / научных статей / различного кода. Редкий человек, на самом деле, знает, чем наполнен интернет: в каких контекстах используются конкретные слова? какой диапазон значений у специальных символов (#{[/|<&$^*"'~%@)? какие сочетания слов / символов не встречаются в интернетах?

Когда разрабатывался логотип {AI} love you, я изучал семантику фигурных и квадратных скобок 🤔. Это любопытно. В качестве иллюстрации возьму не их, а более популярный в массах символ "#" (решетка).

Семь контекстов для символа #
1. Обозначение номера
2. Хэштеги в социальных сетях
3. Комментарии в коде
4. Цвета в веб-разработке
5. Уровни заголовков в Markdown
6. Каналы в IRC и Slack
7. Якоря в URL
Бонусы: альтернативная нотация в музыке (повышение ноты), читкоды, команды в текстовых играх.


При использовании # в промпте нужно контекстуализировать его, а также отстроиться от смежного, но не нужного контекста. Я взял специальный символ, чтобы идея была максимально понятна, но слова "лист" или "замок" точно так же многозначны, особенно, если вы хотите передать не смысл этих слов, а их визуальный образ.

Семь контекстов для слова "лист"
1. Последовательность элементов в Python
2. Электронная таблица
3. Лист бумаги в офисе
4. Страница макета в дизайне / верстке
5. Часть листвы
6. Ингредиент в кулинарном рецепте
7. Музыкальная партитура
Бонусы: рабочий лист с заданиями, путевой лист, план тренировок.


Контекстуализация — это то, в чем люди гении, "понимают с полуслова", "все всё понимают" и т.д. Людям, особенно близким людям нет равных в этом. К LLM здесь стоит относиться снисходительно, с терпением + держать в уме максимум контекстов, потому что LLM держит в уме их все (sic!) 😃

#llm #text #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Gemini 1.5 Pro 🔥🚀

Сжатие — самая естественная задача для LLM. Сама большая языковая модель получается, грубо говоря, сжатием интернета в 100 раз. До LLM проводили чемпионат по сжатию информации (типа зипования), и 🏆 рекордсмены достигали результатов сжатия в 8-9 раз. LLM оказалась чрезвычайно эффективной, правда не полностью надежной.

Вчера открыли доступ к Gemini 1.5 Pro с 1 миллионом токенов контекста, про который еще в феврале было понятно, что это бомба 💣💥. В него помещается 2000 русскоязычных страниц, 1 час видео покадрово, 11 часов аудио. Извлечение информации в Gemini 1.5 Pro работает с 99% надежностью, это выше, чем транскрибация аудио в текст (распространенная повсеместно, в том числе в Telegram и VK).


Задачу извлечения фактов из больших документов (Retrieval) тестируют на двух типах бенчмарок: "поиск иголки в стоге сена" (поиск факта, который встречается в тексте один раз) и "поиск N иголок в стоге сена" (поиск смежных фактов, которые встречаются в тексте один раз и в разных местах) 🌾. RAG-чатботы в дефолтной конфигурации не справляются со вторым типом задач, нужна модификация. Первый тип решается отлично, если запрос близок к ответу и если ответ содержится полностью в одном куске документа. Gemini 1.5 Pro с первого же моего теста справился со вторым типом задач. Феноменально хорошо 🌟

Сжатие и извлечение становятся безусловным лидером по надежности среди LLM-применений. Их стоит внедрять всюду, где это имеет смысл. В отличие от генерации ИИ-контента здесь все чувствуют морально-нейтральную пользу от LLM — она позволяет не читать лишнего и быстрее находить нужную информацию 🏅. Люди меньше работают, получают больше пользы, за рабочие места никто не конкурирует 🎉

#text #gemini #retrieval
This media is not supported in your browser
VIEW IN TELEGRAM
Новая нейросеть с виральными видео 😃 Научились вмонтировать сторонние сущности в реальное видео. Качество низкое, но идея свежая.

Название — Viggle AI (доступна бесплатно в Discord).

#release #video
🔥2
Анонс

На следующей неделе запускаю новый поток курса "ChatGPT в работе" (8-ой). Про что курс?
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Обновления:
1️⃣ Некоторые видеоуроки теперь находятся в открытом доступе на YouTube. Будут открываться и впредь, особенно разборы кейсов. ВАУ-эффект можете получить от распаковки ChatGPT Plus — в этом 15-минутном видео я шустро пробегаюсь по всему функционалу платной версии ChatGPT.
2️⃣ Полноценно появились telegram-бот с бесплатным доступом к GPT-4, а также веб-интерфейс с той же целью — прикоснуться к более продвинутой модели, труднодоступной в РФ.
3️⃣ Доступ к учебным материалам можно получить не только на платформе GetCourse, но и через Stepik. Для ценителей 😃
4️⃣ Возник общий чат на участников / выпускников разных потоков, чтобы поддерживать друг друга не только в течение одного месяца, но 365 дней в году.

Linkset
Подробности на сайте
Вводная лекция про LLM
Презентация генератора древних новостей (крутого GPT-ассистента одного из участников)

Курс можно пройти индивидуально в свободном темпе или в группе в синхронном формате. Новый поток не ограничен одной профессией, рассчитан на любых профессионалов.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Воскресное.

Недавно OpenAI открыл доступ к SORA для избранных видеомейкеров. Одна из опубликованных в итоге короткометражек сделана полностью на AI-сгенерированном материале, но с понятной и яркой человеческой историей, без отвлекающих артефактов. Ребята из shy kids придумали как избежать случайность технологии и подчинить картинку придуманной истории, пост-продакшен естественно никуда не делся. На мой взгляд, это пример хорошего видео, в котором есть всё, кроме съемки реальной реальности.

#video #sora #weekend
#ОбзорГены

Что не могло пройти мимо радаров на минувшей неделе, а также неожиданно нашло отклик? Возникла потребность еженедельно бросать якорь в области GenAI — оставлять на память ключевые события: релизы, новости, материалы и темы.

{ Свежак }

🔠 Adobe анонсировал ControlNet для Firefly под названием Structure reference. Можно сгенерировать изображение на основе структуры (depth и др.) input-изображения. Давно есть в Stable Diffusion, однако нет ни у DALL-E, ни у Midjourney.
🔠 Hume.ai выпустили голосового чатбота со способностью распознавать эмоции. Самобытная компания, названная по имени великого шотландского философа-эмпириста, обучает именно эмоциональные модели в разных модальностях (текст / изображение / речь / видео). Давно слежу за ними, использую их технологию в одном проекте.

{ Пульс }

⚡️ Claude 3 Opus опередил GPT-4 (последней версии) на Chatbot Arena Leaderboard, где пользователи вслепую голосуют за лучший ответ одной из двух моделей. А еще бесплатный Claude "на голову" лучше бесплатного ChatGPT, правда с более жесткими ограничениями на пользование.
⚡️ Модель YandexGPT 3 Pro можно дообучить под свои нужды в сервисе DataSphere. Яндекс стабильно отстает примерно на 1 год от OpenAI, зато они остаются лидерами для российских разработчиков, которые по тем или иным причинам не могут использовать зарубежные модели.

{ Текстуры }

Знаменитый Andrew Ng рассказал об AI Agentic workflows — по его мнению, результатов GPT-5 в zero-shot версии можно добиться уже сейчас за счет правильного Agentic workflow (итеративная генерация + добавление внешних инструментов). Авто-планирование шагов и мульти-агентные фреймворки, по его мнению, пока недостаточно надежны.
Ресерч по AI-детекторам — отличный разбор того, можно ли достоверно определить является ли текст ИИ-сгенерированным? Короткий ответ — нет.
ChatGPT справляется с задачами на программирование с leetcode — пользовательский разбор.

{ Перекресток мнений }

GPTs c кастомными функциями. Есть мнение, что GPT-store еще не успев полноценно заработать, уже превратился в помойку с тысячами не отличимых друг от друга GPT-ассистентами. Я соглашусь с этим мнением в том, что пока затраты на поиск и тестирование сторонних GPTs превышает выгоду. Однако всё меняет одна черта — наличие внешних (кастомных) функций, нереализованных внутри ChatGPT. В качестве примера Photo Realistic GPT, который под капотом использует Stable Diffusion вместо DALL-E.

#image #hume #text #claude #llm #finetuning #gpts #aiagent #coding
Please open Telegram to view this post
VIEW IN TELEGRAM
Скриншоты из лекции Andrew Ng
{1} типы элементов AI Agentic workflows
{2} эффективность Reflection
{3} типы внешних инструментов

#aiagent
2-ое место в AI Hackathon

Минувшую неделю провел в Кыргызстане. По приглашению Международного университета Центральной Азии выступил внешним экспертом в команде университета на AI Hackathon, организованном Парком высоких технологий в Бишкеке.

У нас в первый же день хакатона случилась нестыковка ожиданий и реальности. Мы готовились активно пилить прототип / MVP, а рамка хакатона оказалась не технической, а бизнесовой, и конечным результатом был 2-минутный (!!) питч перед жюри. Второй неожиданностью было то, что некоторые команды разрабатывали проект не с нуля (как это предполагает классический формат хакатона). Именно такой проект победил с крутой идеей "робота для настенной живописи" (типа настенного принтера), у них на руках уже был собранный прототип, который можно потрогать.

Мы же разрабатывали AI-сервис для развития креативности у студентов (наши pitchdeck, демо и собственно питч). Для прототипа взяли за основу 30 Circles Exercise — упражнение, где нужно дорисовать два исходных круга до узнаваемого объекта и так 30 раз. Креативность базово оценивается по количеству рисунков, разнообразию и оригинальности конкретных идей. AI в этом процессе дает подсказки (когда ступор) и оценивает конечные рисунки.

Мне было очевидно, что GPT-Vision здорово справится с задачей оценивания, приятным сюрпризом стало то, что текстовые AI-подсказки и оригинальные идеи от самого GPT тоже на уровне. Например, ChatGPT предложил нарисовать две стороны античной монеты. Ниже прикреплю несколько рисунков, которые нарисовали мы сами, когда устраивали внутренний контест.

P.s. картинка к посту, оказывается, стала реальностью даже в Кыргызстане.

#aihackathon #edu #image #vision
👍5
🔥4