{AI} love you | Нейросет – Telegram
{AI} love you | Нейросет
245 subscribers
89 photos
16 videos
88 links
Авторский канал о prompt-gramming.
Гайды, разборы, ревью, рекомендации и личные инсайты о нейросетях.

Автор — @troclap
____________
Курс "ChatGPT в работе"
на Stepik: https://stepik.org/a/200358
на GetCourse: https://ailoveyou.getcourse.ru/gpt-assistant
Download Telegram
Forwarded from Сиолошная
Вернёмся на минутку ко вчерашнему посту про лидерборд Chatbot Arena

Вот написано, что рейтинг GPT-4-Turbo 1251, Claude 3 Opus 1233, а Mistral Large 1155. Такая разница — это много или мало? Как её интерпретировать?

Вообще система Эло рейтинга построена так, что сам рейтинг позволяет оценить вероятность победы одного игрока (или модели) над другим. Если рейтинг одинаковый, то шансы 50/50. Если разница 500 очков, то игрок с более низким рейтингом будет проигрывать 99.9%+ игр.

К сожалению, в расчёте есть маленькая техническая особенность — рейтинг оценивается относительно слабой модели LLAMA-2 (нужна ведь точка отсчёта), а не для каждой-с-каждой LLM. Однако мы можем посмотреть на попарные сравнения конкретных моделей, посчитать долю побед одной и второй, и в целом это должно биться с рейтингом. Так что ниже я оперирую именно процентами побед в «очных встречах», а не рейтингом, но они сильно связаны, и при большом количестве голосов должны быть идентичны.

Итак, давайте сравнивать:
1) GPT-4-Turbo VS Claude 3 Opus. Разница в рейтинге минорная. Но если задать моделям 100 вопросов, то в 54 более предпочтительным будем ответ модели OpenAI, а в 46 — Anthropic. 54/46, достаточно близко!
2) GPT-4-Turbo VS Google Bard: 57/43, уже грустнее
3) GPT-4-Turbo VS Mistral Large: 75/25 (!!! огромнейший разрыв). То есть если вы зададите моделям 100 вопросов, то в 75 из них вы прям заметите, что ответ GPT лучше — это существенная разница.

Ну а дальше всё еще грустнее:
4) GPT-4-Turbo VS ChatGPT (GPT 3.5): 77/23 (поэтому не нужно оценивать качество моделей по бесплатной версии)
5) Claude 3 Sonet (бесплатная в веб-версии) VS ChatGPT: 68/32 (-> не нужно использовать бесплатную модель от OpenAI)

То есть разница в 40-50+ рейтинга — это уже существенное и заметное на практике отличие одной модели от другой.

Остальные цифры можете найти тут или в первом комментарии.
Look Alike 👀🔄

Не раз писал про рекомендательные способности LLM. На праздниках извлек пока самую яркую пользу от этих возможностей. Есть не типичная для меня область — это компьютерные игры 🎮. Мы с дочерью случайно наткнулись на квест-игру Tiny Room Stories от инди гейм-студии Kiary Games (делают русские на Кипре) и влюбились в нее. Оазис в пустыне неизведанного 🏜

Одно обращение к ChatGPT
помогло найти 5 аналогов и понять жанровую специфику (exit-квесты) 🕵️‍♂️. Параллельно воспользовался еще двумя рекомендательными системами (внутри Google Play и Steam), и ChatGPT победил. Наконец, киллерфича look alike через LLM — это рекомендательный трансфер. В моем случае я удовлетворил свой основной запрос и придумал новый: аналоги Tiny Room Stories в мире настольных игр. Получил прекрасный ответ! 🧡 Проверил через Board Game Geek (аналог IMDb среди настольных игр).

Выводы
1. Систем рекомендательного трансфера (видеоигры-в-настолки / книги-в-кино / блюдо-в-кафе) не существует, но они принципиально возможны.
2. Метод Look Alike (или few-shot промпт) контринтуитивно работает лучше в незнакомой среде 🆕
3. Если совместить первые два вывода, получается интересный прием: импортировать данные о себе, которых много (например, кино-музыкальные предпочтения / заметки о себе), и конвертировать в рекомендации среди неизведанного.


#lookalike #text #chatgpt #games
🔥1
Без LLM-галлюцинаций

👻 Галлюцинации (правдоподобные ложные суждения) — одна из наиболее устойчивых проблем языковых нейросетей. Они понижают надежность LLM-приложений и ограничивают сферу применения тем, где невелика цена ошибки ⚖️.

На скриншоте первый способ, как смириться с их существованием и не вестись на обман за счет индикатора уверенности, с которой ИИ-чатбот генерирует ответ (чем выше, тем больше доверия ответу).

Второй способ (тоже не-широко известен) — это подключать LLM к Knowlegde Graph, специальной базе знаний, которая содержит только верные суждения в максимально сжатой форме триад. Например: {"Пеле"; "родом из"; "Бразилия"} ⚽️. Это похоже на текст, высушенный до сухих фактов.

Помимо более мощных LLM-моделей, которые ожидаются во второй половине года, будет много вот такого оптимизаторства 🛠.


#text #gallucination #llm #promptgramming
Маствотч

Редкая видео-рекомендация — интервью Яна ЛеКуна в подкасте у Лекса Фридмана. С множеством технических деталей, но четко обозначающее пределы архитектуры трансформера (текущей версии LLM) и предлагающее альтернативу в виде JEPA. Новая архитектура нацелена обучить машину понимать до-/вне-языковые представления, которые не извлекаемы из естественного языка или извлекаемы, но с избыточной тратой энергии.

#mustwatch #llm #jepa
Prompt-grammer = Знаток интернета 🌐

Как известно, LLM на 2/3 обучалась чтением интернета, остальная треть приходится на чтение книг / научных статей / различного кода. Редкий человек, на самом деле, знает, чем наполнен интернет: в каких контекстах используются конкретные слова? какой диапазон значений у специальных символов (#{[/|<&$^*"'~%@)? какие сочетания слов / символов не встречаются в интернетах?

Когда разрабатывался логотип {AI} love you, я изучал семантику фигурных и квадратных скобок 🤔. Это любопытно. В качестве иллюстрации возьму не их, а более популярный в массах символ "#" (решетка).

Семь контекстов для символа #
1. Обозначение номера
2. Хэштеги в социальных сетях
3. Комментарии в коде
4. Цвета в веб-разработке
5. Уровни заголовков в Markdown
6. Каналы в IRC и Slack
7. Якоря в URL
Бонусы: альтернативная нотация в музыке (повышение ноты), читкоды, команды в текстовых играх.


При использовании # в промпте нужно контекстуализировать его, а также отстроиться от смежного, но не нужного контекста. Я взял специальный символ, чтобы идея была максимально понятна, но слова "лист" или "замок" точно так же многозначны, особенно, если вы хотите передать не смысл этих слов, а их визуальный образ.

Семь контекстов для слова "лист"
1. Последовательность элементов в Python
2. Электронная таблица
3. Лист бумаги в офисе
4. Страница макета в дизайне / верстке
5. Часть листвы
6. Ингредиент в кулинарном рецепте
7. Музыкальная партитура
Бонусы: рабочий лист с заданиями, путевой лист, план тренировок.


Контекстуализация — это то, в чем люди гении, "понимают с полуслова", "все всё понимают" и т.д. Людям, особенно близким людям нет равных в этом. К LLM здесь стоит относиться снисходительно, с терпением + держать в уме максимум контекстов, потому что LLM держит в уме их все (sic!) 😃

#llm #text #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Gemini 1.5 Pro 🔥🚀

Сжатие — самая естественная задача для LLM. Сама большая языковая модель получается, грубо говоря, сжатием интернета в 100 раз. До LLM проводили чемпионат по сжатию информации (типа зипования), и 🏆 рекордсмены достигали результатов сжатия в 8-9 раз. LLM оказалась чрезвычайно эффективной, правда не полностью надежной.

Вчера открыли доступ к Gemini 1.5 Pro с 1 миллионом токенов контекста, про который еще в феврале было понятно, что это бомба 💣💥. В него помещается 2000 русскоязычных страниц, 1 час видео покадрово, 11 часов аудио. Извлечение информации в Gemini 1.5 Pro работает с 99% надежностью, это выше, чем транскрибация аудио в текст (распространенная повсеместно, в том числе в Telegram и VK).


Задачу извлечения фактов из больших документов (Retrieval) тестируют на двух типах бенчмарок: "поиск иголки в стоге сена" (поиск факта, который встречается в тексте один раз) и "поиск N иголок в стоге сена" (поиск смежных фактов, которые встречаются в тексте один раз и в разных местах) 🌾. RAG-чатботы в дефолтной конфигурации не справляются со вторым типом задач, нужна модификация. Первый тип решается отлично, если запрос близок к ответу и если ответ содержится полностью в одном куске документа. Gemini 1.5 Pro с первого же моего теста справился со вторым типом задач. Феноменально хорошо 🌟

Сжатие и извлечение становятся безусловным лидером по надежности среди LLM-применений. Их стоит внедрять всюду, где это имеет смысл. В отличие от генерации ИИ-контента здесь все чувствуют морально-нейтральную пользу от LLM — она позволяет не читать лишнего и быстрее находить нужную информацию 🏅. Люди меньше работают, получают больше пользы, за рабочие места никто не конкурирует 🎉

#text #gemini #retrieval
This media is not supported in your browser
VIEW IN TELEGRAM
Новая нейросеть с виральными видео 😃 Научились вмонтировать сторонние сущности в реальное видео. Качество низкое, но идея свежая.

Название — Viggle AI (доступна бесплатно в Discord).

#release #video
🔥2
Анонс

На следующей неделе запускаю новый поток курса "ChatGPT в работе" (8-ой). Про что курс?
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Обновления:
1️⃣ Некоторые видеоуроки теперь находятся в открытом доступе на YouTube. Будут открываться и впредь, особенно разборы кейсов. ВАУ-эффект можете получить от распаковки ChatGPT Plus — в этом 15-минутном видео я шустро пробегаюсь по всему функционалу платной версии ChatGPT.
2️⃣ Полноценно появились telegram-бот с бесплатным доступом к GPT-4, а также веб-интерфейс с той же целью — прикоснуться к более продвинутой модели, труднодоступной в РФ.
3️⃣ Доступ к учебным материалам можно получить не только на платформе GetCourse, но и через Stepik. Для ценителей 😃
4️⃣ Возник общий чат на участников / выпускников разных потоков, чтобы поддерживать друг друга не только в течение одного месяца, но 365 дней в году.

Linkset
Подробности на сайте
Вводная лекция про LLM
Презентация генератора древних новостей (крутого GPT-ассистента одного из участников)

Курс можно пройти индивидуально в свободном темпе или в группе в синхронном формате. Новый поток не ограничен одной профессией, рассчитан на любых профессионалов.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Воскресное.

Недавно OpenAI открыл доступ к SORA для избранных видеомейкеров. Одна из опубликованных в итоге короткометражек сделана полностью на AI-сгенерированном материале, но с понятной и яркой человеческой историей, без отвлекающих артефактов. Ребята из shy kids придумали как избежать случайность технологии и подчинить картинку придуманной истории, пост-продакшен естественно никуда не делся. На мой взгляд, это пример хорошего видео, в котором есть всё, кроме съемки реальной реальности.

#video #sora #weekend
#ОбзорГены

Что не могло пройти мимо радаров на минувшей неделе, а также неожиданно нашло отклик? Возникла потребность еженедельно бросать якорь в области GenAI — оставлять на память ключевые события: релизы, новости, материалы и темы.

{ Свежак }

🔠 Adobe анонсировал ControlNet для Firefly под названием Structure reference. Можно сгенерировать изображение на основе структуры (depth и др.) input-изображения. Давно есть в Stable Diffusion, однако нет ни у DALL-E, ни у Midjourney.
🔠 Hume.ai выпустили голосового чатбота со способностью распознавать эмоции. Самобытная компания, названная по имени великого шотландского философа-эмпириста, обучает именно эмоциональные модели в разных модальностях (текст / изображение / речь / видео). Давно слежу за ними, использую их технологию в одном проекте.

{ Пульс }

⚡️ Claude 3 Opus опередил GPT-4 (последней версии) на Chatbot Arena Leaderboard, где пользователи вслепую голосуют за лучший ответ одной из двух моделей. А еще бесплатный Claude "на голову" лучше бесплатного ChatGPT, правда с более жесткими ограничениями на пользование.
⚡️ Модель YandexGPT 3 Pro можно дообучить под свои нужды в сервисе DataSphere. Яндекс стабильно отстает примерно на 1 год от OpenAI, зато они остаются лидерами для российских разработчиков, которые по тем или иным причинам не могут использовать зарубежные модели.

{ Текстуры }

Знаменитый Andrew Ng рассказал об AI Agentic workflows — по его мнению, результатов GPT-5 в zero-shot версии можно добиться уже сейчас за счет правильного Agentic workflow (итеративная генерация + добавление внешних инструментов). Авто-планирование шагов и мульти-агентные фреймворки, по его мнению, пока недостаточно надежны.
Ресерч по AI-детекторам — отличный разбор того, можно ли достоверно определить является ли текст ИИ-сгенерированным? Короткий ответ — нет.
ChatGPT справляется с задачами на программирование с leetcode — пользовательский разбор.

{ Перекресток мнений }

GPTs c кастомными функциями. Есть мнение, что GPT-store еще не успев полноценно заработать, уже превратился в помойку с тысячами не отличимых друг от друга GPT-ассистентами. Я соглашусь с этим мнением в том, что пока затраты на поиск и тестирование сторонних GPTs превышает выгоду. Однако всё меняет одна черта — наличие внешних (кастомных) функций, нереализованных внутри ChatGPT. В качестве примера Photo Realistic GPT, который под капотом использует Stable Diffusion вместо DALL-E.

#image #hume #text #claude #llm #finetuning #gpts #aiagent #coding
Please open Telegram to view this post
VIEW IN TELEGRAM
Скриншоты из лекции Andrew Ng
{1} типы элементов AI Agentic workflows
{2} эффективность Reflection
{3} типы внешних инструментов

#aiagent
2-ое место в AI Hackathon

Минувшую неделю провел в Кыргызстане. По приглашению Международного университета Центральной Азии выступил внешним экспертом в команде университета на AI Hackathon, организованном Парком высоких технологий в Бишкеке.

У нас в первый же день хакатона случилась нестыковка ожиданий и реальности. Мы готовились активно пилить прототип / MVP, а рамка хакатона оказалась не технической, а бизнесовой, и конечным результатом был 2-минутный (!!) питч перед жюри. Второй неожиданностью было то, что некоторые команды разрабатывали проект не с нуля (как это предполагает классический формат хакатона). Именно такой проект победил с крутой идеей "робота для настенной живописи" (типа настенного принтера), у них на руках уже был собранный прототип, который можно потрогать.

Мы же разрабатывали AI-сервис для развития креативности у студентов (наши pitchdeck, демо и собственно питч). Для прототипа взяли за основу 30 Circles Exercise — упражнение, где нужно дорисовать два исходных круга до узнаваемого объекта и так 30 раз. Креативность базово оценивается по количеству рисунков, разнообразию и оригинальности конкретных идей. AI в этом процессе дает подсказки (когда ступор) и оценивает конечные рисунки.

Мне было очевидно, что GPT-Vision здорово справится с задачей оценивания, приятным сюрпризом стало то, что текстовые AI-подсказки и оригинальные идеи от самого GPT тоже на уровне. Например, ChatGPT предложил нарисовать две стороны античной монеты. Ниже прикреплю несколько рисунков, которые нарисовали мы сами, когда устраивали внутренний контест.

P.s. картинка к посту, оказывается, стала реальностью даже в Кыргызстане.

#aihackathon #edu #image #vision
👍5
🔥4
#ОбзорГены №2

Неделька выдалась мультимодальной, необычно много внимания привлекли аудио-музыкальные модели.

{ Свежак }

🔠 Spotify запустил плейлисты, которые собираются по текстовым запросам (пример LLM рекомендательной системы, которую я несколько раз подсвечивал)
🔠 SberDevices представили Giga Acoustic Model — семейство моделей для обработки звучащей речи, обученных на русском языке. В частности у них появился GigaAM-Emo для определения эмоций по речи как русскоязычный аналог Hume.ai
🔠 Cohere выпустили Command R+ — прекрасную open-sourse LLM, для которой не нужен супер компьютер (но 2x3090). Вообще Cohere — теневые лидеры в поставке LLM-моделей для RAG-чатботов и других корпоративных решений.
🔠 Теперь ChatGPT может редактировать изображения DALL-E (делать inpainting выделенной области).

{ Пульс }

⚡️ AssemblyAI со своей моделью Universal-1 перехватили пальму первенства по качеству расшифровки аудио в текст
⚡️ Anthropic обнаружили новый способ взлома LLM (с длинным контекстом) — many-shot jailbreaking. Этот прием возник именно из-за длинного контекста.
⚡️ DeepMind представили исследование про генерацию токенов в LLM с разным количеством ресурсов / энергии. Это движение в сторону так называемой "Системы 2", когда LLM будет способна "напрягаться", чтобы спланировать свой ответ и лишь потом его генерировать.

{ Текстуры }

Туториал для Suno v3 (лучшей text2musiс модели) от "эйай ньюз".
Нерешаемая задачка для ChatGPT, которую решили за 3 суток — первоначальная неразрешимость задачи предполагалась в сложной алгоритмичности и решении на уровне отдельных символов, но это не преграда для умелых промпт-инженеров.
Общение с реализовавшимся сценарием футуролога — мастерство промптинга в действии.
Краткая шпаргалка по блокам лендинга — заготовка для ChatGPT, чтобы быстро собрать веб-страницу.

{ Перекресток мнений }

Позиционирование естественного интеллекта. Присутствие ИИ в определенных задачах (tasks) фрустрирует людей и проблематизирует их место в работе (job). На мой взгляд, у людей возникла путаница между результатом и процессом. ИИ часто обыгрывает человека в определенной задаче по результату, используя совсем не человеческий процесс. Нейросети вообще натренированы на результат с попыткой хакнуть процесс. При этом для ИИ достижим отличный результат далеко не во всех сферах, а еще далеко не всегда результат — это главное. Иногда главное — это присутствие в процессе, для которого самое важное мгновенно оценивать изменяющийся контекст и адекватно на него реагировать.

#multimodal #llm #audio #music #image #dalle #recommend #tutorial #jailbreaking #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1