{AI} love you | Нейросет – Telegram
{AI} love you | Нейросет
245 subscribers
89 photos
16 videos
88 links
Авторский канал о prompt-gramming.
Гайды, разборы, ревью, рекомендации и личные инсайты о нейросетях.

Автор — @troclap
____________
Курс "ChatGPT в работе"
на Stepik: https://stepik.org/a/200358
на GetCourse: https://ailoveyou.getcourse.ru/gpt-assistant
Download Telegram
Среди LLM новый царь горы — Gemini от Google. По ключевой метрике MMLU эта языковая нейросеть обгоняет среднего человека. Сегодня и в ближайшие дни будет много-много-много слов о Gemini в СМИ.

#text #gemini #benchmark
GenAI-сервисы часто используют метафору магии в пользовательском интерфейсе, типа Magic Tool c иконкой волшебной палочки. Это наивно и отражает живой восторг пользователей в первый раз, но мне кажется, что эта метафора вполне уместна и даже точна. Вот почему.

Самый близкий аналог магии в реальной жизни — это сновидение. В принципе, во сне возможно всё. Всё то, чему мешают законы физики наяву. Метафора сновидения применительно к языковым нейросетям расхожа. Andrej Karpathy (не-последний человек из OpenAI) активно апеллирует к ней, даже споря о том, галлюцинирует ли языковая нейросеть? Он считает, что нет, потому что каждый ответ LLM — это продукт сновидения умной машины, не только те ответы, которые люди маркируют как "галлюцинации".

Кто-то прочитает в этом, что языковые нейросети оторваны от реальности и поэтому бесполезны. Но это оторванное от реальности суждение 😀. Так можно договориться, что и сновидения бесполезны. Нет, скорее нейросети существуют в магической реальности нулей и единиц, где нет привычного трения и бесконечного притяжения малых тел большими. В нашем мире всё состоит из материи с жесткими (по энергии) законами ее преобразования, в их мире всё состоит из данных с мягкими (по энергии) законами их преобразования. Тут и начинается магия, когда становятся возможны преобразования, которые нарушают наши ощущения логики и здравого смысла. А такие преобразования возможны уже сейчас. Например, по одной картинке вы можете получить 3д-модель объекта (в нашем мире нельзя увидеть обратную сторону объекта, не обойдя его вокруг).

Еще одна "большая" мысль (last). Революцию ГенИИ часто сравнивают с промышленной революцией XIX века. Переложу это на метафору магии. В эпоху классической промышленной революции тоже создавались чудеса — изобретались физические машины, кратно превосходящие человеческую силу в преобразовании материи (например, создание изделий из сырья или добыча сырья из недр). Эпоха ГенИИ (именно генеративного) создает программные машины, способные кратко превосходить человека в преобразовании данных (например, суммировать текст или воплотить идею в рисунке). Способность найти наиболее магический путь преобразования одних данных в другие (например, сочинить песню одной силой мысли) — это в-общем квинтэссенция процесса. И пока нейросети не заземлены в физических роботов (которые подчиняются законам физики), то всё возможно.

#opinion
🔥1
Midjourney почти успели уступить лидерство в визуальных нейросетях, но еще поборятся.

#image #release
Forwarded from Ai molodca (Dobrokotov)
Отцы из #Midjourney выкатили альфа-версию V6! 🚬
Айда тестировать!

Чтобы активировать её, выберите V6 в меню настроек (/settings) или введите --v 6 после вашего запроса.

Что нового, дословно, от комманды Midjourney:

Нововведения базовой модели V6:


- Точное следование промту.
- Улучшенная согласованность, знания модели.
- Улучшенная обработка изображений и ремикс.
- Небольшая возможность рисования текста (вводите текст в "кавычках", --style raw или ниже --stylize может помочь).
- Улучшенные увеличители изображений в режимах 'subtle' и 'creative' (увеличение разрешения в 2 раза).
- Поддерживаемые функции на старте: --ar, --chaos, --weird, --tile, --stylize, --style raw, Vary (subtle), Vary (strong), Remix, /blend, /describe (только версия v5).
- Не поддерживаемые функции, которые появятся в ближайший месяц: Pan, Zoom, Vary (region), /tune, /describe (новая версия v6).
Стиль и запросы для V6:


- Запросы для V6 сильно отличаются от V5. Нужно 'переучиться'.
- V6 более чувствительна к запросам. Избегайте 'мусора' типа "award winning, photorealistic, 4k, 8k".
- Будьте конкретны в запросах. Менее атмосферно, но точнее.
- Для более фотографичных, нейтральных, буквальных результатов используйте --style raw.
- Нижние значения --stylize (по умолчанию 100) лучше понимают запросы, высокие (до 1000) - улучшают эстетику.
- Общайтесь в ⁠prompt-chat, чтобы научиться использовать v6
Важно:


- Это альфа-тест. Будут частые изменения без уведомлений.
- Не рассчитывайте на постоянство этой модели в будущем.
- Скорость, качество изображений, согласованность, следование за запросами и точность текста улучшатся.
- V6 медленнее и дороже V5, но ускорится с оптимизацией. Поддерживается режим Relax!
Please open Telegram to view this post
VIEW IN TELEGRAM
Возвращаюсь.

В конце прошлого года почувствовал кризис жанра, случился разрыв между повесткой гиков и новичков, слишком многое произошло за 2023 год. Первоначально я собирался ориентировать канал для GenAI-новичков, но со временем сдвинулся в сторону cutting-edge. В 2024-м невозможно быть GenAI-новичком, точнее придется пересказывать массу фактов, которые уже стали общим местом. Отсюда выработал новый срединный фокус — prompt-gramming, или программирование на естественном языке. Со временем я осознал, что GenAI нынешнего поколения не прямо для всех и каждого, а скорее для тех, кто по жизни структурирует реальность вокруг и "программирует" процессы (пусть даже без использования формальных языков). Для prompt-gramming не нужно быть технарем (с пониманием, как устроена компьютерная инфраструктура), но и без стремления управлять энтропией не обойтись.

Программирование на естественном языке стало возможно благодаря высокой надежности в имитации формальных, программных языков в GenAI (особенно Python / Javanoscript / Markdown / HTML / CSV). Имитация тегирования как формального языка описания изображений тоже доведена до совершенства, поэтому визуальные нейросети уже отвоевали себе место под солнцем. Мне кажется, люди ценят их даже выше, чем языковые нейросети. Ловите тест от The New York Times, где вы не сможете отличить настоящее лицо человека от сгенерированного нейросетью (причем не новейшей).

#promptgramming #image
7
Prompt-gramming чем-то напоминает мне "теорию аукционов", максимально практичный раздел экономической науки, который был равно применим как для американского государства, желающего с выгодой распределить радиочастоты в 1990-х, так и для BigTech-компаний, оптимизирующих рекламную выручки. За все заслуги, кстати, авторы "теории аукционов" получили Нобелевку.

В случае LLM программирование на естественном языке выжимает плюс 10-20 п.п. надежности при решении конкретной задачи. И к этому подходят нетривиально и по-научному, например, изобрели "Chain of Thoughts" (ответ в виде цепочки рассуждений) или "Tree of Thoughts" (придумали вызывать трех мудрецов, которые обсуждают проблему между собой). Сегодня в телеграме публиковалось забавное мини-исследование, сколько чаевых нужно предлагать чатботу, чтобы оптимизировать качество ответов? 😆

🟣Краткий итог проверки:
— лучше всего предлагать 10-20 долларов чаевых, это значение, при котором качество вырастает
— если пообещать очень крупную сумму (более 100 тыс), качество тоже вырастает, но значительно вырастает и длина генерации
— разные затравки неконсистентно увеличивают длину генерации, нужно отслеживать каждую
— очень маленькие чаевые качество ухудшают! лучше ничего не писать про чаевые


Это тот самый cutting-edge, но есть движение и в обратную сторону (от нюансов к простоте). Год назад стало можно создавать собственные мини-нейросети, обученные воспроизводить какой-нибудь предмет (например, конкретного человека) или стиль. В начале для этого требовалось 20-40 фотографий, что уже резко понизило барьер, но сама тренировка была все равно для гиков. Теперь это постепенно пришло к 1 фотографии, из которой можно клонировать человека или стиль.

Тенденция к уменьшению количества примеров для тренировки собственной взаимосвязи (модели) — она с нами точно надолго до тех пор, пока не потребуется ноль (!) примеров, то есть взаимосвязь будет угадываться без нашего участия. Пока мы не там, очень люблю LLM-рекомендации на 10 примерах, например, что посмотреть на основе моих предпочтений? Продвинутый уровень LLM-рекомендаций — экспортировать информацию о 100 фильмах из IMDb или 100 треках из Яндекс-музыки и сделать, наконец, для себя умную фильтрацию (вы замечали, что у большинства рекомендательных сервисов ужасный пользовательский фильтр? в Яндекс.Музыке невозможно отфильтровать свою коллекцию даже по языку исполнения, не говоря уже о жанрах / настроениях / годе выпуска / прочих радостях, которыми они несомненно обладают). Зажимают фильтрацию, будто они уже в конце тоннеля, где знают о пользователе всё, что нужно. В-общем, рекомендую LLM-рекомендации, ни раз и ни два спасали мой вечер с первого сообщения 😃

#promptgramming #recommendation
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Продолжаю резать арбуз GenAI посерединке. Сегодня про то, как заехать на территорию программистов и не стать гиком? Или чему стоит поучиться у программистов в организации работы без перегибов?

Начну с козырей. Кажется, всё начинается с логирования / нормальных названий файлов / версионности. Простой пример:

Бойкий фандрайзер собрал презу для инвесторов, бродит с ней полгода по эвентам / встречам и каждый раз вносит правки (то переформулирует тейки, то слайд уберет, то структуру изменит, то дизайн перерисует). По сути успел наклепать 10 версий презентации, но ходит всё время с файлом под одним названием, и доступ к старым версиям только через "историю изменений" (если таковая есть).


Его можно понять, презентация не работает без него, зачем же плодить 10 почти одинаковых файлов у себя на диске?! А вы поддерживаете версионность своих документов?

Вот-вот завершил разбор всех своих диалогов в ChatGPT с момента регистрации, появилась опция их архивировать, и это послужило поводом удалить / архивировать / дать нормальное название с категорией. Оставлял активными только те, к которым планирую еще обращаться (по курсу и текущим проектам). Таких 2️⃣0️⃣0️⃣ диалогов. В отдельных диалогах есть 3️⃣0️⃣ версий одной инструкции для программирования ассистента.

В такие моменты понимаешь, насколько ChatGPT сыроват как продукт, даже папки для классификации диалогов не внедрили. Экспорт в сторонний органайзер неудобен, хотя прошлым летом создавал каталог промптов в Google Sheets.

Два вывода из двух кусочков.

1️⃣ промпты / диалоги (в LLM) и промпты / картинки (в диффузионных нейросетях), как код, и в отличие от презентации, часто отчуждаются от автора. Плюс, так как нейросети по своему устройству являются вероятностными, то версионность / присвоение ярлыков / пометки на полях воспринимаются как должное в работе с ними (в диффузионных нейросетях, например, принято сохранять изображение с промптом в названии). Уж как тут не перенимать опыт программистов. Но интересно, что будь презентация фандрайзера сгенерирована нейросетью, то и ему по-хорошему следовало бы поучиться этому.

2️⃣ я далеко не первый заметил, что написание и запуск промптов можно организовать по-другому, особенно если при написании инструкций используешь фреймворки (таковые уже есть, по меньшей мере, их четыре) и переменные (один из приемов в промптинге). Специальные промпт-органайзеры быстро гуглятся перплексятся, но тут вырастает первый бетонный забор 🌫 между обычными пользователями ChatGPT и разработчиками. Даже вход в промпт-органайзеры часто идет через GitHub, а промпт-цепочки называют Git.

Так вот второй вывод — зарегистрироваться в GitHub всё равно придется, если не собираетесь наблюдать за GenAI со стороны. Его можно воспринимать, как более структурный Google Диск, между прочим, data-аналитики давно там обосновались — публикуют датасеты, а кто-то вообще размещает текстовые гайды, как в Notion.
Кощунство

Скажут программисты 🙈

На этом компромиссы заканчиваются. Устанавливать Linux, покупать крутую видеокарту и Apple Vision Pro необязательно 😆
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1
Анонс

На этой неделе стартует очередной набор курса "ChatGPT в работе" (уже 7-ой). Краткая сводка для тех, кто не видел предыдущих анонсов:
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Как всегда, есть обновления:
1️⃣ Записал полноценный блок про ChatGPT Plus (то есть платные функции: работа с файлами / мультимодальность).
2️⃣ Разборы кейсов теперь не только на вебинарах. Есть коллекция видео-разборов на платформе, рядом с видеоуроками.
3️⃣ Появился короткий гайд по установке и запуску Python локально, чтобы перформить код, сгенерированный ChatGPT. Это полезно в массе случаев.
4️⃣ В тестовом режиме появится telegram-бот с бесплатным доступом к GPT-4, чтобы хотя бы прикоснуться к более продвинутому пониманию языка.

Linkset
Подробности на сайте
Простой пример работы готового ИИ-ассистента (нужен VPN)
Презентация учебных ИИ-ассистентов с предыдущего набора

Курс можно также пройти индивидуально в свободном темпе.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
👍5❤‍🔥111🔥1👏1💯1
Курс начался, курс закончился

Хочу рассказать про самый сильный проект, получившийся на выходе с вот-вот минувшего курса про ChatGPT. Его автор — Александр Скворцов. Идея GPT-ассистента проста и одновременно оригинальна: генератор древних новостей (до н.э.), написанных в репортажном стиле и проиллюстрированных реалистичной фотографией. Результаты можно посмотреть в специальном телеграм-канале, а разбор внутренней механики в презентации ассистента.

⚡️🌧 Потоп остановил строительство пирамиды

Сильнейщий ливень, обрушевшийся сегодня на плато Гизы, стал причиной остановки строительных работ Великой пирамиды. Дата возобновления строительства уточняется.

11 февраля 2567 года до н.э.


Если коротко, ассистент построен на мегапромпте с двумя типами загруженных референсов (эталонные примеры новостей и фотографий). Формат строго выверен, чтобы соответствовать telegram-публикации. Содержание может быть слегка некорректным в историческом плане, но точно позволяет прикоснуться к эпохе, на самом деле, к массе эпох до нашей эры.

В-общем, подписывайтесь на канал и следите за новостями, которые не угнетают в отличие от актуальных 😁

#text #chatgpt #gpts #edu
🔥11👍1
Стабильные юзкейсы

После праздников будет год как случился релиз GPT-4, который до сих пор остается лидером в восприятии людей (хотя Gemini формально побил его по ключевым бенчмаркам). В прошлом марте было много других громких релизов, и сейчас блогеры тоже в предвкушении. Пока ничего такого не произошло, интересно взглянуть на юзкейсы, которые за год докрутили до стабильного использования ⚓️

Есть один с любопытнейшей судьбой. Это генерация SEO-контента.

Весь год десятки людей озвучивали эту идею, потому что очень и очень многие вовлечены в производство текстов. И напрашивается само собой. После месячного тестирования я скорее скептически относился к этой идее, и кажется новички, озвучивавшие идею написания статей, тоже быстро разочаровывались 😕. Все серьезные русскоязычные игроки сконцентрировались на ИИ-помощниках (copilot) для написания текстов. Прикрутили ключевые фичи: переписать, сократить, расширить, заменить на синоним и т.д.

Всё так, но недавно в англоязычном подкасте услышал мысль, что AGI в задаче блогинга уже достигнут, то есть ИИ способен справляться с задачей не хуже профессионала. Автор мысли пояснял, что мы пропустили этот момент из-за размытости формулировки AGI. Это меня удивило 😮. Ощущение из России, что до этого далеко. Мы бы сразу увидели, как ИИ-тексты заполонили бы интернет. Этого нет 🚫

При более внимательном изучении вопроса оказалось, что да, англоязычный Youtube полон рассказов про генерацию 623 статей за 6 минут . Публикуются статьи не сразу, а например, раз в час. И да — это работает на SEO-продвижение в определенных пределах 📈. Одна большая статья с нуля (на 3000 слов с 4-5 хорошими картинками) стоит около 1$, и некоторые реализуют сразу тематические веб-сайты с сотнями страниц за 200$.

Естественная реакция на это, что текст в интернете скоро просто перестанут читать 🤮. Эта точная реакция приводит, на самом деле, к двум противоположным выводам:
1. Нет, не перестанут. Далеко не обо всем уже создан текст в интернете, и грамотные веб-мастера создают именно нишевые тематические веб-сайты, которым всё еще есть место / спрос. А ведь есть области сознательной цензуры 🤐
2. Да, перестанут. Многие американские маркетологи сознательно уходят от текста в сторону мультимедиа, особенно на ютуб, где человеки легко выигрывают конкуренцию у ИИ 🏆

Накидайте в комментариях другие юзкейсы, которые плотно вошли в жизнь. Поищу среди них неочевидные факты и последствия 🕵️‍♂️

#usecase #text #seo
Please open Telegram to view this post
VIEW IN TELEGRAM
Чат с документом 📄💬

В топе юзкейсов также расположился чат с базой знаний. Берешь большой документ (на сотни страниц), не читаешь его, а только достаешь нужные ответы 🔍📖. Все, кто интересовался этой задачей, успели выучить слово RAG (Retrieved Augmented Generation), по-русски это можно перевести как "генерация на основе извлеченного текста". Из документа достаются небольшие фрагменты (chunks) и помещаются в контекстное окно LLM. Выбор кусков происходит на основе схожести (similarity) с промптом, причем в векторном пространстве (то есть после числовой кодировки текста), по-другому эту технологию называют "векторный поиск". Это настолько популярная задача, что она быстро проникла в Zoom как диалог с транскрипцией созвона, в ноябре появилась в ChatGPT, Google внедрил технологию в Google Диск и Gmail. На днях она появилась даже в Adobe Acrobat, внутри него можно общаться с PDF-файлами и делать их саммари.

Казалось бы задача решена 🎯. Однако пользовательские RAG-чатботы страдают случайностью 🎲, потому что извлекают из документа далеко не все нужные для ответа фрагменты. У меня есть RAG-чатбот внутри ChatGPT по расшифровкам всех уроков курса (около 90 страниц текста). Качество взаимодействия очень среднее, при ответе на вопросы, касающиеся всего курса, он залипает на конкретном уроке. Разработчики кастомных RAG-чатботов выстраивают сложную механику: вытаскивают из документа фрагменты через целый ряд промптов, похожих на пользовательский 🔄, чтобы не залипать в одном месте документа. Увеличивается охват релевантной информации перед генерацией ответа. Наверное, это звучит излишне технично. Ровно поэтому все рады очередному расширению контекстного окна до 1М от Gemini 1.5 🎉.
Большое контекстное окно = Избавление от RAG

Вместо векторного поиска LLM просто прочитывает весь документ с надежностью в 99% 👀.

Казалось бы, решение найдено 🎯. Однако за качественное чтение 100-страничного русскоязычного текста при помощи GPT-4 придется заплатить около 0,7$, что окей для серьезных задач и многовато для рутины. Уже сейчас далеко не все LLM-приложения работают на GPT-4, зачастую GPT-3.5 достаточно и нет веских причин переплачивать.

Напоследок, расскажу про самый крутой кейс использования чатбота с документом 🌟. Берете учебник по языкознанию, помещаете его целиком в контекстное окно LLM, приходите к первобытному племени с собственным языком, декодируете новый язык и наслаждаетесь общением с новыми друзьями 😃🌍🗣

#text #rag #chatgpt #usecase
👍2
Forwarded from Сиолошная
Лидерборд LMSYS Chatbot Arena обновился второй раз за неделю!

Добавили модели Claude 3, и ещё во вторник появились модели Mistral Large / Mistral Next.

Для тех, кто не в курсе, Chatbot Arena — это место, где модели вслепую сраниваются реальными людьми. Вы заходите на платформу, пишете запрос, видите два ответа и выбираете лучший. Чем чаще выбираются результаты одной модели, тем выше она в рейтинге. Финальная оценка — рейтинг Эло (как в шахматах). Тут собраны десятки тысяч голосов, поэтому рейтинг достаточно честный и хорошо отражает некоторое абстрактное реальное качество модели.

Долгое время GPT-4-Turbo была в самом топе и в недосягаемости, со значимым отрывом.
1) Claude 3 Opus почти догнала: 1233+-8 очков против 1251+-5 у свежих GPT-4-Turbo
2) Claude 3 Sonet, версия поменьше и подешевле, обгоняет майскую GPT-4, а также Mistral Large
3) свежие Mistral Large / Mistral Medium сидят на 8-9 строчках рейтинга
4) самой лучшей опенсурсной моделью является Qwen1.5-72B-Chat, китайская модель, умеющая в разные языки

В целом, Claude 3 Sonet вышла неплохой — стоит сильно дешевле GPT-4/Turbo, но по ответам не так плоха ($3/$15 за миллион токенов Sonnet против $10/$30 у Trubo, а GPT-4 вообще $60/$120, если брать контекст 32k) . Осталось посмотреть более внимательно на даунстрим задачи, чтобы составить полную картинку.

За наводку спасибо автору @epsiloncorrect
🔥1
Forwarded from Сиолошная
Вернёмся на минутку ко вчерашнему посту про лидерборд Chatbot Arena

Вот написано, что рейтинг GPT-4-Turbo 1251, Claude 3 Opus 1233, а Mistral Large 1155. Такая разница — это много или мало? Как её интерпретировать?

Вообще система Эло рейтинга построена так, что сам рейтинг позволяет оценить вероятность победы одного игрока (или модели) над другим. Если рейтинг одинаковый, то шансы 50/50. Если разница 500 очков, то игрок с более низким рейтингом будет проигрывать 99.9%+ игр.

К сожалению, в расчёте есть маленькая техническая особенность — рейтинг оценивается относительно слабой модели LLAMA-2 (нужна ведь точка отсчёта), а не для каждой-с-каждой LLM. Однако мы можем посмотреть на попарные сравнения конкретных моделей, посчитать долю побед одной и второй, и в целом это должно биться с рейтингом. Так что ниже я оперирую именно процентами побед в «очных встречах», а не рейтингом, но они сильно связаны, и при большом количестве голосов должны быть идентичны.

Итак, давайте сравнивать:
1) GPT-4-Turbo VS Claude 3 Opus. Разница в рейтинге минорная. Но если задать моделям 100 вопросов, то в 54 более предпочтительным будем ответ модели OpenAI, а в 46 — Anthropic. 54/46, достаточно близко!
2) GPT-4-Turbo VS Google Bard: 57/43, уже грустнее
3) GPT-4-Turbo VS Mistral Large: 75/25 (!!! огромнейший разрыв). То есть если вы зададите моделям 100 вопросов, то в 75 из них вы прям заметите, что ответ GPT лучше — это существенная разница.

Ну а дальше всё еще грустнее:
4) GPT-4-Turbo VS ChatGPT (GPT 3.5): 77/23 (поэтому не нужно оценивать качество моделей по бесплатной версии)
5) Claude 3 Sonet (бесплатная в веб-версии) VS ChatGPT: 68/32 (-> не нужно использовать бесплатную модель от OpenAI)

То есть разница в 40-50+ рейтинга — это уже существенное и заметное на практике отличие одной модели от другой.

Остальные цифры можете найти тут или в первом комментарии.
Look Alike 👀🔄

Не раз писал про рекомендательные способности LLM. На праздниках извлек пока самую яркую пользу от этих возможностей. Есть не типичная для меня область — это компьютерные игры 🎮. Мы с дочерью случайно наткнулись на квест-игру Tiny Room Stories от инди гейм-студии Kiary Games (делают русские на Кипре) и влюбились в нее. Оазис в пустыне неизведанного 🏜

Одно обращение к ChatGPT
помогло найти 5 аналогов и понять жанровую специфику (exit-квесты) 🕵️‍♂️. Параллельно воспользовался еще двумя рекомендательными системами (внутри Google Play и Steam), и ChatGPT победил. Наконец, киллерфича look alike через LLM — это рекомендательный трансфер. В моем случае я удовлетворил свой основной запрос и придумал новый: аналоги Tiny Room Stories в мире настольных игр. Получил прекрасный ответ! 🧡 Проверил через Board Game Geek (аналог IMDb среди настольных игр).

Выводы
1. Систем рекомендательного трансфера (видеоигры-в-настолки / книги-в-кино / блюдо-в-кафе) не существует, но они принципиально возможны.
2. Метод Look Alike (или few-shot промпт) контринтуитивно работает лучше в незнакомой среде 🆕
3. Если совместить первые два вывода, получается интересный прием: импортировать данные о себе, которых много (например, кино-музыкальные предпочтения / заметки о себе), и конвертировать в рекомендации среди неизведанного.


#lookalike #text #chatgpt #games
🔥1
Без LLM-галлюцинаций

👻 Галлюцинации (правдоподобные ложные суждения) — одна из наиболее устойчивых проблем языковых нейросетей. Они понижают надежность LLM-приложений и ограничивают сферу применения тем, где невелика цена ошибки ⚖️.

На скриншоте первый способ, как смириться с их существованием и не вестись на обман за счет индикатора уверенности, с которой ИИ-чатбот генерирует ответ (чем выше, тем больше доверия ответу).

Второй способ (тоже не-широко известен) — это подключать LLM к Knowlegde Graph, специальной базе знаний, которая содержит только верные суждения в максимально сжатой форме триад. Например: {"Пеле"; "родом из"; "Бразилия"} ⚽️. Это похоже на текст, высушенный до сухих фактов.

Помимо более мощных LLM-моделей, которые ожидаются во второй половине года, будет много вот такого оптимизаторства 🛠.


#text #gallucination #llm #promptgramming
Маствотч

Редкая видео-рекомендация — интервью Яна ЛеКуна в подкасте у Лекса Фридмана. С множеством технических деталей, но четко обозначающее пределы архитектуры трансформера (текущей версии LLM) и предлагающее альтернативу в виде JEPA. Новая архитектура нацелена обучить машину понимать до-/вне-языковые представления, которые не извлекаемы из естественного языка или извлекаемы, но с избыточной тратой энергии.

#mustwatch #llm #jepa
Prompt-grammer = Знаток интернета 🌐

Как известно, LLM на 2/3 обучалась чтением интернета, остальная треть приходится на чтение книг / научных статей / различного кода. Редкий человек, на самом деле, знает, чем наполнен интернет: в каких контекстах используются конкретные слова? какой диапазон значений у специальных символов (#{[/|<&$^*"'~%@)? какие сочетания слов / символов не встречаются в интернетах?

Когда разрабатывался логотип {AI} love you, я изучал семантику фигурных и квадратных скобок 🤔. Это любопытно. В качестве иллюстрации возьму не их, а более популярный в массах символ "#" (решетка).

Семь контекстов для символа #
1. Обозначение номера
2. Хэштеги в социальных сетях
3. Комментарии в коде
4. Цвета в веб-разработке
5. Уровни заголовков в Markdown
6. Каналы в IRC и Slack
7. Якоря в URL
Бонусы: альтернативная нотация в музыке (повышение ноты), читкоды, команды в текстовых играх.


При использовании # в промпте нужно контекстуализировать его, а также отстроиться от смежного, но не нужного контекста. Я взял специальный символ, чтобы идея была максимально понятна, но слова "лист" или "замок" точно так же многозначны, особенно, если вы хотите передать не смысл этих слов, а их визуальный образ.

Семь контекстов для слова "лист"
1. Последовательность элементов в Python
2. Электронная таблица
3. Лист бумаги в офисе
4. Страница макета в дизайне / верстке
5. Часть листвы
6. Ингредиент в кулинарном рецепте
7. Музыкальная партитура
Бонусы: рабочий лист с заданиями, путевой лист, план тренировок.


Контекстуализация — это то, в чем люди гении, "понимают с полуслова", "все всё понимают" и т.д. Людям, особенно близким людям нет равных в этом. К LLM здесь стоит относиться снисходительно, с терпением + держать в уме максимум контекстов, потому что LLM держит в уме их все (sic!) 😃

#llm #text #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Gemini 1.5 Pro 🔥🚀

Сжатие — самая естественная задача для LLM. Сама большая языковая модель получается, грубо говоря, сжатием интернета в 100 раз. До LLM проводили чемпионат по сжатию информации (типа зипования), и 🏆 рекордсмены достигали результатов сжатия в 8-9 раз. LLM оказалась чрезвычайно эффективной, правда не полностью надежной.

Вчера открыли доступ к Gemini 1.5 Pro с 1 миллионом токенов контекста, про который еще в феврале было понятно, что это бомба 💣💥. В него помещается 2000 русскоязычных страниц, 1 час видео покадрово, 11 часов аудио. Извлечение информации в Gemini 1.5 Pro работает с 99% надежностью, это выше, чем транскрибация аудио в текст (распространенная повсеместно, в том числе в Telegram и VK).


Задачу извлечения фактов из больших документов (Retrieval) тестируют на двух типах бенчмарок: "поиск иголки в стоге сена" (поиск факта, который встречается в тексте один раз) и "поиск N иголок в стоге сена" (поиск смежных фактов, которые встречаются в тексте один раз и в разных местах) 🌾. RAG-чатботы в дефолтной конфигурации не справляются со вторым типом задач, нужна модификация. Первый тип решается отлично, если запрос близок к ответу и если ответ содержится полностью в одном куске документа. Gemini 1.5 Pro с первого же моего теста справился со вторым типом задач. Феноменально хорошо 🌟

Сжатие и извлечение становятся безусловным лидером по надежности среди LLM-применений. Их стоит внедрять всюду, где это имеет смысл. В отличие от генерации ИИ-контента здесь все чувствуют морально-нейтральную пользу от LLM — она позволяет не читать лишнего и быстрее находить нужную информацию 🏅. Люди меньше работают, получают больше пользы, за рабочие места никто не конкурирует 🎉

#text #gemini #retrieval
This media is not supported in your browser
VIEW IN TELEGRAM
Новая нейросеть с виральными видео 😃 Научились вмонтировать сторонние сущности в реальное видео. Качество низкое, но идея свежая.

Название — Viggle AI (доступна бесплатно в Discord).

#release #video
🔥2
Анонс

На следующей неделе запускаю новый поток курса "ChatGPT в работе" (8-ой). Про что курс?
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Обновления:
1️⃣ Некоторые видеоуроки теперь находятся в открытом доступе на YouTube. Будут открываться и впредь, особенно разборы кейсов. ВАУ-эффект можете получить от распаковки ChatGPT Plus — в этом 15-минутном видео я шустро пробегаюсь по всему функционалу платной версии ChatGPT.
2️⃣ Полноценно появились telegram-бот с бесплатным доступом к GPT-4, а также веб-интерфейс с той же целью — прикоснуться к более продвинутой модели, труднодоступной в РФ.
3️⃣ Доступ к учебным материалам можно получить не только на платформе GetCourse, но и через Stepik. Для ценителей 😃
4️⃣ Возник общий чат на участников / выпускников разных потоков, чтобы поддерживать друг друга не только в течение одного месяца, но 365 дней в году.

Linkset
Подробности на сайте
Вводная лекция про LLM
Презентация генератора древних новостей (крутого GPT-ассистента одного из участников)

Курс можно пройти индивидуально в свободном темпе или в группе в синхронном формате. Новый поток не ограничен одной профессией, рассчитан на любых профессионалов.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Воскресное.

Недавно OpenAI открыл доступ к SORA для избранных видеомейкеров. Одна из опубликованных в итоге короткометражек сделана полностью на AI-сгенерированном материале, но с понятной и яркой человеческой историей, без отвлекающих артефактов. Ребята из shy kids придумали как избежать случайность технологии и подчинить картинку придуманной истории, пост-продакшен естественно никуда не делся. На мой взгляд, это пример хорошего видео, в котором есть всё, кроме съемки реальной реальности.

#video #sora #weekend