{AI} love you | Нейросет – Telegram
{AI} love you | Нейросет
245 subscribers
89 photos
16 videos
88 links
Авторский канал о prompt-gramming.
Гайды, разборы, ревью, рекомендации и личные инсайты о нейросетях.

Автор — @troclap
____________
Курс "ChatGPT в работе"
на Stepik: https://stepik.org/a/200358
на GetCourse: https://ailoveyou.getcourse.ru/gpt-assistant
Download Telegram
Look Alike 👀🔄

Не раз писал про рекомендательные способности LLM. На праздниках извлек пока самую яркую пользу от этих возможностей. Есть не типичная для меня область — это компьютерные игры 🎮. Мы с дочерью случайно наткнулись на квест-игру Tiny Room Stories от инди гейм-студии Kiary Games (делают русские на Кипре) и влюбились в нее. Оазис в пустыне неизведанного 🏜

Одно обращение к ChatGPT
помогло найти 5 аналогов и понять жанровую специфику (exit-квесты) 🕵️‍♂️. Параллельно воспользовался еще двумя рекомендательными системами (внутри Google Play и Steam), и ChatGPT победил. Наконец, киллерфича look alike через LLM — это рекомендательный трансфер. В моем случае я удовлетворил свой основной запрос и придумал новый: аналоги Tiny Room Stories в мире настольных игр. Получил прекрасный ответ! 🧡 Проверил через Board Game Geek (аналог IMDb среди настольных игр).

Выводы
1. Систем рекомендательного трансфера (видеоигры-в-настолки / книги-в-кино / блюдо-в-кафе) не существует, но они принципиально возможны.
2. Метод Look Alike (или few-shot промпт) контринтуитивно работает лучше в незнакомой среде 🆕
3. Если совместить первые два вывода, получается интересный прием: импортировать данные о себе, которых много (например, кино-музыкальные предпочтения / заметки о себе), и конвертировать в рекомендации среди неизведанного.


#lookalike #text #chatgpt #games
🔥1
Без LLM-галлюцинаций

👻 Галлюцинации (правдоподобные ложные суждения) — одна из наиболее устойчивых проблем языковых нейросетей. Они понижают надежность LLM-приложений и ограничивают сферу применения тем, где невелика цена ошибки ⚖️.

На скриншоте первый способ, как смириться с их существованием и не вестись на обман за счет индикатора уверенности, с которой ИИ-чатбот генерирует ответ (чем выше, тем больше доверия ответу).

Второй способ (тоже не-широко известен) — это подключать LLM к Knowlegde Graph, специальной базе знаний, которая содержит только верные суждения в максимально сжатой форме триад. Например: {"Пеле"; "родом из"; "Бразилия"} ⚽️. Это похоже на текст, высушенный до сухих фактов.

Помимо более мощных LLM-моделей, которые ожидаются во второй половине года, будет много вот такого оптимизаторства 🛠.


#text #gallucination #llm #promptgramming
Маствотч

Редкая видео-рекомендация — интервью Яна ЛеКуна в подкасте у Лекса Фридмана. С множеством технических деталей, но четко обозначающее пределы архитектуры трансформера (текущей версии LLM) и предлагающее альтернативу в виде JEPA. Новая архитектура нацелена обучить машину понимать до-/вне-языковые представления, которые не извлекаемы из естественного языка или извлекаемы, но с избыточной тратой энергии.

#mustwatch #llm #jepa
Prompt-grammer = Знаток интернета 🌐

Как известно, LLM на 2/3 обучалась чтением интернета, остальная треть приходится на чтение книг / научных статей / различного кода. Редкий человек, на самом деле, знает, чем наполнен интернет: в каких контекстах используются конкретные слова? какой диапазон значений у специальных символов (#{[/|<&$^*"'~%@)? какие сочетания слов / символов не встречаются в интернетах?

Когда разрабатывался логотип {AI} love you, я изучал семантику фигурных и квадратных скобок 🤔. Это любопытно. В качестве иллюстрации возьму не их, а более популярный в массах символ "#" (решетка).

Семь контекстов для символа #
1. Обозначение номера
2. Хэштеги в социальных сетях
3. Комментарии в коде
4. Цвета в веб-разработке
5. Уровни заголовков в Markdown
6. Каналы в IRC и Slack
7. Якоря в URL
Бонусы: альтернативная нотация в музыке (повышение ноты), читкоды, команды в текстовых играх.


При использовании # в промпте нужно контекстуализировать его, а также отстроиться от смежного, но не нужного контекста. Я взял специальный символ, чтобы идея была максимально понятна, но слова "лист" или "замок" точно так же многозначны, особенно, если вы хотите передать не смысл этих слов, а их визуальный образ.

Семь контекстов для слова "лист"
1. Последовательность элементов в Python
2. Электронная таблица
3. Лист бумаги в офисе
4. Страница макета в дизайне / верстке
5. Часть листвы
6. Ингредиент в кулинарном рецепте
7. Музыкальная партитура
Бонусы: рабочий лист с заданиями, путевой лист, план тренировок.


Контекстуализация — это то, в чем люди гении, "понимают с полуслова", "все всё понимают" и т.д. Людям, особенно близким людям нет равных в этом. К LLM здесь стоит относиться снисходительно, с терпением + держать в уме максимум контекстов, потому что LLM держит в уме их все (sic!) 😃

#llm #text #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Gemini 1.5 Pro 🔥🚀

Сжатие — самая естественная задача для LLM. Сама большая языковая модель получается, грубо говоря, сжатием интернета в 100 раз. До LLM проводили чемпионат по сжатию информации (типа зипования), и 🏆 рекордсмены достигали результатов сжатия в 8-9 раз. LLM оказалась чрезвычайно эффективной, правда не полностью надежной.

Вчера открыли доступ к Gemini 1.5 Pro с 1 миллионом токенов контекста, про который еще в феврале было понятно, что это бомба 💣💥. В него помещается 2000 русскоязычных страниц, 1 час видео покадрово, 11 часов аудио. Извлечение информации в Gemini 1.5 Pro работает с 99% надежностью, это выше, чем транскрибация аудио в текст (распространенная повсеместно, в том числе в Telegram и VK).


Задачу извлечения фактов из больших документов (Retrieval) тестируют на двух типах бенчмарок: "поиск иголки в стоге сена" (поиск факта, который встречается в тексте один раз) и "поиск N иголок в стоге сена" (поиск смежных фактов, которые встречаются в тексте один раз и в разных местах) 🌾. RAG-чатботы в дефолтной конфигурации не справляются со вторым типом задач, нужна модификация. Первый тип решается отлично, если запрос близок к ответу и если ответ содержится полностью в одном куске документа. Gemini 1.5 Pro с первого же моего теста справился со вторым типом задач. Феноменально хорошо 🌟

Сжатие и извлечение становятся безусловным лидером по надежности среди LLM-применений. Их стоит внедрять всюду, где это имеет смысл. В отличие от генерации ИИ-контента здесь все чувствуют морально-нейтральную пользу от LLM — она позволяет не читать лишнего и быстрее находить нужную информацию 🏅. Люди меньше работают, получают больше пользы, за рабочие места никто не конкурирует 🎉

#text #gemini #retrieval
This media is not supported in your browser
VIEW IN TELEGRAM
Новая нейросеть с виральными видео 😃 Научились вмонтировать сторонние сущности в реальное видео. Качество низкое, но идея свежая.

Название — Viggle AI (доступна бесплатно в Discord).

#release #video
🔥2
Анонс

На следующей неделе запускаю новый поток курса "ChatGPT в работе" (8-ой). Про что курс?
Курс базовый, в помощь тем, кто хочет преодолеть барьер и начать регулярно использовать ChatGPT в работе. За 4 недели цель — обучиться промптингу и создать ИИ-ассистента себе (или для стороннего пользования). В пути будут видеоуроки + практикум + разборы кейсов + вебинары.


Обновления:
1️⃣ Некоторые видеоуроки теперь находятся в открытом доступе на YouTube. Будут открываться и впредь, особенно разборы кейсов. ВАУ-эффект можете получить от распаковки ChatGPT Plus — в этом 15-минутном видео я шустро пробегаюсь по всему функционалу платной версии ChatGPT.
2️⃣ Полноценно появились telegram-бот с бесплатным доступом к GPT-4, а также веб-интерфейс с той же целью — прикоснуться к более продвинутой модели, труднодоступной в РФ.
3️⃣ Доступ к учебным материалам можно получить не только на платформе GetCourse, но и через Stepik. Для ценителей 😃
4️⃣ Возник общий чат на участников / выпускников разных потоков, чтобы поддерживать друг друга не только в течение одного месяца, но 365 дней в году.

Linkset
Подробности на сайте
Вводная лекция про LLM
Презентация генератора древних новостей (крутого GPT-ассистента одного из участников)

Курс можно пройти индивидуально в свободном темпе или в группе в синхронном формате. Новый поток не ограничен одной профессией, рассчитан на любых профессионалов.
Для записи пишите в ЛС (@troclap) или заполняйте заявку на сайте.

#edu #chatgpt #course
Please open Telegram to view this post
VIEW IN TELEGRAM
4
Воскресное.

Недавно OpenAI открыл доступ к SORA для избранных видеомейкеров. Одна из опубликованных в итоге короткометражек сделана полностью на AI-сгенерированном материале, но с понятной и яркой человеческой историей, без отвлекающих артефактов. Ребята из shy kids придумали как избежать случайность технологии и подчинить картинку придуманной истории, пост-продакшен естественно никуда не делся. На мой взгляд, это пример хорошего видео, в котором есть всё, кроме съемки реальной реальности.

#video #sora #weekend
#ОбзорГены

Что не могло пройти мимо радаров на минувшей неделе, а также неожиданно нашло отклик? Возникла потребность еженедельно бросать якорь в области GenAI — оставлять на память ключевые события: релизы, новости, материалы и темы.

{ Свежак }

🔠 Adobe анонсировал ControlNet для Firefly под названием Structure reference. Можно сгенерировать изображение на основе структуры (depth и др.) input-изображения. Давно есть в Stable Diffusion, однако нет ни у DALL-E, ни у Midjourney.
🔠 Hume.ai выпустили голосового чатбота со способностью распознавать эмоции. Самобытная компания, названная по имени великого шотландского философа-эмпириста, обучает именно эмоциональные модели в разных модальностях (текст / изображение / речь / видео). Давно слежу за ними, использую их технологию в одном проекте.

{ Пульс }

⚡️ Claude 3 Opus опередил GPT-4 (последней версии) на Chatbot Arena Leaderboard, где пользователи вслепую голосуют за лучший ответ одной из двух моделей. А еще бесплатный Claude "на голову" лучше бесплатного ChatGPT, правда с более жесткими ограничениями на пользование.
⚡️ Модель YandexGPT 3 Pro можно дообучить под свои нужды в сервисе DataSphere. Яндекс стабильно отстает примерно на 1 год от OpenAI, зато они остаются лидерами для российских разработчиков, которые по тем или иным причинам не могут использовать зарубежные модели.

{ Текстуры }

Знаменитый Andrew Ng рассказал об AI Agentic workflows — по его мнению, результатов GPT-5 в zero-shot версии можно добиться уже сейчас за счет правильного Agentic workflow (итеративная генерация + добавление внешних инструментов). Авто-планирование шагов и мульти-агентные фреймворки, по его мнению, пока недостаточно надежны.
Ресерч по AI-детекторам — отличный разбор того, можно ли достоверно определить является ли текст ИИ-сгенерированным? Короткий ответ — нет.
ChatGPT справляется с задачами на программирование с leetcode — пользовательский разбор.

{ Перекресток мнений }

GPTs c кастомными функциями. Есть мнение, что GPT-store еще не успев полноценно заработать, уже превратился в помойку с тысячами не отличимых друг от друга GPT-ассистентами. Я соглашусь с этим мнением в том, что пока затраты на поиск и тестирование сторонних GPTs превышает выгоду. Однако всё меняет одна черта — наличие внешних (кастомных) функций, нереализованных внутри ChatGPT. В качестве примера Photo Realistic GPT, который под капотом использует Stable Diffusion вместо DALL-E.

#image #hume #text #claude #llm #finetuning #gpts #aiagent #coding
Please open Telegram to view this post
VIEW IN TELEGRAM
Скриншоты из лекции Andrew Ng
{1} типы элементов AI Agentic workflows
{2} эффективность Reflection
{3} типы внешних инструментов

#aiagent
2-ое место в AI Hackathon

Минувшую неделю провел в Кыргызстане. По приглашению Международного университета Центральной Азии выступил внешним экспертом в команде университета на AI Hackathon, организованном Парком высоких технологий в Бишкеке.

У нас в первый же день хакатона случилась нестыковка ожиданий и реальности. Мы готовились активно пилить прототип / MVP, а рамка хакатона оказалась не технической, а бизнесовой, и конечным результатом был 2-минутный (!!) питч перед жюри. Второй неожиданностью было то, что некоторые команды разрабатывали проект не с нуля (как это предполагает классический формат хакатона). Именно такой проект победил с крутой идеей "робота для настенной живописи" (типа настенного принтера), у них на руках уже был собранный прототип, который можно потрогать.

Мы же разрабатывали AI-сервис для развития креативности у студентов (наши pitchdeck, демо и собственно питч). Для прототипа взяли за основу 30 Circles Exercise — упражнение, где нужно дорисовать два исходных круга до узнаваемого объекта и так 30 раз. Креативность базово оценивается по количеству рисунков, разнообразию и оригинальности конкретных идей. AI в этом процессе дает подсказки (когда ступор) и оценивает конечные рисунки.

Мне было очевидно, что GPT-Vision здорово справится с задачей оценивания, приятным сюрпризом стало то, что текстовые AI-подсказки и оригинальные идеи от самого GPT тоже на уровне. Например, ChatGPT предложил нарисовать две стороны античной монеты. Ниже прикреплю несколько рисунков, которые нарисовали мы сами, когда устраивали внутренний контест.

P.s. картинка к посту, оказывается, стала реальностью даже в Кыргызстане.

#aihackathon #edu #image #vision
👍5
🔥4
#ОбзорГены №2

Неделька выдалась мультимодальной, необычно много внимания привлекли аудио-музыкальные модели.

{ Свежак }

🔠 Spotify запустил плейлисты, которые собираются по текстовым запросам (пример LLM рекомендательной системы, которую я несколько раз подсвечивал)
🔠 SberDevices представили Giga Acoustic Model — семейство моделей для обработки звучащей речи, обученных на русском языке. В частности у них появился GigaAM-Emo для определения эмоций по речи как русскоязычный аналог Hume.ai
🔠 Cohere выпустили Command R+ — прекрасную open-sourse LLM, для которой не нужен супер компьютер (но 2x3090). Вообще Cohere — теневые лидеры в поставке LLM-моделей для RAG-чатботов и других корпоративных решений.
🔠 Теперь ChatGPT может редактировать изображения DALL-E (делать inpainting выделенной области).

{ Пульс }

⚡️ AssemblyAI со своей моделью Universal-1 перехватили пальму первенства по качеству расшифровки аудио в текст
⚡️ Anthropic обнаружили новый способ взлома LLM (с длинным контекстом) — many-shot jailbreaking. Этот прием возник именно из-за длинного контекста.
⚡️ DeepMind представили исследование про генерацию токенов в LLM с разным количеством ресурсов / энергии. Это движение в сторону так называемой "Системы 2", когда LLM будет способна "напрягаться", чтобы спланировать свой ответ и лишь потом его генерировать.

{ Текстуры }

Туториал для Suno v3 (лучшей text2musiс модели) от "эйай ньюз".
Нерешаемая задачка для ChatGPT, которую решили за 3 суток — первоначальная неразрешимость задачи предполагалась в сложной алгоритмичности и решении на уровне отдельных символов, но это не преграда для умелых промпт-инженеров.
Общение с реализовавшимся сценарием футуролога — мастерство промптинга в действии.
Краткая шпаргалка по блокам лендинга — заготовка для ChatGPT, чтобы быстро собрать веб-страницу.

{ Перекресток мнений }

Позиционирование естественного интеллекта. Присутствие ИИ в определенных задачах (tasks) фрустрирует людей и проблематизирует их место в работе (job). На мой взгляд, у людей возникла путаница между результатом и процессом. ИИ часто обыгрывает человека в определенной задаче по результату, используя совсем не человеческий процесс. Нейросети вообще натренированы на результат с попыткой хакнуть процесс. При этом для ИИ достижим отличный результат далеко не во всех сферах, а еще далеко не всегда результат — это главное. Иногда главное — это присутствие в процессе, для которого самое важное мгновенно оценивать изменяющийся контекст и адекватно на него реагировать.

#multimodal #llm #audio #music #image #dalle #recommend #tutorial #jailbreaking #promptgramming
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
ChatGPT-moment

Звучит мнение, что ИИ-сгенерированная музыка на днях пережила свой "ChatGPT-момент" / "Midjourney-момент". Всё благодаря нейросети Udio. Это андердоги, которые зарелизили только beta-версию, когда у прежнего лидера Suno уже v3. Как это часто бывает, никакие они, конечно, не андердоги. Основатель — выходец из Google Deepmind, среди инвесторов — известные фонды и музыканты.

В любом случае, воспользовался выходным, чтобы их опробовать и сопоставить. Про эволюцию ИИ-генераторов музыки стоит понять, что они возникли давно и долго оставались в "ambient-фазе", например, Mubert делал добротный эмбиент более 5 лет назад. В 2023-м почти любой инструментал заиграл, я например применял MusicGen для озвучки своей короткометражки и создания джингла {AI} love you. Suno / Udio (+ Sonauto и др.) делают нечто иное — они создают полноценные треки по лирике и музыкальному стилю, причем есть немало рычагов, как можно повлиять на финальный результат. Они собраны в Suno.wiki, гайде по музыкальному промптингу. На небольшой telegram-гайд ссылался в первом еженедельном дайджесте.

Для пробы взял относительно неизвестное стихотворение Чуковского "Радость" и поместил его в джазовую аранжировку, добавив только припев от себя. То, что вы слышите — это лучшая из десяти генераций на каждой платформе. Suno очевидно слабее по звучанию, но как продукт им пользоваться удобнее. Suno-песня сгенерирована как цельное произведение (ограничение в 2 минуты), а Udio-песня собрана из 5 кусков (по 32 секунды каждая) через функцию Extend. В обеих песнях есть огрехи по ударениям, пытался это починить через расстановку ударения вручную (впервые со школы 😃), но не все так просто.


Общее впечатление — ВАУ 🔥
На создание одной песни может уйти час и два, и три. И это безусловно интересно, а еще познавательно с музыкальной точки зрения.

#music #suno #udio #release #review