LLM под капотом – Telegram
LLM под капотом
21.1K subscribers
286 photos
7 videos
10 files
550 links
Канал про разработку продуктов на базе LLM/ChatGPT. Выжимка важных новостей и разборы кейсов.
Download Telegram
#клиентпорадовал Кто внедряет AI системы в бизнес? Давайте делиться приятными отзывами клиентов!

И радостью поделимся, и потенциальные клиенты могут увидеть наши результаты 👍

Для анонимизации можно просить ChatGPT пересказать и перевести. Но при этом исходный текст должен быть именно написан клиентом.

Ваш, @llm_under_hood 🤗
🔥6
Multilingual LLM Benchmark December-2023.png
420.4 KB
Бенчмарк ChatGPT и прочих LLM моделей за Декабрь!

- Тут есть наш первый мультиязычный бенчмарк, который сделали вместе с лингвистами из Код Один. Нам прислали 17 языков, каждый из которых был заполнен носителем языка.
- В продуктовый бенчмарк добавили Orca 2, Starling и Mistral 7B Notus-v1. Чудес не произошло.
- Все модели пересчитаны заново. Это - 12150 запросов всего. А если вспомнить про включенный везде beam-search=4 то и того больше.

- Ссылка на этот пост: https://news.1rj.ru/str/llm_under_hood/217
- FAQ по декабрьскому бенчмарку

Ваш, @llm_under_hood 🤗
13🤩4🤔2🤗1
Новости про конкурента ChatGPT от Google - Gemini, в сухом остатке.

- Заявлено три модели - Ultra, Pro & Nano.
- Pro & Nano будут доступны в Google Cloud в этом месяце.
- Pro по их бенчмаркам лучше, чем ChatGPT 3.5.
- Ultra, которая по оценкам лучше ChatGPT 4, выйдет когда-то в следующем году.

Имхо, если бы у Google было что-то стоящее, они бы выкатили сразу (как это делают OpenAI или Apple), а не кормили обещаниями.

Ваш, @llm_under_hood 🤗
14
Нас внезапно стало больше 1000 человек в канале. Давайте знакомиться и обрастать связями!

Networking всегда полезен, а во времена перемен - особенно. 🤝 Вдруг кому пригодится новая интересная работа или нужен будет человек в проект?

Три простых шага:
1. Вот мой linkedIn профиль: https://www.linkedin.com/in/abdullin/. Добавляйтесь - я добавлю всех!
2. Пишите свой профиль и два слова о себе в комментарии к этому посту. Добавляйте остальных, кто уже отписал выше
3. Время от времени поглядывайте в LinkedIn и отвечайте на заявки

Ваш, @llm_under_hood 🤗
🤝11🔥5🤡1
Хотите первыми узнать про модель, о которой будут писать в крупных каналах только на следующей неделе? 😎

Знакомьтесь - к трансформерам пришел милый пушистый зверек по имени StripedHyena-7B.

По цифрам - ничего выдающегося. Чуть хуже, чем Mistral 7B на задачах с маленьким контекстом, немного лучше на задачах суммаризации с большим контекстом.

Но это не трансформер! Ребята из Together.AI заменили convolutions на слой state-space model (SMM), что позволило ускорить работу модели. Да и требования к памяти стали еще лучше.

Потенциально это революция.

Blog | HuggingFace | базовая модель | Github

Вторая интересная модель - это просто ссылка на torrent от Mistral 7B. Там что-то новенькое в виде 8 экспертов на базе 7B моделей (MoE). Никто точно не знает, как это запускать, но все с нетерпением ждут NeurIPS - крупнейшую конференцию по deep learning на следующей неделе!

Andrej Karpathy удивляется, что выложили torrent, без профессионально смонтированного видео про революцию в AI 🤣

Ваш, @llm_under_hood 🤗
🔥273🤩3👍2🤔1
Вам не нужен RAG! И fine-tuning тоже не нужен!

Простите, это крик души после сегодняшнего воркшопа для европейской компании 😤

Если вы автоматизируете бизнес процессы при помощи AI/LLM/GPT, то не обязательно начинать проект с использования "тяжелой артиллерии": RAG, fine-tuning, RLHF и векторных БД. На использование и разворачивание подобных вещей могут уйти недели. А ведь можно показать бизнесу готовый к использованию прототип за считанные дни.

Для начала стоит выжать все возможное из обычного prompt engineering с дистилляцией знаний. Например:

1. Начать собирать входы и выходы на шагах процесса, который мы автоматизируем (Capture Feedback). Разметить вручную пару десятков кейсов
2. Сесть с экспертом и сгрести в кучу все релевантные документы на тему.
3. Сесть с ChatGPT и синтезировать краткие методички про то, как данный кейс автоматизируется.
4. Посмотреть, как ChatGPT (или локальная модель) справляются с известными кейсами на базе методичек. Собрать feedback и оценки
5. Попросить ChatGPT проверить оценки, категоризовать их и дополнить методичку.
6. Выкатить первую версию
7. Повторять шаги со сбором фидбэка и обновлением методичек.

Такое подходит к разнообразным кейсам от написания статьей по продуктам (да, там нет embeddings!), экспорта типовых запросов из email переписки, написания ключевых слов для продуктов, или создания отчетов по работе международного customer support за день.

Да, если речь идет про генерацию лидов из тысяч годовых отчетов по 20-200MB каждый, то там без RAG уже будет тяжело. Но ведь и мы начинаем не с таких сложных кейсов?

Пар выпустил))

Ваш, @llm_under_hood 🤗
👍5015🤔4
Как насчет видео про применение LLM в бизнесе?

Lokad выложил эпизод про Large Language Models in Supply Chain. Мы разговариваем про внедрение LLM не только в Supply Chain, но и в организациях в целом. Проблемы, перспективы и всякие кейсы.

00:00:00: Introduction to the interview
00:01:00: Rinat's Lokad journey and supply chain challenges
00:03:59: Lokad's evolution and simulation insights
00:07:07: Simulation complexities and agent-based decisions
00:09:15: Introducing LLMS and simulation optimizations
00:11:18: ChatGPT's impact and model categories
00:14:14: LLMs as cognitive tools in enterprises
00:17:10: LLMs enhancing customer interactions and listings
00:20:30: LLMs' limited role in supply chain calculations
00:23:07: LLMs improving communication in supply chains
00:27:49: ChatGPT's role in data analytics and insights
00:32:39: LLMs' text processing and quantitative data challenges
00:38:37: Refining enterprise search and closing AI insights

Ваш, @llm_under_hood 🤗
🔥24👍4👏3
#клиентспросил А покажи пример использования ChatGPT для написания промпта?

Теория звучит красиво - выкинь RAG на простых случаях и дистиллируй знания, но как-то оно абстрактно и непонятно, верно? 🤔

Поэтому вот пример из сегодняшнего проекта (текст ниже, скриншот - в комментах). Я прямо сейчас работаю над улучшением текущей версии нишевого поисковика клиентов. Это там, где у нас выкачано много гигабайтов годовых отчетов компаний.

Мне нужно улучшить механизм поиска релевантной информации о потенциальных лидах, к которым можно найти хороший подход. Существующая система ищет хорошо, но клиенту хочется еще больше лидов! А кому их не хочется? 😁

Для этого нужно копаться в информации глубже, выискивать красивые зацепки для контакта. Думать и расписывать промпт для всего этого не хочется. 21 век на дворе! Поэтому я прошу ChatGPT набросать план поиска информации о компании "для ассистента" 😉

I want to analyse companies that could be good customers for COMPANY (the %%%% company). Denoscription of CUSTOMER and its business model is included below, for reference.

Analysis process works like this:
1. Pick an promising lead company
2. Learn more about the company by researching it on the internet.
3. Summarise the findings and look for potential cases where the company would benefit from working with CUSTOMER (partnership, customer or something else).

I want you to write a list of bullet-points (questions/ideas) for the second step. My assistant will use it to research the company.

If possible, steer the findings towards the recent events, current problems and the other things that could help to understand the current state of the company (a la JTBD)

# Findings about COMPANY products and services

(skipped)


Причем весь контекст якорится к общей задаче (чтобы была перспектива и общее понимание ситуации) и конкретному клиенту. Методичка получается заточенная под конкретную задачу. При этом ее можно проглядеть глазами и отредактировать.

Потом по этой методичке будет работать не какой-то "ассистент", а сам ChatGPT.

Ваш, @llm_under_hood 🤗

PS: Другие посты из серии #клиентспросил:
- Кейс про агента, который программирует себя.
- Ринат, клиент хочет работать с AI продуктом конкурента. Что делать?
- словарик с краткими описаниями самых важных терминов (labs)
👍158
This media is not supported in your browser
VIEW IN TELEGRAM
Решил я потестировать Gemini Pro от Google, и вот что из этого вышло.

Модель пока бесплатная. При этом вежливая и скромная. Трезво оценивает свои возможности.

На примитивные запросы отвечает, а что-то чуть более сложное - сразу отказывается отвечать.

Ваш, @llm_under_hood 🤗
🔥10😁8🙏1
Во всех моих последних созвонах повторяется одна тема - LLM/AI встраивается в существующие человеческие процессы, радикально меняет и улучшает их.

Например, RAG системы могут частично заменять экспертов и кучу документации. В специфических отраслях вроде авиастроения тут просто нет альтернатив. Топовые эксперты уходят на пенсию в ближайшие годы. А без них, встает все.

NVidia и та бросилась оцифровывать документы, строить RAG, и файн-тюнить на них модели.

Аналогичные проблемы есть и в более "скучных" компаниях. И они решаются теми же "скучными" инструментами - AI/LLM встраиваются в человеческие процессы. Они помогают там, где не хватает людей, либо люди лезут на стенку от глупых и повторяющихся вопросов.

А насколько далеко может зайти такая интеграция?

Channel 1 выложила подборку новостей, которая полностью рассказана с помощью аватаров. И это крышесносно! Смотреть тут: https://www.channel1.ai

Ваш, @llm_under_hood 🤗
🤯10👍3🤩2
Вебинар про применение LLM в маркетинге и бизнесе!

Его организует ESSCA School of Management (французский вариант Ivy League университетов).

Мероприятие будет 19 декабря с 10:00 до 12:00 CET (12:00 - 14:00 по Москве). Изначально планировалось только для студентов, но я выпросил ссылку для раздачи 🤗

Подключиться в Teams.

Joannes Vermorel (Lokad.com, CEO) и я - будем обсуждать разные кейсы (агенда в комментариях). Но зуб даю, что нас будет заносить в разные интересные дебри. Особенно, если будут вопросы из аудитории.

Приходите, будет здорово!

Ваш, @llm_under_hood 🤗


PS: Предыдущее видео-обсуждение LLM в бизнесе.
🔥16🤔1
OpenAI добавили logprobs в Chat Completions API!

Что это значит? Теперь API может возвращать не один token, а 1-5 наиболее вероятных кандидатов вместе с их вероятностями.

Это позволяет определить уверенность ChatGPT модели в своем ответе, сделать auto-complete или классификацию.

Ссылка на официальные документы.

Ваш, @llm_under_hood 🤗

PS: Это видео развивает тему предыдущих постов:
- Вам не нужен RAG! И fine-tuning тоже не нужен!
- Кейс про агента-писателя, которого научил ChatGPT
- Видео про применение LLM в бизнесе
🔥19👍52🤯2
Media is too big
VIEW IN TELEGRAM
#видео Давайте я вам расскажу про то, как обнаруживать галлюцинации в текстах от AI и бороться с ними.

Благодаря logprobs это становится настолько просто, что нам хватит 7-8 минут.

Это незаменимая фича для адвокатов, юридических отделов и всех тех, кому важна корректность фактов.

Ваш, @llm_under_hood 🤗

PS: Следующее видео на эту тему - don't trust LLM training memory.
30🔥20👍8👎1
Меньше чем через час выступаю на вебинаре про LLM в бизнесе и маркетинге.

Будет интересно тем, кто:
⁃ пилит свой продукт с LLM под капотом;
⁃ хочет использовать возможности generative AI в своем бизнесе;
⁃ интересуется - “а как оно используется в других компаниях?”

Вебинар - бесплатный. Вход - открытый. Язык - английский. Начало - 12:00 MСК. Ссылка - http://abdullin.com/now

Ваш, @llm_under_hood 🤗
🔥18👍41
Media is too big
VIEW IN TELEGRAM
В комментах и в чате разгорелось обсуждение про галлюцинации ChatGPT, и по его мотивам я сделал ещё одно #видео.

Это не запись последнего вебинара! (она планируется позже)

В нем мы рассмотрим несколько простых вопросов, которые вводят в ступор языковые модели. Потом запутаем еще больше, а потом покажем, как отвечать правильно.

Будет интересно если:
- вы используете ChatGPT и хотите лучше понимать, где модель выдумывает;
- вы внедряете ChatGPT в свои бизнес-процессы, стремитесь контролировать качество и улучшать отдачу;
- вы разрабатываете свои продукты с LLM под капотом и хотите делать их лучше конкурентов.

Ваш, @llm_under_hood 🤗

Еще по этой теме:
- Видео про использование log_probs для раскрашивания ответа ChatGPT
- Две методички по продуктам с LLM под капотом
- Кейс с ChatGPT про 10.000 € в месяц 🤑
- Вам не нужен RAG! И fine-tuning тоже не нужен!
🔥185🎉1
Вы переиспользуете ChatGPT промпты?

Например, когда надо:

(1) снова получить очень стабильный вывод модели в каком-то формате

(2) передать коллеге удачный промпт для классификации отзывов пользователей

(3) найти старый разговор с ChatGPT, где вы просили его написать письмо кому-то, дополнить его новой информацией и попросить написать ответ.

(4) да и просто сказать ChatGPT в старом разговоре: “смотри, я тут попробовал применить твое решение, но всплыли такие-то косяки. Просмотри отзывы, подумай и улучши свое решение!

Ваш, @llm_under_hood 🤗
💯7👍63
#weekend пост про робо-руки, GPT-4 в программировании и перспективные технологии

Хочу рассказать про классное исследование в области LLM и AI. Это статья двухмесячной давности про использование GPT-4 для обучения роботов всяким новым штукам.

Роботы - это один из следующих фронтиров для проектов и исследований. Тут пока не так много шума, как с GPT, но компании продолжают вкладывать в них миллиарды.

Для меня из роботов интересны больше всего не человекоподобные роботы (имхо, больше игрушка), а более простые и прагматичные робо-руки. Они сейчас есть на всех совеременных заводах и конвейерных линиях. Стоят такие промышленные роботы от 25000$-45000$ за штуку.

Дорого? Зато они могут без устали фигачить одну и ту же задачу круглые сутки, без отпусков и создания профсоюзов. Очень выгодно, если так подумать.

Используются они в разных задачах, начиная от сбора товаров в online заказах до сбора всяческих узлов и аггрегатов.

Крутых роботов на заводах Tesla все уже видели. У Amazon есть более 750000 роботов. У Ocado Group есть склад, на котором почти половина товаров собирается в корзины роботами. А сама NVidia в предстоящих выступлениях на CES 2024 акцентировала робототехнику (скорее всего про роботов-хирургов и машины).

Так вот, что с этими роботами достаточно сложно - долгое время никто толком не знал, как их обучать всяким сложным движениям. Например, как научить робо-руку с пятью пальцами вращать ручку? Это может делать каждый достаточно скучающий школьник, а вот с робо-рукой так не получается. Слишком все сложно.

Обычно делали как -
(1) берут физическую платформу (скажем, робо-руку) и создают для нее виртуальную модель
(2) пишут код, который дает оценки поведению такой руки
(3) запускают обучение в виртуальной среде, используя код для оценки (reward function), чтобы двигаться в правильном направлении.

Пункт номер два - это самый сложный. От качества reward function зависит то, будет ли робо-рука завинчивать болт или забивать его.

И ребята из NVidia и университета Пенсильвании придумали как пристроить к делу ChatGPT-4. Да-да, обычная кодо-генерация с feedback loop (см кейс про агента, который программирует себя):

(1) GPT-4 пишет код для reward function. Причем, чтобы не тратить время на объяснения, ему на вход дают прямо основной код виртуальной среды.
(2) Запускают симуляцию и обучение.
(3) Показывают результаты работы ChatGPT и говорят “ну ты посмотри, какую фигню творит робот! давай переписывай reward function для нормального выполнения задачи”.

И это получается прямо RLHF для роботов! Ведь можно модели при обучении говорить не просто “творит фигню”, а человеческим языком указывать на ошибки и просить их исправить. А уж GPT-4 перепишет reward function соответствующим образом.

Это прямо как мое постоянное использование GPT-4 для написания всяческого кода 🤣

Ссылки:
- Eureka: Human-Level Reward Design via Coding LLMs
- Мой цикл статьей про создание робо-руки из простых запчастей (рука не получилась, но получилось поиграть с разными вещами от Lego Technic и до FPGA, 3D-печати и создания своих плат)


С наступающим! Всего самого хорошего в новом году,

Ваш, @llm_under_hood 🤗

PS: Спасибо Айгизу за ссылку на статью.
🔥24👍6🎉5🤩3😱1
Я придумал себе подарок на НГ - личный адаптивный RAG #weekend

Хочу себе такую систему, чтобы можно было кидать на вход все мысли, файлы, ссылки и контакты. А еще из телеграма пересылать, почту форвардить и из браузера сниппеты кушать.

Чтобы можно было потом общаться с системой на предмет извлечения нужной информации в структурированные базы знаний. Например:

• Когда нужно писать отчет по проекту - “А пройдись-ка по последним записям и сформируй список достижений по проекту X за неделю”

• Когда хочется поддерживать список контактов - “Заведи список людей, которые хотят пилить свои продукты. Прошерсти мои последние переписки на эту тему”. Или “Апдейтни этот список людей на основе последних переписок

• Когда нужно побрейнштормить в пару шагов на основе личных данных: “Предложи мне пару инсайтов в мире RAG из моих заметок для обсуждения с клиентом X завтра” или "Кого из моих контактов может заинтересовать участие в выводе на рынок продукта Y"

• Когда нужно найти старую информацию - “Какие у меня были удачные промпты при генерации кода для Kubernetes?”

И чтобы каждое действие и мой отклик сохранялись в качестве feedback для обучения полностью личной и приватной модели в будущем.

И чтобы если команда “переформатируй список самых часто используемых промптов” накосячила и удалила все к щебеням - можно было откатить на прошлую версию. Да и вообще всегда можно было откатить все состояние системы на любой момент времени.


Лучший подарок, как известно, сделан своими руками. Поэтому я буду делать такую систему сам.

У меня уже было нечто подобное, в до-ChatGPT эру. Сначала я формализовал подход к работе 3-5 проектами одновременно [1], а потом написал свою личную систему для организации данных по этому подходу [2]. Правда ей очень неудобно пользоваться, когда число проектов превышает 100 - слишком все сложно и неудобно. Но это было до того, как я встретил ChatGPT, научился использовать его для разработки проектов, и создавать ассистентов.

Поэтому, в новом году есть шанс сделать что-то лучшее и наворотить свой адаптивный RAG.

А какие у вас хотелки и планы на новый год?

Ваш, @llm_under_hood 🤗

[1] My workflows at Trustbit during quarantine
[2] Статья про pyJournal
🔥44🤩11👍63👏1
Две архитектуры умного поиска.

Верхняя половина рисунка - это как RAG системы делаются обычно. Мы нарезаем документы на фрагменты и сохраняем в векторную БД - Chroma, Pinecone, Milvus итп.

Потом, когда нужно ответить на вопрос клиента, мы используем гибридный поиск для нахождения релевантных текстов. ChatGPT пройдется по найденным кусочкам, выкинет лишнее и сформирует ответ. В ответах нередко встречается чушь, которая печалит пользователей.

Второй подход - использование динамических индексов. Вместо векторов создаем индексы, которые описывают и связывают сущности в документах. Это немного похоже на графовые базы данных.

Индексы строятся LLM-кой, адаптируясь под запросы клиентов. Если видим, что пользователи начали спрашивать про новый тип товара, тогда автоматом перелопачиваем документы и создаем нужный индекс.

И локальную LLM загрузим на ночь, и качество ответов вырастет на следующее утро.

Ваш, @llm_under_hood 🤗

---
Еще на эту тему: использование статистики и feedback для дообучения ассистентов
🔥29👍7🤡2🤗1
Кто хочет, чтобы LLM нормально умела читать таблицы?

Ребята из JPMorgan придумали модель для работы с документами, где расположение текста очень важно для понимания: формами, инвойсами, чеками, отчетами итп. Это все те вещи, за работу с которыми бизнес готов хорошо платить.

В отличие от моделей с image encoders, в DocLLM используются bounding boxes для разметки местоположения. Говорят, что в некоторых случаях они побили SotA.

Они обучили 2 модели - на базе Falcon-1B архитектуры и на базе Llama2-7B.

Paper

Это JP Morgan, поэтому открытой модели пока нет. Ждем, пока кто-нибудь не повторит исследование.

Ваш, @llm_under_hood 🤗
🔥18👍92💩1