LLM под капотом – Telegram
LLM под капотом
21.1K subscribers
286 photos
7 videos
10 files
550 links
Канал про разработку продуктов на базе LLM/ChatGPT. Выжимка важных новостей и разборы кейсов.
Download Telegram
Как хорошо ChatGPT-4 Turbo говорит по-русски? А GPT-3.5?

Вот черновая версия языкового бенчмарка для GPT/LLM! Спасибо всем, кто прислал свои языки!

Еще не все формы с языками обработаны, я буду добавлять их по мере возможности. Но можно продолжать присылать новые языки, которых тут нет! Присылайте их в группу "Языки разные - код один".

Локальные open-source модели тоже позже добавлю в бенчмарк.

Ваш, @llm_under_hood 🤗

PS: Ноябрьский бенчмарк LLM моделей на продуктовых задачах (включая GPT-4 Turbo)
🔥16🤗1
Вторая версия языкового бенчмарка LLM моделей включает не только OpenAI ChatGPT. Теперь тут можно посмотреть, как хорошо понимают тот или иной язык локальные модели - те, которые можно скачать и запустить самостоятельно.

Чем лучше понимает язык модель, тем качественней будут ее ответы, и тем меньше будет "галлюцинаций" в них.

Бенчмарк - часть тестов LLM моделей от Trustbit.

Финальная версия и все обновления появятся в первую очередь в этом канале!

Ваш, @llm_under_hood 🤗
🔥17👏3
Как "завалить" ChatGPT 4 на простейших вопросах?

Достаточно задать вопросы, которые очевидны для человека, но не для текстовой модели. Например, вопросы про рифму или ударения.

Задним числом это очевидно - словарей и букварей с фонетикой не так много в текстовых данных для обучения. Текстовая модель будет тут плавать. А вот голосовые модели будут "знать" это гораздо лучше.

Именно поэтому вопрос про рифму, который изначально был в языковом бенчмарке для LLM, мы оттуда убрали.

Ваш, @llm_under_hood 🤗
🔥5
#клиентпорадовал Кто внедряет AI системы в бизнес? Давайте делиться приятными отзывами клиентов!

И радостью поделимся, и потенциальные клиенты могут увидеть наши результаты 👍

Для анонимизации можно просить ChatGPT пересказать и перевести. Но при этом исходный текст должен быть именно написан клиентом.

Ваш, @llm_under_hood 🤗
🔥6
Multilingual LLM Benchmark December-2023.png
420.4 KB
Бенчмарк ChatGPT и прочих LLM моделей за Декабрь!

- Тут есть наш первый мультиязычный бенчмарк, который сделали вместе с лингвистами из Код Один. Нам прислали 17 языков, каждый из которых был заполнен носителем языка.
- В продуктовый бенчмарк добавили Orca 2, Starling и Mistral 7B Notus-v1. Чудес не произошло.
- Все модели пересчитаны заново. Это - 12150 запросов всего. А если вспомнить про включенный везде beam-search=4 то и того больше.

- Ссылка на этот пост: https://news.1rj.ru/str/llm_under_hood/217
- FAQ по декабрьскому бенчмарку

Ваш, @llm_under_hood 🤗
13🤩4🤔2🤗1
Новости про конкурента ChatGPT от Google - Gemini, в сухом остатке.

- Заявлено три модели - Ultra, Pro & Nano.
- Pro & Nano будут доступны в Google Cloud в этом месяце.
- Pro по их бенчмаркам лучше, чем ChatGPT 3.5.
- Ultra, которая по оценкам лучше ChatGPT 4, выйдет когда-то в следующем году.

Имхо, если бы у Google было что-то стоящее, они бы выкатили сразу (как это делают OpenAI или Apple), а не кормили обещаниями.

Ваш, @llm_under_hood 🤗
14
Нас внезапно стало больше 1000 человек в канале. Давайте знакомиться и обрастать связями!

Networking всегда полезен, а во времена перемен - особенно. 🤝 Вдруг кому пригодится новая интересная работа или нужен будет человек в проект?

Три простых шага:
1. Вот мой linkedIn профиль: https://www.linkedin.com/in/abdullin/. Добавляйтесь - я добавлю всех!
2. Пишите свой профиль и два слова о себе в комментарии к этому посту. Добавляйте остальных, кто уже отписал выше
3. Время от времени поглядывайте в LinkedIn и отвечайте на заявки

Ваш, @llm_under_hood 🤗
🤝11🔥5🤡1
Хотите первыми узнать про модель, о которой будут писать в крупных каналах только на следующей неделе? 😎

Знакомьтесь - к трансформерам пришел милый пушистый зверек по имени StripedHyena-7B.

По цифрам - ничего выдающегося. Чуть хуже, чем Mistral 7B на задачах с маленьким контекстом, немного лучше на задачах суммаризации с большим контекстом.

Но это не трансформер! Ребята из Together.AI заменили convolutions на слой state-space model (SMM), что позволило ускорить работу модели. Да и требования к памяти стали еще лучше.

Потенциально это революция.

Blog | HuggingFace | базовая модель | Github

Вторая интересная модель - это просто ссылка на torrent от Mistral 7B. Там что-то новенькое в виде 8 экспертов на базе 7B моделей (MoE). Никто точно не знает, как это запускать, но все с нетерпением ждут NeurIPS - крупнейшую конференцию по deep learning на следующей неделе!

Andrej Karpathy удивляется, что выложили torrent, без профессионально смонтированного видео про революцию в AI 🤣

Ваш, @llm_under_hood 🤗
🔥273🤩3👍2🤔1
Вам не нужен RAG! И fine-tuning тоже не нужен!

Простите, это крик души после сегодняшнего воркшопа для европейской компании 😤

Если вы автоматизируете бизнес процессы при помощи AI/LLM/GPT, то не обязательно начинать проект с использования "тяжелой артиллерии": RAG, fine-tuning, RLHF и векторных БД. На использование и разворачивание подобных вещей могут уйти недели. А ведь можно показать бизнесу готовый к использованию прототип за считанные дни.

Для начала стоит выжать все возможное из обычного prompt engineering с дистилляцией знаний. Например:

1. Начать собирать входы и выходы на шагах процесса, который мы автоматизируем (Capture Feedback). Разметить вручную пару десятков кейсов
2. Сесть с экспертом и сгрести в кучу все релевантные документы на тему.
3. Сесть с ChatGPT и синтезировать краткие методички про то, как данный кейс автоматизируется.
4. Посмотреть, как ChatGPT (или локальная модель) справляются с известными кейсами на базе методичек. Собрать feedback и оценки
5. Попросить ChatGPT проверить оценки, категоризовать их и дополнить методичку.
6. Выкатить первую версию
7. Повторять шаги со сбором фидбэка и обновлением методичек.

Такое подходит к разнообразным кейсам от написания статьей по продуктам (да, там нет embeddings!), экспорта типовых запросов из email переписки, написания ключевых слов для продуктов, или создания отчетов по работе международного customer support за день.

Да, если речь идет про генерацию лидов из тысяч годовых отчетов по 20-200MB каждый, то там без RAG уже будет тяжело. Но ведь и мы начинаем не с таких сложных кейсов?

Пар выпустил))

Ваш, @llm_under_hood 🤗
👍5015🤔4
Как насчет видео про применение LLM в бизнесе?

Lokad выложил эпизод про Large Language Models in Supply Chain. Мы разговариваем про внедрение LLM не только в Supply Chain, но и в организациях в целом. Проблемы, перспективы и всякие кейсы.

00:00:00: Introduction to the interview
00:01:00: Rinat's Lokad journey and supply chain challenges
00:03:59: Lokad's evolution and simulation insights
00:07:07: Simulation complexities and agent-based decisions
00:09:15: Introducing LLMS and simulation optimizations
00:11:18: ChatGPT's impact and model categories
00:14:14: LLMs as cognitive tools in enterprises
00:17:10: LLMs enhancing customer interactions and listings
00:20:30: LLMs' limited role in supply chain calculations
00:23:07: LLMs improving communication in supply chains
00:27:49: ChatGPT's role in data analytics and insights
00:32:39: LLMs' text processing and quantitative data challenges
00:38:37: Refining enterprise search and closing AI insights

Ваш, @llm_under_hood 🤗
🔥24👍4👏3
#клиентспросил А покажи пример использования ChatGPT для написания промпта?

Теория звучит красиво - выкинь RAG на простых случаях и дистиллируй знания, но как-то оно абстрактно и непонятно, верно? 🤔

Поэтому вот пример из сегодняшнего проекта (текст ниже, скриншот - в комментах). Я прямо сейчас работаю над улучшением текущей версии нишевого поисковика клиентов. Это там, где у нас выкачано много гигабайтов годовых отчетов компаний.

Мне нужно улучшить механизм поиска релевантной информации о потенциальных лидах, к которым можно найти хороший подход. Существующая система ищет хорошо, но клиенту хочется еще больше лидов! А кому их не хочется? 😁

Для этого нужно копаться в информации глубже, выискивать красивые зацепки для контакта. Думать и расписывать промпт для всего этого не хочется. 21 век на дворе! Поэтому я прошу ChatGPT набросать план поиска информации о компании "для ассистента" 😉

I want to analyse companies that could be good customers for COMPANY (the %%%% company). Denoscription of CUSTOMER and its business model is included below, for reference.

Analysis process works like this:
1. Pick an promising lead company
2. Learn more about the company by researching it on the internet.
3. Summarise the findings and look for potential cases where the company would benefit from working with CUSTOMER (partnership, customer or something else).

I want you to write a list of bullet-points (questions/ideas) for the second step. My assistant will use it to research the company.

If possible, steer the findings towards the recent events, current problems and the other things that could help to understand the current state of the company (a la JTBD)

# Findings about COMPANY products and services

(skipped)


Причем весь контекст якорится к общей задаче (чтобы была перспектива и общее понимание ситуации) и конкретному клиенту. Методичка получается заточенная под конкретную задачу. При этом ее можно проглядеть глазами и отредактировать.

Потом по этой методичке будет работать не какой-то "ассистент", а сам ChatGPT.

Ваш, @llm_under_hood 🤗

PS: Другие посты из серии #клиентспросил:
- Кейс про агента, который программирует себя.
- Ринат, клиент хочет работать с AI продуктом конкурента. Что делать?
- словарик с краткими описаниями самых важных терминов (labs)
👍158
This media is not supported in your browser
VIEW IN TELEGRAM
Решил я потестировать Gemini Pro от Google, и вот что из этого вышло.

Модель пока бесплатная. При этом вежливая и скромная. Трезво оценивает свои возможности.

На примитивные запросы отвечает, а что-то чуть более сложное - сразу отказывается отвечать.

Ваш, @llm_under_hood 🤗
🔥10😁8🙏1
Во всех моих последних созвонах повторяется одна тема - LLM/AI встраивается в существующие человеческие процессы, радикально меняет и улучшает их.

Например, RAG системы могут частично заменять экспертов и кучу документации. В специфических отраслях вроде авиастроения тут просто нет альтернатив. Топовые эксперты уходят на пенсию в ближайшие годы. А без них, встает все.

NVidia и та бросилась оцифровывать документы, строить RAG, и файн-тюнить на них модели.

Аналогичные проблемы есть и в более "скучных" компаниях. И они решаются теми же "скучными" инструментами - AI/LLM встраиваются в человеческие процессы. Они помогают там, где не хватает людей, либо люди лезут на стенку от глупых и повторяющихся вопросов.

А насколько далеко может зайти такая интеграция?

Channel 1 выложила подборку новостей, которая полностью рассказана с помощью аватаров. И это крышесносно! Смотреть тут: https://www.channel1.ai

Ваш, @llm_under_hood 🤗
🤯10👍3🤩2
Вебинар про применение LLM в маркетинге и бизнесе!

Его организует ESSCA School of Management (французский вариант Ivy League университетов).

Мероприятие будет 19 декабря с 10:00 до 12:00 CET (12:00 - 14:00 по Москве). Изначально планировалось только для студентов, но я выпросил ссылку для раздачи 🤗

Подключиться в Teams.

Joannes Vermorel (Lokad.com, CEO) и я - будем обсуждать разные кейсы (агенда в комментариях). Но зуб даю, что нас будет заносить в разные интересные дебри. Особенно, если будут вопросы из аудитории.

Приходите, будет здорово!

Ваш, @llm_under_hood 🤗


PS: Предыдущее видео-обсуждение LLM в бизнесе.
🔥16🤔1
OpenAI добавили logprobs в Chat Completions API!

Что это значит? Теперь API может возвращать не один token, а 1-5 наиболее вероятных кандидатов вместе с их вероятностями.

Это позволяет определить уверенность ChatGPT модели в своем ответе, сделать auto-complete или классификацию.

Ссылка на официальные документы.

Ваш, @llm_under_hood 🤗

PS: Это видео развивает тему предыдущих постов:
- Вам не нужен RAG! И fine-tuning тоже не нужен!
- Кейс про агента-писателя, которого научил ChatGPT
- Видео про применение LLM в бизнесе
🔥19👍52🤯2
Media is too big
VIEW IN TELEGRAM
#видео Давайте я вам расскажу про то, как обнаруживать галлюцинации в текстах от AI и бороться с ними.

Благодаря logprobs это становится настолько просто, что нам хватит 7-8 минут.

Это незаменимая фича для адвокатов, юридических отделов и всех тех, кому важна корректность фактов.

Ваш, @llm_under_hood 🤗

PS: Следующее видео на эту тему - don't trust LLM training memory.
30🔥20👍8👎1
Меньше чем через час выступаю на вебинаре про LLM в бизнесе и маркетинге.

Будет интересно тем, кто:
⁃ пилит свой продукт с LLM под капотом;
⁃ хочет использовать возможности generative AI в своем бизнесе;
⁃ интересуется - “а как оно используется в других компаниях?”

Вебинар - бесплатный. Вход - открытый. Язык - английский. Начало - 12:00 MСК. Ссылка - http://abdullin.com/now

Ваш, @llm_under_hood 🤗
🔥18👍41
Media is too big
VIEW IN TELEGRAM
В комментах и в чате разгорелось обсуждение про галлюцинации ChatGPT, и по его мотивам я сделал ещё одно #видео.

Это не запись последнего вебинара! (она планируется позже)

В нем мы рассмотрим несколько простых вопросов, которые вводят в ступор языковые модели. Потом запутаем еще больше, а потом покажем, как отвечать правильно.

Будет интересно если:
- вы используете ChatGPT и хотите лучше понимать, где модель выдумывает;
- вы внедряете ChatGPT в свои бизнес-процессы, стремитесь контролировать качество и улучшать отдачу;
- вы разрабатываете свои продукты с LLM под капотом и хотите делать их лучше конкурентов.

Ваш, @llm_under_hood 🤗

Еще по этой теме:
- Видео про использование log_probs для раскрашивания ответа ChatGPT
- Две методички по продуктам с LLM под капотом
- Кейс с ChatGPT про 10.000 € в месяц 🤑
- Вам не нужен RAG! И fine-tuning тоже не нужен!
🔥185🎉1
Вы переиспользуете ChatGPT промпты?

Например, когда надо:

(1) снова получить очень стабильный вывод модели в каком-то формате

(2) передать коллеге удачный промпт для классификации отзывов пользователей

(3) найти старый разговор с ChatGPT, где вы просили его написать письмо кому-то, дополнить его новой информацией и попросить написать ответ.

(4) да и просто сказать ChatGPT в старом разговоре: “смотри, я тут попробовал применить твое решение, но всплыли такие-то косяки. Просмотри отзывы, подумай и улучши свое решение!

Ваш, @llm_under_hood 🤗
💯7👍63
#weekend пост про робо-руки, GPT-4 в программировании и перспективные технологии

Хочу рассказать про классное исследование в области LLM и AI. Это статья двухмесячной давности про использование GPT-4 для обучения роботов всяким новым штукам.

Роботы - это один из следующих фронтиров для проектов и исследований. Тут пока не так много шума, как с GPT, но компании продолжают вкладывать в них миллиарды.

Для меня из роботов интересны больше всего не человекоподобные роботы (имхо, больше игрушка), а более простые и прагматичные робо-руки. Они сейчас есть на всех совеременных заводах и конвейерных линиях. Стоят такие промышленные роботы от 25000$-45000$ за штуку.

Дорого? Зато они могут без устали фигачить одну и ту же задачу круглые сутки, без отпусков и создания профсоюзов. Очень выгодно, если так подумать.

Используются они в разных задачах, начиная от сбора товаров в online заказах до сбора всяческих узлов и аггрегатов.

Крутых роботов на заводах Tesla все уже видели. У Amazon есть более 750000 роботов. У Ocado Group есть склад, на котором почти половина товаров собирается в корзины роботами. А сама NVidia в предстоящих выступлениях на CES 2024 акцентировала робототехнику (скорее всего про роботов-хирургов и машины).

Так вот, что с этими роботами достаточно сложно - долгое время никто толком не знал, как их обучать всяким сложным движениям. Например, как научить робо-руку с пятью пальцами вращать ручку? Это может делать каждый достаточно скучающий школьник, а вот с робо-рукой так не получается. Слишком все сложно.

Обычно делали как -
(1) берут физическую платформу (скажем, робо-руку) и создают для нее виртуальную модель
(2) пишут код, который дает оценки поведению такой руки
(3) запускают обучение в виртуальной среде, используя код для оценки (reward function), чтобы двигаться в правильном направлении.

Пункт номер два - это самый сложный. От качества reward function зависит то, будет ли робо-рука завинчивать болт или забивать его.

И ребята из NVidia и университета Пенсильвании придумали как пристроить к делу ChatGPT-4. Да-да, обычная кодо-генерация с feedback loop (см кейс про агента, который программирует себя):

(1) GPT-4 пишет код для reward function. Причем, чтобы не тратить время на объяснения, ему на вход дают прямо основной код виртуальной среды.
(2) Запускают симуляцию и обучение.
(3) Показывают результаты работы ChatGPT и говорят “ну ты посмотри, какую фигню творит робот! давай переписывай reward function для нормального выполнения задачи”.

И это получается прямо RLHF для роботов! Ведь можно модели при обучении говорить не просто “творит фигню”, а человеческим языком указывать на ошибки и просить их исправить. А уж GPT-4 перепишет reward function соответствующим образом.

Это прямо как мое постоянное использование GPT-4 для написания всяческого кода 🤣

Ссылки:
- Eureka: Human-Level Reward Design via Coding LLMs
- Мой цикл статьей про создание робо-руки из простых запчастей (рука не получилась, но получилось поиграть с разными вещами от Lego Technic и до FPGA, 3D-печати и создания своих плат)


С наступающим! Всего самого хорошего в новом году,

Ваш, @llm_under_hood 🤗

PS: Спасибо Айгизу за ссылку на статью.
🔥24👍6🎉5🤩3😱1