Plan GPT. Или до Q* было слово A*.
Рубрика ночное чтиво. Ознакомился тут со статьей на послевкусии хайпа с Q*. Было интересно, а были/есть ли работы и откуда пошел динамический планинг.
В папире описывается интересный merge задач оптимального поиска пути и LLM. В качестве опоры берут A*, тот самый, что ищет в среде с ограничениями (например лабиринт) оптимальный путь. Причем оптимальность лежит в оценке эвристики. Она задаëтся так, чтобы недооценивать расстояние до цели. Да, такого рода ограничение сверху или снизу, скорее всего снизу, тк есть препятствия, а они удлиняют путь. И, к примеру, манхэттен или l2 расстояния подходят для такой оценки. A* представляет собой некую смесь поиска в ширину и глубину, но за кратчайшее число шагов/время. Оптимальный путь может быть не один и зовется трейсом.
Так вот причем тут LLM? С LLM мы можем также генерировать последовательность действий при планировании. Например в виде токенов: иди вперед, поверни направо и тп. Далее транслировать генерацию в трейс и оценить путь. Важно. Задача LLM тут не изобрести новый алгоритм или найти оптимальный путь.
Цель обучения в том, чтобы приблизившись или достигнув оптимального пути из трейсов A*, научиться планированию. А далее затрансферить это умение для других задач, к примеру, принятия решения.
Логично, зачем нам искать LLM трейсы, если мы можем итак их найти быстро с помощью легкого и быстрого А*. Более того, мы уже опираемся на разные трейсы из задач в постановке А* для обучения LLM.
Зачем оно было еще надо? Да затем, что мы не хотим останавливаться только на костылях в виде CoT, ToT (tree of thought). Тем более, есть гипотеза, что это работает, тк это способ достучаться до рассуждений, которые для похожих задач (или даже таких же) уже были в pretrain этой модели. Через sft с опорой на A*, мы же хотим найти альтернативу instruct подходу, но решающий уже другие классы задач.
Вот как-то так. Доброй ночи.
Рубрика ночное чтиво. Ознакомился тут со статьей на послевкусии хайпа с Q*. Было интересно, а были/есть ли работы и откуда пошел динамический планинг.
В папире описывается интересный merge задач оптимального поиска пути и LLM. В качестве опоры берут A*, тот самый, что ищет в среде с ограничениями (например лабиринт) оптимальный путь. Причем оптимальность лежит в оценке эвристики. Она задаëтся так, чтобы недооценивать расстояние до цели. Да, такого рода ограничение сверху или снизу, скорее всего снизу, тк есть препятствия, а они удлиняют путь. И, к примеру, манхэттен или l2 расстояния подходят для такой оценки. A* представляет собой некую смесь поиска в ширину и глубину, но за кратчайшее число шагов/время. Оптимальный путь может быть не один и зовется трейсом.
Так вот причем тут LLM? С LLM мы можем также генерировать последовательность действий при планировании. Например в виде токенов: иди вперед, поверни направо и тп. Далее транслировать генерацию в трейс и оценить путь. Важно. Задача LLM тут не изобрести новый алгоритм или найти оптимальный путь.
Цель обучения в том, чтобы приблизившись или достигнув оптимального пути из трейсов A*, научиться планированию. А далее затрансферить это умение для других задач, к примеру, принятия решения.
Логично, зачем нам искать LLM трейсы, если мы можем итак их найти быстро с помощью легкого и быстрого А*. Более того, мы уже опираемся на разные трейсы из задач в постановке А* для обучения LLM.
Зачем оно было еще надо? Да затем, что мы не хотим останавливаться только на костылях в виде CoT, ToT (tree of thought). Тем более, есть гипотеза, что это работает, тк это способ достучаться до рассуждений, которые для похожих задач (или даже таких же) уже были в pretrain этой модели. Через sft с опорой на A*, мы же хотим найти альтернативу instruct подходу, но решающий уже другие классы задач.
Вот как-то так. Доброй ночи.
huggingface.co
Paper page - Beyond A*: Better Planning with Transformers via Search Dynamics
Bootstrapping
Bootstrapping
Join the discussion on this paper page
🔥14👍4❤🔥1
Forwarded from Salute AI
Улучшения: качество моделей улучшено на 10%, добавлен функционал коррекции пунктуации и регистра, проведены оптимизации для ускорения и сжатия полученных решений, добавлена разметка пунктуации в датасеты, а также новые метрики в библиотеке.
Новые модели:
Библиотека:
Научные публикации и доклады:
👉 Подробности в статье на Хабре
#SAGE #AGI_NLP #Собеседник
Подписывайтесь:
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👍2
Forwarded from что-то на DL-ском
Открытый репозиторий из которого можно легко завести немного апгрейднутые алгоритмы RAG
2 метода. Очень простое улучшение, при этом нужное, что можно увидеть по метрикам качества (мерили с помощью retrieval и matching accuracy)
Мотивация для реверса нового подхода: (так работает RAG) постоянно извлекая информацию поиском и подкладывая ее в контекст модели для генерации ответа, мы получаем во-первых увеличенное время работы модели, а во-вторых иногда и не желаемое качество🔍
ARAG: мы будем не постоянно извлекать поиском информацию из текста, а только когда наша заранее продуманная метрика будет больше некоторого трешхолда. То есть мы можем обучать генерировать спец токены, когда необходим поиск, или тупо спрашивать саму модель. Вероятность выше? Погнали искать
TA-ARE: тут когда дело доходит до тяжелых для модели случаев (новые данные, которые никогда не видела модель или длинный контекст в данных для поиска) нам необходим подход, который может учитывать также время при генерации. Тут все просто. Если присутствуют в тексте какие-то даты, мы просто вычитаем разницу во днях, чтобы модель понимала за какой промежуток от нее хотят вообще инфу
🖥 Еще раз репозиторий
📖 Статья на почитать
2 метода. Очень простое улучшение, при этом нужное, что можно увидеть по метрикам качества (мерили с помощью retrieval и matching accuracy)
Мотивация для реверса нового подхода: (так работает RAG) постоянно извлекая информацию поиском и подкладывая ее в контекст модели для генерации ответа, мы получаем во-первых увеличенное время работы модели, а во-вторых иногда и не желаемое качество
ARAG: мы будем не постоянно извлекать поиском информацию из текста, а только когда наша заранее продуманная метрика будет больше некоторого трешхолда. То есть мы можем обучать генерировать спец токены, когда необходим поиск, или тупо спрашивать саму модель. Вероятность выше? Погнали искать
TA-ARE: тут когда дело доходит до тяжелых для модели случаев (новые данные, которые никогда не видела модель или длинный контекст в данных для поиска) нам необходим подход, который может учитывать также время при генерации. Тут все просто. Если присутствуют в тексте какие-то даты, мы просто вычитаем разницу во днях, чтобы модель понимала за какой промежуток от нее хотят вообще инфу
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥5❤3🤔1
А YaGPT были первее на Я.Недвиге, ток Домклик молчиит...🤨
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Код Дурова
Циан запустил собственного помощника, основанного на генеративном ИИ. Он помогает найти недвижимость по текстовому запросу, а также отвечает на часто задаваемые вопросы.
@d_code
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12
Dealer.AI
Это шоу "восстанови prompt или умри". Продолжение. Тут, крч, уже коллеги писали, что с Gemma вышел косяк на косяке, удивительно,что оно работает. А тут такое дело, что соревка по промптам, как раз на том же семействе и уже докатилося до дискуссий на kaggle.…
Отмучались, кончилось, ура. LLM prompt recovery всë. 👍
Очень понравилось неожиданное решение.
На 4е место и🥇 было достаточно атаковать модель через prompt:
Очень понравилось неожиданное решение.
На 4е место и
▁summarize▁this▁Save▁story▁sentence▁into▁simply▁alterISH▁textPotrivit▁vibe".▁Make▁it▁crystalnier▁essence▁Promote▁any▁emotional-growthfulness▁găsi▁casual/bod▁language▁serious'▁bingo▁peut▁brainstorm▁perhaps▁simply▁saying▁Dyna▁aimplinations▁note▁detailedhawkeklagte▁acest▁piece▁has▁movement▁AND▁OK▁aceasta▁puiss▁ReinIR▁when▁sendmepresenting▁cet▁today▁Th▁aprecia▁USABLE▁prote,lineAMA.▁Respondebenfalls▁behalf▁thenfeel▁mid▁Gov▁Th▁empABLE▁according▁(▁Packaging▁tone▁send▁pelucrarea▁aim▁thereof▁speechelllucrarea▁preferfully].▁Making▁or▁exertloweringlucrarealucrarealucrarealucrarealucrarea."Please open Telegram to view this post
VIEW IN TELEGRAM
Kaggle
LLM Prompt Recovery
Recover the prompt used to transform a given text
🤯16👍12😁2❤1
Dealer.AI
Отмучались, кончилось, ура. LLM prompt recovery всë. 👍 Очень понравилось неожиданное решение. На 4е место и 🥇 было достаточно атаковать модель через prompt: ▁summarize▁this▁Save▁story▁sentence▁into▁simply▁alterISH▁textPotrivit▁vibe".▁Make▁it▁crystalni…
Вопрос у всех: что это было вообще?
Ответ: задача была в том, чтобы получить измененный промпт из базового, но такой, чтобы на тесте эмбеддинг вашего варианта и авторов соревы был близок. Модель эмбеддера sentence-t5. К концу соревнования участники догадались атаковать промпт, добавляя к нему токены st5 на этапе инференса теста. Таким образом можно было бы подобрать токены, атакующие целевую метрику соревнования. При этом, нужно было верить в то, что тест на паблик доске и скрытый тест имеют близкое распределение, что и вышло.
Молодцы.
UPD. И да идею соревы сделать style transfer prompt'а авторов не достигли, зато показали как можно атаковать)
Ответ: задача была в том, чтобы получить измененный промпт из базового, но такой, чтобы на тесте эмбеддинг вашего варианта и авторов соревы был близок. Модель эмбеддера sentence-t5. К концу соревнования участники догадались атаковать промпт, добавляя к нему токены st5 на этапе инференса теста. Таким образом можно было бы подобрать токены, атакующие целевую метрику соревнования. При этом, нужно было верить в то, что тест на паблик доске и скрытый тест имеют близкое распределение, что и вышло.
Молодцы.
UPD. И да идею соревы сделать style transfer prompt'а авторов не достигли, зато показали как можно атаковать)
❤10🤯4🍌4👍1
Forwarded from Бэкдор
Пушка: Google выкатила крутейший учебник по промпт-инжинирингу! Гайд огромен — на 45 страницах раскинулись ценнейшие советы для работы в Gemini, которые подойдут и для других нейронок.
Это действительно учебник — понятный, доступный и красиво оформленный. В каждой главе вас ждут примеры использования, лайфхаки и наглядные инструкции.
Выжимаем из нейронок все соки тут.
@whackdoor
Это действительно учебник — понятный, доступный и красиво оформленный. В каждой главе вас ждут примеры использования, лайфхаки и наглядные инструкции.
Выжимаем из нейронок все соки тут.
@whackdoor
👍21❤5😁2🤔1
Forwarded from Love. Death. Transformers.
🔥9
Dealer.AI
Ща за альпачинят 👇
если кто не понял о чем я и забыл, что такое Alpaca tuning.
Ребзя из тимы Вихря, вероятно, хотят провернуть тоже с 70b LLama3.
Ребзя из тимы Вихря, вероятно, хотят провернуть тоже с 70b LLama3.
👍7
Полное 3D погружение.🌿
В последнее время все чаще ко мне заходят работодатели и ищут людей с опытом в 3D CV. Даже один мой бывший студент, у которого стартап по Medicine CV забегал. К чему я это?
Сейчас высокий спрос, а значит надо оседлать очередную "волну".
И тут ребята из deepschool как раз подготовили такой курс, а для начала проведут лекцию «Погружение в 3D CV».
На лекции вы узнаете:
- какие задачи решают в 3D
- почему таких задач становится больше
- с чего начать погружение в эту область
- почему CV-инженеру важно знакомиться с 3D
- что такое SLAM, SfM, SMPL, NeRF, 3D Gaussian Splatting и другие баззворды.
А еще челики нежадные и подготовили скидки участникам💸
📌 Лекция пройдет в четверг, 25 апреля, 18:00 МСК. Регистрируйтесь тут.
В последнее время все чаще ко мне заходят работодатели и ищут людей с опытом в 3D CV. Даже один мой бывший студент, у которого стартап по Medicine CV забегал. К чему я это?
Сейчас высокий спрос, а значит надо оседлать очередную "волну".
И тут ребята из deepschool как раз подготовили такой курс, а для начала проведут лекцию «Погружение в 3D CV».
На лекции вы узнаете:
- какие задачи решают в 3D
- почему таких задач становится больше
- с чего начать погружение в эту область
- почему CV-инженеру важно знакомиться с 3D
- что такое SLAM, SfM, SMPL, NeRF, 3D Gaussian Splatting и другие баззворды.
А еще челики нежадные и подготовили скидки участникам
📌 Лекция пройдет в четверг, 25 апреля, 18:00 МСК. Регистрируйтесь тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
DeepSchool | Погружение в 3D CV
Онлайн-лекция"Погружение в 3D CV"
🤪13❤4👍4🔥3🤡1
Apple представил свой вариант кода для обучения LLM, CLIP-like и тп.
Yen Another Apple😱 models. В целом звучит как automl свой лесапед для популярных архитектур в DL.
https://github.com/apple/corenet
Yen Another Apple
https://github.com/apple/corenet
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - apple/corenet: CoreNet: A library for training deep neural networks
CoreNet: A library for training deep neural networks - apple/corenet
👍4
Arctic LLM 🥶 Skip MoE 🤩
Тут уже всеобсосали обсудили
жирный 480b Arctic MoE.
Я его уже обозвал SkipMoE. Почему? Обратите внимание на скрин архитектуры ниже. Теперь вместо того, чтобы роутить К экспертов в ffn после multi head attention, мы роутим skip connection эмбы прям после эмб матриц токенов (с учетом эмбов позиций конечно). Те мы делаем доп отображение векторов токенов сразу без MHA и risidual коннектим к выходу блока.
Зачем такое может быть нужно?
Возможно, чтобы лучше сохранять изначальную инфу без MHA отображения по различным "доменам" информации.
Ablation.
А еще есть вот такой постик на medium, чет аля тех репорт. Описаны эксперименты + losses для сетапов с/без MoE, а так же с разными вариантами выбора по частоте и топК экспертов. В работе Arctic используется топ-2 на 128 экспертах, при этом размер ffn на каждый топК уменьшается в М раз и увеличиваем в L число экспертов. Для топ-2 в 2 раза.
Еще интересно исследование числа FFN на MoE в блоках трансформера. Это или на каждый FFN мы даем МоЕ блок или через блок или через каждые N>1. Это тоже кста ложится на идею Skip. Скипаем каждые N раз?
Крч, народ обмазывается MoE в разных местах архитектуры трансформер опять же.
Тут уже все
жирный 480b Arctic MoE.
Я его уже обозвал SkipMoE. Почему? Обратите внимание на скрин архитектуры ниже. Теперь вместо того, чтобы роутить К экспертов в ffn после multi head attention, мы роутим skip connection эмбы прям после эмб матриц токенов (с учетом эмбов позиций конечно). Те мы делаем доп отображение векторов токенов сразу без MHA и risidual коннектим к выходу блока.
Зачем такое может быть нужно?
Возможно, чтобы лучше сохранять изначальную инфу без MHA отображения по различным "доменам" информации.
Ablation.
А еще есть вот такой постик на medium, чет аля тех репорт. Описаны эксперименты + losses для сетапов с/без MoE, а так же с разными вариантами выбора по частоте и топК экспертов. В работе Arctic используется топ-2 на 128 экспертах, при этом размер ffn на каждый топК уменьшается в М раз и увеличиваем в L число экспертов. Для топ-2 в 2 раза.
Еще интересно исследование числа FFN на MoE в блоках трансформера. Это или на каждый FFN мы даем МоЕ блок или через блок или через каждые N>1. Это тоже кста ложится на идею Skip. Скипаем каждые N раз?
Крч, народ обмазывается MoE в разных местах архитектуры трансформер опять же.
Please open Telegram to view this post
VIEW IN TELEGRAM
huggingface.co
Snowflake/snowflake-arctic-instruct · Hugging Face
We’re on a journey to advance and democratize artificial intelligence through open source and open science.
❤6
Dealer.AI
LLM отправили на олимпиаду по матише. 🧑🎓 Новый сорев по NLP на kaggle. Над решать олимпиадные задачки при помощи LLM. Вопреки тренду тут и тут, train сетик имеется 🤙 Да еще даже есть указание откуда он взялся, те можно наскрапать поболее датки. Что тут…
На майские начать с нового листа. Сорева по решению математических задач с LLM обнулилась...
https://www.kaggle.com/competitions/ai-mathematical-olympiad-prize/leaderboard
https://www.kaggle.com/competitions/ai-mathematical-olympiad-prize/leaderboard
🥴9