Forwarded from black_samorez
Записали на студии Яндекса видео с объяснением метода статьи и результатов.
Если кто-то будет завтра гулять по постер сессии на ICML - заходите, поболтаем.
Если кто-то будет завтра гулять по постер сессии на ICML - заходите, поболтаем.
YouTube
[ICML24] AQLM: Extreme Compression of Large Language Models via Additive Quantization
Short video describing our ICML 2024 paper on Extreme Compression of Large Language Models via Additive Quantization. Arxiv:2401.06118
👍3❤2🤔1
Forwarded from black_samorez
Media is too big
VIEW IN TELEGRAM
Написал пост на substack про то как я портировал AQLM на мобильные телефоны и как мы с @galbdm умудрились запихнуть
В посте детали про то, что нужно было дописать в
P.S. подписывайтесь на мой twitter.
Llama-3.1-8b в 2.5 Гб RAM.В посте детали про то, что нужно было дописать в
Executorch чтобы скомпилировать и линкануть кастомные кернелы и как все это дело экспортировать на мобилки.P.S. подписывайтесь на мой twitter.
❤6👍2
Наконец-то закончил работу над большим пет-проектом.
Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV.
Можно потестить демо здесь
видео
Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV.
Можно потестить демо здесь
видео
YouTube
AQLM.rs demo
You can try this demo at https://galqiwi.github.io/aqlm-rs/about.html
00:00 Loading
04:40 Actual demo
This was run on Macbook Pro M1. Any other laptop or phone with sufficient RAM should work too.
00:00 Loading
04:40 Actual demo
This was run on Macbook Pro M1. Any other laptop or phone with sufficient RAM should work too.
🔥39👍6❤2
Galqiwi's boredom
Наконец-то закончил работу над большим пет-проектом. Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV. Можно потестить демо здесь видео
Увеличил на 9% скорость работы и уменьшил размер на те же 9%.
Смог сжать эмбединги в nf4 формате. Не стал жать в nf4 голову, остановился на int8, поскольку второй быстрее.
Смог сжать эмбединги в nf4 формате. Не стал жать в nf4 голову, остановился на int8, поскольку второй быстрее.
🔥13❤2
Galqiwi's boredom
Увеличил на 9% скорость работы и уменьшил размер на те же 9%. Смог сжать эмбединги в nf4 формате. Не стал жать в nf4 голову, остановился на int8, поскольку второй быстрее.
Скоро появятся маленькие модели, чтобы можно было даже на телефоне в браузере запустить.
Хотя даже сейчас можно на некоторых, люди на пикселе запускали, там много ram
Хотя даже сейчас можно на некоторых, люди на пикселе запускали, там много ram
👍7❤3
Если у вас есть свободное время, анонимно потыкать в модели на llmarena.ru -- хорошее дело. Чем больше людей сравнивают модели, тем точнее рейтинг
❤🔥5
Forwarded from Роман с данными
И первая новость в обновленном канале следующая:
Мы с командой запустили свою российскую LLM Aрену.
Это такой сайт (идею скопировали у LMSYS), на котором обычные люди могут использовать разные LLM бесплатно, но взамен должны определять лучшую модель.
А мы на основе фидбека пользователей составляем рейтинг LLM и рассчитываем какая модель работает лучше всех на русском языке.
Мы попали прям в боль ML сообщества: кол-во LLM в России растет как на дрожжах, уже помимо YandexGPT, Гигачата есть и T-lite, и Вихрь, и Сайга. Новые LLM появляются каждую неделю и возникает потребность их сравнивать.
За последний месяц посещаемость проекта увеличилась в 6 раз, цитируемость бенчмарка возросла в разы, о нас написали Коммерсантъ, ITZine, Machinelearning, Tproger, ХАЙТЕК, RSpectr, hi-tech, газета.ru, Хабр, Lenta.ru.
Заходите на llmarena.ru и выбирайте лучшую модель!
Мы с командой запустили свою российскую LLM Aрену.
Это такой сайт (идею скопировали у LMSYS), на котором обычные люди могут использовать разные LLM бесплатно, но взамен должны определять лучшую модель.
А мы на основе фидбека пользователей составляем рейтинг LLM и рассчитываем какая модель работает лучше всех на русском языке.
Мы попали прям в боль ML сообщества: кол-во LLM в России растет как на дрожжах, уже помимо YandexGPT, Гигачата есть и T-lite, и Вихрь, и Сайга. Новые LLM появляются каждую неделю и возникает потребность их сравнивать.
За последний месяц посещаемость проекта увеличилась в 6 раз, цитируемость бенчмарка возросла в разы, о нас написали Коммерсантъ, ITZine, Machinelearning, Tproger, ХАЙТЕК, RSpectr, hi-tech, газета.ru, Хабр, Lenta.ru.
Заходите на llmarena.ru и выбирайте лучшую модель!
👍6❤1😁1
Galqiwi's boredom
Наконец-то закончил работу над большим пет-проектом. Я смог запустить Llama 3.1-8b прямо в браузере на cpu с помощью нашего нового алгоритма сжатия AQLM+PV. Можно потестить демо здесь видео
сник пик новой версии -- с меньшим потреблением памяти и большим выбором моделей
🔥17🤩2
Forwarded from еба́ные идеи для резерча
Исследователь из научного отдела «ebány labs» Юрий Шмилевский разработал bash скрипт, который позволяет запустить большую языковую модель с 8,1 млрд параметров «на обычном компьютере с графическим ускорителем А-СТО» через трубочку для поедания супа-пюре, рассказал сам Юрий Шмилевский
✍18🔥5🥴3👏1
Galqiwi's boredom
сник пик новой версии -- с меньшим потреблением памяти и большим выбором моделей
Обновил, теперь можно выбирать маленькие модели. Они намного быстрее скачиваются и генерируют текст
https://galqiwi.github.io/aqlm-rs/
https://galqiwi.github.io/aqlm-rs/
❤6🔥4👍2