bugs ans letters – Telegram
bugs ans letters
18 subscribers
34 photos
3 videos
3 files
135 links
Мой канал для себя про NLP. В основном – помойка из ссылок.
Download Telegram
LinkedIn придумал интересный формат. Редакторы собрали советы на тему "как сохранять и повышать свою актуальность" (в данном случае – в сфере ML), а потом попросили свою социальную платформу прокомментировать эти советы. С учётом правой колонки, кажется, можно принять решение, что стоит делать, а что – нет.
Forwarded from AI для Всех (Artemii)
🔍 Метод адаптации больших языковых моделей - LoRA

В области искусственного интеллекта существует важная задача: адаптация больших предобученных языковых моделей, (например GPT-4 или Llama), для конкретных задач. Традиционный подход - полное дообучение, требует переобучения всех параметров модели. Но так как модели большие - переобучать их непомерно дорого и ресурсоемко.

Решением этой проблемы является метод LoRA (Low-Rank Adaptation), разработанный исследователями из Microsoft. Кстати, я уже упоминал этот метод раньше.

LoRA фиксирует веса предобученной модели и встраивает обучаемые матрицы разложения низкого ранга в каждый/любой по выбору слой трансформера. Таким образом, мы можем значительно снизить количество обучаемых параметров для последующих задач.

💡 Как это работает?
- Обычно, когда мы учим модель, мы меняем множество настроек (называемых весами) в ней. Это как регулировка множества крутилок, чтобы модель лучше справлялась со своей задачей.
- LoRA говорит, что не нужно крутить все крутилки. Она предлагает менять только некоторые из них, основываясь на идее, что это будет почти так же эффективно.
- Получается, что вместо того чтобы настраивать множество параметров, мы фокусируемся только на ключевых. Следовательно, процесс обучения становится быстрее и требует меньше ресурсов (денег).

Эксперименты показали, что LoRA работает наравне или лучше, чем полное дообучение на таких моделях, как RoBERTa, DeBERTa, GPT-2 и GPT-3, несмотря на меньшее количество обучаемых параметров.

🔗 GitHub проекта
🤩 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Личинка программиста (Дмитрий Косенко)
Выложил бенчмарк для автоматической оценки LLM для русского языка при помощи gpt-4. По факту это просто переведенная версия официального mt-bench, только с модифицированным интерфейсом просмотра и завернутым в докер чтобы это продолжало работать и через год. Ну и соответственно там есть небольшой лидерборд. https://github.com/dmitrymailk/mt_bench_ru
#ml #nlp #llama2 #russian Немного про русскоязычные генеративные модели: Сайга (дообучен токенизатор, применена LoRA) и Вихрь (токенизатор сделан с нуля, затюнена вся модель).
Из забавного: “Модели имеют свойство тупеть после обучения в лоб, те метрики у модели которая видела русские токены метрики будут ХУЖЕ чем у модели которая русских токенов НЕ видела.”
Буду сегодня спамить скринами с epic.ai.
Реализация, например.
Как устроен один из NPC-ботов
Прогрессию можно представить как мутабельную БД, в которой единожды упомянутый факт добавляется в контект
Примеры развития прогрессии
..и развитие в многоагентной среде.
Очень крутой дэшборд для нескольких моделей, захощенных в Google: TextFX, ImageFX, десятки подзадач, которые они решают
Forwarded from Michael Orlov
@lexfrei вот, почти все что тебе надо знать про реакт. Не смотри на синтаксис его уже 18 раз переделали, но идея такая
https://egghead.io/lessons/react-react-in-7-minutes
Лёша мне накинул интересный метод организации файлопомойки.
Интересно, что большую часть я (не очень осознанно) вывел для себя между 5 и 16 годами, часть доработалась (в рамках выделенного подкаталога `projects`) где-то в магистратуре, но как цельный фреймворк, естественно, я не пытался и не мог сформулировать.
Статья довольно большая и в ней чуть вязнешь, но в рамках личной оптимизации #workflow – идея хорошая.
Естественно, предполагается, что все требования к хранилищу выполнены, синхронизация бэкапов по 3-2-1 не вызывает вопросов, и для импорта фотографий не нужно вставлять что-то куда-то и перетаскивать мышкой. Хотя последнее, на самом деле, не так важно.
Forwarded from F0RTHSP4CE
Colorful music theory #1: Western popular harmony as seen in 12 colors

19:00 PM Wednesday, 13 March
📍 F0RTHSP4CE, Khorava St 18 / Janashia, the basement

Это перезапуск курса по структуре западной музыки. Мы будем смотреть на популярные нынче фортепианные аранжировки, которые у всех на слуху. Вместо нот мы будем смотреть на пиано-ролл - на прямоугольники, раскрашенные в 12 цветов.

Мы будем пытаться увидеть, какие закономерности там есть: какие ноты обычно звучат вместе с какими, в каком порядке они идут друг за другом, а в каком не идут.

Я не обещаю, что будет понятно новичкам, поскольку уровень у всех разный. Но шансы есть. Возможно, мы увидим аккорды как наборы из трёх цветов. И, быть может, картинка немного даже совпадёт со звучанием.

(Ноутбук не понадобится, если вы хорошо различаете все цвета.)

Записи прошлого потока

Language: RU
Entrance:
free
Host: @vitalypavlenko (заранее напишите, если захотите прийти)
Media is too big
VIEW IN TELEGRAM
Теория музыки. Лекция 8. 12 цветов: мажорная тональность (1/2)

— Пять соло-фортепиано-аранжировок популярных трэков 3:00
— Как звучит мелодия, транспонированная в разные тональности 20:30
— Сколько разных нот-цветов в октаве в западной музыке 26:30
— Музыка не из семи нот: Щедрин и Веберн 33:43
— Аккорды как пучки из трёх цветов 38:58
— Когда несколько мелодий одновременно: хорал Баха 47:23
— Семь нот встречаются с разной частотой 55:47
— Как строятся аккорды в мажоре 58:48
— Мажорный аккорд и минорный аккорд 1:04:55

это же видео на ютьюбе

ссылки

(когда посмотрите, напишите плиз ощущения в лс @vitalypavlenko)