bugs ans letters – Telegram
bugs ans letters
18 subscribers
34 photos
3 videos
3 files
135 links
Мой канал для себя про NLP. В основном – помойка из ссылок.
Download Telegram
Forwarded from Connectable Jobs (Irina Chuvasheva)
Мы запустили канал с вакансиями только в разработке и ML 🚀

Помимо позиции CV Scientist в Picsart, там можно найти

Python Developer в TradingView
NLP Engineer в Replika, $5000 - $8000
– Software Engineer в Pagoda (ранее NEAR Protocol), от $123 000 в год
– QA Engineer в JetBrains
– Frontend Developer в Plata Card
– DevOps Engineer в Wargaming
– и много других!

Подписывайтесь на @dev_connectablejobs, чтобы не пропускать еще больше новых вакансий. И делитесь со своими друзьями, которым это может быть актуально 💙
bugs ans letters
Давно надо было запостить. Статья про формат ProRAW, плавно перетекающая в историю вычислительной фотографии с спин-оффами, как оно вообще работает, сколько кадров и в какой битности было снято вашим телефоном (в том числе до нажатия на кнопку, ну или тапа…
Вдогонку. #cv #proraw
Статья Вастрика (на английском) про современное* состояние дел в цифровой фотографии на её переднем крае: в смартфонах. Начинается с простого и очевидного, заканчивается объяснением, зачем были прикручены первые нейросетевые модели в ПО для камер (нет, не чтобы дорисовывать губы и убирать прыщи, про это в самом конце тоже есть, это кринж).
*где-то на 2019 год, с некоторыми обновлениями, но в целом история, кажется, пока сильно не поменялась: прорывов не наблюдается, наблюдается улучшение камер и софта без изменения количественных показателей.
#ml #clustering #visualisation
Внезапно – отличное видео, как работает t-SNE. Понимать, как работает PCA и LDA не обязательно, но если знаете – лишним не будет.
Смотреть на 1.5х минимум.
Forwarded from Dan
Zlibrary постоянно банят, поэтому лучше пользоваться их приложениями либо заходить через tor (так и скачивать можно куда больше)
Сейчас работает вот эта ссылка https://ru.singlelogin.re/
Оставлю себе #memo про железо
Forwarded from Пекарня
Вкатываемся в гейминг на Mac OS

Любую игру из Steam можно запустить на Mac M1 и выше при помощи утилиты Whisky, которая работает на базе новой фичи Game Porting Toolkit от Apple – именно она позволяет портировать игры, сделанные для Windows.

Для установки софта потребуется последняя версия macOS Sonoma:

🔴Скачиваем Whisky здесь;
🔴Скачиваем клиент Steam для Windows;
🔴Запускаем Whisky и нажимаем кнопку «Создать бутылку»‎;
🔴Запускаем установочный файл Steam через интерфейс Whisky. Готово, можно устанавливать любую игру из библиотеки.

Также через Whisky запускаются и пиратские копии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Чем дальше в лес, тем больше у меня #offtop получается:(
Тем не менее, нашёлся очень годный сборник апплетов на JS для демонстрации ряда физических явлений в браузере. Оказался бы он в 2017 году под рукой - глядишь, преподавать Electronics 101 было бы сподручнее.
Forwarded from эйай ньюз
Там Карпатый опять отжигает. Он выпустил часовую лекцию «Интро в большие языковые модели».

Образовательный контент от Карпатого всегда топовый. Нужно смотреть! #ликбез

Часть 1: LLMs
00:00:00 Intro: Large Language Model (LLM) talk
00:00:20 LLM Inference
00:04:17 LLM Training
00:08:58 LLM dreams
00:11:22 How do they work?
00:14:14 Finetuning into an Assistant
00:17:52 Summary so far
00:21:05 Appendix: Comparisons, Labeling docs, RLHF, Synthetic data, Leaderboard

Часть 2: Future of LLMs
00:25:43 LLM Scaling Laws
00:27:43 Tool Use (Browser, Calculator, Interpreter, DALL-E)
00:33:32 Multimodality (Vision, Audio)
00:35:00 Thinking, System 1/2
00:38:02 Self-improvement, LLM AlphaGo
00:40:45 LLM Customization, GPTs store
00:42:15 LLM OS

Часть 3: LLM Security
00:45:43 LLM Security Intro
00:46:14 Jailbreaks
00:51:30 Prompt Injection
00:56:23 Data poisoning
00:58:37 LLM Security conclusions

Слайды

@ai_newz
Forwarded from Voice stuff
HiFTNet

Субъективные оценки на LJSpeech показывают, что наша модель значительно
превосходит как iSTFTNet, так и HiFi-GAN, достигая производительности уровня оригинальных аудио. HiFTNet также превосходит BigVGAN на LibriTTS для дикторов вне обучающего сета и достигает сравнимой с BigVGAN производительности, при этом работая в четыре раза быстрее, используя всего 1/6 параметров.
Наша работа устанавливает новую планку для эффективного и высококачественного нейронного вокодинга, прокладывая путь к приложениям реального времени.
требующих высокого качества синтеза речи.

https://github.com/yl4579/HiFTNet
Сохраню как пример применения чатгопоты и arxivexplorer
LinkedIn придумал интересный формат. Редакторы собрали советы на тему "как сохранять и повышать свою актуальность" (в данном случае – в сфере ML), а потом попросили свою социальную платформу прокомментировать эти советы. С учётом правой колонки, кажется, можно принять решение, что стоит делать, а что – нет.
Forwarded from AI для Всех (Artemii)
🔍 Метод адаптации больших языковых моделей - LoRA

В области искусственного интеллекта существует важная задача: адаптация больших предобученных языковых моделей, (например GPT-4 или Llama), для конкретных задач. Традиционный подход - полное дообучение, требует переобучения всех параметров модели. Но так как модели большие - переобучать их непомерно дорого и ресурсоемко.

Решением этой проблемы является метод LoRA (Low-Rank Adaptation), разработанный исследователями из Microsoft. Кстати, я уже упоминал этот метод раньше.

LoRA фиксирует веса предобученной модели и встраивает обучаемые матрицы разложения низкого ранга в каждый/любой по выбору слой трансформера. Таким образом, мы можем значительно снизить количество обучаемых параметров для последующих задач.

💡 Как это работает?
- Обычно, когда мы учим модель, мы меняем множество настроек (называемых весами) в ней. Это как регулировка множества крутилок, чтобы модель лучше справлялась со своей задачей.
- LoRA говорит, что не нужно крутить все крутилки. Она предлагает менять только некоторые из них, основываясь на идее, что это будет почти так же эффективно.
- Получается, что вместо того чтобы настраивать множество параметров, мы фокусируемся только на ключевых. Следовательно, процесс обучения становится быстрее и требует меньше ресурсов (денег).

Эксперименты показали, что LoRA работает наравне или лучше, чем полное дообучение на таких моделях, как RoBERTa, DeBERTa, GPT-2 и GPT-3, несмотря на меньшее количество обучаемых параметров.

🔗 GitHub проекта
🤩 Статья
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Личинка программиста (Дмитрий Косенко)
Выложил бенчмарк для автоматической оценки LLM для русского языка при помощи gpt-4. По факту это просто переведенная версия официального mt-bench, только с модифицированным интерфейсом просмотра и завернутым в докер чтобы это продолжало работать и через год. Ну и соответственно там есть небольшой лидерборд. https://github.com/dmitrymailk/mt_bench_ru