bugs ans letters – Telegram
bugs ans letters
18 subscribers
34 photos
3 videos
3 files
135 links
Мой канал для себя про NLP. В основном – помойка из ссылок.
Download Telegram
Выскажу штуку за которую меня будут бить коллеги по цеху, но она имеет смысл, по меньшей мере для меня самого.
Когда у меня много ГПУ, я смотрю что утилизация под 100, ничего не течёт, не просидает - живём короче. Но любые истории про подумать: например когда модель не работает должным образом или явно хуже чем должна я могу тупо залить компьютом - воткнуть больше эпох, больше модель, пролить больше данных.

Для мозга и менеджера это очень понятное решение, они явно должно работать.

Это напоминает планиметрию:
В школе были такие люди которые решали любую планиметрию на трех теоремах - не ну построим три доп окружности, посчитаем систему уравнений, бумаги много ща все решим.

В DL так тоже можно, ВСЁ текущее поколение LM основано на этом - давайте фильтранем данные умнее, давайте прокрутим больше токенов и больше модель.

Текущие ресерчи архитектур скорее мертвы чем живы, полтора китайца ковыряют rwkv, но без особых успехов и это печально.

Не думаю что для ближайшего поколения моделей правила скейлинга изменяться, но уже сейчас надо внимательно изучать альтернативные лоссы, структуры функций и почему трансформеры так работают.

https://horace.io/brrr_intro.html
Forwarded from F0RTHSP4CE
CS 285 (DRL Berkely Course Seminars)
16:00 PM Sunday, 15 October
📍 F0RTHSP4CE, Janashia 11/18, upper floor

There is fancy course about Deep Reinforcement Learning.
Deep Reinforcement Learning is about how to get dimond in Minecraft by learning agents with deep neural networks.
This events are seminars to achive some understanding of this secret knowledge. On the first lectures we study lectures 4 and 5 (Inroduction and Policy Gradients) (1, 2, 3 will be some prerequisites homework)

Give like if you want to come.

Есть такой фенси курс по глубокому обучению с подкреплением.
Deep Reinforcement Learning это про то, как достать алмаз в Майнкрафте обучая агентов с помощью нейронных сетей.
Мы попытаемся постичь это тайное знание. Первые лекции будут под номерами 4 и 5 (Inroduction and Policy Gradients)

Ставьте лайки, кто хочет прийти.

by @metya
Language: EN | RU
Entrance: free, optional donation to hackerspace
Host: @metya
Forwarded from Connectable Jobs (Irina Chuvasheva)
Мы запустили канал с вакансиями только в разработке и ML 🚀

Помимо позиции CV Scientist в Picsart, там можно найти

Python Developer в TradingView
NLP Engineer в Replika, $5000 - $8000
– Software Engineer в Pagoda (ранее NEAR Protocol), от $123 000 в год
– QA Engineer в JetBrains
– Frontend Developer в Plata Card
– DevOps Engineer в Wargaming
– и много других!

Подписывайтесь на @dev_connectablejobs, чтобы не пропускать еще больше новых вакансий. И делитесь со своими друзьями, которым это может быть актуально 💙
bugs ans letters
Давно надо было запостить. Статья про формат ProRAW, плавно перетекающая в историю вычислительной фотографии с спин-оффами, как оно вообще работает, сколько кадров и в какой битности было снято вашим телефоном (в том числе до нажатия на кнопку, ну или тапа…
Вдогонку. #cv #proraw
Статья Вастрика (на английском) про современное* состояние дел в цифровой фотографии на её переднем крае: в смартфонах. Начинается с простого и очевидного, заканчивается объяснением, зачем были прикручены первые нейросетевые модели в ПО для камер (нет, не чтобы дорисовывать губы и убирать прыщи, про это в самом конце тоже есть, это кринж).
*где-то на 2019 год, с некоторыми обновлениями, но в целом история, кажется, пока сильно не поменялась: прорывов не наблюдается, наблюдается улучшение камер и софта без изменения количественных показателей.
#ml #clustering #visualisation
Внезапно – отличное видео, как работает t-SNE. Понимать, как работает PCA и LDA не обязательно, но если знаете – лишним не будет.
Смотреть на 1.5х минимум.
Forwarded from Dan
Zlibrary постоянно банят, поэтому лучше пользоваться их приложениями либо заходить через tor (так и скачивать можно куда больше)
Сейчас работает вот эта ссылка https://ru.singlelogin.re/
Оставлю себе #memo про железо
Forwarded from Пекарня
Вкатываемся в гейминг на Mac OS

Любую игру из Steam можно запустить на Mac M1 и выше при помощи утилиты Whisky, которая работает на базе новой фичи Game Porting Toolkit от Apple – именно она позволяет портировать игры, сделанные для Windows.

Для установки софта потребуется последняя версия macOS Sonoma:

🔴Скачиваем Whisky здесь;
🔴Скачиваем клиент Steam для Windows;
🔴Запускаем Whisky и нажимаем кнопку «Создать бутылку»‎;
🔴Запускаем установочный файл Steam через интерфейс Whisky. Готово, можно устанавливать любую игру из библиотеки.

Также через Whisky запускаются и пиратские копии.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Чем дальше в лес, тем больше у меня #offtop получается:(
Тем не менее, нашёлся очень годный сборник апплетов на JS для демонстрации ряда физических явлений в браузере. Оказался бы он в 2017 году под рукой - глядишь, преподавать Electronics 101 было бы сподручнее.
Forwarded from эйай ньюз
Там Карпатый опять отжигает. Он выпустил часовую лекцию «Интро в большие языковые модели».

Образовательный контент от Карпатого всегда топовый. Нужно смотреть! #ликбез

Часть 1: LLMs
00:00:00 Intro: Large Language Model (LLM) talk
00:00:20 LLM Inference
00:04:17 LLM Training
00:08:58 LLM dreams
00:11:22 How do they work?
00:14:14 Finetuning into an Assistant
00:17:52 Summary so far
00:21:05 Appendix: Comparisons, Labeling docs, RLHF, Synthetic data, Leaderboard

Часть 2: Future of LLMs
00:25:43 LLM Scaling Laws
00:27:43 Tool Use (Browser, Calculator, Interpreter, DALL-E)
00:33:32 Multimodality (Vision, Audio)
00:35:00 Thinking, System 1/2
00:38:02 Self-improvement, LLM AlphaGo
00:40:45 LLM Customization, GPTs store
00:42:15 LLM OS

Часть 3: LLM Security
00:45:43 LLM Security Intro
00:46:14 Jailbreaks
00:51:30 Prompt Injection
00:56:23 Data poisoning
00:58:37 LLM Security conclusions

Слайды

@ai_newz
Forwarded from Voice stuff
HiFTNet

Субъективные оценки на LJSpeech показывают, что наша модель значительно
превосходит как iSTFTNet, так и HiFi-GAN, достигая производительности уровня оригинальных аудио. HiFTNet также превосходит BigVGAN на LibriTTS для дикторов вне обучающего сета и достигает сравнимой с BigVGAN производительности, при этом работая в четыре раза быстрее, используя всего 1/6 параметров.
Наша работа устанавливает новую планку для эффективного и высококачественного нейронного вокодинга, прокладывая путь к приложениям реального времени.
требующих высокого качества синтеза речи.

https://github.com/yl4579/HiFTNet
Сохраню как пример применения чатгопоты и arxivexplorer
LinkedIn придумал интересный формат. Редакторы собрали советы на тему "как сохранять и повышать свою актуальность" (в данном случае – в сфере ML), а потом попросили свою социальную платформу прокомментировать эти советы. С учётом правой колонки, кажется, можно принять решение, что стоит делать, а что – нет.