🗿 Сходил на выставку "Всеобщий язык" в Пушкинском. Кто интересуется различными видами письменностей, очень рекомендую. Их там такое количество, что глаза разбегаются.
Есть деревянные дощечки с острова Пасхи с надписями ронго-ронго, есть тысячелетние камни с клинописью, ацтекские кодексы, берестяные грамоты и много всего.
Единственное, что, на мой взгляд, освещение там немного тусклое. Хотя может так и надо.
Есть деревянные дощечки с острова Пасхи с надписями ронго-ронго, есть тысячелетние камни с клинописью, ацтекские кодексы, берестяные грамоты и много всего.
Единственное, что, на мой взгляд, освещение там немного тусклое. Хотя может так и надо.
👍25🔥9❤🔥3✍1⚡1
#visualization
🔸 Люблю такие красивые и понятные визуализации. Видно, насколько централизована страна в плане населения (сравните Францию и Италию).
Нашел тут, автор периодически рисует новые страны.
🔸 Люблю такие красивые и понятные визуализации. Видно, насколько централизована страна в плане населения (сравните Францию и Италию).
Нашел тут, автор периодически рисует новые страны.
👍26❤🔥7🔥7🤩1
🔺 Торрент-LM от BigScience
Инициатива от BigScience (коллаборация исследователей, которая сделала Bloom и делает BigСode).
Позволяет всем миром запускать и тюнить (!) Bloom 176B под свои задачи. Называется Petals 🌼.
Зачем?
Запуск 175B модели требует около 350 GB GPU и еще больше при дообучении. А чтобы запустить инференс модели при помощи Petals, нужно иметь 12GB оперативки под эмбеддинги (3.6B параметров) и еще сколько-то, если хотите сделать fine-tuning.
Дообучение происходит в режиме prompt tuning'а или при помощи слоев-адаптеров. В этом случае мы обучаем только малую часть параметров, которую храним у себя, все остальные веса распределены по Petals серверам (В 8 bit режиме модель режется на 22 куска, и требуется минимум 22 сервера, чтобы поднять модель).
Можно задонатить свою GPU, запустив Petals сервер у себя. Понадобится 16 GB RAM и 8 GB GPU.
Попробовать можно в Colab'e.
👉 Colab | GitHub | Paper
Инициатива от BigScience (коллаборация исследователей, которая сделала Bloom и делает BigСode).
Позволяет всем миром запускать и тюнить (!) Bloom 176B под свои задачи. Называется Petals 🌼.
Зачем?
Запуск 175B модели требует около 350 GB GPU и еще больше при дообучении. А чтобы запустить инференс модели при помощи Petals, нужно иметь 12GB оперативки под эмбеддинги (3.6B параметров) и еще сколько-то, если хотите сделать fine-tuning.
Дообучение происходит в режиме prompt tuning'а или при помощи слоев-адаптеров. В этом случае мы обучаем только малую часть параметров, которую храним у себя, все остальные веса распределены по Petals серверам (В 8 bit режиме модель режется на 22 куска, и требуется минимум 22 сервера, чтобы поднять модель).
Можно задонатить свою GPU, запустив Petals сервер у себя. Понадобится 16 GB RAM и 8 GB GPU.
Попробовать можно в Colab'e.
👉 Colab | GitHub | Paper
🔥11👍3❤🔥2😁2🤗2
Похоже, что ChatGPT отбирает работу у составителей поздравлений со словом пупырка.
〰️ Друзья, будьте собой и всё у вас получится!
Please open Telegram to view this post
VIEW IN TELEGRAM
🎉35❤8🤗3😁2👍1💯1🍾1
🔺 Делаю книжку-трансформер
👉 Посмотреть можно здесь
Идея в том, чтобы после выравнивания нескольких текстов (2 и более) Lingtrain'ом можно было бы собирать веб-книжку, которую можно разместить на github pages (просто скопировать файлики) и читать откуда угодно + пользоваться дополнительным функционалом — компоновать в одну/две колонки, менять подсветку, размер шрифтов, языки, и т.д. ✨
Делаю на примере "Мастера и Маргариты".
〰️ Добавил:
• Тексты на 10 языках
• Новые виды разметки (переключатель layout):
1️⃣ В одну колонку с чередованием абзацев
2️⃣ В одну колонку с чередованием предложений
3️⃣ Можно скрыть один из текстов и читать только нужный
• Новые виды подсветки (переключатель prompt):
1️⃣ Подчеркивание соответствующих предложений
2️⃣ Цветовое выделение
• Увеличил размеры шрифта
• Настройки запоминаются и хранятся в браузере
Проект открытый, ваши идеи и любой фидбек приветствуются! 🚀
👉 GitHub | Habr
👉 Посмотреть можно здесь
Идея в том, чтобы после выравнивания нескольких текстов (2 и более) Lingtrain'ом можно было бы собирать веб-книжку, которую можно разместить на github pages (просто скопировать файлики) и читать откуда угодно + пользоваться дополнительным функционалом — компоновать в одну/две колонки, менять подсветку, размер шрифтов, языки, и т.д. ✨
Делаю на примере "Мастера и Маргариты".
〰️ Добавил:
• Тексты на 10 языках
• Новые виды разметки (переключатель layout):
1️⃣ В одну колонку с чередованием абзацев
2️⃣ В одну колонку с чередованием предложений
3️⃣ Можно скрыть один из текстов и читать только нужный
• Новые виды подсветки (переключатель prompt):
1️⃣ Подчеркивание соответствующих предложений
2️⃣ Цветовое выделение
• Увеличил размеры шрифта
• Настройки запоминаются и хранятся в браузере
Проект открытый, ваши идеи и любой фидбек приветствуются! 🚀
👉 GitHub | Habr
🔥27👍8✍2⚡2🤓1
Forwarded from Lingtrain
🔺 Обновление книжки-трансформера
👉 Смотреть тут
1️⃣ Поработал над книжкой, добавил в UI названия глав содержания на выбранном языке.
2️⃣ Сделал механизм подгрузки картинок, если их просто класть в папку с сайтом и называть <номер_абзаца>.png
3️⃣ Номер абзаца теперь всплывает при наведении на абзац.
4️⃣ Нарисовал несколько картинок нейросетями (stable diffusion 1.5). Понравилось, нарисую еще.
5️⃣ Долго ковырялся с рамкой для картинок, вроде получилось неплохо.
〰️ Напоминаю, что все это делается на примере Мастера и Маргариты Булгакова, а в конечном итоге можно будет делать такие книжки для себя из своих текстов на любых языках. Сначала делаем выравнивание Lingtrain'ом для пар книг, затем выравниваем совместно, и потом оборачиваем все это в сайт и кладем на github pages.
✔️ Пишите, если увидите баг или появятся идеи. Хочу попробовать сделать подстрочный режим и добавить закладки.
👉 Книжка | Habr | GitHub
👉 Смотреть тут
1️⃣ Поработал над книжкой, добавил в UI названия глав содержания на выбранном языке.
2️⃣ Сделал механизм подгрузки картинок, если их просто класть в папку с сайтом и называть <номер_абзаца>.png
3️⃣ Номер абзаца теперь всплывает при наведении на абзац.
4️⃣ Нарисовал несколько картинок нейросетями (stable diffusion 1.5). Понравилось, нарисую еще.
5️⃣ Долго ковырялся с рамкой для картинок, вроде получилось неплохо.
〰️ Напоминаю, что все это делается на примере Мастера и Маргариты Булгакова, а в конечном итоге можно будет делать такие книжки для себя из своих текстов на любых языках. Сначала делаем выравнивание Lingtrain'ом для пар книг, затем выравниваем совместно, и потом оборачиваем все это в сайт и кладем на github pages.
✔️ Пишите, если увидите баг или появятся идеи. Хочу попробовать сделать подстрочный режим и добавить закладки.
👉 Книжка | Habr | GitHub
🔥10👍6❤🔥3🤗1
🔥22✍3❤🔥2
📚 Что почитать про AGI?
Хотел почитать что-нибудь про общий искусственный интеллект (AGI), — тот самый, который отберет работу у людей, а, может, и мир уничтожит (соревноваться в этом с нами будет непросто).
Нашел и прочитал три книжки, первые две очень понравились:
1️⃣ ИИ-2041. Кай-Фу Ли и Чэнь Цюфань. Каждая из 10 глав посвящена кульминации в развитии одного из аспектов ИИ и культуры.
NLP и персональные ассистенты, CV и дипфейки, квантовый прорыв, дополненная реальность, ИИ в медицине и вооружении, AI для максимизации счастья и т.д.
Изюминка книги в том, что каждая глава поделена на две части: сначала писатель-фантаст (Цюфань) представляет рассказ, действие которого разворачивается в 2041 году. Затем Кай-Фу (бывший президент Google China) освещает технические детали и дает оценку, насколько реально достичь такого прогресса на горизонте 20-30 лет.
2️⃣ Искусственный ты. Сьюзан Шнайдер. По мере развития AI вычислительно приближается к человеку (а где-то уже обгоняет). Но может ли он дойти до такой сложности, что у него возникнет сознание?
Если же мы начнем модернизировать мозг, сливаясь с машиной, то сможем ли мы сохранить свое собственное сознание?
Обсуждается множество других интересных вопросов и реальных случаев, — про заморозку мозга, про перенос сознания на внешний носитель, про трансгуманизм и другие точки зрения на будущее человека и ИИ.
3️⃣ Власть роботов. Мартин Форд. Более приземленная книжка про наше ближайшее будущее. ИИ как новое электричество, — автор рассказывает про последние прорывы типа AlphaFold и всеобщее распространение автоматизации уже в ближайшее десятилетие.
Упоминаются столпы глубокого обучения, — Ле Кун, Шмидхубер, Хинтон и другие. Дается оценка наступления эпохи сильного ИИ от 18-ти ведущих экспертов по шкале Курцвейл (2029 г.) - Брукс (2200 г.). Разброс большой, ждем с нетерпением
👉 Что сейчас читаете?
Хотел почитать что-нибудь про общий искусственный интеллект (AGI), — тот самый, который отберет работу у людей, а, может, и мир уничтожит (соревноваться в этом с нами будет непросто).
Нашел и прочитал три книжки, первые две очень понравились:
1️⃣ ИИ-2041. Кай-Фу Ли и Чэнь Цюфань. Каждая из 10 глав посвящена кульминации в развитии одного из аспектов ИИ и культуры.
NLP и персональные ассистенты, CV и дипфейки, квантовый прорыв, дополненная реальность, ИИ в медицине и вооружении, AI для максимизации счастья и т.д.
Изюминка книги в том, что каждая глава поделена на две части: сначала писатель-фантаст (Цюфань) представляет рассказ, действие которого разворачивается в 2041 году. Затем Кай-Фу (бывший президент Google China) освещает технические детали и дает оценку, насколько реально достичь такого прогресса на горизонте 20-30 лет.
2️⃣ Искусственный ты. Сьюзан Шнайдер. По мере развития AI вычислительно приближается к человеку (а где-то уже обгоняет). Но может ли он дойти до такой сложности, что у него возникнет сознание?
Если же мы начнем модернизировать мозг, сливаясь с машиной, то сможем ли мы сохранить свое собственное сознание?
Обсуждается множество других интересных вопросов и реальных случаев, — про заморозку мозга, про перенос сознания на внешний носитель, про трансгуманизм и другие точки зрения на будущее человека и ИИ.
3️⃣ Власть роботов. Мартин Форд. Более приземленная книжка про наше ближайшее будущее. ИИ как новое электричество, — автор рассказывает про последние прорывы типа AlphaFold и всеобщее распространение автоматизации уже в ближайшее десятилетие.
Упоминаются столпы глубокого обучения, — Ле Кун, Шмидхубер, Хинтон и другие. Дается оценка наступления эпохи сильного ИИ от 18-ти ведущих экспертов по шкале Курцвейл (2029 г.) - Брукс (2200 г.). Разброс большой, ждем с нетерпением
👉 Что сейчас читаете?
❤🔥15👍6🤩4🔥3⚡1🤓1
Нарисовал еще пару иллюстраций к книжке-трансформеру.
На этот раз в #midjourney, красивые ведьмы в нем получаются гораздо лучше.
👉 Книжка здесь
На этот раз в #midjourney, красивые ведьмы в нем получаются гораздо лучше.
👉 Книжка здесь
🔥12❤🔥3👍2🥴2