Machinelearning – Telegram
383K subscribers
4.45K photos
858 videos
17 files
4.89K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
ScaleCrafter: Tuning-free Higher-Resolution Visual Generation with Diffusion Models

Новый инструмент для генерации изображений по предварительно обученным диффузионным моделям с разрешением, значительно превышающим размеры обучающих изображений.

🖥 Github: https://github.com/yingqinghe/scalecrafter

📕 Paper: https://arxiv.org/abs/2310.07702v1

⭐️ Project: https://yingqinghe.github.io/scalecrafter/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113🔥1
🔥 Burn - A Flexible and Comprehensive Deep Learning Framework in Rust

Новый фреймворк глубокого обучения, построенный полностью на Rust, который призван обеспечить баланс между гибкостью, производительностью и простотой использования для исследователей, инженеров ML и разработчиков.

cargo new new_burn_app

🖥 Github: https://github.com/burn-rs/burn

📕 Burn Book: https://burn-rs.github.io/book/

⭐️ Guide: https://www.kdnuggets.com/rust-burn-library-for-deep-learning

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍185🔥1🥰1
Pixel Codec Avatars

В 2021 году была выпущена статья под названием Pixel Codec Avatars (PiCA). Ее значимость стала понятна, когда Lex Fridman выпустил свой подкаст в метаверсе.

PiCA - это фактически формат MP4 для VR. Совершенно новый протокол для потокового 3D-вещания.

Интуиция метода такова:
- Сначала энкодер сжимает изображение, полученное с помощью лицевой камеры VR, в латентный код. Этот код фиксирует тонкую мимику и все нюансы лица, которые придают интервью Лекса гиперреалистичность.
- Латентный код передается через Интернет - это гораздо эффективнее, чем пересылка 3D-сетки или изображений.
- Декодер выполняет две задачи:
(1) Реконструирует глобальную 3D-геометрию лица и выражения в реальном времени.
(2) Перерисовывает цвет каждого пикселя с учетом определенного угла обзора.

PiCA НЕ перерисовывает пиксели, которые находятся в окклюзии, т.е. затылки Лекса и Марка фактически не существуют. Интригующая связь с гипотезой симуляции: мир не существует, пока вы активно на него не смотрите.

📕 Paper: https://arxiv.org/abs/2104.04638

☑️ Video: https://www.youtube.com/watch?v=MVYrJJNdrEg

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍30🔥42
🖕 Voyager: An Open-Ended Embodied Agent with Large Language Models

Voyager consists of three key components: an automatic curriculum for open-ended exploration, a skill library for increasingly complex behaviors, and an iterative prompting mechanism that uses code as action space.

Voyager - агент пожизненного обучения, который играет в Minecraft и непрерывно совершенствуется. Voyager постоянно улучшается, генерируя, изменяя и переписывая собственный код .

GPT-4 открывает новую парадигму: "обучение" - это генерация и выполнение кода, а не градиентный спуск. "Обучаемая модель" - это кодовая база навыков, которую Voyager итеративно составляет, а не матрицы плавающих чисел. Это безградиентная архитектуру.

Voyager быстро становится опытным исследователем. В Minecraft он получает в 3,3 раза больше уникальных предметов, преодолевает в 2,3 раза больше расстояний и открывает ключевые этапы технологического дерева на 15,3 раза быстрее, чем предыдущие методы.

В Minecraft Voyager способен принимать решения путем моделирования мира. Пример:
"очков голода осталось немного"
-> если я не получу еду в ближайшее время, то умру
-> я вижу поблизости кошку, свинью и деревенского жителя.
-> на кого из них я должен охотиться?
-> на свинью, потому что убийство двух других не даст мне еды, даже если я добьюсь успеха
-> проверить инвентарь, нет хорошего оружия
-> [пойти сделать каменный меч]
-> свинья убежала
-> [начать охоту на овец]".


Этот способ мышления предполагает постоянные рассуждения и активное вмешательство в текущее состояние агента и мира. Voyager предвидит, что ему нужно, мысленно моделируя будущее, и соответственно планирует это "воображаемое будущее". Он проводит обширную разведку и приобретает новые навыки по пути с помощью механизма библиотеки навыков. Агент совершает ошибки, но корректирует ход действий.

🖥 Github: https://github.com/MineDojo/Voyager

📕 Paper: https://arxiv.org/abs/2305.16291

⭐️ Project: https://voyager.minedojo.org/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥163🍾3
📚 Large (Language) Models and Foundation Models (LLM, LM, FM) for Time Series and Spatio-Temporal Data

Профессионально курируемый список больших языковых моделей и базовых моделей (LLM, LM, FM) для темпоральных данных (временных рядов, пространственно-временных и событийных данных) с полезными ресурсами (статьи, код, датасеты и т.д.), целью которого является всестороннее обобщение последних достижений в этой области.

В Проекте собрана информацию о докладах, учебниках и обзорах по ИИ для временных рядов (AI4TS)с ведущих конференций и в журналов по ИИ.

🖥 Github: https://github.com/qingsongedu/awesome-timeseries-spatiotemporal-lm-llm

📝 AI4TS: https://github.com/qingsongedu/awesome-AI-for-time-series-papers

📕 Paper: https://arxiv.org/abs/2310.10196v1

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Cross-Episodic Curriculum for Transformer Agents

Трансформеры отлично справляются с выявлением закономерностей, но не справляются с ограниченными данными, что часто встречается в робототехнике.

При Cross-Episodic обучении, агент-трансформер учится совершенствоваться с помощью внутриконтекстной программы обучения. По сути, обучающий сигнал заложен в последовательность все более трудных задач и ии развивается, находя решение на них.

pip install git+https://github.com/cec-agent/CEC

🖥 Github: https://github.com/CEC-Agent/CEC

📕 Paper: https://cec-agent.github.io/src/bib.txt

⭐️ Project: https://cec-agent.github.io

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍162🔥2
👨 AG3D: Learning to Generate 3D Avatars from 2D Image Collections (ICCV 2023)

AG3D: Фреймворк для генерации трехмерных аватаров из двумерных изображений

🖥 Github: https://github.com/zj-dong/AG3D

📕 Paper: https://arxiv.org/abs/2305.02312

🚀Video: https://youtu.be/niP1YhJXEBE

⭐️ Project: https://zj-dong.github.io/AG3D/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍3🔥1
Как автоматизировать переобучение ML-моделей
Разработчики ML-моделей из Газпромбанка рассказывают, как в условиях банковской регуляторики, требований безопасников и запрета на использование некоторых инструментов (того же Git LFS) сократить срок переобучения модели с месяца до одного дня.

В статье говорится об разделении и параллельном выполнение процесса сканирования и выкатки кода по CI/CD-процессу, благодаря архитектурному разграничению весов модели и самого кода как разных сущностей сборки.

https://habr.com/ru/companies/gazprombank/articles/766736/
🔥6👏5👍32🥴2❤‍🔥1😭1
📒 GigaChat нового поколения.

Разработчики @gigachat_bot изменили подход к обучению модели, а потому практически все умения модели были улучшены. В частности, речь идет о сокращении текстов, ответов на вопросы и генерации идей.

Появился и бот GigaChat в социальной сети «ВКонтакте» — после активации, его можно использовать для самых разных целей: от создания текстов до генерации изображений (за счет интеграции с Kandinsky).

Число уникальных пользователей GigaChat достигло 1 млн.

Попробовать

@data_analysis_ml
👍16🔥32🥴1
🛠 Improving Long Document Topic Segmentation Models With Enhanced Coherence Modeling

SpokenNLP: Официальный репозиторий кодовых баз по самым разным исследовательским проектам, разработанным командой SpokenNLP Speech Lab, Alibaba DAMO Academy.

🖥 Github: https://github.com/alibaba-damo-academy/spokennlp

📕 Paper: https://arxiv.org/pdf/2310.11772v1.pdf

🚀Dataset: https://paperswithcode.com/dataset/wikisection

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥21
📑 DocXChain: A Powerful Open-Source Toolchain for Document Parsing and Beyond

DocXChain - мощный инструментарий с открытым исходным кодом для синтаксического анализа документов, предназначенный для автоматического преобразования разнородной информации, содержащейся в неструктурированных документах, таких как текст, таблицы и диаграммы, схемы в структурированные представления, доступные для машинного чтения и манипулирования.

🖥 Github: https://github.com/alibabaresearch/advancedliteratemachinery

📕 Paper: https://arxiv.org/abs/2310.12430v1

🚀Damo: https://damo.alibaba.com/labs/language-technology

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🔥53
🐾 Putting the Object Back into Video Object Segmentation (Cutie)

Cutie - это фреймворк для сегментации видеообъектов, обладающий большей высокой производительностью, устойчивостью и скоростью.

Cutie четко отделяет семантику объекта переднего плана от фона. На сложном наборе данных MOSE Cutie превосходит все предыдущие методы сегментации.

git clone https://github.com/hkchengrex/Cutie.git

🖥 Github: https://github.com/hkchengrex/Cutie

🖥 Colab: https://colab.research.google.com/drive/1yo43XTbjxuWA7XgCUO9qxAi7wBI6HzvP?usp=sharing

📕 Paper: https://arxiv.org/abs/2310.12982v1

🚀Project: https://hkchengrex.github.io/Cutie/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍142🔥1🤔1
🦙AgentTuning: Enabling Generalized Agent Abilities For LLMs.

AgentTuning - простой и эффекти
вный метод расширения агентских возможностей для решения сложных задачи реального мира при сохранении всех возможностей ЛЛМ.

AgentTuning содержит датасет 1866 высококачественных взаимодействий, предназначенных для улучшения работы ИИ-агентов в 6 различных реальных задачах.

🖥 Github: https://github.com/THUDM/AgentTuning

📕 Paper: https://arxiv.org/abs/2310.12823

🤗 Model: https://huggingface.co/THUDM/agentlm-70b

🚀Dataset: https://huggingface.co/datasets/THUDM/AgentInstruct

⭐️ Project: https://thudm.github.io/AgentTuning/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥43
🖥 AutoGen

AutoGen provides multi-agent conversation framework as a high-level abstraction.

AutoGen - это фреймворк от Майкрософт, позволяющий разрабатывать LLM-приложения с использованием нескольких агентов, способных взаимодействовать друг с другом для решения задач. Агенты AutoGen настраиваются, общаются и легко допускают участие человека.

Агенту можно поручить действовать в качестве кодера, пишущего код на основе промыта. Второму агенту можно назначить роль ревьюера кода, который указывает на ошибки в коде. После обмена сообщениями агенты отдают пользователю финальный код с пояснениями.
Такой подход приводит к значительному повышению эффективности работы генеративных моделей – по данным Microsoft, AutoGen может ускорить написание кода в несколько раз.

🖥 Github: https://github.com/microsoft/autogen

📕 Project: https://microsoft.github.io/autogen/

🤗 FLAML.: https://github.com/microsoft/FLAML

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍234🔥3🥰1