Machinelearning – Telegram
383K subscribers
4.45K photos
858 videos
17 files
4.89K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
📚 Large (Language) Models and Foundation Models (LLM, LM, FM) for Time Series and Spatio-Temporal Data

Профессионально курируемый список больших языковых моделей и базовых моделей (LLM, LM, FM) для темпоральных данных (временных рядов, пространственно-временных и событийных данных) с полезными ресурсами (статьи, код, датасеты и т.д.), целью которого является всестороннее обобщение последних достижений в этой области.

В Проекте собрана информацию о докладах, учебниках и обзорах по ИИ для временных рядов (AI4TS)с ведущих конференций и в журналов по ИИ.

🖥 Github: https://github.com/qingsongedu/awesome-timeseries-spatiotemporal-lm-llm

📝 AI4TS: https://github.com/qingsongedu/awesome-AI-for-time-series-papers

📕 Paper: https://arxiv.org/abs/2310.10196v1

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍136🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Cross-Episodic Curriculum for Transformer Agents

Трансформеры отлично справляются с выявлением закономерностей, но не справляются с ограниченными данными, что часто встречается в робототехнике.

При Cross-Episodic обучении, агент-трансформер учится совершенствоваться с помощью внутриконтекстной программы обучения. По сути, обучающий сигнал заложен в последовательность все более трудных задач и ии развивается, находя решение на них.

pip install git+https://github.com/cec-agent/CEC

🖥 Github: https://github.com/CEC-Agent/CEC

📕 Paper: https://cec-agent.github.io/src/bib.txt

⭐️ Project: https://cec-agent.github.io

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍162🔥2
👨 AG3D: Learning to Generate 3D Avatars from 2D Image Collections (ICCV 2023)

AG3D: Фреймворк для генерации трехмерных аватаров из двумерных изображений

🖥 Github: https://github.com/zj-dong/AG3D

📕 Paper: https://arxiv.org/abs/2305.02312

🚀Video: https://youtu.be/niP1YhJXEBE

⭐️ Project: https://zj-dong.github.io/AG3D/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
16👍3🔥1
Как автоматизировать переобучение ML-моделей
Разработчики ML-моделей из Газпромбанка рассказывают, как в условиях банковской регуляторики, требований безопасников и запрета на использование некоторых инструментов (того же Git LFS) сократить срок переобучения модели с месяца до одного дня.

В статье говорится об разделении и параллельном выполнение процесса сканирования и выкатки кода по CI/CD-процессу, благодаря архитектурному разграничению весов модели и самого кода как разных сущностей сборки.

https://habr.com/ru/companies/gazprombank/articles/766736/
🔥6👏5👍32🥴2❤‍🔥1😭1
📒 GigaChat нового поколения.

Разработчики @gigachat_bot изменили подход к обучению модели, а потому практически все умения модели были улучшены. В частности, речь идет о сокращении текстов, ответов на вопросы и генерации идей.

Появился и бот GigaChat в социальной сети «ВКонтакте» — после активации, его можно использовать для самых разных целей: от создания текстов до генерации изображений (за счет интеграции с Kandinsky).

Число уникальных пользователей GigaChat достигло 1 млн.

Попробовать

@data_analysis_ml
👍16🔥32🥴1
🛠 Improving Long Document Topic Segmentation Models With Enhanced Coherence Modeling

SpokenNLP: Официальный репозиторий кодовых баз по самым разным исследовательским проектам, разработанным командой SpokenNLP Speech Lab, Alibaba DAMO Academy.

🖥 Github: https://github.com/alibaba-damo-academy/spokennlp

📕 Paper: https://arxiv.org/pdf/2310.11772v1.pdf

🚀Dataset: https://paperswithcode.com/dataset/wikisection

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥21
📑 DocXChain: A Powerful Open-Source Toolchain for Document Parsing and Beyond

DocXChain - мощный инструментарий с открытым исходным кодом для синтаксического анализа документов, предназначенный для автоматического преобразования разнородной информации, содержащейся в неструктурированных документах, таких как текст, таблицы и диаграммы, схемы в структурированные представления, доступные для машинного чтения и манипулирования.

🖥 Github: https://github.com/alibabaresearch/advancedliteratemachinery

📕 Paper: https://arxiv.org/abs/2310.12430v1

🚀Damo: https://damo.alibaba.com/labs/language-technology

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🔥53
🐾 Putting the Object Back into Video Object Segmentation (Cutie)

Cutie - это фреймворк для сегментации видеообъектов, обладающий большей высокой производительностью, устойчивостью и скоростью.

Cutie четко отделяет семантику объекта переднего плана от фона. На сложном наборе данных MOSE Cutie превосходит все предыдущие методы сегментации.

git clone https://github.com/hkchengrex/Cutie.git

🖥 Github: https://github.com/hkchengrex/Cutie

🖥 Colab: https://colab.research.google.com/drive/1yo43XTbjxuWA7XgCUO9qxAi7wBI6HzvP?usp=sharing

📕 Paper: https://arxiv.org/abs/2310.12982v1

🚀Project: https://hkchengrex.github.io/Cutie/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍142🔥1🤔1
🦙AgentTuning: Enabling Generalized Agent Abilities For LLMs.

AgentTuning - простой и эффекти
вный метод расширения агентских возможностей для решения сложных задачи реального мира при сохранении всех возможностей ЛЛМ.

AgentTuning содержит датасет 1866 высококачественных взаимодействий, предназначенных для улучшения работы ИИ-агентов в 6 различных реальных задачах.

🖥 Github: https://github.com/THUDM/AgentTuning

📕 Paper: https://arxiv.org/abs/2310.12823

🤗 Model: https://huggingface.co/THUDM/agentlm-70b

🚀Dataset: https://huggingface.co/datasets/THUDM/AgentInstruct

⭐️ Project: https://thudm.github.io/AgentTuning/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥43
🖥 AutoGen

AutoGen provides multi-agent conversation framework as a high-level abstraction.

AutoGen - это фреймворк от Майкрософт, позволяющий разрабатывать LLM-приложения с использованием нескольких агентов, способных взаимодействовать друг с другом для решения задач. Агенты AutoGen настраиваются, общаются и легко допускают участие человека.

Агенту можно поручить действовать в качестве кодера, пишущего код на основе промыта. Второму агенту можно назначить роль ревьюера кода, который указывает на ошибки в коде. После обмена сообщениями агенты отдают пользователю финальный код с пояснениями.
Такой подход приводит к значительному повышению эффективности работы генеративных моделей – по данным Microsoft, AutoGen может ускорить написание кода в несколько раз.

🖥 Github: https://github.com/microsoft/autogen

📕 Project: https://microsoft.github.io/autogen/

🤗 FLAML.: https://github.com/microsoft/FLAML

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍234🔥3🥰1
Zero123++: a Single Image to Consistent Multi-view Diffusion Base Model

Новая модель диффузии для генерации многоракурсных 3D изображений из одного изображения. Фреймворк позволяет получать высококачественные изображения, решая такие распространенные проблемы, как деградация текстуры и геометрическое несоответствие генерации.

🖥 Github: https://github.com/sudo-ai-3d/zero123plus

📕 Paper: https://arxiv.org/abs/2310.15110v1

⭐️ Demo: https://huggingface.co/spaces/sudo-ai/zero123plus-demo-space

🚀Dataset: https://paperswithcode.com/dataset/shapenet

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥42
🦩 Woodpecker: Hallucination Correction for Multimodal Large Language Models

Hallucination Correction for MLLMs. The first work to correct hallucination in multimodal large language models.

Большие языковые модели могут вызывать галлюцинации и генерировать ложную информацию, что приводит к потенциальной дезинформации и путанице.

Для борьбы с галлюцинациями в современных исследованиях в основном используется метод настройки по инструкции, требующий переобучения моделей на конкретных данных.

В данной работе предлагается иной подход, представляя метод не требующий переобучения модели, который называется Woodpecker.


Woodpecker работает в 5 этапов: извлечение ключевых понятий, формулировка вопроса, визуальная проверка знаний, формирование визуального утверждения и коррекция галлюцинаций. Реализованный по принципу постредактирования, Woodpecker может легко работать с различными МЛЛМ, оставаясь при этом эффективным за счет доступа к промежуточным результатам работы модели.

🖥 Github: https://github.com/bradyfu/woodpecker

📕 Paper: https://arxiv.org/abs/2310.15110v1

Demo: https://21527a47f03813481c.gradio.live/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍113🔥3😁2
🔇 Efficient Large-Scale Audio Tagging

AudioSet pre-trained models ready for downstream training and extraction of audio embeddings.

Трансформеры доминируют в области по работе с адуио и заменили CNN в качестве современной нейросетевой архитектуры.

Трансформеры отлично справляются с огромными аудио датасетами и подходят для создания мощных предварительно обученных моделей.

Однако трансформеры являются сложными моделями и масштабируются квадратично по отношению к длине данных, что делает их медленными.

В данной модели используются динамические CNN, которые достигают лучшей производительности на задачах разметки аудио данных и хорошо масштабируются, достигая производительности трансформеров и даже превосходя их.

🖥 Github: https://github.com/fschmid56/efficientat

📕 Paper: https://arxiv.org/abs/2310.15648v1

Demo: https://21527a47f03813481c.gradio.live/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍112🔥1🙈1
🕵️ Detecting Pretraining Data from Large Language Models


Min-K% Prob, простой и эффективный метод, который позволяет определить, была ли LLM предварительно обучена на заданном тексте, а также для обнаружения защищенного авторским правом текста.

Датасет WikiMIA служит бенчмарком, предназначенным для обнаружения данных предварительного обучения.


🖥 Github: https://github.com/swj0419/detect-pretrain-code

📕 Paper: https://arxiv.org/pdf/2310.16789.pdf

📘 WikiMIA Benchmark:

Project: https://swj0419.github.io/detect-pretrain.github.io/

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍18🔥42