Voyager consists of three key components: an automatic curriculum for open-ended exploration, a skill library for increasingly complex behaviors, and an iterative prompting mechanism that uses code as action space.
Voyager - агент пожизненного обучения, который играет в Minecraft и непрерывно совершенствуется. Voyager постоянно улучшается, генерируя, изменяя и переписывая собственный код .
GPT-4 открывает новую парадигму: "обучение" - это генерация и выполнение кода, а не градиентный спуск. "Обучаемая модель" - это кодовая база навыков, которую Voyager итеративно составляет, а не матрицы плавающих чисел. Это безградиентная архитектуру.
Voyager быстро становится опытным исследователем. В Minecraft он получает в
3,3 раза больше уникальных предметов, преодолевает в 2,3 раза больше расстояний и открывает ключевые этапы технологического дерева на 15,3 раза быстрее, чем предыдущие методы.В Minecraft Voyager способен принимать решения путем моделирования мира. Пример:
"очков голода осталось немного"
-> если я не получу еду в ближайшее время, то умру
-> я вижу поблизости кошку, свинью и деревенского жителя.
-> на кого из них я должен охотиться?
-> на свинью, потому что убийство двух других не даст мне еды, даже если я добьюсь успеха
-> проверить инвентарь, нет хорошего оружия
-> [пойти сделать каменный меч]
-> свинья убежала
-> [начать охоту на овец]".
Этот способ мышления предполагает постоянные рассуждения и активное вмешательство в текущее состояние агента и мира. Voyager предвидит, что ему нужно, мысленно моделируя будущее, и соответственно планирует это "воображаемое будущее". Он проводит обширную разведку и приобретает новые навыки по пути с помощью механизма библиотеки навыков. Агент совершает ошибки, но корректирует ход действий.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍32🔥16❤3🍾3
📚 Large (Language) Models and Foundation Models (LLM, LM, FM) for Time Series and Spatio-Temporal Data
Профессионально курируемый список больших языковых моделей и базовых моделей (
В Проекте собрана информацию о докладах, учебниках и обзорах по ИИ для временных рядов (AI4TS)с ведущих конференций и в журналов по ИИ.
🖥 Github: https://github.com/qingsongedu/awesome-timeseries-spatiotemporal-lm-llm
📝 AI4TS: https://github.com/qingsongedu/awesome-AI-for-time-series-papers
📕 Paper: https://arxiv.org/abs/2310.10196v1
ai_machinelearning_big_data
Профессионально курируемый список больших языковых моделей и базовых моделей (
LLM, LM, FM) для темпоральных данных (временных рядов, пространственно-временных и событийных данных) с полезными ресурсами (статьи, код, датасеты и т.д.), целью которого является всестороннее обобщение последних достижений в этой области. В Проекте собрана информацию о докладах, учебниках и обзорах по ИИ для временных рядов (AI4TS)с ведущих конференций и в журналов по ИИ.
📝 AI4TS: https://github.com/qingsongedu/awesome-AI-for-time-series-papers
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤6🔥3
This media is not supported in your browser
VIEW IN TELEGRAM
Трансформеры отлично справляются с выявлением закономерностей, но не справляются с ограниченными данными, что часто встречается в робототехнике.
При Cross-Episodic обучении, агент-трансформер учится совершенствоваться с помощью внутриконтекстной программы обучения. По сути, обучающий сигнал заложен в последовательность все более трудных задач и ии развивается, находя решение на них.
pip install git+https://github.com/cec-agent/CECai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16❤2🔥2
👨 AG3D: Learning to Generate 3D Avatars from 2D Image Collections (ICCV 2023)
AG3D: Фреймворк для генерации трехмерных аватаров из двумерных изображений
🖥 Github: https://github.com/zj-dong/AG3D
📕 Paper: https://arxiv.org/abs/2305.02312
🚀 Video: https://youtu.be/niP1YhJXEBE
⭐️ Project: https://zj-dong.github.io/AG3D/
ai_machinelearning_big_data
AG3D: Фреймворк для генерации трехмерных аватаров из двумерных изображений
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤16👍3🔥1
Как автоматизировать переобучение ML-моделей
Разработчики ML-моделей из Газпромбанка рассказывают, как в условиях банковской регуляторики, требований безопасников и запрета на использование некоторых инструментов (того же Git LFS) сократить срок переобучения модели с месяца до одного дня.
В статье говорится об разделении и параллельном выполнение процесса сканирования и выкатки кода по CI/CD-процессу, благодаря архитектурному разграничению весов модели и самого кода как разных сущностей сборки.
https://habr.com/ru/companies/gazprombank/articles/766736/
Разработчики ML-моделей из Газпромбанка рассказывают, как в условиях банковской регуляторики, требований безопасников и запрета на использование некоторых инструментов (того же Git LFS) сократить срок переобучения модели с месяца до одного дня.
В статье говорится об разделении и параллельном выполнение процесса сканирования и выкатки кода по CI/CD-процессу, благодаря архитектурному разграничению весов модели и самого кода как разных сущностей сборки.
https://habr.com/ru/companies/gazprombank/articles/766736/
Хабр
Как автоматизировать переобучение моделей?
Меня зовут Денис, я управляю разработкой и внедрением моделей машинного обучения в «Газпромбанке» в розничный бизнес. Наша команда ML-инженеров работает в связке с DevOps, мне помогает мой коллега...
🔥6👏5👍3❤2🥴2❤🔥1😭1
Forwarded from Анализ данных (Data analysis)
📒 GigaChat нового поколения.
Разработчики @gigachat_bot изменили подход к обучению модели, а потому практически все умения модели были улучшены. В частности, речь идет о сокращении текстов, ответов на вопросы и генерации идей.
Появился и бот GigaChat в социальной сети «ВКонтакте» — после активации, его можно использовать для самых разных целей: от создания текстов до генерации изображений (за счет интеграции с Kandinsky).
Число уникальных пользователей GigaChat достигло 1 млн.
• Попробовать
@data_analysis_ml
Разработчики @gigachat_bot изменили подход к обучению модели, а потому практически все умения модели были улучшены. В частности, речь идет о сокращении текстов, ответов на вопросы и генерации идей.
Появился и бот GigaChat в социальной сети «ВКонтакте» — после активации, его можно использовать для самых разных целей: от создания текстов до генерации изображений (за счет интеграции с Kandinsky).
Число уникальных пользователей GigaChat достигло 1 млн.
• Попробовать
@data_analysis_ml
👍16🔥3❤2🥴1
🛠 Improving Long Document Topic Segmentation Models With Enhanced Coherence Modeling
SpokenNLP: Официальный репозиторий кодовых баз по самым разным исследовательским проектам, разработанным командой
🖥 Github: https://github.com/alibaba-damo-academy/spokennlp
📕 Paper: https://arxiv.org/pdf/2310.11772v1.pdf
🚀 Dataset: https://paperswithcode.com/dataset/wikisection
ai_machinelearning_big_data
SpokenNLP: Официальный репозиторий кодовых баз по самым разным исследовательским проектам, разработанным командой
SpokenNLP Speech Lab, Alibaba DAMO Academy.ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥2❤1
📑 DocXChain: A Powerful Open-Source Toolchain for Document Parsing and Beyond
DocXChain - мощный инструментарий с открытым исходным кодом для синтаксического анализа документов, предназначенный для автоматического преобразования разнородной информации, содержащейся в неструктурированных документах, таких как текст, таблицы и диаграммы, схемы в структурированные представления, доступные для машинного чтения и манипулирования.
🖥 Github: https://github.com/alibabaresearch/advancedliteratemachinery
📕 Paper: https://arxiv.org/abs/2310.12430v1
🚀 Damo: https://damo.alibaba.com/labs/language-technology
ai_machinelearning_big_data
DocXChain - мощный инструментарий с открытым исходным кодом для синтаксического анализа документов, предназначенный для автоматического преобразования разнородной информации, содержащейся в неструктурированных документах, таких как текст, таблицы и диаграммы, схемы в структурированные представления, доступные для машинного чтения и манипулирования.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17🔥5❤3
🐾 Putting the Object Back into Video Object Segmentation (Cutie)
Cutie - это фреймворк для сегментации видеообъектов, обладающий большей высокой производительностью, устойчивостью и скоростью.
Cutie четко отделяет семантику объекта переднего плана от фона. На сложном наборе данных MOSE Cutie превосходит все предыдущие методы сегментации.
🖥 Github: https://github.com/hkchengrex/Cutie
🖥 Colab: https://colab.research.google.com/drive/1yo43XTbjxuWA7XgCUO9qxAi7wBI6HzvP?usp=sharing
📕 Paper: https://arxiv.org/abs/2310.12982v1
🚀 Project: https://hkchengrex.github.io/Cutie/
ai_machinelearning_big_data
Cutie - это фреймворк для сегментации видеообъектов, обладающий большей высокой производительностью, устойчивостью и скоростью.
Cutie четко отделяет семантику объекта переднего плана от фона. На сложном наборе данных MOSE Cutie превосходит все предыдущие методы сегментации.
git clone https://github.com/hkchengrex/Cutie.gitai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍14❤2🔥1🤔1
🦙AgentTuning: Enabling Generalized Agent Abilities For LLMs.
AgentTuning - простой и эффективный метод расширения агентских возможностей для решения сложных задачи реального мира при сохранении всех возможностей ЛЛМ.
AgentTuning содержит датасет 1866 высококачественных взаимодействий, предназначенных для улучшения работы ИИ-агентов в 6 различных реальных задачах.
🖥 Github: https://github.com/THUDM/AgentTuning
📕 Paper: https://arxiv.org/abs/2310.12823
🤗 Model: https://huggingface.co/THUDM/agentlm-70b
🚀 Dataset: https://huggingface.co/datasets/THUDM/AgentInstruct
⭐️ Project: https://thudm.github.io/AgentTuning/
ai_machinelearning_big_data
AgentTuning - простой и эффективный метод расширения агентских возможностей для решения сложных задачи реального мира при сохранении всех возможностей ЛЛМ.
AgentTuning содержит датасет 1866 высококачественных взаимодействий, предназначенных для улучшения работы ИИ-агентов в 6 различных реальных задачах.
🤗 Model: https://huggingface.co/THUDM/agentlm-70b
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍10🔥4❤3
AutoGen provides multi-agent conversation framework as a high-level abstraction.
AutoGen - это фреймворк от Майкрософт, позволяющий разрабатывать LLM-приложения с использованием нескольких агентов, способных взаимодействовать друг с другом для решения задач. Агенты AutoGen настраиваются, общаются и легко допускают участие человека.
Агенту можно поручить действовать в качестве кодера, пишущего код на основе промыта. Второму агенту можно назначить роль ревьюера кода, который указывает на ошибки в коде. После обмена сообщениями агенты отдают пользователю финальный код с пояснениями.
Такой подход приводит к значительному повышению эффективности работы генеративных моделей – по данным Microsoft, AutoGen может ускорить написание кода в несколько раз.
🤗 FLAML.: https://github.com/microsoft/FLAML
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23❤4🔥3🥰1
Новая модель диффузии для генерации многоракурсных 3D изображений из одного изображения. Фреймворк позволяет получать высококачественные изображения, решая такие распространенные проблемы, как деградация текстуры и геометрическое несоответствие генерации.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥4❤2
Hallucination Correction for MLLMs. The first work to correct hallucination in multimodal large language models.
Большие языковые модели могут вызывать галлюцинации и генерировать ложную информацию, что приводит к потенциальной дезинформации и путанице.
Для борьбы с галлюцинациями в современных исследованиях в основном используется метод настройки по инструкции, требующий переобучения моделей на конкретных данных.
В данной работе предлагается иной подход, представляя метод не требующий переобучения модели, который называется Woodpecker.
Woodpecker работает в 5 этапов: извлечение ключевых понятий, формулировка вопроса, визуальная проверка знаний, формирование визуального утверждения и коррекция галлюцинаций. Реализованный по принципу постредактирования, Woodpecker может легко работать с различными МЛЛМ, оставаясь при этом эффективным за счет доступа к промежуточным результатам работы модели.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤3🔥3😁2
AudioSet pre-trained models ready for downstream training and extraction of audio embeddings.
Трансформеры доминируют в области по работе с адуио и заменили CNN в качестве современной нейросетевой архитектуры.
Трансформеры отлично справляются с огромными аудио датасетами и подходят для создания мощных предварительно обученных моделей.
Однако трансформеры являются сложными моделями и масштабируются квадратично по отношению к длине данных, что делает их медленными.
В данной модели используются динамические CNN, которые достигают лучшей производительности на задачах разметки аудио данных и хорошо масштабируются, достигая производительности трансформеров и даже превосходя их.
ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11❤2🔥1🙈1