Агенты-помощники ИИ, такие как ChatGPT, в значительной степени зависели от контролируемой тонкой настройки и обучения с подкреплением на основе отзывов людей. Но у этого метода есть свой набор проблем — высокая стоимость, потенциальные предубеждения и ограничения на истинный потенциал этих агентов ИИ. Что, если бы существовал более эффективный и самодостаточный способ согласования результатов ИИ с человеческими намерениями?
Self-ALIGN — это многоэтапный процесс, который работает путем создания синтетических подсказок из большой языковой модели, увеличения разнообразия подсказок и использования краткого набора написанных человеком принципов для управления моделями ИИ. Применительно к базовой языковой модели LLaMA-65b это привело к созданию нового помощника ИИ, Dromedary, использующего менее 300 строк человеческих аннотаций. Dromedary не только затмевает несколько современных систем искусственного интеллекта, таких как Text-Davinci-003 и Alpaca, но и делает это на множестве тестовых наборов данных.
Ссылка на документ: https://arxiv.org/abs/2305.03047
Ссылка на код: https://mitibmdemos.draco.res.ibm.com/dromedary
Подробный неофициальный обзор статьи: https://andlukyane.com/blog/paper-review-dromedary.
Self-ALIGN — это многоэтапный процесс, который работает путем создания синтетических подсказок из большой языковой модели, увеличения разнообразия подсказок и использования краткого набора написанных человеком принципов для управления моделями ИИ. Применительно к базовой языковой модели LLaMA-65b это привело к созданию нового помощника ИИ, Dromedary, использующего менее 300 строк человеческих аннотаций. Dromedary не только затмевает несколько современных систем искусственного интеллекта, таких как Text-Davinci-003 и Alpaca, но и делает это на множестве тестовых наборов данных.
Ссылка на документ: https://arxiv.org/abs/2305.03047
Ссылка на код: https://mitibmdemos.draco.res.ibm.com/dromedary
Подробный неофициальный обзор статьи: https://andlukyane.com/blog/paper-review-dromedary.
GitHub
GitHub - IBM/Dromedary: Dromedary: towards helpful, ethical and reliable LLMs.
Dromedary: towards helpful, ethical and reliable LLMs. - GitHub - IBM/Dromedary: Dromedary: towards helpful, ethical and reliable LLMs.
This media is not supported in your browser
VIEW IN TELEGRAM
Если вы хотите изучать науку о данных и машинное обучение, этот веб-сайт — настоящая золотая жила. Это объясняет большинство технических и теоретических концепций Data Science & ML с интерактивными визуальными эффектами.
https://brilliant.org/
https://brilliant.org/
Выпуск исходного кода Draggan: интерактивные манипуляции с изображениями на основе точек.
https://github.com/XingangPan/DragGAN
https://github.com/XingangPan/DragGAN
GitHub
GitHub - XingangPan/DragGAN: Official Code for DragGAN (SIGGRAPH 2023)
Official Code for DragGAN (SIGGRAPH 2023). Contribute to XingangPan/DragGAN development by creating an account on GitHub.
Сравнение алгоритмов машинного обучения в Python и R
Этот список наиболее часто используемых алгоритмов машинного обучения в Python и R предназначен для того, чтобы помочь начинающим инженерам и энтузиастам ознакомиться с наиболее часто используемыми алгоритмами.
https://www.kdnuggets.com/2023/06/machine-learning-algorithms-python-r.html
Этот список наиболее часто используемых алгоритмов машинного обучения в Python и R предназначен для того, чтобы помочь начинающим инженерам и энтузиастам ознакомиться с наиболее часто используемыми алгоритмами.
https://www.kdnuggets.com/2023/06/machine-learning-algorithms-python-r.html
KDnuggets
A Comparison of Machine Learning Algorithms in Python and R - KDnuggets
This list of the most commonly used machine learning algorithms in Python and R is intended to help novice engineers and enthusiasts get familiar with the most commonly used algorithms.
Forwarded from Добро пожаловать в мир Python
1_MLqq6tvQNmQlGpQyIbxwyw.gif
11.3 MB
Более 250 советов по Python и науке о данных, включая Pandas, NumPy, основы машинного обучения, Sklearn, Jupyter и другие.
https://medium.datadriveninvestor.com/250-python-and-data-science-tips-covering-pandas-numpy-ml-basics-sklearn-jupyter-and-more-e33074b92d58
👉 Весь PDF-архив вы можете найти здесь .
https://medium.datadriveninvestor.com/250-python-and-data-science-tips-covering-pandas-numpy-ml-basics-sklearn-jupyter-and-more-e33074b92d58
👉 Весь PDF-архив вы можете найти здесь .
Многоязычное связывание сущностей от конца до конца
Представляем BELA, беспрецедентное решение с открытым исходным кодом, которое должно произвести революцию в области обработки естественного языка (NLP)! BELA решает сложную задачу связывания сущностей - задачу, распространенную во многих практических приложениях, - предлагая самую первую полностью сквозную многоязычную модель. Поразительно, но она может эффективно идентифицировать и связывать сущности в текстах на 97 языках, что является невиданной до сих пор способностью. Это знаменует собой значительный скачок в направлении оптимизации сложных стеков моделей, которые были распространенной проблемой в данной области.
Ссылка на статью: https://arxiv.org/abs/2306.08896
Ссылка на код: https://github.com/facebookresearch/BELA
Подробный неофициальный обзор статьи: https://andlukyane.com/blog/paper-review-bela
Представляем BELA, беспрецедентное решение с открытым исходным кодом, которое должно произвести революцию в области обработки естественного языка (NLP)! BELA решает сложную задачу связывания сущностей - задачу, распространенную во многих практических приложениях, - предлагая самую первую полностью сквозную многоязычную модель. Поразительно, но она может эффективно идентифицировать и связывать сущности в текстах на 97 языках, что является невиданной до сих пор способностью. Это знаменует собой значительный скачок в направлении оптимизации сложных стеков моделей, которые были распространенной проблемой в данной области.
Ссылка на статью: https://arxiv.org/abs/2306.08896
Ссылка на код: https://github.com/facebookresearch/BELA
Подробный неофициальный обзор статьи: https://andlukyane.com/blog/paper-review-bela
GitHub
GitHub - facebookresearch/BELA: Bi-encoder entity linking architecture
Bi-encoder entity linking architecture. Contribute to facebookresearch/BELA development by creating an account on GitHub.
Pandas 2.0: меняет правила игры для специалистов по данным?
5 лучших функций для эффективной обработки данных https://towardsdatascience.com/pandas-2-0-a-game-changer-for-data-scientists-3cd281fcc4b4
5 лучших функций для эффективной обработки данных https://towardsdatascience.com/pandas-2-0-a-game-changer-for-data-scientists-3cd281fcc4b4
Medium
Pandas 2.0: A Game-Changer for Data Scientists?
The Top 5 Features for Efficient Data Manipulation
Meta только что выпустила промежуточную графическую библиотеку
Промежуточная графическая библиотека (IGL) — это кроссплатформенная библиотека, которая управляет графическим процессором.
https://github.com/facebook/igl/
Промежуточная графическая библиотека (IGL) — это кроссплатформенная библиотека, которая управляет графическим процессором.
https://github.com/facebook/igl/
GitHub
GitHub - facebook/igl: Intermediate Graphics Library (IGL) is a cross-platform library that commands the GPU. It provides a single…
Intermediate Graphics Library (IGL) is a cross-platform library that commands the GPU. It provides a single low-level cross-platform interface on top of various graphics APIs (e.g. OpenGL, Metal an...
👍1
Новое издание одного из самых популярных учебников по машинному обучению выйдет летом 2023 года но доступно бесплатно в виде книги в формате PDF. https://hastie.su.domains/ISLP/ISLP_website.pdf
👍1
Откажитесь от жесткого кодирования в проекте по науке о данных — вместо этого используйте файлы конфигурации
Как эффективно взаимодействовать с файлами конфигурации в Python.
https://www.kdnuggets.com/2023/06/stop-hard-coding-data-science-project-config-files-instead.html
Как эффективно взаимодействовать с файлами конфигурации в Python.
https://www.kdnuggets.com/2023/06/stop-hard-coding-data-science-project-config-files-instead.html
KDnuggets
Stop Hard Coding in a Data Science Project – Use Config Files Instead
How to efficiently interact with config files in Python.
Секреты RLHF в LLM Интересный отчет, в котором более подробно рассматривается RLHF и изучается внутренняя работа PPO. Полезно прочитать, если вы заинтересованы в LLM RLHF. Репозиторий кода тоже включен!
статья : https://arxiv.org/abs/2307.04964
код : https://github.com/OpenLMLab/MOSS-RLHF
статья : https://arxiv.org/abs/2307.04964
код : https://github.com/OpenLMLab/MOSS-RLHF
Мы запускаем Keras Core, новую библиотеку, которая объединяет Keras API с JAX и PyTorch в дополнение к TensorFlow. Это позволяет вам писать компоненты глубокого обучения для разных платформ и извлекать выгоду из лучшего, что может предложить каждая платформа. Подробнее: https://keras.io/keras_core/announcement/
Удивительные графические примечания к книге Гилберта Стрэнга «Линейная алгебра для всех». Я не могу себе представить усилия, затраченные на их создание. Визуальные пояснения могут помочь нам понять концепции намного проще, особенно в таких областях, как машинное обучение и математика. https://github.com/kenjihiranabe/The-Art-of-Linear-Algebra
👍7
Kandinsky 2.2 — новый шаг в направлении фотореализма.
2023 год можно смело называть годом бурного развития генеративного искусственного интеллекта. Это касается не только привычной нам модальности изображений (Kandinsky 2.1, Stable Diffusion XL, IF, Шедеврум и др.), но и текстовой (ChatGPT, LLaMA, Falcon и др.), и даже модальности видео (GEN-2, CogVideo и др.). При этом ни в одном из направлений выделить объективного лидера почти невозможно — все команды стараются равномерно двигаться вперёд и повышать качество синтеза. Текстовые чат‑боты научились взаимодействовать с внешними системами посредством плагинов, синтез изображений вышел на уровень фотореалистичных генераций, длина генерируемых видео постепенно увеличивается с сохранением сюжетной связности между кадрами. И такой прогресс обусловлен уже не только наращиванием вычислительных мощностей, но и большим числом неординарных архитектурных решений, которые позволяют добиваться лучшего качества.
С момента выхода Kandinsky 2.1 (4 апреля 2023 года) прошло чуть больше трёх месяцев, и вот сегодня мы анонсируем новую версию модели в линейке 2.X. И если архитектурно модель не претерпела кардинальных изменений, то в части расширения функционала получила существенное развитие. В первую очередь, мы сделали упор на повышение качества генераций и их разрешении, а также новых возможностях синтеза изображений.
Читать далее https://habr.com/ru/companies/sberbank/articles/747446/
2023 год можно смело называть годом бурного развития генеративного искусственного интеллекта. Это касается не только привычной нам модальности изображений (Kandinsky 2.1, Stable Diffusion XL, IF, Шедеврум и др.), но и текстовой (ChatGPT, LLaMA, Falcon и др.), и даже модальности видео (GEN-2, CogVideo и др.). При этом ни в одном из направлений выделить объективного лидера почти невозможно — все команды стараются равномерно двигаться вперёд и повышать качество синтеза. Текстовые чат‑боты научились взаимодействовать с внешними системами посредством плагинов, синтез изображений вышел на уровень фотореалистичных генераций, длина генерируемых видео постепенно увеличивается с сохранением сюжетной связности между кадрами. И такой прогресс обусловлен уже не только наращиванием вычислительных мощностей, но и большим числом неординарных архитектурных решений, которые позволяют добиваться лучшего качества.
С момента выхода Kandinsky 2.1 (4 апреля 2023 года) прошло чуть больше трёх месяцев, и вот сегодня мы анонсируем новую версию модели в линейке 2.X. И если архитектурно модель не претерпела кардинальных изменений, то в части расширения функционала получила существенное развитие. В первую очередь, мы сделали упор на повышение качества генераций и их разрешении, а также новых возможностях синтеза изображений.
Читать далее https://habr.com/ru/companies/sberbank/articles/747446/
Хабр
Kandinsky 2.2 — новый шаг в направлении фотореализма
«Кот-астронавт ныряет в море, полное милых рыб, элегантный, высокая детализация, плавный, резкий фокус, красивый, полное тело, кинематографический, 8k» by Kandinsky 2.2 2023 год можно смело...
LangChain + Streamlit🔥+ Llama 🦙: перенос диалогового ИИ на ваш локальный компьютер 🤯
Интеграция LLM с открытым исходным кодом и LangChain для бесплатных генеративных ответов на вопросы (ключ API не требуется)
https://ai.plainenglish.io/%EF%B8%8F-langchain-streamlit-llama-bringing-conversational-ai-to-your-local-machine-a1736252b172
Интеграция LLM с открытым исходным кодом и LangChain для бесплатных генеративных ответов на вопросы (ключ API не требуется)
https://ai.plainenglish.io/%EF%B8%8F-langchain-streamlit-llama-bringing-conversational-ai-to-your-local-machine-a1736252b172
Medium
🦜️ LangChain + Streamlit🔥+ Llama 🦙: Bringing Conversational AI to Your Local Machine 🤯
Integrating Open Source LLMs and LangChain for Free Generative Question Answering (No API Key required)
Библиотека графиков с открытым исходным кодом для статистических данных
Lets-Plot — это библиотека для построения статистических данных на Python. https://lets-plot.org/
Lets-Plot — это библиотека для построения статистических данных на Python. https://lets-plot.org/
Это отличное руководство по настройке среды разработки Python с помощью VScode и Docker. Он начинается с раздела, в котором объясняются преимущества каждого инструмента и то, как они хорошо работают вместе. Оттуда это простое пошаговое руководство по настройке всего.
https://github.com/RamiKrispin/vscode-python?utm_campaign
https://github.com/RamiKrispin/vscode-python?utm_campaign
GitHub
GitHub - RamiKrispin/vscode-python: A Tutorial for Setting Python Development Environment with VScode and Docker
A Tutorial for Setting Python Development Environment with VScode and Docker - RamiKrispin/vscode-python
Llama 2: с открытым исходным кодом, бесплатно для исследований и коммерческого использования.
Мы раскрываем мощь этих больших языковых моделей. Наша последняя версия Llama — Llama 2 — теперь доступна для отдельных лиц, создателей, исследователей и компаний, чтобы они могли экспериментировать, внедрять инновации и масштабировать свои идеи ответственно. https://ai.meta.com/resources/models-and-libraries/llama/
Мы раскрываем мощь этих больших языковых моделей. Наша последняя версия Llama — Llama 2 — теперь доступна для отдельных лиц, создателей, исследователей и компаний, чтобы они могли экспериментировать, внедрять инновации и масштабировать свои идеи ответственно. https://ai.meta.com/resources/models-and-libraries/llama/
Meta Llama
Meta Llama 2
Llama 2 was pretrained on publicly available online data sources. The fine-tuned model, Llama Chat, leverages publicly available instruction datasets and over 1 million human annotations.