🚀 Devika - Agentic AI Software Engineer 👩💻
Devika — бесплатная альтернатива для Devin, автономной нейронки-программиста
Нейросеть может всё то же самое что Devine. Проект поддерживает Claude 3, GPT-4, GPT-3.5, и локальные LLMы, запускающиеся через Ollama.
▪ Github
@machinelearning_ru
Devika — бесплатная альтернатива для Devin, автономной нейронки-программиста
Нейросеть может всё то же самое что Devine. Проект поддерживает Claude 3, GPT-4, GPT-3.5, и локальные LLMы, запускающиеся через Ollama.
▪ Github
@machinelearning_ru
👍5🔥3❤2
⚡️ JailbreakBench: Открытый тест надежности для джейлбрейка больших языковых моделей
Представляет собой тест с таблицей лидеров, набор данных для джейлбрейка и промптов SotA.
proj: https://jailbreakbench.github.io
репозиторий: https://github.com/JailbreakBench/jailbreakbench
@machinelearning_ru
Представляет собой тест с таблицей лидеров, набор данных для джейлбрейка и промптов SotA.
proj: https://jailbreakbench.github.io
репозиторий: https://github.com/JailbreakBench/jailbreakbench
@machinelearning_ru
👍4🔥3❤2
Command R Plus ⚡
> Превосходит claude-3, mistral-large, gpt-4 turbo.
> 104 миллиарда параметров.
> Создан с использованием многоступенчатых инструментов и RAG.
> Поддерживает 10 языков.
> Длина контекста 128 Кб.
> Обучен основательным функциям генерации - цитаты и ответы на основе контекста.
> Оптимизирован для генерации и переписывания кода
> Доступен как в 4-разрядных, так и в 8-разрядных версиях.
> Доступен непосредственно в Transformers, чтобы с ним можно было поиграть. 🤗
https://huggingface.co/CohereForAI/c4ai-command-r-plus
@machinelearning_ru
> Превосходит claude-3, mistral-large, gpt-4 turbo.
> 104 миллиарда параметров.
> Создан с использованием многоступенчатых инструментов и RAG.
> Поддерживает 10 языков.
> Длина контекста 128 Кб.
> Обучен основательным функциям генерации - цитаты и ответы на основе контекста.
> Оптимизирован для генерации и переписывания кода
> Доступен как в 4-разрядных, так и в 8-разрядных версиях.
> Доступен непосредственно в Transformers, чтобы с ним можно было поиграть. 🤗
https://huggingface.co/CohereForAI/c4ai-command-r-plus
@machinelearning_ru
👍7❤5🔥2
Apple 3B LLM от Apple превосходит GPT-4 🤯
📌 ReALM значительно улучшает способность разговорных помощников, таких как Siri или Alexa, понимать естественную речь людей. Представьте, что вы просматриваете список ресторанов на своем смартфоне и говорите: "направьте меня к ресторану на улице Ленина" - ReALM сможет понять, о каком ресторане вы говорите, даже если вы не указали точное название.
📌 Это достигается за счет грамотного преобразования визуального оформления того, что находится на вашем экране, в текстовый формат, который может использовать мощная модель искусственного интеллекта, понимающая язык. Это позволяет ReALM понимать неоднозначные вопросы (например, "это", "тот самый", "второй элемент") аналогично тому, как люди интуитивно понимают контекст.
📌 ReALM превзошел предыдущие подходы к решению этой задачи и почти соответствовал модели GPT-4, будучи при этом намного более эффективным, что делает его практичным для использования на смартфонах.
📌 Таким образом, теперь помощники с искусственным интеллектом могут общаться более непринужденно, например, "забронировать столик в итальянском ресторане, который я только что осмотрел", без необходимости утомительно объяснять все по буквам.
https://arxiv.org/abs/2403.20329
@machinelearning_ru
📌 ReALM значительно улучшает способность разговорных помощников, таких как Siri или Alexa, понимать естественную речь людей. Представьте, что вы просматриваете список ресторанов на своем смартфоне и говорите: "направьте меня к ресторану на улице Ленина" - ReALM сможет понять, о каком ресторане вы говорите, даже если вы не указали точное название.
📌 Это достигается за счет грамотного преобразования визуального оформления того, что находится на вашем экране, в текстовый формат, который может использовать мощная модель искусственного интеллекта, понимающая язык. Это позволяет ReALM понимать неоднозначные вопросы (например, "это", "тот самый", "второй элемент") аналогично тому, как люди интуитивно понимают контекст.
📌 ReALM превзошел предыдущие подходы к решению этой задачи и почти соответствовал модели GPT-4, будучи при этом намного более эффективным, что делает его практичным для использования на смартфонах.
📌 Таким образом, теперь помощники с искусственным интеллектом могут общаться более непринужденно, например, "забронировать столик в итальянском ресторане, который я только что осмотрел", без необходимости утомительно объяснять все по буквам.
https://arxiv.org/abs/2403.20329
@machinelearning_ru
👍13❤1
Blender 4.1 - An Amazing Tool…For Free!
https://www.youtube.com/watch?v=_2bzwNyIjkY
@machinelearning_ru
https://www.youtube.com/watch?v=_2bzwNyIjkY
@machinelearning_ru
YouTube
Blender 4.1 - Create Virtual Worlds…For Free!
❤️ Check out Weights & Biases and sign up for a free demo here: https://wandb.me/papers
Get Blender: https://www.blender.org/
Demo files: https://www.blender.org/download/demo-files/
Blend Swap: https://www.blendswap.com/
Andrew Price's donut tutorial:…
Get Blender: https://www.blender.org/
Demo files: https://www.blender.org/download/demo-files/
Blend Swap: https://www.blendswap.com/
Andrew Price's donut tutorial:…
🔥6❤3👍2
⚡️ The RealHumanEval: Оценка возможностей больших языковых моделей для поддержки программистов
Новый веб-интерфейс для оценки способности Lms помогать программистам с помощью автозаполнения или поддержки в чате ▪репозиторий: https://github.com/clinicalml/realhumaneval
▪abs: https://arxiv.org/abs/2404.02806
@machinelearning_ru
Новый веб-интерфейс для оценки способности Lms помогать программистам с помощью автозаполнения или поддержки в чате ▪репозиторий: https://github.com/clinicalml/realhumaneval
▪abs: https://arxiv.org/abs/2404.02806
@machinelearning_ru
GitHub
GitHub - clinicalml/realhumaneval
Contribute to clinicalml/realhumaneval development by creating an account on GitHub.
👍7❤2🔥2
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤2
18 апреля, 18:00
MLечный путь 2024
Коллеги из @Selectel проводят свой ежегодный митап MLOps и ML-инженеров, на котором обсуждаю инфраструктуру для ML, разбирают сложности, тренды и инструменты построения production ML-систем.
В этом году особое внимание будет уделено актуальному тренду — LLM. Будут доклады про тренды развития генеративного ИИ, перспективы Feast в качестве Feature store, оптимизацию моделей, обеспечение безопасности LLM и сокращение расходов на их инференс. На митапе выступят эксперты из Selectel, СберМаркета, Dstack, Axenix, MIL Team, Raft AI.
Всех участников оффлайн-митапа в Санкт-Петербурге будет ждать неформальное общение со спикерами и экспертами, стенды с GPU-картами, розыгрыш мерча, знакомства и пицца после окончания докладов. Для тех, кто не сможет присоединиться оффлайн, коллеги подготовили онлайн-трансляцию.
Выбирайте подходящий формат участия и регистрируйтесь на мероприятие: https://slc.tl/fz2ym
Реклама ООО «Селектел» erid 2VtzqxQeAu4
MLечный путь 2024
Коллеги из @Selectel проводят свой ежегодный митап MLOps и ML-инженеров, на котором обсуждаю инфраструктуру для ML, разбирают сложности, тренды и инструменты построения production ML-систем.
В этом году особое внимание будет уделено актуальному тренду — LLM. Будут доклады про тренды развития генеративного ИИ, перспективы Feast в качестве Feature store, оптимизацию моделей, обеспечение безопасности LLM и сокращение расходов на их инференс. На митапе выступят эксперты из Selectel, СберМаркета, Dstack, Axenix, MIL Team, Raft AI.
Всех участников оффлайн-митапа в Санкт-Петербурге будет ждать неформальное общение со спикерами и экспертами, стенды с GPU-картами, розыгрыш мерча, знакомства и пицца после окончания докладов. Для тех, кто не сможет присоединиться оффлайн, коллеги подготовили онлайн-трансляцию.
Выбирайте подходящий формат участия и регистрируйтесь на мероприятие: https://slc.tl/fz2ym
Реклама ООО «Селектел» erid 2VtzqxQeAu4
❤1👍1
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥2👎1
Gemma от DeepMind теперь умеет генерировал качественный код! 🤯 🔔
Code Gemm - набор моделей с открытым кодом. Code Gemma доступен в двух разных размерах 2B и 7B.
🧮 2B и 7B с контекстом 8192 тыс.
🛫 инициализирован из базы Gemma
🔠 Обучен на 500 тыс. токенах (веб, код и математика)
🛠 Отлаженный инструктаж с помощью SFT и RLHF
✅ 2B достигает 27% при оценке пользователем, а 7B - 52%%
✅ Разрешено коммерческое использование
✅ Оптимизировано для генерации кода на любомустройстве
✅ Доступно на huggingface
• Blog: https://hf.co/blog/codegemma
• Models: https://huggingface.co/models?library=transformers&sort=trending&search=google%2Fcodegemma
• Report: https://goo.gle/codegemma
• Google Blog: https://developers.googleblog.com/2024/04/gemma-family-expands.html
@machinelearning_ru
Code Gemm - набор моделей с открытым кодом. Code Gemma доступен в двух разных размерах 2B и 7B.
🧮 2B и 7B с контекстом 8192 тыс.
🛫 инициализирован из базы Gemma
🔠 Обучен на 500 тыс. токенах (веб, код и математика)
🛠 Отлаженный инструктаж с помощью SFT и RLHF
✅ 2B достигает 27% при оценке пользователем, а 7B - 52%%
✅ Разрешено коммерческое использование
✅ Оптимизировано для генерации кода на любомустройстве
✅ Доступно на huggingface
• Blog: https://hf.co/blog/codegemma
• Models: https://huggingface.co/models?library=transformers&sort=trending&search=google%2Fcodegemma
• Report: https://goo.gle/codegemma
• Google Blog: https://developers.googleblog.com/2024/04/gemma-family-expands.html
@machinelearning_ru
👍10🔥3❤1
18 апреля, 18:00
MLечный путь 2024
Коллеги из @Selectel проводят свой ежегодный митап MLOps и ML-инженеров, на котором обсуждаю инфраструктуру для ML, разбирают сложности, тренды и инструменты построения production ML-систем.
В этом году особое внимание будет уделено актуальному тренду — LLM. Будут доклады про тренды развития генеративного ИИ, перспективы Feast в качестве Feature store, оптимизацию моделей, обеспечение безопасности LLM и сокращение расходов на их инференс. На митапе выступят эксперты из Selectel, СберМаркета, Dstack, Axenix, MIL Team, Raft AI.
Всех участников оффлайн-митапа в Санкт-Петербурге будет ждать неформальное общение со спикерами и экспертами, стенды с GPU-картами, розыгрыш мерча, знакомства и пицца после окончания докладов. Для тех, кто не сможет присоединиться оффлайн, коллеги подготовили онлайн-трансляцию.
Выбирайте подходящий формат участия и регистрируйтесь на мероприятие: https://slc.tl/fz2ym
Реклама ООО «Селектел» erid 2VtzqxQeAu4
MLечный путь 2024
Коллеги из @Selectel проводят свой ежегодный митап MLOps и ML-инженеров, на котором обсуждаю инфраструктуру для ML, разбирают сложности, тренды и инструменты построения production ML-систем.
В этом году особое внимание будет уделено актуальному тренду — LLM. Будут доклады про тренды развития генеративного ИИ, перспективы Feast в качестве Feature store, оптимизацию моделей, обеспечение безопасности LLM и сокращение расходов на их инференс. На митапе выступят эксперты из Selectel, СберМаркета, Dstack, Axenix, MIL Team, Raft AI.
Всех участников оффлайн-митапа в Санкт-Петербурге будет ждать неформальное общение со спикерами и экспертами, стенды с GPU-картами, розыгрыш мерча, знакомства и пицца после окончания докладов. Для тех, кто не сможет присоединиться оффлайн, коллеги подготовили онлайн-трансляцию.
Выбирайте подходящий формат участия и регистрируйтесь на мероприятие: https://slc.tl/fz2ym
Реклама ООО «Селектел» erid 2VtzqxQeAu4
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
⭐️ DddCode released CVPR '24: "LEGaussians: Language Embedded 3D Gaussians for Open-Vocabulary Scene Understanding"
▪code: https://github.com/buaavrcg/LEGaussians
▪project: https://buaavrcg.github.io/LEGaussians/
@machinelearning_ru
▪code: https://github.com/buaavrcg/LEGaussians
▪project: https://buaavrcg.github.io/LEGaussians/
@machinelearning_ru
❤3👍3🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Генеративная модель Google Imagen 2 теперь может создавать короткие 4-секундные живые изображения в режиме реального времени с помощью промптов.
Доступен для использования в облачной платформе искусственного интеллекта Google Vertex. → https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-gemini-image-2-and-mlops-updates
#GoogleCloudNext в Google
@machinelearning_ru
Доступен для использования в облачной платформе искусственного интеллекта Google Vertex. → https://cloud.google.com/blog/products/ai-machine-learning/google-cloud-gemini-image-2-and-mlops-updates
#GoogleCloudNext в Google
@machinelearning_ru
👍8❤2🥰1
Новая версия API стала доступна в составе нового сервиса облачной платформы Yandex Foundation Models, который объединяет несколько моделей машинного обучения, включая YandexGPT для генерации текстов и эмбеддинги для задач семантического поиска. О том, как команда отбирала данные для обучения YandexART, добивалась повышения эффективности работы и замеряла качество генерации, рассказали в статье.
@machinelearning_ru
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥1
🎼 MuPT: Предварительно обученный генератор музыки
Предварительно обученные моделеи для генерации музыки, основанные на архитектуре Llama.
проект: https://map-mupt.github.io
abs: https://arxiv.org/abs/2404.06393
@machinelearning_ru
Предварительно обученные моделеи для генерации музыки, основанные на архитектуре Llama.
проект: https://map-mupt.github.io
abs: https://arxiv.org/abs/2404.06393
@machinelearning_ru
❤3👍1🔥1
Google представляет Leave No Context Behind: эффективные бесконечные преобразователи контекста с помощью Infini-attention
Модель 1B, которая была доработана до 5 тыс. последовательностей, решает проблему длины в 1 м
https://arxiv.org/abs/2404.07143
@machinelearning_ru
Модель 1B, которая была доработана до 5 тыс. последовательностей, решает проблему длины в 1 м
https://arxiv.org/abs/2404.07143
@machinelearning_ru
👍5🔥4❤3
NVIDIA’s New Tech: Master of Illusions!
https://www.youtube.com/watch?v=AW7WhX92eWk
@machinelearning_ru
https://www.youtube.com/watch?v=AW7WhX92eWk
@machinelearning_ru
YouTube
NVIDIA’s New Tech: Master of Illusions!
❤️ Check out Microsoft Azure AI and try it out for free:
https://azure.microsoft.com/en-us/solutions/ai
📝 The paper "ViCMA: Visual Control of Multibody Animations" is available here:
https://research.nvidia.com/labs/prl/vicma/
📝 The paper "Inverse-Foley…
https://azure.microsoft.com/en-us/solutions/ai
📝 The paper "ViCMA: Visual Control of Multibody Animations" is available here:
https://research.nvidia.com/labs/prl/vicma/
📝 The paper "Inverse-Foley…
👍5🔥4❤2
⭐️ Microsoft представили модель Rho-1: Not All Tokens Are What You Need
Главный тезис статьи - "не все токены одинаково важны для обучения языковой модели".
Microsoft выпустили новую языковую модель под названием Rho-1. В отличие от традиционных LMS, которые учатся предсказывать каждый следующий токен в корпусе, Rho-1 использует выборочное языковое моделирование (SLM), при котором используются только "полезные токены", соответствующим желаемому распределению.
Этот подход включает в себя оценку токенов предварительной подготовки с использованием эталонной модели, а затем обучение языковой модели с целенаправленными потерями на токенах с более высокими избыточными потерями.
При постоянном предварительном обучении на 15B OpenWebMath corpus Rho-1 обеспечивает абсолютное повышение точности до 30% при выполнении 9 математических заданий.
После файнтюнинга Rho-1-1B и 7B достигает SOTA результатов в 40,6% и 51,8% на датасете DeepSeekMath всего с 3% токенов предварительной подготовки.
Кроме того, при обучении с использованием 80B Rho-1 достигает среднего улучшения на 6,8% при выполнении 15 различных заданий.
Github: https://github.com/microsoft/rho
Paper: https://arxiv.org/abs/2404.07965
@machinelearning_ru
Главный тезис статьи - "не все токены одинаково важны для обучения языковой модели".
Microsoft выпустили новую языковую модель под названием Rho-1. В отличие от традиционных LMS, которые учатся предсказывать каждый следующий токен в корпусе, Rho-1 использует выборочное языковое моделирование (SLM), при котором используются только "полезные токены", соответствующим желаемому распределению.
Этот подход включает в себя оценку токенов предварительной подготовки с использованием эталонной модели, а затем обучение языковой модели с целенаправленными потерями на токенах с более высокими избыточными потерями.
При постоянном предварительном обучении на 15B OpenWebMath corpus Rho-1 обеспечивает абсолютное повышение точности до 30% при выполнении 9 математических заданий.
После файнтюнинга Rho-1-1B и 7B достигает SOTA результатов в 40,6% и 51,8% на датасете DeepSeekMath всего с 3% токенов предварительной подготовки.
Кроме того, при обучении с использованием 80B Rho-1 достигает среднего улучшения на 6,8% при выполнении 15 различных заданий.
Github: https://github.com/microsoft/rho
Paper: https://arxiv.org/abs/2404.07965
@machinelearning_ru
👍6🔥4❤3😱2
🔥 Курс Геопространственный анализ данных (бета-версия)
Первый открытый русскоязычный курс по геоаналитике. Материалы курса будут полезны специалистам в области Data Scientist, поскольку позволят решать геопространственные задачи, а также проводить исследования в области Geospatial Data Science.
https://ods.ai/tracks/geoanalytics-course-spring24
@machinelearning_ru
Первый открытый русскоязычный курс по геоаналитике. Материалы курса будут полезны специалистам в области Data Scientist, поскольку позволят решать геопространственные задачи, а также проводить исследования в области Geospatial Data Science.
https://ods.ai/tracks/geoanalytics-course-spring24
@machinelearning_ru
👍8🔥4❤1