Data Science | Machinelearning [ru] – Telegram
Data Science | Machinelearning [ru]
20.1K subscribers
629 photos
39 videos
29 files
3.52K links
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.

По вопросам рекламы или разработки - @g_abashkin

РКН: https://vk.cc/cJPGXD
Download Telegram
​​👾Почему нейросети становятся угрозой для природы и что с этим сделать

В этой статье мы расскажем, как это влияет на работу и развитие дата-центров, и какие меры можно предпринять для увеличения энергоэффективности.

Читать...
​​🗣InkubaLM: A small language model for low-resource African languages

​​InkubaLM, небольшая языковая модель с 0,4 миллиарда параметров, которая достигает производительности, сопоставимой с моделями со значительно большим количеством параметров и более обширными данными обучения для таких задач, как машинный перевод, вопросы и ответы, AfriMMLU и задача AfriXnli.

В частности, InkubaLM превосходит многие более крупные модели в анализе настроений и демонстрирует замечательную согласованность на нескольких языках.

Эта работа представляет собой решающий шаг в оспаривании общепринятой парадигмы, согласно которой эффективные языковые модели должны полагаться на значительные ресурсы.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​🤖Контролируемое и неконтролируемое машинное обучение — в чём разница?

В этой статье объясняются эти оба метода и различия между ними.

Читать...
​​😎Mini-Omni: Language Models Can Hear, Talk While Thinking in Streaming

Сквозная разговорная модель на основе аудио, способная к речевому взаимодействию в реальном времени.

Метод также помогает сохранить языковые возможности исходной модели с минимальным ухудшением, что позволяет другим работам устанавливать возможности взаимодействия в реальном времени.

Mini-Omni — это первая полностью сквозная модель с открытым исходным кодом для речевого взаимодействия в реальном времени, предлагающая ценный потенциал для будущих исследований.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​📊Агрегация данных для аналитики продаж с помощью DataSphere Jobs и Airflow SDK

В этой статье покажем, как мы ускорили построение пайплайнов обработки данных с помощью связки DataSphere Jobs и Apache Airflow.

Читать...
📹Новая версия YandexART (Vi) — как она устроена?

В статье на Хабре Яндекс рассказывает о процессе обучения нейросети, которая при генерации видео учитывает связь между кадрами и воссоздаёт реалистичные движения объектов.

Читать...
​​🤔«А можно быстрее?»: разбираем методы ускорения обучения нейронных сетей

В этой статье рассмотрим различные теоретические аспекты от аппаратного ускорения до правильной организации самого обучения.

Читать...
1
​​😎Как наука о данных трансформирует здравоохранение

В этой статье рассматривается роль Data Science в медицинской сфере, её основные применения, преимущества, проблемы, а также будущие тенденции.

Читать...
​​💽 Как мы построили модель прогнозирования выхода жестких дисков из строя

В этой статье я расскажу, что нам удалось сделать, что стало основой прототипа нашей прогнозной модели и какие результаты она показала в применении для дисков в серверах YADRO.

Читать...
​​😎CDM: надежная метрика для справедливой и точной оценки распознавания формул

Character Detection Matching (CDM), обеспечивает объективность оценки путем разработки метрической оценки на уровне изображения, а не на уровне LaTex.

В частности, CDM преобразует как предсказанные моделью формулы LaTeX, так и наземные формулы LaTeX в формулы, отформатированные в виде изображения, затем использует визуальные методы извлечения признаков и локализации для точного сопоставления на уровне символов, включая информацию о пространственном положении.

Такой пространственно-ориентированный и сопоставленный с символами метод предлагает более точную и справедливую оценку по сравнению с предыдущими метриками BLEU и Edit Distance, которые полагаются исключительно на сопоставление символов на основе текста.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
​​👤Что такое Retrieval-Augmented Generation (RAG) в языковых моделях и как оно работает?

В этой статье попробуем в общих чертах разобраться, как работает RAG, и где он может быть применим на практических задачах.

Читать...
​​👍SolriXML: Лучи света в темном лесу XML-данных

В этой статье я расскажу, как SolriXML автоматизирует обработку XML-файлов, трансформируя сложные структуры данных в удобные для использования форматы.

Читать...
​​🫥Как найти иголку в стоге сена? Или обзор Retrieval Algorithms

В этой статье мы рассмотрим информацию о всех наиболее известных и применяемых алгоритмах поиска, с описаниями и материалами для более глубокого изучения.

Читать...
Forwarded from Data Secrets
Розыгрыш Machine Learning футболок

В честь запуска сайта с ML-вакансиями команда Data Secrets запускает розыгрыш 10 футболок для истинных любителей глубокого обучения.

Это лимитированная линейка нашего бренда. Каждая футболка – целый альманах, на котором любой найдет любимую архитектуру. Гарантирует +100 очков к прохождению собеса или экзамена

Для участия нужно всего лишь быть подписанным на два наших канала: @data_secrets и @data_secrets_career, – и нажать кнопку "Участвовать" под этим постом.

Итоги подведем 18 сентября в 18:00. Желаем удачи!
​​🤔Как давать нейросети задания, чтобы она вас понимала

В этой статье поговорим о том, как взаимодействовать с искусственным интеллектом, чтобы он выдавал качественный результат.

Читать...
​​🤓OneGen: эффективная однопроходная унифицированная генерация и извлечение для LLM

Структура объединяет традиционно раздельные подходы к обучению для генерации и поиска, включая токены поиска, сгенерированные авторегрессионно.

Это позволяет одному LLM обрабатывать обе задачи одновременно в едином прямом проходе.

Мы проводим эксперименты с двумя различными типами составных задач, RAG и связыванием сущностей, чтобы проверить подключаемость, эффективность и результативность OneGen в обучении и выводе.

Кроме того, наши результаты показывают, что интеграция генерации и поиска в одном контексте сохраняет генеративные возможности LLM, одновременно улучшая производительность поиска.

🤗 Hugging Face
💾 Arxiv
📂 PDF

@DevspПодписаться
МТС Web Services представила новое направление на форуме Kazan Digital Week — ИИ-облако.

Оно поможет компаниям ускорить внедрение искусственного интеллекта без инвестиций в собственное оборудование. В его основе находится инфраструктура с графическими ускорителями для обучения и работы с ИИ.

На основе GPU компании смогут самостоятельно развернуть необходимое для работы с ИИ программное обеспечение, либо использовать «из коробки» уже готовые решения, доступные в ИИ-облаке. Например, ML-платформу – специализированное ПО, позволяющее автоматизировать процесс обучения моделей искусственного интеллекта, а также упрощающее их внедрение в бизнес-процессы компаний и последующую работу с ними.

Также в рамках ИИ-облака будут доступны готовые к работе «из коробки» сервисы MTS AI. Такие как Cotype – большая языковая модель, созданная для работы с корпоративными данными, Audiogram - платформа синтеза и распознавания речи на основе нейронных сетей с возможностью управления интонацией, ударениями и другими параметрами и сервис речевой аналитики WordPulse.