Machinelearning – Telegram
383K subscribers
4.44K photos
855 videos
17 files
4.88K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🌟 Claude 3 Opus сбросила GPT-4 с первого места в рейтинге языковых моделей

Большая языковая модель (LLM) Claude 3 Opus от Anthropic впервые превзошла GPT-4 (модель в основе ChatGPT) от OpenAI на Chatbot Arena — популярной площадке, где пользователи оценивают качество работы чат-ботов. «Король мёртв», — написал в социальной сети X разработчик ПО Ник Добос.

Зашедшим на сайт пользователям Chatbot Arena предлагается ввести запрос, после чего демонстрируются два результата от неуказанных языковых моделей — человек должен выбрать, какой результат нравится больше. Проведя тысячи сравнений, Chatbot Arena заполняет обновляемую рейтинговую таблицу. Сайт управляется исследовательской организацией Large Model Systems Organization (LMSYS ORG), занимающейся открытыми ИИ-моделями.

«Впервые на вершине рейтинга ИИ-модели не от OpenAI: Opus для сложных задач, Haiku — для вариантов, когда нужно дёшево и быстро. Это обнадёживает — от конкуренции разработчиков все только выиграют. Тем не менее, GPT-4 уже больше года, и конкуренты догнали её только сейчас», — прокомментировал событие независимый исследователь ИИ Саймон Уиллисон (Simon Willison).

@machinelearning_interview
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31👍123😁3
📌Аппаратные требования больших языковых моделей ИИ сокращаются вдвое каждые восемь месяцев

Большие языковые модели, лежащие в основе чат-ботов с искусственным интеллектом, развиваются настолько быстро, что всего за восемь месяцев необходимые им для работы аппаратные ресурсы сокращаются вдвое — сами чипы демонстрируют намного более скромный прогресс.

Существуют два способа повысить производительность систем ИИ, обращает внимание исследователь из Массачусетского технологического института Тамай Бесироглу (Tamay Besiroglu): увеличить размеры больших языковых моделей, что потребует соразмерного увеличения вычислительной мощности, хотя оборудование для ИИ сегодня находится в дефиците; или оптимизировать базовые алгоритмы, чтобы более эффективно применять существующее оборудование. Похоже, нынешние разработчики больших языковых моделей предпочли второй подход.

Учёные проанализировали показатели производительности 231 большой языковой модели, разработанных в период с 2012 по 2023, и обнаружили, что вычислительная мощность, необходимая для их работы, сокращалась в среднем вдвое каждые восемь месяцев. Это значительно быстрее, чем предполагает эмпирический закон Мура, согласно которому число транзисторов на кристалле (мера его производительности) удваивается каждые 18–24 месяца. Исследователи отмечают, что такой рост производительности систем ИИ отчасти связан с оптимизацией кода, хотя точно определить это не получается, потому что алгоритмы ИИ часто не поддаются анализу. Свою роль, конечно, сыграло и развитие аппаратных компонентов

Разница в темпах развития является показателем того, насколько эффективно разработчики больших языковых моделей используют доступные им ресурсы. Бесконечно оптимизировать алгоритмы не получится, считает Бесироглу, и нет ясности, сохранится ли такой темп развития в долгосрочной перспективе. Существуют и опасения, что повышение эффективности моделей может, напротив, увеличить потребление энергии отраслью ИИ, поэтому нельзя заниматься только одним аспектом.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍145🔥5
🔥 Microsoft разработала систему для выявления галлюцинаций в ИИ-приложениях клиентов

Директор по продуктам Microsoft по ответственному ИИ Сара Бёрд рассказала, что её команда разработала несколько новых функций безопасности для клиентов Azure, которые позволят выявлять галлюцинации в работе служб искусственного интеллекта.

Эти инструменты на базе больших языковых моделей могут обнаруживать потенциальные уязвимости, отслеживать галлюцинации, «которые правдоподобны, но не поддерживаются», и блокировать вредоносные запросы в режиме реального времени для клиентов Azure AI, работающих с любой моделью, размещённой на платформе.

Одна из функций будет блокировать вредоносные подсказки из внешних документов, которые провоцируют модели отойти от инструкций. Другая будет оценивать безопасность, в том числе уязвимости модели.

Скоро появятся две другие функции, позволяющие направлять модели к безопасным выводам и отслеживать подсказки для выявления потенциально проблемных пользователей. Независимо от того, вводит ли пользователь подсказку или модель обрабатывает сторонние данные, система мониторинга оценит её, чтобы определить, содержит ли она какие-либо запрещённые слова. После этого система просматривает ответ модели и проверяет, не галлюцинировала ли она.

📎 Подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍187🔥3🤨3🤔2😐1
🔥 Для модели Voice Engine от OpenAI требуется всего лишь 15-секундный образец для клонирования голоса

Для модели Voice Engine от OpenAI требуется всего лишь 15-секундный образец для клонирования голоса

OpenAI предложила ограниченный доступ к платформе преобразования текста в голос Voice Engine, которой достаточно 15-секундного образца для клонирования голоса. Сгенерированный искусственным интеллектом голос способен по команде зачитывать текстовые подсказки на языке исходника или других языках.

Одними из первых доступ к Voice Engine получили компания в сфере образовательных технологий Age of Learning, платформа визуального повествования HeyGen, ведущий производитель программного обеспечения для здравоохранения Dimagi, разработчик коммуникационных приложений на базе ИИ Livox и система здравоохранения Lifespan.

В OpenAI поделились, что разработка Voice Engine стартовала в конце 2022 года. Технология уже поддерживает предустановленные голоса для API преобразования текста в речь и функции чтения вслух ChatGPT.

Член команды разработчиков Voice Engine Джефф Харрис рассказал, что модель обучили на «сочетании лицензированных и общедоступных данных». OpenAI уточнила, что модель будет доступна примерно 10 разработчикам.

Генерация текста в аудио при помощи ИИ — развивающаяся область. Большинство моделей генеративного ИИ сосредоточены на инструментальных или естественных звуках. Компании Podcastle и ElevenLabs представили свои технологии клонирования голоса, использующие нейросети.

Одновременно с этим правительство США стремится ограничить неэтичное использование голосовых технологий ИИ. В прошлом месяц Федеральная комиссия по связи США запретила звонки с использованием сгенерированных ИИ голосов, поскольку ранее несколько абонентов получили спам-звонки с клонированным голосом американского президента Джо Байдена.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍175🌚4🔥3🤔2
🌟 NVIDIA анонсировала ИИ-медсестёр для помощи в больницах

Производитель видеочипов объявил о сотрудничестве с Hippocratic AI, специализирующейся на разработках искусственного интеллекта. Компания презентовала виртуальных медсестёр для снижения нагрузки на медицинских работников в здравоохранительной сфере.

По словам компании-партнёра Hippocratic AI, языковые модели — единственный масштабируемый способ, позволяющий устранить разрыв между спросом пациентов и возможностями больниц, столкнувшихся с дефицитом кадров. Новые роботы-медсёстры обходятся медицинским учреждениям всего в 9 долларов в час — это ниже, чем минимальная почасовая оплата труда в США и ниже средней почасовой оплаты труда дипломированных медсестёр.

В новом ролике NVIDIA показала возможный разговор между пациентом и искусственным интеллектом после операции. Виртуальный медработник даёт советы по реабилитационному периоду и отвечает на вопросы о том, безопасны ли определённые антибиотики в лечении.

Hippocratic AI привлекла инвестиции в размере 53 миллионов долларов от General Catalyst и Premji Invest. Общий бюджет проекта оценивается в 500 миллионов долларов. Разработка может решить проблему растущей нехватки кадров в медицинской сфере.

📎 Youtube

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍225🔥3😨1
▶️Учёные создали пластырь, восстанавливающий речь при помощи ML

Биоинженеры Калифорнийского университета в Лос-Анджелесе разработали клейкий пластырь на шею для людей с ограниченными возможностями. Открытие поможет пациентам с нарушениями голоса, а также людям с диагностированным раком гортани.

Авторы исследования создали тонкое и эластичное устройство в виде пластыря размером 30х30 мм. Для работы оно крепится на кожу рядом с горлом, чтобы дать людям возможность говорить при проблемах с голосовыми связками и диагностированными заболеваниями.

Система фиксирует движения мышц гортани и переводит эти сигналы в слышимую речь с использованием машинного обучения. Технология считывает работу мышц с точностью до 95%. Гаджет весит семь граммов, а его толщина составляет всего 1,5 мм. Пластырь крепится к горлу на двустороннюю биосовместимую ленту.

Разработку можно использовать повторно. При масштабировании технология поможет восстановить голос пациентам с дисфункциональными голосовыми связками.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥70👍158🏆3❤‍🔥1😁1
Обновление платформы YTsaurus

В новой версии YTsaurus Server 23.2.0 оптимизировали подсистему обработки данных, добавили OAuth‑аутентификацию и расширили возможности языка запросов динамических таблиц. Плюсом — еще несколько обновлений других частей платформы.

Подробности — в блоге.

@ai_machinelearning_big_data
👍6🔥43😁2
This media is not supported in your browser
VIEW IN TELEGRAM
👱 Arc2Face: A Foundation Model of Human Faces

TL; DR: крупный датасет изображений лиц в высоком разрешении, а также обученная на его основе модель генерации лиц , которая:

способна создавать фотореалистичные генерации за несколько секунд
обеспечивает полное сходство генераций с целевым изображением по сравнению с другими существующими моделями
построена на основе Stable Diffusion и может быть настроена для любых вариантов генераций, например, различных поз / выражений лица и тд.

Github: https://github.com/foivospar/Arc2Face
Project: https://arc2face.github.io
Demo: https://huggingface.co/spaces/FoivosPar/Arc2Face
Paper: https://arxiv.org/abs/2403.11641

@ai_machinelearning_big_data
11👍10🔥6😐1
Факультет компьютерных наук НИУ ВШЭ расширяет сотрудничество с Яндексом для подготовки специалистов по ИИ и ML.

ФКН был основан ВШЭ совместно с Яндексом 10 лет назад. За время своего существования он стал одним из лидеров в подготовке разработчиков и специалистов по ИИ и ML, выпустив более 3 000 человек,

В следующие 10 лет Яндекс и ВШЭ:

- Увеличат количество выпускников факультета по программам Яндекса в 4 раза
- Откроют магистратуру по ИИ в маркетинге и продукте
- Создадут направления по генеративным технологиям на магистерской программе "Современные компьютерные науки"
- Запустят студенческий кемп по машинному обучению

Обратите внимание, если планируете стать студентом — ВШЭ занимает второе место среди российских университетов по количеству публикаций на конференциях A*.

Подробнее

@ai_machinelearning_big_data
👍33🔥9🤬4🥱32🥰1😁1🤓1🤝1
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 MagicLens: Self-Supervised Image Retrieval with Open-Ended Instructions

MagicLens: новое семейство моделей для поиска изображений от Google.

Они обучены на 36,7 млн высококачественных триплетов (исходное изображение, запрос, целевое изображение)с богатыми семантическими связями.

Самое интересное, что MagicLens превосходят предыдущую SOTA на 10 различных бенчмарках по поиску изображений, при этом сами модели в 50 раз меньше.

Project: https://open-vision-language.github.io/MagicLens/
Paper: https://arxiv.org/abs/2403.19651
HF: https://huggingface.co/papers/2403.19651

@ai_machinelearning_big_data
👍205🔥5❤‍🔥1
📌Huawei и метеобюро Шэньчжэня запустили ИИ-модель прогнозирования погоды с точностью до 3 км

Huawei совместно с метеобюро Шэньчжэня запустила региональную ИИ-модель прогнозирования погоды, чьи алгоритмы позволяют делать 5-дневные прогнозы с точностью до 3 км. В компании подчёркивают, что этот диапазон намного точнее, чем у типичных глобальных моделей, которые работают с периметром около 25 км. Модель способна давать широкий спектр прогнозов, включая температуру, осадки и скорость ветра.

Модель, получившая имя Zhiji, основана на предыдущей «погодной» модели Huawei Pangu, запущенной в 2023-м. В ходе пробного запуска, который состоялся в прошлом месяце, Zhiji показала высокую точность прогнозов. Тем не менее, команда планирует продолжать работу и повышать точность работы нейросети.

«Чрезвычайные погодные условия заметны всё чаще по всему миру. Системы прогнозирования погоды на основе ИИ уже продемонстрировали свои выдающиеся возможности, и их развитие позволит повысить готовность к стихийным бедствиям», — отмечает Уильям Донг, президент по маркетингу облачного подразделения Huawei.

По данным Всемирной метеорологической организации, в период с 1970 по 2021 год зафиксировано около 12 тыс. стихийных бедствий, в результате которых погибло более двух млн человек, а экономический ущерб составил $4,3 трлн. Раннее предупреждение о непогоде может спасти жизни и предотвратить экономические потери.

В Huawei отмечают, что в Южном Китае приближается сезон муссонов. Huawei Cloud и Метеорологическое бюро Шэньчжэня планируют использовать Zhiji в течение этого сезона и совершенствовать модель в зависимости от того, как она себя покажет.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2911🥰4❤‍🔥1
🌟 Nvidia исправила две опасные уязвимости в ChatRTX

Nvidia выпустила основанное на алгоритмах искусственного интеллекта приложение ChatRTX полтора месяца назад, но уже за такой непродолжительный срок была вынуждена исправить в нём две уязвимости — они предусматривали различные векторы атак, включая повышение привилегий и удалённое выполнение кода.

Программа ChatRTX, ранее носившая название Chat with RTX, дебютировала в феврале — она позволяет владельцам видеокарт Nvidia локально запускать чат-бот с ИИ. Для этого требуется видеокарта серий GeForce RTX 30 или 40 и не менее 8 Гбайт видеопамяти. Это, конечно, более скромное решение, чем чат-боты из облака, но возможность локального запуска компенсирует этот изъян.

В ранних версиях Nvidia ChatRTX до 0.2 присутствовали две уязвимости за номерами CVE-2024-0082 и CVE-2024-0083 с рейтингами соответственно 8,2 и 6,5 из 10. Первая позволяет осуществлять кражу и подмену данных и повышать привилегии пользователя; вторая — выполнять атаки типа «отказ в обслуживании» (DoS), похищать данные и производить удалённое выполнение кода.

В Nvidia уточнили, что реализовать подобные атаки возможно посредством запросов на открытие файлов и методом межсайтового скриптинга (XSS). Сведения о фактической компрометации каких-либо систем из-за этих уязвимостей отсутствуют. Чтобы избавиться от них, разработчик рекомендует обновить ChatRTX до версии 0.2, но несколько сбивает с толку его формулировка, что «последняя затронутая [уязвимостями] и обновлённая версия — 0.2». Возможно, лучше не просто обновить, но и переустановить приложение.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍116🔥3😁3🤓1
🌟 Amazon позволит стартапам бесплатно пользоваться ИИ-моделями Anthropic, Mistral AI и Cohere

Amazon Web Services (AWS), провайдер облачных вычислений, расширил программу бесплатных кредитов для стартапов, работающих в сфере искусственного интеллекта. Теперь она включает использование крупнейших ИИ-моделей, в том числе продуктов таких компаний, как Anthropic, Meta, Mistral AI и Cohere. Этот шаг стал частью стратегии AWS по усилению позиций своего сервиса Bedrock на рынке.

Говард Райт (Howard Wright), вице-президент и руководитель направления стартапов в Amazon Web Services на международном уровне, подчеркнул, что программа бесплатных кредитов является важным элементом стратегии компании по поддержке инновационного сектора. Amazon намерена стимулировать стартапы к выбору AWS в качестве платформы для реализации своих проектов, предоставляя не только вычислительные ресурсы, но и доступ к широкому спектру готовых технологических решений. По словам Райта, бесплатные кредиты Amazon будут способствовать росту доходов Anthropic — одной из самых популярных ИИ-моделей на платформе Bedrock.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
18👍8🔥2
🏎 Ускоряем инференс LLM

На Хабре вышла статья ML-разработчика из команды YandexGPT с разбором задачи ускорения инференса больших языковых моделей. Подробно описаны как популярные методы (дистилляция и квантизация), так и более специфичные Speculative Decoding и Continuous Batching.

Автор показал на примере, с какими сложностями сталкиваются команды при внедрении LLM-ок в реальные продукты.

Habr: https://habr.com/ru/companies/yandex/articles/801119/

@ai_machinelearning_big_data
👍193🥰2😁1🗿1