Machinelearning – Telegram
383K subscribers
4.45K photos
858 videos
17 files
4.89K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
🚀 PeRFlow: Piecewise Rectified Flow as Universal Plug-and-Play Accelerator

Фреймворк для ускорения предварительно обученных моделей диффузии, который значительно повышает их производительность.

Github
Project

ai_machinelearning_big_data
👍10🔥4😁43🍌1
This media is not supported in your browser
VIEW IN TELEGRAM
🏎 TripoSR: Fast 3D Object Reconstruction from a Single Image

Современная модель с открытым исходным кодом для быстрой 3D-реконструкции по одному изображению.

Модель создает высококачественные 3D-модели менее чем за 0,5 секунды на графическом процессоре NVIDIA A100.

page: https://tripo3d.ai
paper: https://drive.google.com/file/d/1LWlZPT2aASi9jHiGVhDSr4YCTANoFW5t/view
code: https://github.com/VAST-AI-Research/TripoSR

ai_machinelearning_big_data
🔥22👍93🤯3🥰1🍌1😡1
🙃 ИИ чат-боты «думают» на английском, даже когда говорят на других языках

Большие языковые модели (LLM), лежащие в основе чат-ботов, «думают» на английском языке, даже если вопросы задаются на других языках, пишет New Scientist со ссылкой на исследование учёных Федеральной политехнической школы Лозанны.

Чтобы понять, какой язык на самом деле используют LLM при обработке запросов, учёные изучили три версии модели Llama 2. Благодаря тому, что Llama 2 имеет открытый исходный код, исследователи смогли ознакомиться с каждым этапом обработки запроса.

Они открыли эти модели и изучили каждый из их слоёв. ИИ-модели состоят из нескольких слоёв, каждый из которых отвечает за определённый этап обработки запроса: один переводит подсказки в токены, другой контекстуализирует каждый токен и т.д.

Моделям были предложены 3 типа запросов на китайском, французском, немецком и русском языках. В одном случае предлагалось повторить заданное слово, во втором — перевести с одного неанглийского языка на другой, и в третьем — заполнить пробел в одно слово в предложении, например: «___ используется для занятий такими видами спорта, как футбол и баскетбол».

Отследив процессы внутри LLM, учёные обнаружили, что путь обработки через слои почти всегда проходит через то, что они называют английским подпространством. То есть, если предложить модели перевести с китайского на русский, русские символы проходят через английское подпространство, прежде чем вернуться на русский, говорит учёный, что является убедительным признаком того, что модели используют английский, чтобы помочь себе понять суть запроса.

Это вызвало у учёных обеспокоенность по поводу того, что использование английского языка в качестве посредника для обучения модели несёт с собой риск.

«Если английский станет основным языком, на котором системы обрабатывают запросы, мы, скорее всего, потеряем концепции и нюансы, которые можно оценить только на других языках», — говорит Карисса Велиз (Carissa Véliz) из Оксфордского университета.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍48🔥194😁4🥱4🍌3🤔1💊1
🔥 Вероятно, ожидается прорыв в AI — придуман новый способ умножения матриц

В основе AI лежит матричное исчисление, которое только что пережило самый большой подъем более чем за десятилетие. Почти одновременно вышли две статьи, в которых математики объяснили, как повысить эффективность перемножения матриц, с помощью чего AI сможет быстрее обучаться и быстрее решать задачи.

Суть в том, что до относительно недавнего времени человечество не представляло иного способа умножения матриц, чем выполнением n³ операций (n — размерность матриц). В идеальном же для математиков мире умножение матриц хотелось совершать за n² операций. И к началу 70-х годов процесс поиска соответствующего алгоритма пошёл. Нетрудно догадаться, что к этому побудило распространение вычислительных машин.

Заявленный в новых статьях прорыв, совершённый в 2023 году, произошёл в результате обнаружения скрытых потерь в «лазерном методе» Арнольда Шёнхаге. В ноябре 2023 года Ран Дуань и Ренфэй Чжоу из Университета Цинхуа представили метод, который устранил неэффективность лазерного метода, установив новую верхнюю границу числа необходимых операций примерно на уровне n^2.371866. Это самый существенный прогресс в этой области с 2010 года.
Но всего 2 месяца спустя Вирджиния Василевски, Инчжан Сюй и Цзысюань Сюй из МТИ опубликовали вторую статью, в которой подробно описали ещё одну оптимизацию, которая снизила верхнюю границу количества операций до n^2.371552.

Безусловно, точное влияние на скорость работы моделей AI зависит от конкретной архитектуры системы ИИ и от того, насколько сильно задачи конкретной модели зависят от умножения матриц. Поэтому повышение эффективности алгоритмов будут сочетать с оптимизацией оборудования, чтобы полностью реализовать потенциальный прирост скорости.
И по мере того, как улучшения в алгоритмических методах будут накапливаться с течением времени, искусственный интеллект будет становиться быстрее — это факт.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍69🔥187😁7🍌2❤‍🔥1
🌟 Код чат-бота Grok от выложат в open-source

Илон Маск пообещал, что ИИ-стартап xAI откроет исходный код чат-бота Grok на этой неделе.

Маск сделал это заявление через несколько суток после того, как подал в суд на OpenAI и пожаловался, что поддерживаемый Microsoft стартап отклонился от своих корней и не выложил в открытом доступе исходный код ChatGPT.

🔘Немного предыстории: в июле прошлого года Маск объявил о начале работы xAI. Главная цель проекта — «понять истинную природу Вселенной». Одним из продуктов xAI как раз является Grok.
4 ноября 2023 года xAI запустила своего чат-бота Grok с генеративным искусственным интеллектом для ограниченной аудитории. В компании планировали сделать языковую модель xAI доступной для всех платных подписчиков соцсети X.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33👏76🔥4🍌4
🔥 Код отладчика Transformer Debugger для работы с моделями от OpenAI опубликован на GitHub

OpenAI опубликовала код отладчика Transformer Debugger, предназначенного для работы с моделями машинного обучения. С его помощью проще понимать, почему языковые модели выводят определённые токены в ответ на запрос.

Transformer Debugger, как и любой отладчик для моделей машинного обучения поддерживает функции пошагового вывода, перехвата активностей и их трассировки. Разработчики компании отмечают, что утилита помогает понять, почему языковая модель уделяет внимание определённым токенами и почему выводит их в качестве ответа на запрос.

Выпуск включает в себя следующие компоненты:
Neuron viewer — React-приложение для вывода информации об отдельных компонентах модели, включая фокусы внимания и нейроны MLP.
Activation server — сервер, который взаимодействует с моделью и извлекает данные для вывода. Он же нужен для работы с общедоступными контейнерами Azure.
Models — простая библиотека выводов для моделей GPT-2.
Примеры наборов данных для нейронов MLP и фокусов внимания.

🖥 Код Transformer Debugger написан на Python и доступен на GitHub. Вместе с этим разработчики OpenAI поделились подробными инструкциями и документацией.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍28🔥73🍌1🫡1
🔥 Convolutional Reconstruction Model

Модель для сверхбыстрого преобразования изображений в 3D, с помощью модели сверточной реконструкции.

Github
Page
Paper

@ai_machinelearning_big_data
🔥22👍62🍌1
🚀 Pix2Gif: Motion-Guided Diffusion for GIF Generation

Microsoft опубликовала модель преобразования изображений в GIF под названием Pix2Gif!

Они утверждают, что модель лучше всех понимает и генерирует движения, хотя мы не говорим об уровне Sora, это, безусловно, шаг вперед по сравнению с результатами замедленной съемки, к которым мы привыкли.

Github
Page
Paper
Demo

@ai_machinelearning_big_data
👍17🔥84🍌1
🔥 SHMT — гетерогенная многопоточность для ускорения компьютеров

Инженеры из Калифорнийского университета тестируют способ, который может значительно ускорить работу компьютерных систем без необходимости улучшать оборудование. Проект поможет также снизить энергопотребление.

Метод исследования основан на процессе одновременной и гетерогенной многопоточности (SHMT). Он задействует различные типы процессоров, содержащиеся в современных компьютерах: графический, центральный и тензорный (для работы технологий ИИ).

Концепция SHMT используется, в частности, во время планирования — процесса, в котором система выбирает порядок и расположение задач, решая, какие операции должны выполняться на процессорах каждого типа.

Тестовая установка включала ЦП ARM Cortex-A57, GPU Nvidia и тензорный процессор Google Edge. Благодаря одновременной и гетерогенной многопоточности выполнение расчёта примера кода прошло в 1,95 раза быстрее, а потребление энергии сократилось на 51%.

«Укоренившиеся модели программирования ориентированы на использование только наиболее эффективных процессоров для каждой области кода, недостаточно используя вычислительную мощность гетерогенных компьютеров», — отметили исследователи в своей статье.

Учёные признали, что им предстоит преодолеть серьёзные проблемы, связанные с разделением вычислительных задач, которые будут выполняться разными типами процессоров, а затем объединением всего обратно без какого-либо замедления. По их оценкам, технологию SHMT не получится повсеместно внедрить в ближайшем будущем.

📎 Читать подробнее

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1511🔥6🤩3🍌3
⭐️ Awesome Quant: Финансовая математика

Лучшие пакеты r, библиотеки python, пакеты julia, инструменты прогнозирования, программное обеспечение для работы с биржами, финансовые инструменты, r, python, julia, rust, java и многое другое.

Большой кураторский список безумно полезных библиотек, пакетов и ресурсов для Квантов.

https://wilsonfreitas.github.io/awesome-quant/

📌 А здесь репозиторий для изучения Python - ссылка

#курсыPython

@ai_machinelearning_big_data
👍158🔥4🍌2
🔥 Генеративные нейросети Яндекса попали в первый международный рейтинг Global Generative AI Landscape 2024 от AIPort

В списке самых перспективных ИИ-разработок оказались текстовая YandexGPT и мультимодальная YandexART 🎉

Рейтинг охватил все ключевые категории генеративных нейросетей: текстовые, картиночные, видео, аудио, мультимодальные, чат-боты, игровые и другие. Его опубликовало сообщество дата-сайентистов, ML-экспертов и энтузиастов в сфере ИИ.

Помимо этого, Яндекс стал одной из 11 компаний со всего мира, разрабатывающих более одного типа GenAI-моделей наряду со Open AI, Microsoft и Google.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍47🔥10🎉7🥴75🍌2💊1
🎮 Google Deepmind представили SIMA

Это первый универсальный агент с искусственным интеллектом, который выполняет инструкции на естественном языке в широком спектре 3D-виртуальных сред и видеоигр.

Агент может выполнять задачи, аналогичные человеческим, и превосходит агентов, обученного всего в одной среде.

Его цель заключается не в достижении высоких результатов в играх, а скорее в умении взаимодействовать с окружающим миром.

На данный момент SIMA обучается на девяти различных видеоиграх, включая No Man's Sky от студии Hello Games и Teardown от Tuxedo Labs. Кроме того, на скриншотах можно увидеть такие игры, как Valheim, Hydroneer, Wobbly Life, Satisfactory и Goat Simulator 3.

Нейросеть обучается широкому спектру навыков, начиная от простой навигации и использования меню до добычи ресурсов, полета на космическом корабле и создания предметов.

Ученые также создали четыре исследовательские среды на движке Unity, где агентам предстоит строить скульптуры из строительных блоков, это поможет проверить их способность манипулировать объектами и интуитивное понимание физического мира.

Результаты SIMA демонстрируют потенциал для разработки новой волны универсальных ИИ-агентов, управляемых командами на естественном языке.

Post
Technical report

@ai_machinelearning_big_data
👍28🔥116🥰2🍌1
Возможно, совсем скоро мы увидим GPT-4.5 Turbo от OpenAI

Согласно новым данным из «утечки» от OpenAI, одним из существенных обновлений в GPT-4.5 Turbo является окно длины контекста в 256k токенов, что вдвое превышает текущие 128k GPT-4 Turbo. Этот шаг, похоже, является ответом OpenAI на конкурентов, запускающих модели со все более большими контекстными окнами, включая Google Gemini. Вероятно, что новая модель GPT изменит ситуацию для OpenAI или даже продвинет её впереди чат-бота Google.

OpenAI пока официально не раскрыла информацию об утечке, поэтому статус GPT-4.5 Turbo и дата выпуска в июне 2024 года окутаны тайной.

Немного предыстории
12 марта 2024 года исследователи обнаружили в кэше Bing, что OpenAI готовится представить нейросеть GPT-4.5 Turbo. Но ссылка на эту страницу на сайте OpenAI выдаёт ошибку 404. Также из поисковой выдачи пропало упоминание о новом чат-боте.

Ожидается, что с помощью чат‑бота GPT-4.5 OpenAI стремится устранить некоторые ограничения и проблемы, с которыми столкнулись его предшественники. Это включает в себя уменьшение предвзятости в сгенерированном тексте, улучшение понимания моделью неоднозначных запросов и значительное улучшение её способности решать задачи, специфичные для определённой предметной области.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥18👍6🥰3🍌3👏1
🔥 Российский AI GigaChat занял 4-е место среди самых передовых моделей искусственного интеллекта, обогнав GPT-3.5 и гугловский Gemini по результатам бенчмарка AI Benchmarking Guide 2024. Также GigaChat показал лучшие результаты по запросам на русском языке.

Исследование проводилось методом side-by-side. Для определения потенциала модели эксперты использовали комбинацию двух факторов: оценку производительности модели на ее «родном» языке и наивысшую оценку реакции модели на любом другом языке. Кроме того проводились слепые тесты по задачам: перевод, творческое написание текстов, генерация кода и анализ данных.

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥55🤣38👍167💊6😁4🤪4🤔3🍌1