⚡️Semantic Kernel — open-source SDK, который позволяет интегрировать LLM от OpenAI, с Hugging Face и другие, с обычными языками программирования типо C#, Python и Java
Семантическое ядро достигает этого, позволяя вам определять плагины , которые можно объединить в цепочку всего за несколько строк кода.
Однако что делает Semantic Kernel особенным, так это его способность автоматически управлять плагинами с помощью ИИ.
🖥GitHub
🟡Доки
@Devsp — Подписаться
Семантическое ядро достигает этого, позволяя вам определять плагины , которые можно объединить в цепочку всего за несколько строк кода.
Однако что делает Semantic Kernel особенным, так это его способность автоматически управлять плагинами с помощью ИИ.
🖥GitHub
🟡Доки
@Devsp — Подписаться
⚡️VideoLLaMA 2 — набор open-source Video-LLM, предназначенных для генерации видео
VideoLLaMA 2 — логическое развитие прошлых моделей, включает в себя специализированный компонент пространственно-временной свертки (STC), который эффективно улавливает сложную динамику на видео.
🖥GitHub
🤗 Демо на HF
🤗 Модель VideoLLaMA 2 на HF
@Devsp — Подписаться
VideoLLaMA 2 — логическое развитие прошлых моделей, включает в себя специализированный компонент пространственно-временной свертки (STC), который эффективно улавливает сложную динамику на видео.
🖥GitHub
🤗 Демо на HF
🤗 Модель VideoLLaMA 2 на HF
@Devsp — Подписаться
Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера
Архитектура LSTM была предложена в 1997 году немецкими исследователями Зеппом Хохрайтером и Юргеном Шмидхубером. С тех пор она выдержала испытание временем: с ней связано много прорывов в глубоком обучении, в частности именно LSTM стали первыми большими языковыми моделями.
Читать далее
Архитектура LSTM была предложена в 1997 году немецкими исследователями Зеппом Хохрайтером и Юргеном Шмидхубером. С тех пор она выдержала испытание временем: с ней связано много прорывов в глубоком обучении, в частности именно LSTM стали первыми большими языковыми моделями.
Читать далее
📊 NLP, Catboost и тематическое моделирование: создаем модель для прогнозирования цен с использованием новостей
В этой статье я расскажу, как на одном из проектов мы занимались прогнозированием на месяц вперед с помощью методов NLP, Catboost и тематического моделирования на новостном потоке.
Читать...
В этой статье я расскажу, как на одном из проектов мы занимались прогнозированием на месяц вперед с помощью методов NLP, Catboost и тематического моделирования на новостном потоке.
Читать...
Разбор статьи про KAN – принципиально новую архитектуру нейросетей
В основе всех архитектур глубокого обучения лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации. Этой парадигмой ученые пользуются с 1957 года, когда ее предложил Фрэнк Розенблатт.
Сейчас, спустя 67 лет, исследователи из MIT представили альтернативу MLP – новую архитектуру нейронной сети, получившую название Kolmogorov-Arnold Networks (KAN), в которой реализовано перемещение активаций на «ребра» сети.
Читать...
В основе всех архитектур глубокого обучения лежит многослойный перцептрон (MLP). У него есть веса и нейроны, в которых расположены функции активации. Этой парадигмой ученые пользуются с 1957 года, когда ее предложил Фрэнк Розенблатт.
Сейчас, спустя 67 лет, исследователи из MIT представили альтернативу MLP – новую архитектуру нейронной сети, получившую название Kolmogorov-Arnold Networks (KAN), в которой реализовано перемещение активаций на «ребра» сети.
Читать...
🖥 Самые интересные публикации за последние дни:
• NLP, Catboost и тематическое моделирование: создаем модель для прогнозирования цен с использованием новостей
• Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера
• MusicGPT — приложение для локального запуска моделей, генерирующих музыку
• NLP, Catboost и тематическое моделирование: создаем модель для прогнозирования цен с использованием новостей
• Погружение в xLSTM – обновленную LSTM, которая может оказаться заменой трансформера
• MusicGPT — приложение для локального запуска моделей, генерирующих музыку
❤1
⚡️ DeepSeek-Coder-V2: Первая модель с открытым исходным кодом, превосходящая GPT4-Turbo в кодинге и математике
DeepSeek-Coder-V2, модель языка кода Mixture-of-Experts (MoE) с открытым исходным кодом, которая обеспечивает производительность, сравнимую с GPT4-Turbo, в задачах, специфичных для кода.
В частности, DeepSeek-Coder-V2 дополнительно проходит предварительное обучение на промежуточной контрольной точке DeepSeek-V2 с дополнительными 6 триллионами токенов.
▪HF: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
▪Github: https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf
▪Попробовать: https://chat.deepseek.com/sign_in?from=coder
@Devsp — Подписаться
DeepSeek-Coder-V2, модель языка кода Mixture-of-Experts (MoE) с открытым исходным кодом, которая обеспечивает производительность, сравнимую с GPT4-Turbo, в задачах, специфичных для кода.
В частности, DeepSeek-Coder-V2 дополнительно проходит предварительное обучение на промежуточной контрольной точке DeepSeek-V2 с дополнительными 6 триллионами токенов.
▪HF: https://huggingface.co/deepseek-ai/DeepSeek-Coder-V2-Instruct
▪Github: https://github.com/deepseek-ai/DeepSeek-Coder-V2/blob/main/paper.pdf
▪Попробовать: https://chat.deepseek.com/sign_in?from=coder
@Devsp — Подписаться
🎙️StreamSpeech: Мощная модель синхронного перевода речи.
StreamSpeech - это бесшовная модель “Все в одном” для автономного и синхронного распознавания речи, перевода речи и синтеза речи.
▪page: https://ictnlp.github.io/StreamSpeech-site/
▪paper: https://arxiv.org/abs/2406.03049
▪code: https://github.com/ictnlp/streamspeech
@Devsp — Подписаться
StreamSpeech - это бесшовная модель “Все в одном” для автономного и синхронного распознавания речи, перевода речи и синтеза речи.
▪page: https://ictnlp.github.io/StreamSpeech-site/
▪paper: https://arxiv.org/abs/2406.03049
▪code: https://github.com/ictnlp/streamspeech
@Devsp — Подписаться
🌟Open Interpreter — полное управление компьютером при помощи запросов на естественном языке
Open Interpreter предоставляет интерфейс естественного языка для управления компьютером.
Можно общаться с Open Interpreter через ChatGPT-подобный интерфейс прямо в терминале.
🖥GitHub
🟡Доки
@Devsp — Подписаться
Open Interpreter предоставляет интерфейс естественного языка для управления компьютером.
Можно общаться с Open Interpreter через ChatGPT-подобный интерфейс прямо в терминале.
🖥GitHub
🟡Доки
@Devsp — Подписаться
🌟Modded-NanoGPT — позволяет добиться качества GPT-2 (124M) при обучении всего на 5B лексем
Modded-NanoGPT позволяет:
— обучать в 2 раза эффективнее (требуется всего 5B лексем вместо 10B для достижения той же точности)
— имеет более простой код (446 строк вместо 858)
🖥GitHub
@Devsp — Подписаться
Modded-NanoGPT позволяет:
— обучать в 2 раза эффективнее (требуется всего 5B лексем вместо 10B для достижения той же точности)
— имеет более простой код (446 строк вместо 858)
🖥GitHub
@Devsp — Подписаться
😎 Hermes-2-Theta-Llama-3-70B — комбо на основе Hermes 2 Pro и Llama-3 Instruct
Hermes-2 Θ (Theta) 70B — это экспериментальная модель, созданная компанией Nous Research в сотрудничестве с Arcee AI (командой, создавшей MergeKit) на основе Hermes 2 Pro и Llama-3 Instruct.
🤗 Hugging Face
@Devsp — Подписаться
Hermes-2 Θ (Theta) 70B — это экспериментальная модель, созданная компанией Nous Research в сотрудничестве с Arcee AI (командой, создавшей MergeKit) на основе Hermes 2 Pro и Llama-3 Instruct.
🤗 Hugging Face
@Devsp — Подписаться
🌟ExVideo — техника тюнинга, позволяющая улучшить возможности моделей генерации видео
ExVideo позволяет модели генерировать в 5 раз больше кадров, при этом требуется всего 1.5 тыс. часов обучения на GPU на датасете из 40 тыс. видео.
🟡Страничка ExVideo
🖥GitHub
🟡Hugging Face
🟡Arxiv
@Devsp — Подписаться
ExVideo позволяет модели генерировать в 5 раз больше кадров, при этом требуется всего 1.5 тыс. часов обучения на GPU на датасете из 40 тыс. видео.
🟡Страничка ExVideo
🖥GitHub
🟡Hugging Face
🟡Arxiv
@Devsp — Подписаться
🖥 Самые интересные публикации за последние дни:
• StreamSpeech: Мощная модель синхронного перевода речи
• Open Interpreter — полное управление компьютером при помощи запросов на естественном языке
• Он победил LLM RAG: реализуем BM25+ с самых азов
• StreamSpeech: Мощная модель синхронного перевода речи
• Open Interpreter — полное управление компьютером при помощи запросов на естественном языке
• Он победил LLM RAG: реализуем BM25+ с самых азов
Работаете в области проектирования ПО и хотите ускорить свой профессиональный рост? Выйти на новый уровень будет гораздо проще с онлайн-магистратурой Яндекса и ИТМО «ПО высоконагруженных систем». Поступив на программу, вы с первого семестра погрузитесь в работу над реальными задачами из индустрии. Собирая ценные кейсы в портфолио, вы прокачаете навыки проектирования сложных систем и управления крупными проектами. Всё это — онлайн, из любой точки мира!
Программа подходит как выпускникам профильных вузов и стажёрам, так и специалистам с опытом. Первым можно будет пройти двухлетний стандартный трек, а вторым — ускоренный, изучая интересующие дисциплины на протяжении года.
Подайте заявку на магистратуру и выйдите на новый уровень в IT!
Программа подходит как выпускникам профильных вузов и стажёрам, так и специалистам с опытом. Первым можно будет пройти двухлетний стандартный трек, а вторым — ускоренный, изучая интересующие дисциплины на протяжении года.
Подайте заявку на магистратуру и выйдите на новый уровень в IT!
⭐️MorpheuS — реконструкция поверхности с обзором 360° по монокулярному RGB-D видео
MorpheuS — это метод, который может воссоздать 360° поверхности из случайно снятого RGB-D видео.
Ненаблюдаемые области пространства достраиваются с помощью диффузионной модели.
🟡Страничка MorpheuS
🟡Arxiv
🖥GitHub
@Devsp — Подписаться
MorpheuS — это метод, который может воссоздать 360° поверхности из случайно снятого RGB-D видео.
Ненаблюдаемые области пространства достраиваются с помощью диффузионной модели.
🟡Страничка MorpheuS
🟡Arxiv
🖥GitHub
@Devsp — Подписаться
🌟EvTexture — новый метод апскейлинга видео
В методе EvTexture используется отдельный итеративный модуль улучшения текстуры, который позволяет получать информацию о событиях с высоким временным разрешением.
Этот модуль позволяет постепенно в несколько итераций уточнять текстуру заданных областей и повышать их разрешение.
🟡Страничка EvTexture
🖥GitHub
🟡Arxiv
@Devsp — Подписаться
В методе EvTexture используется отдельный итеративный модуль улучшения текстуры, который позволяет получать информацию о событиях с высоким временным разрешением.
Этот модуль позволяет постепенно в несколько итераций уточнять текстуру заданных областей и повышать их разрешение.
🟡Страничка EvTexture
🖥GitHub
🟡Arxiv
@Devsp — Подписаться
🌟SEE-2-SOUND — метод генерации сложного пространственного звука на основе изображений и видео
SEE-2-SOUND — новая разработка университета Торонто, передовой метод генерации пространственного звука из изображений, анимации и видео.
Модель состоит из трех основных компонентов: оценка источника звука, генерация звука и пространственная генерация объемного звука.
🟡Страничка SEE-2-SOUND
🖥GitHub
🟡Hugging Face
🟡Arxiv
@Devsp — Подписаться
SEE-2-SOUND — новая разработка университета Торонто, передовой метод генерации пространственного звука из изображений, анимации и видео.
Модель состоит из трех основных компонентов: оценка источника звука, генерация звука и пространственная генерация объемного звука.
🟡Страничка SEE-2-SOUND
🖥GitHub
🟡Hugging Face
🟡Arxiv
@Devsp — Подписаться
👁🗨 LongVA: Long Context Transfer from Language to Vision
LongVA может обрабатывать 2000 кадров или более 200 тысяч визуальных токенов.
Он обеспечивает самые современные характеристики видео-MME среди моделей 7B.
▪Github: https://github.com/EvolvingLMMs-Lab/LongVA
▪Paper: https://arxiv.org/abs/2406.16852
▪Project: https://lmms-lab.github.io/posts/longva/
▪Demo: https://longva-demo.lmms-lab.com/
@Devsp — Подписаться
LongVA может обрабатывать 2000 кадров или более 200 тысяч визуальных токенов.
Он обеспечивает самые современные характеристики видео-MME среди моделей 7B.
▪Github: https://github.com/EvolvingLMMs-Lab/LongVA
▪Paper: https://arxiv.org/abs/2406.16852
▪Project: https://lmms-lab.github.io/posts/longva/
▪Demo: https://longva-demo.lmms-lab.com/
@Devsp — Подписаться
🌟MG-LLaVA — мультимодальная LLM с продвинутыми возможностями работы с визуальной информацией
MG-LLaVA, инновационная MLLM, которая расширяет возможности визуальной обработки модели за счет включения многоуровневого потока визуализации, который включает в себя функции низкого разрешения, высокого разрешения и объектно-ориентированные функции.
Обучаясь исключительно на общедоступных мультимодальных данных посредством настройки инструкций, MG-LLaVA демонстрирует исключительные навыки восприятия.
🟡Страничка MG-LLaVA
🖥GitHub
@Devsp — Подписаться
MG-LLaVA, инновационная MLLM, которая расширяет возможности визуальной обработки модели за счет включения многоуровневого потока визуализации, который включает в себя функции низкого разрешения, высокого разрешения и объектно-ориентированные функции.
Обучаясь исключительно на общедоступных мультимодальных данных посредством настройки инструкций, MG-LLaVA демонстрирует исключительные навыки восприятия.
🟡Страничка MG-LLaVA
🖥GitHub
@Devsp — Подписаться