Generative Ai – Telegram
Generative Ai
3.63K subscribers
289 photos
117 videos
7 files
830 links
Анонсы интересных библиотек и принтов в сфере AI, Ml, CV для тех кто занимается DataScience, Generative Ai, LLM, LangChain, ChatGPT

По рекламе писать @miralinka,
Created by @life2film
Download Telegram
Forwarded from Connectable Jobs
Middle/Senior Python Developer в ZenPulsar

📍Португалия или remote не из РФ
💸3500-4500€ в месяц
💎Опыт от 3 лет
🚀Фаундер – Александр Писемский, ex Head of Forensic Technology в PwC, ко-фаундер Group-IB

ZenPulsar – AI-инструмент извлечения сигналов для финансового рынка из соцсетей.

Размер команды – 11-50 | Инвестиции – €1M

Узнать подробнее: тут

Прямой контакт для отклика: @salavatov

Другая вакансия в стартапе:
System Administrator

#backend #python #zenpulsar
👍2🤮2🐳1
Forwarded from Machinelearning
🎶 Moûsai: Text-to-Music Generation with Long-Context Latent Diffusion

Audio generation using diffusion models, in PyTorch.

Полнофункциональная библиотека генерации звука на PyTorch.

pip install audio-diffusion-pytorch

🖥 Github: https://github.com/archinetai/audio-diffusion-pytorch

✅️ Paper: https://arxiv.org/abs/2301.11757v1

⭐️ A-unet: https://github.com/archinetai/a-unet

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍2
⚡️Приглашаем вас на бесплатный вебинар «Методы суррогатного моделирования сложных динамических систем», который пройдет 16 февраля в 10:00 по московскому времени

Суррогатное моделирование в последнее время стало набирать обороты в сфере математического моделирования динамических систем.

Сложные технические системы могут быть описаны разными способами, как через дифференциальные уравнения, что сильно замедляет процесс расчета, так и через специфические модели для их симуляции, или даже через экспериментальные данные. При этом любое упрощение системы уравнений ведёт к серьезной потере точности.

Суррогатные модели решают две проблемы: ускоряют расчеты и позволяют сохранить точность упрощенных моделей при наличии нескольких экспериментальных точек данных.

В докладе будут представлены суррогатные аналоги модели механизма элерона самолета в Simulink на базе рекуррентных нейронных сетей и адаптивных алгоритмов с подробным сравнением результатов моделирования.

Регистрация тут 👈
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Dreamix: Video Diffusion Models are General Video Editors

New Google's text-based motion model.

Given a small collection of images showing the same subject, Dreamix can generate new videos with the subject in motion.

Всего из нескольких картинок или ролику новая модель от Google - Dreamix генерирует видео по текстовому описанию!

На видео Dreamix превращает обезьяну в танцующего медведя по промпту «Медведь танцует и прыгает под веселую музыку, двигая всем телом».

⭐️ Project: https://dreamix-video-editing.github.io/

✅️ Paper: https://arxiv.org/pdf/2302.01329.pdf

⭐️ Video: https://www.youtube.com/watch?v=xcvnHhfDSGM
.

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👍1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Open-sources PhyCV: The First Physics-inspired Computer Vision Library

Unlike traditional algorithms that are a sequence of hand-crafted empirical rules, physics-inspired algorithms leverage physical laws of nature as blueprints.

PhyCV - новый класс алгоритмов компьютерного зрения, высокой точности, которые имитируют распространение света через физические объекты. Алгоритмы основаны на уравнениях дифракции света в оптических системах.


pip install phycv

🖥 Github: https://github.com/sarafridov/K-Planes

📝 Paper: https://arxiv.org/abs/2301.12531v1

🎥 Video: https://www.youtube.com/watch?v=PJXXwXVyjdk&embeds_euri=https%3A%2F%2Fwww.imveurope.com%2F&feature=emb_logo

⭐️ Project: https://photonics.ucla.edu/2022/05/12/jalali-lab-open-sources-phycv-a-physics-inspired-computer-vision-library/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3🥰1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
⭐️ In-N-Out: Face Video Inversion and Editing with Volumetric Decomposition

The core idea is to represent the face in a video using two neural radiance fields, one for in-distribution and the other for out-of-distribution data, and compose them together for reconstruction.

Новая модель от Adobe Research, для редактирования видео с поддержкой 3D, позволяет манипулировать объектами в условиях сдвига данных. (OOD generalization).

⭐️ Project: https://colab.research.google.com/drive/1VSFps4siwASXDwhK_o29dKA9COvTnG8A?usp=sharing

✅️ Paper: hhttps://arxiv.org/abs/2302.03668v1

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
Streamline AI & ML Product Delivery

https://github.com/jina-ai/jina
🔍 Haystack is an open source NLP framework to interact with your data using Transformer models and LLMs (GPT-3 and alike). Haystack offers production-ready tools to quickly build ChatGPT-like question answering, semantic search, text generation, and more.

https://github.com/deepset-ai/haystack/
Появился сервис AIcyclopedia, в котором собрано более 1000 ИИ-инструментов по категориям из сотен источников, более 900 промтов и инструкций ChatGPT, подкасты и даже фильмы. Всё это по нейросетям в одном месте, чтобы было намного проще найти то, что вас интересует.

Ссылка

r/#InternetIsBeautiful
👍5
Forwarded from Machinelearning
📡 Learning Visual Representations via Language-Guided Sampling

New approach deviates from image-text contrastive learning by relying on pre-trained language models to guide the learning rather than minimize a cross-modal similarity.

Новый альтернативный подход к визуальному обучению: с использованием языкового сходства для выборки семантически схожих пар изображений.

🖥 Github: https://github.com/mbanani/lgssl

⭐️Paper: https://arxiv.org/abs/2302.12248v1

Pre-trained Checkpoints: https://www.dropbox.com/sh/me6nyiewlux1yh8/AAAPrD2G0_q_ZwExsVOS_jHQa?dl=0

💻 Dataset : https://paperswithcode.com/dataset/redcaps

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2🔥1
​​LLaMA: Open and Efficient Foundation Language Models

LLaMA is a set of large language models, ranging from 7B to 65B parameters, that have been trained on publicly available datasets containing trillions of tokens. The LLaMA-13B model performs better than GPT-3 (175B) on most benchmarks, and the LLaMA-65B model is competitive with other state-of-the-art models, such as Chinchilla70B and PaLM-540B. This suggests that it is possible to achieve excellent performance in language modeling without relying on proprietary or inaccessible datasets.

Paper: https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

Code: https://github.com/facebookresearch/llama

A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-llama

#deeplearning #nlp #transformer #sota #languagemodel
❤‍🔥2👍1
Open source implementation for LLaMA-based ChatGPT training process. Faster and cheaper training than ChatGPT (wip)

https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama
👍3
xFormers - Toolbox to Accelerate Research on Transformers

xFormers is: Customizable building blocks: Independent/customizable building blocks that can be used without boilerplate code. The components are domain-agnostic and xFormers is used by researchers in vision, NLP and more.

Research first: xFormers contains bleeding-edge components, that are not yet available in mainstream libraries like pytorch.

Built with efficiency in mind: Because speed of iteration matters, components are as fast and memory-efficient as possible. xFormers contains its own CUDA kernels, but dispatches to other libraries when relevant.


https://github.com/facebookresearch/xformers
👍2
Generative Ai pinned «xFormers - Toolbox to Accelerate Research on Transformers xFormers is: Customizable building blocks: Independent/customizable building blocks that can be used without boilerplate code. The components are domain-agnostic and xFormers is used by researchers…»
🤗 Diffusers provides pretrained diffusion models across multiple modalities, such as vision and audio, and serves as a modular toolbox for inference and training of diffusion models.

https://github.com/huggingface/diffusers/tree/main/examples/community#magic-mix