Generative Ai – Telegram
Generative Ai
3.63K subscribers
289 photos
117 videos
7 files
830 links
Анонсы интересных библиотек и принтов в сфере AI, Ml, CV для тех кто занимается DataScience, Generative Ai, LLM, LangChain, ChatGPT

По рекламе писать @miralinka,
Created by @life2film
Download Telegram
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️NerfStudio: Простая библиотека для создания NeRF-ов и с охеренным web-GUI

Если хотите покрутить нерф, но не знаете с чего начать, либо просто хотите поиграться с фотками и реконструировать 3Д сцену, то эта библиотека для вас. Для запуска не требуется глубокого понимания того, как работает нейронный рендеринг. Нужно просто обработать фотки в COLMAP и запустить скрипт. На видео – примеры работы либы.

🔥Реализованные методы:

- Nerfacto: кастомный нерф, которые включает в себя все последние трюки для лучшего качества и скорости рендеринга.
- Базовый NeRF
- Instant NGP: быстро тренируем нерф за счёт оптимизации на гриде и рендеринге маленькими MLP сетками.
- MipNerf: решает проблему алиасинга при редеринге объекта в разных масштабах.
- NerfW: NeRF in the Wild
- Semantic NeRF: в 3D рендерятся лейблы семантическоц сегментации вместо текстуры рбъектов.

❱❱ Сайт проекта
❱❱ Web Viewer (нужно соединить с NeRF-ом, который крутится на GPU) сеткой
❱❱ Как использовать свои фото
❱❱ Видео tutorial

@ai_newz
🔥4👍1
Forwarded from эйай ньюз
На рождество получил отличный подарок. Это библия Reinforcement Learning от Ричарда Саттона. Второе дополненное издание особенно крутое.

Собираюсь за праздники подтянуть базу по RL. Советую эту книгу всем, кто хочет реально разобраться, на каких принципах работают, например:
- ChatGPT (это без комментариев)
- AlphaGo (победил чемпиона Европы в игру Go)
- AlphaStar (AI, которые обыгрывает профессионалов в StarCraft)
- MuZero (умеет профессионально играть в кучу игр сразу, включая Go, шахматы, Atari и др)
- OpenAI Five (AI который выносит людей в Доту 2)
и другие современные AI агенты.

❱❱ Вот тут есть PDF версия книги.

@ai_newz
12
Forwarded from Connectable Jobs
Middle/Senior Python Developer в ZenPulsar

📍Португалия или remote не из РФ
💸3500-4500€ в месяц
💎Опыт от 3 лет
🚀Фаундер – Александр Писемский, ex Head of Forensic Technology в PwC, ко-фаундер Group-IB

ZenPulsar – AI-инструмент извлечения сигналов для финансового рынка из соцсетей.

Размер команды – 11-50 | Инвестиции – €1M

Узнать подробнее: тут

Прямой контакт для отклика: @salavatov

Другая вакансия в стартапе:
System Administrator

#backend #python #zenpulsar
👍2🤮2🐳1
Forwarded from Machinelearning
🎶 Moûsai: Text-to-Music Generation with Long-Context Latent Diffusion

Audio generation using diffusion models, in PyTorch.

Полнофункциональная библиотека генерации звука на PyTorch.

pip install audio-diffusion-pytorch

🖥 Github: https://github.com/archinetai/audio-diffusion-pytorch

✅️ Paper: https://arxiv.org/abs/2301.11757v1

⭐️ A-unet: https://github.com/archinetai/a-unet

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍2
⚡️Приглашаем вас на бесплатный вебинар «Методы суррогатного моделирования сложных динамических систем», который пройдет 16 февраля в 10:00 по московскому времени

Суррогатное моделирование в последнее время стало набирать обороты в сфере математического моделирования динамических систем.

Сложные технические системы могут быть описаны разными способами, как через дифференциальные уравнения, что сильно замедляет процесс расчета, так и через специфические модели для их симуляции, или даже через экспериментальные данные. При этом любое упрощение системы уравнений ведёт к серьезной потере точности.

Суррогатные модели решают две проблемы: ускоряют расчеты и позволяют сохранить точность упрощенных моделей при наличии нескольких экспериментальных точек данных.

В докладе будут представлены суррогатные аналоги модели механизма элерона самолета в Simulink на базе рекуррентных нейронных сетей и адаптивных алгоритмов с подробным сравнением результатов моделирования.

Регистрация тут 👈
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Dreamix: Video Diffusion Models are General Video Editors

New Google's text-based motion model.

Given a small collection of images showing the same subject, Dreamix can generate new videos with the subject in motion.

Всего из нескольких картинок или ролику новая модель от Google - Dreamix генерирует видео по текстовому описанию!

На видео Dreamix превращает обезьяну в танцующего медведя по промпту «Медведь танцует и прыгает под веселую музыку, двигая всем телом».

⭐️ Project: https://dreamix-video-editing.github.io/

✅️ Paper: https://arxiv.org/pdf/2302.01329.pdf

⭐️ Video: https://www.youtube.com/watch?v=xcvnHhfDSGM
.

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥42👍1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
Open-sources PhyCV: The First Physics-inspired Computer Vision Library

Unlike traditional algorithms that are a sequence of hand-crafted empirical rules, physics-inspired algorithms leverage physical laws of nature as blueprints.

PhyCV - новый класс алгоритмов компьютерного зрения, высокой точности, которые имитируют распространение света через физические объекты. Алгоритмы основаны на уравнениях дифракции света в оптических системах.


pip install phycv

🖥 Github: https://github.com/sarafridov/K-Planes

📝 Paper: https://arxiv.org/abs/2301.12531v1

🎥 Video: https://www.youtube.com/watch?v=PJXXwXVyjdk&embeds_euri=https%3A%2F%2Fwww.imveurope.com%2F&feature=emb_logo

⭐️ Project: https://photonics.ucla.edu/2022/05/12/jalali-lab-open-sources-phycv-a-physics-inspired-computer-vision-library/

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍4🔥3🥰1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
⭐️ In-N-Out: Face Video Inversion and Editing with Volumetric Decomposition

The core idea is to represent the face in a video using two neural radiance fields, one for in-distribution and the other for out-of-distribution data, and compose them together for reconstruction.

Новая модель от Adobe Research, для редактирования видео с поддержкой 3D, позволяет манипулировать объектами в условиях сдвига данных. (OOD generalization).

⭐️ Project: https://colab.research.google.com/drive/1VSFps4siwASXDwhK_o29dKA9COvTnG8A?usp=sharing

✅️ Paper: hhttps://arxiv.org/abs/2302.03668v1

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍42🔥1
Streamline AI & ML Product Delivery

https://github.com/jina-ai/jina
🔍 Haystack is an open source NLP framework to interact with your data using Transformer models and LLMs (GPT-3 and alike). Haystack offers production-ready tools to quickly build ChatGPT-like question answering, semantic search, text generation, and more.

https://github.com/deepset-ai/haystack/
Появился сервис AIcyclopedia, в котором собрано более 1000 ИИ-инструментов по категориям из сотен источников, более 900 промтов и инструкций ChatGPT, подкасты и даже фильмы. Всё это по нейросетям в одном месте, чтобы было намного проще найти то, что вас интересует.

Ссылка

r/#InternetIsBeautiful
👍5
Forwarded from Machinelearning
📡 Learning Visual Representations via Language-Guided Sampling

New approach deviates from image-text contrastive learning by relying on pre-trained language models to guide the learning rather than minimize a cross-modal similarity.

Новый альтернативный подход к визуальному обучению: с использованием языкового сходства для выборки семантически схожих пар изображений.

🖥 Github: https://github.com/mbanani/lgssl

⭐️Paper: https://arxiv.org/abs/2302.12248v1

Pre-trained Checkpoints: https://www.dropbox.com/sh/me6nyiewlux1yh8/AAAPrD2G0_q_ZwExsVOS_jHQa?dl=0

💻 Dataset : https://paperswithcode.com/dataset/redcaps

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
2👍2🔥1
​​LLaMA: Open and Efficient Foundation Language Models

LLaMA is a set of large language models, ranging from 7B to 65B parameters, that have been trained on publicly available datasets containing trillions of tokens. The LLaMA-13B model performs better than GPT-3 (175B) on most benchmarks, and the LLaMA-65B model is competitive with other state-of-the-art models, such as Chinchilla70B and PaLM-540B. This suggests that it is possible to achieve excellent performance in language modeling without relying on proprietary or inaccessible datasets.

Paper: https://research.facebook.com/publications/llama-open-and-efficient-foundation-language-models/

Code: https://github.com/facebookresearch/llama

A detailed unofficial overview of the paper: https://andlukyane.com/blog/paper-review-llama

#deeplearning #nlp #transformer #sota #languagemodel
❤‍🔥2👍1
Open source implementation for LLaMA-based ChatGPT training process. Faster and cheaper training than ChatGPT (wip)

https://github.com/nebuly-ai/nebullvm/tree/main/apps/accelerate/chatllama
👍3
xFormers - Toolbox to Accelerate Research on Transformers

xFormers is: Customizable building blocks: Independent/customizable building blocks that can be used without boilerplate code. The components are domain-agnostic and xFormers is used by researchers in vision, NLP and more.

Research first: xFormers contains bleeding-edge components, that are not yet available in mainstream libraries like pytorch.

Built with efficiency in mind: Because speed of iteration matters, components are as fast and memory-efficient as possible. xFormers contains its own CUDA kernels, but dispatches to other libraries when relevant.


https://github.com/facebookresearch/xformers
👍2
Generative Ai pinned «xFormers - Toolbox to Accelerate Research on Transformers xFormers is: Customizable building blocks: Independent/customizable building blocks that can be used without boilerplate code. The components are domain-agnostic and xFormers is used by researchers…»