Machinelearning – Telegram
383K subscribers
4.46K photos
859 videos
17 files
4.89K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔦Relighting Neural Radiance Fields with Shadow and Highlight Hints

В данной работе представлен новый подход к изменении освещенности объекта на основе небольшого набора неструктурированных фотографий объекта, освещенного движущимся точечным источником света, отличным от позиции обзора.

git clone https://github.com/iamNCJ/NRHints.git
cd NRHints
pip install -r requirements.txt

🖥 Github: https://github.com/iamNCJ/NRHints

🚀 Project: https://nrhints.github.io/

📕 Paper: https://nrhints.github.io/pdfs/nrhints-sig23.pdf

⭐️ Dataset: https://github.com/iamNCJ/NRHints#data-and-models

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍87🔥7
💻 В Москве прошла конференция по кибербезопасности OFFZONE 2023

Как мы уже писали ранее, конференцию провела компания BI.ZONE, партнер Сбера. В мероприятии поучаствовали безопасники, разработчики, исследователи, преподаватели и студенты технических вузов. Всего на ней выступили 108 экспертов, а общее число участников превысило 2500 человек.

О чем говорили на двух треках:

🔸как изменилась отрасль кибербезопасности за последние 10 лет;
🔸основные тренды кибермошенничества в финансовой сфере;
🔸лайфхаки в области mobile DevSecOps;
🔸необычные атаки с применением широко распространенных программ для удаленного управления;
и другое.

Также на площадке работали тематические зоны от специалистов по безопасности финансовых систем и банковской инфраструктуры, экспертов по безопасной разработке и анализу защищенности приложений, CTF.Zone и т.д.

Кроме того, в рамках OFFZONE 2023 прошла презентация об итогах года работы платформы BI.ZONE Bug Bounty. Так, на платформе зарегистрировались 17 компаний и 51 программа по поиску уязвимостей.

ai_machinelearning_big_data
👍6😁2🔥1
📌 SNARE (a multimodal alignment probing benchmark)

Scale multimodal alignment probing benchmark, to detect the vital linguistic components, e.g., lexical, semantic, and syntax knowledge,

Новый крупномасштабный мультимодальный бенчмарк, позволяющий обнаружить важные лингвистические компоненты в предварительно обученных моделях "vision-language ".

🖥 Github: https://github.com/wangfei-2019/snare

📕 Paper: https://arxiv.org/abs/2308.12898v2

⭐️ Dataset: https://paperswithcode.com/dataset/aro

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥64👍2
🧑 FaceChain

Deep-learning toolchain for generating your Digital-Twin.

FaceChain — это набор инструментов машинного обучения для создания собственного цифрового двойника.


Всего из одной портретной фотографию, вы можете создать своего собственного цифрового двойника и начать генерировать персональные портреты с различными настройками.

🖥 Github: https://github.com/modelscope/facechain

📕 Paper: https://arxiv.org/abs/2308.14256v1

🖥 Colab: https://colab.research.google.com/drive/1cUhnVXseqD2EJiotZk3k7GsfQK9_yJu_?usp=sharing

⭐️ Dataset: https://paperswithcode.com/dataset/fairface

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍157🔥6
📖 LongBench: A Bilingual, Multitask Benchmark for Long Context Understanding

LongBench includes 14 English tasks, 5 Chinese tasks, and 2 code tasks, with the average length of most tasks ranging from 5k to 15k, and a total of 4,750 test data.

LongBench - первый двуязычный, бенчмарк понимания длинных контекстов, позволяющий проводить тщательную оценку контекстов.
LongBench включает 21 датасет по 6 категориям задач на английском и китайском языках.


🖥 Github: https://github.com/thudm/longbench

📕 Paper: https://arxiv.org/abs/2308.14710v1

🤗 HF: https://huggingface.co/datasets/THUDM/LongBench

⭐️ Dataset: https://paperswithcode.com/dataset/youtube-vis-2021-validation

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
7👍4🔥2😐1
🖥 When Do Program-of-Thoughts Work for Reasoning?

An Easy-to-use Instruction Generation Framework for LLMs.

EasyInstruct - это пакет Python для обучения больших языковых моделей (LLM), таких как
GPT-3, Llama, ChatGLM, в ваших исследовательских экспериментах. Он прост в использовании и легко расширяемый.

pip install easyinstruct -i https://pypi.org/simple

🖥 Github: https://github.com/zjunlp/easyinstruct

📕 Paper: https://arxiv.org/abs/2308.15452v1

⭐️ Dataset:https://paperswithcode.com/dataset/svamp

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11👍41
This media is not supported in your browser
VIEW IN TELEGRAM
🔥Scaling up GANs for Text-to-Image Synthesis

1B-parameter GigaGAN, achieving lower FID than Stable Diffusion v1.5, DALL·E 2, and Parti-750M.

GigaGAN - 1B модель генерации изображений из текста. Высокая скорость генерации изображений 0.13 сек в разрешении 512px, на порядки быстрее других моделей.

🖥 Github: https://github.com/mingukkang/GigaGAN/tree/main/evaluation

Project: https://mingukkang.github.io/GigaGAN/

🎞 Video: https://www.youtube.com/watch?v=UyoXmHS-KGc

📕 Paper: https://arxiv.org/abs/2303.05511

⭐️ Dataset:https://paperswithcode.com/dataset/svamp

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥32
🎧 AudioLDM 2, but faster ⚡️

Read to the end to find out how to generate a 10 second audio sample in just 1 second!

В этом посте показано, как использовать AudioLDM 2 c Hugging Face 🧨 Diffusers, исследуя ряд оптимизаций для сокращения времени генераций более чем в 10 раз при минимальном снижении качества выходного аудио.

🤗 HH: https://huggingface.co/blog/audioldm2

🖥 Github: https://github.com/huggingface/blog/blob/main/audioldm2.md

🖥 Colab: https://mingukkang.github.io/GigaGAN/

🎧 Paper: https://arxiv.org/abs/2308.05734

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
8👍3🔥2
🔥 CRATE (Coding RAte reduction TransformEr)

CRATE (is a white-box transformer architecture, where each layer performs a single step of an alternating minimization algorithm to optimize the sparse rate reduction objective

Алгоритм оптимизации сегментации с помощью архитектуры white-box трансформеров.

🖥 Github: https://github.com/ma-lab-berkeley/crate

🖥 Colab: https://colab.research.google.com/drive/1rYn_NlepyW7Fu5LDliyBDmFZylHco7ss

📕 Paper: https://arxiv.org/abs/2308.16271v1

⭐️ Dataset: https://paperswithcode.com/dataset/coco

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134🔥2
SAM-Med2D

SAM-Med2D, the most comprehensive studies on applying SAM to medical 2D images.

🏆 Самая большая на сегодняшний день база данных по сегментации медицинских изображений (4,6 млн. изображений и 19,7 млн. масок) для обучения моделей.
🏆 Модель файнтюнинга Segment Anything Model (SAM).
🏆 Бенчмарк SAM-Med2D на крупномасштабных наборах данных.

🖥 Github: https://github.com/uni-medical/sam-med2d

🖥 Colab: https://colab.research.google.com/github/uni-medical/SAM-Med2D/blob/main/predictor_example.ipynb

📕 Paper: https://arxiv.org/abs/2308.16184

⭐️ Dataset: https://paperswithcode.com/dataset/sa-1b

ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍16🔥12🥰3🤔1🕊1