WTF is this manual? – Telegram
WTF is this manual?
27 subscribers
174 photos
40 videos
78 files
690 links
Obscure IT and graphs of...what?
Download Telegram
Forwarded from Фермата
Экспериментальная шенберговская система записи двенадцатитоновой музыки.

Composition with Twelve Tones. Schönberg’s Reorganization of Music
From the exhibition | Object 28
Arnold Schönberg: Suite, op. 29. Twelve-Tone Notation. 1924
With atonality and the twelve-tone method, the accidentals used in traditional notation as signposts to tonality became de facto obsolete – where there is no tonic keynote, accidentals such as # and ♭ do not have to give direction to the course of the melody. In January 1925, Schönberg published his ideas for a simplified twelve-tone notation in the music journal Anbruch. The musical staff is reduced to three lines and short diagonal lines assume the function of accidentals. For the Suite, op. 29, he worked out a ruler that combines the basic form with various derivations. As with languages and their codification in different systems of characters, it should eventually become common “to master two different musical notations equally well.“
Forwarded from AbstractDL
🔥MiniGPT-4: почти как GPT-4, но всего 13B параметров

Оказалось, если соединить LLaMA (Vicuna) и FROMAGe, то получится не только на 90% приблизиться к GPT-4, но и даже воспроизвести её визуальные навыки! При том, что тут обучается всего лишь один единственный линейный слой.

По сравнению с FROMAGe тут добавили Q-former и файнтюнинг на своём чистейшем визуально-диалоговом сете (3.5к примеров).

С помощью этой модели можно даже сгенерировать код сайта по одному лишь наброску! Код и веса есть в открытом доступе.

Статья, GitHub, датасет, блог
Forwarded from эйай ньюз
Очередная крутая работа от OpenAI: Diffusion Models Beat GANs on Image Synthesis. SOTA для генерации картинок на ImageNet

Предлагается новый тип генеративных моделей — вероятностная модель диффузии (Diffusion Probabilistic Model), для краткости «диффузионная модель». Диффузионная модель представляет собой параметризованную цепь Маркова, обученную с использованием вариационного вывода для создания выборок, соответствующих данным, за конечное число шагов. Процесс диффузии тут — это цепь Маркова, которая постепенно добавляет шум к данным в направлении, противоположном семплированию, пока сигнал не будет разрушен. Так вот мы учим обратные переходы в этой цепочке, которые обращают вспять процесс диффузии. И к бабке не ходи, мы параметризуем всё нейронными сетями.

Получается очень качественная генерация, даже лучше чем ганами (особенно хорошо видно на дядьке с Язем, которого здорово так колошматит в моделе BigGAN). Минус диффузионных моделей сейчас — это медленная тренировка и инференс.

Есть код. Подробнее тут.
Forwarded from Futuris (Anton)
Тут очередное крутое применение GPT технологии придумали

Разработчики создали инструмент под названием OP Vault, который объединяет возможности OpenAI и базы векторов Pinecone в рамках OP Stack. С его помощью пользователи могут создавать собственные базы знаний, загружая разнообразные файлы с информацией (PDF, txt и т.д.) и задавая вопросы о содержимом этих файлов. Векторные базы данных Pinecone и OP Stack объединяются для создания уникального инструмента. На простом языке, OP Stack - это комбинация двух технологий: OpenAI, которая обеспечивает искусственный интеллект для работы с естественным языком, и Pinecone, векторная база данных, которая хранит и обрабатывает многомерные векторы.

Когда мы загружаем текстовые документы в OP Vault, OpenAI используется для преобразования текста в векторы. Векторы - это числовые представления данных, которые упрощают обработку и поиск информации. Затем эти векторы сохраняются в базе данных Pinecone.

Когда пользователи задают вопросы, OP Stack сначала преобразует вопрос в вектор с помощью OpenAI, а затем ищет соответствующие векторы (ответы) в базе данных Pinecone. Таким образом, OP Stack эффективно сочетает возможности OpenAI и Pinecone для создания мощного инструмента работы с данными.

Основные преимущества OP Vault:

Простая загрузка документов разных типов для формирования индивидуальной базы знаний.

Получение точных и актуальных ответов на вопросы, основанных на загруженных документах.

Отображение имени файла и конкретного контекста, на основе которого сформирован ответ.

Удобный интерфейс на основе React для работы с инструментом.

Возможность загружать огромное количество книг и документов в базу знаний.

Чтобы начать работу с OP Vault, нужно настроить API-ключи и конечные точки в папке "secret", установить зависимости для JavaScript, запустить веб-сервер на языке Golang и webpack для компиляции кода. Интерфейс инструмента предоставляет возможность загружать файлы и задавать вопросы на основе загруженного контента, используя функции UploadHandler и QuestionHandler (см инструкцию)

В общем, OP Vault станет отличным помощником для извлечения знаний и получения ответов на вопросы, основанных на вашей собственной коллекции документов🤓👌
Forwarded from Futuris (Anton)
This media is not supported in your browser
VIEW IN TELEGRAM
Конкуренция прекрасна

Сегодня Google обновил свой сервис Bard, добавив возможность помочь пользователям в задачах программирования и разработки ПО. Теперь Bard умеет генерировать код, отлаживать его и объяснять его суть.

Эта функция стала доступна для более чем 20 языков программирования, включая C++, Go, Java, Javanoscript, Python и Typenoscript. Также теперь можно легко экспортировать код Python в Google Colab и писать функции для Google Sheets.

Bard поможет не только с генерацией кода, но и с объяснением его работы, что может быть полезно для новичков в программировании или тем, кому нужна дополнительная поддержка для понимания кода.

Сервис также предлагает помощь в отладке кода, даже если код был написан самим Bard. Если возникают ошибки или код не работает должным образом, Bard поможет исправить проблему.

В общем, надо тестить🤓

https://blog.google/technology/ai/code-with-bard/
Forwarded from GitHub Community
Hachiлокальное веб-приложение, обеспечивающее поиск на естественном языке для всех ваших видео и изображений

Простой и понятный интерфейс: индексируйте любые носители, просто указав путь к локальному каталогу/папке и начав запрашивать.
Минимальные требования:
любой ЦП потребительского класса с включенными инструкциями AVX2 и минимальными программными зависимостями

Ссылка на проект

GitHub | #Interesting #Web
Forwarded from Generative Anton
Не так давно фурор навёл линтер Ruff для Python’a на Rust (который был быстрее всех остальных поделок). А теперь они сделали компанию за ним, чтобы пилить другой высокопроизводительный Python-тулинг. Верим, надеемся, ждём.
Forwarded from Open Source
​​killport

killport это утилита командной строки для уничтожения процессов, прослушивающих определенные порты.

Он разработан, чтобы быть простым, быстрым и эффективным. Инструмент построен на Rust и работает на GNU/Linux и macOS.

https://github.com/jkfran/killport
Forwarded from Emacs News and Posts
Planet Emacslife

Kisaragi Hiu: A hack to fetch a URL synchronously in Svelte (Astro)

https://kisaragi-hiu.com/astro-svelte-fetch-sync-hack/
Forwarded from GitHub Community
learnGitBranchingучебник и Интерактивная визуализация GIT

Вы можете использовать это приложение для обучения и повторения в отношении мастерства GIT

Ссылка на проект

GitHub | #Interesting #Useful
Forwarded from Futuris (Anton)
Пользователи в сети нашли способ запускать HuggingChat прямо в Python (без необходимости регистрации и получения API), а я ещё и специальное окошко для чата сделал с помощью ChatGPT🌚

В общем держите бесплатный чат-бот уровная GPT-3.5 (может чуть менее интеллектуальный) с анлимом на сообщения:

Установите библиотеку hugchat через pip:
pip install hugchat

Создайте файл с именем huggingchat_app.py и добавьте следующий код:

import tkinter as tk
from tkinter import ttk
from hugchat import hugchat

# Создание объекта чат-бота
chatbot = hugchat.ChatBot()

# Функция для отправки сообщения и получения ответа от чат-бота
def send_message():
message = user_input.get()
response = chatbot.chat(message)

chat_history.configure(state='normal')
chat_history.insert(tk.END, f"Вы: {message}\n")
chat_history.insert(tk.END, f"Бот: {response}\n")
chat_history.configure(state='disabled')

user_input.delete(0, tk.END)

# Создание окна приложения
app = tk.Tk()
app.noscript("HuggingChat App")

# Создание виджетов
chat_history = tk.Text(app, wrap='word', state='disabled', width=60, height=20)
user_input = ttk.Entry(app, width=50)
send_button = ttk.Button(app, text="Отправить", command=send_message)

# Размещение виджетов на экране
chat_history.grid(row=0, column=0, columnspan=2, padx=10, pady=10)
user_input.grid(row=1, column=0, padx=10, pady=10)
send_button.grid(row=1, column=1, padx=10, pady=10)

# Запуск главного цикла приложения
app.mainloop()

Можете и сами поэкспериментировать, исходный код на github

P.S.
Только у меня он не видит контекст беседы, видимо ограниченный доступ всё-таки, но лучше чем ничего
Forwarded from addmeto (Grigory Bakunov)
Hugging Face совместно с ServiceNow собрали и выложили свою собственную модель, которая умеет то, что делает GitHub CoPilot - подсказывать код, по сути писать 80% кода без всяких программистов. Только в отличие от CoPilot это не платная услуга, а доступный всем опенсорс код и веса модели.

Я проверил его на любимом моем примере - написании кода игры в морской бой. у меня есть претензии к результату с точки зрения качества кода. Но он получился работоспособным и это самое важное. Внутри у нее кроме неонки всё традиционно - GPT2 модель на примерно миллиард токенов. Качество работы на моих примерах чуть хуже CoPilot но начало положено https://huggingface.co/bigcode/starcoder
TWIMC

string2string: A Modern Python Library for String-to-String Algorithms
https://arxiv.org/abs/2304.14395

We introduce string2string, an open-source library that offers a comprehensive suite of efficient algorithms for a broad range of string-to-string problems. It includes traditional algorithmic solutions as well as recent advanced neural approaches to tackle various problems in string alignment, distance measurement, lexical and semantic search, and similarity analysis -- along with several helpful visualization tools and metrics to facilitate the interpretation and analysis of these methods. Notable algorithms featured in the library include the Smith-Waterman algorithm for pairwise local alignment, the Hirschberg algorithm for global alignment, the Wagner-Fisher algorithm for edit distance, BARTScore and BERTScore for similarity analysis, the Knuth-Morris-Pratt algorithm for lexical search, and Faiss for semantic search. Besides, it wraps existing efficient and widely-used implementations of certain frameworks and metrics, such as sacreBLEU and ROUGE, whenever it is appropriate and suitable. Overall, the library aims to provide extensive coverage and increased flexibility in comparison to existing libraries for strings. It can be used for many downstream applications, tasks, and problems in natural-language processing, bioinformatics, and computational social sciences. It is implemented in Python, easily installable via pip, and accessible through a simple API. Source code, documentation, and tutorials are all available on our GitHub page:

https://github.com/stanfordnlp/string2string