WTF is this manual? – Telegram
WTF is this manual?
27 subscribers
174 photos
40 videos
78 files
690 links
Obscure IT and graphs of...what?
Download Telegram
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
llama.cpp

Порт ИИ Facebook LLaMA на чистом C/C++ с использованием 4-битного квантования.

Простыми словами ИИ равный по мощности GPT-3, который вы можете запустить у себя на устройстве.

Чуть подробнее: https://news.1rj.ru/str/black_triangle_tg/3490

Работает на Mac OS, GNU/Linux, Windows (via CMake), Android (Termux)

https://github.com/ggerganov/llama.cpp
Forwarded from Code Learning
Thing Translator

инструмент, который помогает учить иностранный язык с помощью фото. Технологию разработали совместно с Google Creative Lab в рамках проекта AI Experiments. Это простые эксперименты с машинным обучением, которые помогают разработчикам всего мира узнать о возможностях ИИ.

⤷ Ознакомиться на сайте

Code Learning | #Projects
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
🦙 LLaMa не стоит на месте

Есть уже куча примеров какие чудеса кулибины вытворяют с моделькой LLaMa. А вчера чел соорудил подобие Джарвиса, или Алексы, если хотите, прямо у себя в терминале на MacBook M1 Pro.

Причем все работает реалиайм на связке Whisper + LLaMa.

Под капотом: ggml / whisper.cpp / llama.cpp / Core ML
STT: Whisper Small
LLM: 13B LLaMA

Другой Кулибин начал прикручивать плагины от ChatGPT к опенсоурсной LLaMa. Уже работает text-retrieval плагин, и есть код.

@ai_newz
Forwarded from Futuris (Anton)
LLM продолжают упрощаться в обучении и становятся всё ближе к пользователям:

Платформа Databricks, специализирующаяся на обработке больших данных и искусственном интеллекте, выпустила открытую версию модели большого языкового обучения (LLM) под названием Dolly. Модель названа в честь клонированной овечки Долли🐑 Эта языковая модель предназначена для создания чат-ботов, которые выполняют инструкции, аналогично модели ChatGPT от OpenAI.

Databricks сообщает, что для обучения Dolly требуется совсем немного данных и времени. Модель имеет 6 млрд параметров, в то время как GPT-3 имеет 175 млрд параметров, однако Databricks утверждает, что Dolly обладает качествами, схожими с ChatGPT.

Преимущества создания собственных LLM моделей включают контроль над чувствительными данными, качеством модели, стоимостью и желаемым поведением. Вдохновленные успешностью моделей LLaMA и Alpaca, разработчики из Databricks модифицировали существующую открытую модель с 6 млрд параметров от EleutherAI, добавив возможность следовать инструкциям, такие как создание идей и генерация текста.

По мнению генерального директора Databricks Али Годси, в будущем больше компаний смогут использовать модели LLM, и их стоимость будет снижаться. В каждой отрасли лидирующие компании будут использовать такие технологии и модели для своих нужд.

А вот репозиторий модельки, вдруг кому-то захочется поиграться🤓 - https://github.com/databrickslabs/dolly?ref=producthunt
Forwarded from Open Source
​​Sherloq

Sherloq — набор инструментов для судебной криминалистической экспертизы цифровых изображений с открытым исходным кодом.

Он задуман не как автоматический инструмент, решающий, подделано изображение или нет (этот инструмент, вероятно, никогда не будет существовать...), а как помощник в экспериментах с различными алгоритмами, найденными в последних научных статьях и семинарах по данной теме.

https://github.com/GuidoBartoli/sherloq
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
SingularGPT

SingularGPT — это проект с открытым исходным кодом, целью которого является автоматизация сложных задач и устройств, с использованием новейших популярных моделей ChatGPT и GPT-4.

Если коротко это кликер на максималках.

▫️Запрос: Эй, пожалуйста, нажмите на элемент с текстом «Document Writer», после этого нажмите на изображение с путем «image.png», после этого прокрутите вниз, а затем найдите элемент, который находится над текстом «Файл», дважды щелкните его левой кнопкой мыши.

🔻SingularGPT обработает его и выполнит задачу.
Forwarded from Denis Sexy IT 🤖
Кстати, насчет книг – если вы заядлый любитель почитать, то вот тут можете ввести книгу или несколько, которые нравятся, и AI порекомендует книг в таком же стиле:
https://www.librarian-ai.com/
Forwarded from gerontion
Forwarded from Фермата
Экспериментальная шенберговская система записи двенадцатитоновой музыки.

Composition with Twelve Tones. Schönberg’s Reorganization of Music
From the exhibition | Object 28
Arnold Schönberg: Suite, op. 29. Twelve-Tone Notation. 1924
With atonality and the twelve-tone method, the accidentals used in traditional notation as signposts to tonality became de facto obsolete – where there is no tonic keynote, accidentals such as # and ♭ do not have to give direction to the course of the melody. In January 1925, Schönberg published his ideas for a simplified twelve-tone notation in the music journal Anbruch. The musical staff is reduced to three lines and short diagonal lines assume the function of accidentals. For the Suite, op. 29, he worked out a ruler that combines the basic form with various derivations. As with languages and their codification in different systems of characters, it should eventually become common “to master two different musical notations equally well.“
Forwarded from AbstractDL
🔥MiniGPT-4: почти как GPT-4, но всего 13B параметров

Оказалось, если соединить LLaMA (Vicuna) и FROMAGe, то получится не только на 90% приблизиться к GPT-4, но и даже воспроизвести её визуальные навыки! При том, что тут обучается всего лишь один единственный линейный слой.

По сравнению с FROMAGe тут добавили Q-former и файнтюнинг на своём чистейшем визуально-диалоговом сете (3.5к примеров).

С помощью этой модели можно даже сгенерировать код сайта по одному лишь наброску! Код и веса есть в открытом доступе.

Статья, GitHub, датасет, блог