WTF is this manual? – Telegram
WTF is this manual?
27 subscribers
174 photos
40 videos
78 files
690 links
Obscure IT and graphs of...what?
Download Telegram
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
Llama Terminal Completion

Свободный аналог Shell GPT — Приложение Python для предоставления возможностей виртуального помощника через командную строку.

Он позволяет вам задавать вопросы на естественном языке и получать разумные ответы, а также генерировать команды GNU/Linux на основе ваших запросов.

В отличии от Shell GPT, Llama Terminal Completion взаимодействует с библиотекой llama.cpp локально на устройстве пользователя и ваши данные не зависят от корпорации.

https://github.com/adammpkins/llama-terminal-completion
Forwarded from GitHub Community
free-games-claimerинструмент для автоматического получения бесплатных игр в Epic Games Store, Amazon Prime Gaming и GOG

Параметры конфигурации могут быть установлены через переменные среды. Инструмент поддерживает автоматический вход и двухфакторную аутентификацию

Ссылка на проект

GitHub | #Interesting #Useful
Forwarded from GitHub Community
​​changedetection.ioдетектор обнаружения изменений на веб-сайтах с открытым исходным кодом

Инструмент предназначен для умных покупателей, журналистов, инженеров-исследователей, специалистов по данным, исследователей в области безопасности и т.д

Ссылка на проект

GitHub | #Interesting #Web
Forwarded from Open Source
Locus

Locus — это свободное приложение с открытым исходным кодом для Android и iOS, которое позволяет вам делиться своим местоположением в режиме реального времени конфиденциально.

Он шифрует ваше местоположение от начала до конца и хранит данные децентрализованно на нескольких серверах, используя Nostr.

Есть два варианта для Android: GMS, который использует сервисы Google Play, и F-droid, который полностью свободен.

Версия для iOS еще не выпущена, но пользователи могут сами собрать и установить приложение.

https://github.com/Myzel394/locus

F-droid: https://f-droid.org/packages/app.myzel394.locus/
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
GodMode

Это специальный чат-браузер, который делает только одну вещь: помогает вам быстро получить доступ ко всем веб-приложениям ChatGPT, Claude 2, Perplexity, Bing, Llama2 и другим с помощью одной комбинации клавиш (Cmd+Shift+G)

https://github.com/smol-ai/GodMode
Forwarded from Neural Shit
А вообще, если вам нужна русскоязычная моделька для каких-то ускоспециализированных целей, то пизже ruGPT еще ничего не придумано. Сама по себе эта моделька деревянная и особо толку от нее на фоне ChatGPT всех версий нет. Но вот если немножко запариться и правильно дообучить эту модельку своим датасетом — часто получается годнота. А главное — никакой сои, обучать просто (если ты не где-нибудь в Арктике, где белые медведи последние рельсы доедают) самой бичной подписки колаба хватает, а то и бесплатной, если повезет. Ну и само дообучение просто как дверь от сарая и проходит без особого пердолинга
Forwarded from GitHub Community
Awesome OSS Monetizationсписок потрясающих подходов к монетизации программного обеспечения с открытым исходным кодом

Этот список является результатом обширного интернет-исследования. Он разбит на категории на основе концепции, за которую платит плательщик

Ссылка на проект

GitHub | #Interesting #Code #Web
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
Pake

Pake — это инструмент, который позволяет пользователям превращать любую веб-страницу в настольное приложение с помощью Rust.

Он поддерживает Mac, Windows и GNU/Linux.

Pake почти в 20 раз меньше пакета Electron и работает быстрее, чем фреймворки на основе JS.
Pake уже предоставляет популярные пакеты для, включая WeRead, Twitter, ChatGPT, YouTube Music и другие.

Для навигации по приложению доступны сочетания клавиш.

Pake можно настроить с помощью упаковки из командной строки и путем изменения структуры кодовой базы.

https://github.com/tw93/Pake
Forwarded from Kali Novskaya (Tatiana Shavrina)
Про обучение на логах вызовов API:
Schick et al. (2023)
1) sampling API calls for random positions in the text via few-shot prompting;
2) executing the API calls;
3) filtering out all API calls that do not reduce the LLM’s loss over the next tokens; and adding all remaining API calls to the text.
Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.


Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).

Я такое очень люблю, локальные языковые модели на базе llama2 это:

— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;

— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;

— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.

— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.

Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.

Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.

Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣

Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.

Модель с которой я игрался (34B)
Скрипт которым запускаю инференс (Mac)

TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты

@Denis