WTF is this manual? – Telegram
WTF is this manual?
27 subscribers
174 photos
40 videos
78 files
690 links
Obscure IT and graphs of...what?
Download Telegram
Forwarded from Open Source
Locus

Locus — это свободное приложение с открытым исходным кодом для Android и iOS, которое позволяет вам делиться своим местоположением в режиме реального времени конфиденциально.

Он шифрует ваше местоположение от начала до конца и хранит данные децентрализованно на нескольких серверах, используя Nostr.

Есть два варианта для Android: GMS, который использует сервисы Google Play, и F-droid, который полностью свободен.

Версия для iOS еще не выпущена, но пользователи могут сами собрать и установить приложение.

https://github.com/Myzel394/locus

F-droid: https://f-droid.org/packages/app.myzel394.locus/
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
GodMode

Это специальный чат-браузер, который делает только одну вещь: помогает вам быстро получить доступ ко всем веб-приложениям ChatGPT, Claude 2, Perplexity, Bing, Llama2 и другим с помощью одной комбинации клавиш (Cmd+Shift+G)

https://github.com/smol-ai/GodMode
Forwarded from Neural Shit
А вообще, если вам нужна русскоязычная моделька для каких-то ускоспециализированных целей, то пизже ruGPT еще ничего не придумано. Сама по себе эта моделька деревянная и особо толку от нее на фоне ChatGPT всех версий нет. Но вот если немножко запариться и правильно дообучить эту модельку своим датасетом — часто получается годнота. А главное — никакой сои, обучать просто (если ты не где-нибудь в Арктике, где белые медведи последние рельсы доедают) самой бичной подписки колаба хватает, а то и бесплатной, если повезет. Ну и само дообучение просто как дверь от сарая и проходит без особого пердолинга
Forwarded from GitHub Community
Awesome OSS Monetizationсписок потрясающих подходов к монетизации программного обеспечения с открытым исходным кодом

Этот список является результатом обширного интернет-исследования. Он разбит на категории на основе концепции, за которую платит плательщик

Ссылка на проект

GitHub | #Interesting #Code #Web
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
Pake

Pake — это инструмент, который позволяет пользователям превращать любую веб-страницу в настольное приложение с помощью Rust.

Он поддерживает Mac, Windows и GNU/Linux.

Pake почти в 20 раз меньше пакета Electron и работает быстрее, чем фреймворки на основе JS.
Pake уже предоставляет популярные пакеты для, включая WeRead, Twitter, ChatGPT, YouTube Music и другие.

Для навигации по приложению доступны сочетания клавиш.

Pake можно настроить с помощью упаковки из командной строки и путем изменения структуры кодовой базы.

https://github.com/tw93/Pake
Forwarded from Kali Novskaya (Tatiana Shavrina)
Про обучение на логах вызовов API:
Schick et al. (2023)
1) sampling API calls for random positions in the text via few-shot prompting;
2) executing the API calls;
3) filtering out all API calls that do not reduce the LLM’s loss over the next tokens; and adding all remaining API calls to the text.
Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.


Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).

Я такое очень люблю, локальные языковые модели на базе llama2 это:

— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;

— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;

— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.

— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.

Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.

Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.

Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣

Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.

Модель с которой я игрался (34B)
Скрипт которым запускаю инференс (Mac)

TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты

@Denis
Forwarded from Ai molodca (Dobrokotov)
Ребята, там это, Гугловский #bard на русском выкатился: https://bard.google.com. Бесплатно, но нужен европейский ВПН. Так что не чатгпт единым. Пол дня переписываю простенькие тексты, вроде хорошо. Но призываю вас потестить и поделиться свежими впечатлениями в хабе @AIMolodcaHub.
Forwarded from AbstractDL
Qwen-VL: вероятно лучшая мультимодальная языковая модель (by Alibaba)

Мало того, что по текстовым метрикам Qwen-7b превосходит LlaMa2-13b, так ещё и картинки теперь понимает!

Правда архитектурно ничего нового тут нет:
ViT-G + однослойный Q-former + LLM
Изображения сжимаются в 256 эмбеддингов, которые идут прямо в контекст языковой модели (как во FROMAGe). Дополнительно Qwen-VL умеет в object detection — bbox'ы подаются и генерируются как обычный текст.

По точности она бьёт всё, что было до неё, причём с запасом (см. картинку). Модель обучается в 3 этапа: сначала размораживаются ViT и адаптер, затем размораживается LLM, а в конце тюнится одна только LLM (уже на самых чистых диалогах). Модель получилась мультиязычной, поэтому русский язык она тоже понимает.

Статья, GitHub