Forwarded from Neural Shit
А вообще, если вам нужна русскоязычная моделька для каких-то ускоспециализированных целей, то пизже ruGPT еще ничего не придумано. Сама по себе эта моделька деревянная и особо толку от нее на фоне ChatGPT всех версий нет. Но вот если немножко запариться и правильно дообучить эту модельку своим датасетом — часто получается годнота. А главное — никакой сои, обучать просто (если ты не где-нибудь в Арктике, где белые медведи последние рельсы доедают) самой бичной подписки колаба хватает, а то и бесплатной, если повезет. Ну и само дообучение просто как дверь от сарая и проходит без особого пердолинга
Forwarded from GitHub Community
Awesome OSS Monetization – список потрясающих подходов к монетизации программного обеспечения с открытым исходным кодом
Этот список является результатом обширного интернет-исследования. Он разбит на категории на основе концепции, за которую платит плательщик
⤷ Ссылка на проект
GitHub | #Interesting #Code #Web
Этот список является результатом обширного интернет-исследования. Он разбит на категории на основе концепции, за которую платит плательщик
⤷ Ссылка на проект
GitHub | #Interesting #Code #Web
Forwarded from Glitch (de)generative memes
50 моих любимых техник.pdf
223.1 KB
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
Pake
Pake — это инструмент, который позволяет пользователям превращать любую веб-страницу в настольное приложение с помощью Rust.
Он поддерживает Mac, Windows и GNU/Linux.
Pake почти в 20 раз меньше пакета Electron и работает быстрее, чем фреймворки на основе JS.
Pake уже предоставляет популярные пакеты для, включая WeRead, Twitter, ChatGPT, YouTube Music и другие.
Для навигации по приложению доступны сочетания клавиш.
Pake можно настроить с помощью упаковки из командной строки и путем изменения структуры кодовой базы.
https://github.com/tw93/Pake
Pake — это инструмент, который позволяет пользователям превращать любую веб-страницу в настольное приложение с помощью Rust.
Он поддерживает Mac, Windows и GNU/Linux.
Pake почти в 20 раз меньше пакета Electron и работает быстрее, чем фреймворки на основе JS.
Pake уже предоставляет популярные пакеты для, включая WeRead, Twitter, ChatGPT, YouTube Music и другие.
Для навигации по приложению доступны сочетания клавиш.
Pake можно настроить с помощью упаковки из командной строки и путем изменения структуры кодовой базы.
https://github.com/tw93/Pake
Forwarded from Kali Novskaya (Tatiana Shavrina)
Про обучение на логах вызовов API:
Schick et al. (2023)
1) sampling API calls for random positions in the text via few-shot prompting;
2) executing the API calls;
3) filtering out all API calls that do not reduce the LLM’s loss over the next tokens; and adding all remaining API calls to the text.
Schick et al. (2023)
1) sampling API calls for random positions in the text via few-shot prompting;
2) executing the API calls;
3) filtering out all API calls that do not reduce the LLM’s loss over the next tokens; and adding all remaining API calls to the text.
Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
Forwarded from Ai molodca (Dobrokotov)
Ребята, там это, Гугловский #bard на русском выкатился: https://bard.google.com. Бесплатно, но нужен европейский ВПН. Так что не чатгпт единым. Пол дня переписываю простенькие тексты, вроде хорошо. Но призываю вас потестить и поделиться свежими впечатлениями в хабе @AIMolodcaHub.
Gemini
Google Gemini
Meet Gemini, Google’s AI assistant. Get help with writing, planning, brainstorming, and more. Experience the power of generative AI.
Forwarded from AbstractDL
Qwen-VL: вероятно лучшая мультимодальная языковая модель (by Alibaba)
Мало того, что по текстовым метрикам Qwen-7b превосходит LlaMa2-13b, так ещё и картинки теперь понимает!
Правда архитектурно ничего нового тут нет:
По точности она бьёт всё, что было до неё, причём с запасом (см. картинку). Модель обучается в 3 этапа: сначала размораживаются ViT и адаптер, затем размораживается LLM, а в конце тюнится одна только LLM (уже на самых чистых диалогах). Модель получилась мультиязычной, поэтому русский язык она тоже понимает.
Статья, GitHub
Мало того, что по текстовым метрикам Qwen-7b превосходит LlaMa2-13b, так ещё и картинки теперь понимает!
Правда архитектурно ничего нового тут нет:
ViT-G + однослойный Q-former + LLMИзображения сжимаются в 256 эмбеддингов, которые идут прямо в контекст языковой модели (как во FROMAGe). Дополнительно Qwen-VL умеет в object detection — bbox'ы подаются и генерируются как обычный текст.
По точности она бьёт всё, что было до неё, причём с запасом (см. картинку). Модель обучается в 3 этапа: сначала размораживаются ViT и адаптер, затем размораживается LLM, а в конце тюнится одна только LLM (уже на самых чистых диалогах). Модель получилась мультиязычной, поэтому русский язык она тоже понимает.
Статья, GitHub
Forwarded from GitHub Community
Blimp — пользовательский интерфейс терминала, который можно использовать для мониторинга информации о погоде, состояния приложений, задержки в сети и многого другого
Конфигурацию можно выполнить через файл blimp.toml, где пользователи могут настраивать виджеты и макет в соответствии со своими предпочтениями
⤷ Ссылка на проект
GitHub | #Interesting #Useful #Support
Конфигурацию можно выполнить через файл blimp.toml, где пользователи могут настраивать виджеты и макет в соответствии со своими предпочтениями
⤷ Ссылка на проект
GitHub | #Interesting #Useful #Support
Forwarded from RUH8
Must read, для всех кого интересует кибер (и шмибер), книжки в этой области, которые вобще стоит открывать можно пересчитать по пальцам одной руки.