Forwarded from Denis Sexy IT 🤖
На неделе, от Meta, вышла новая серия «больших языковых моделей» — которая позволяет генерировать код по текстовому запросу, ну, как многие это делали в ChatGPT.
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
Поскольку темпы в нашей индустрии невероятные, модель подхватили в сообществе, и уже через пару дней опубликовали дообученные версии (общей направленности, и отдельно дообученную модель для генерации Python кода). Что интересно, сделали это несколько разных команд, и обе получили результаты в спец тесте чуть выше, чем есть сейчас у GPT4 в генерации кода (1, 2).
Я такое очень люблю, локальные языковые модели на базе llama2 это:
— Хорошая лицензия для бизнеса: то есть можно прикручивать в стартапы;
— Безопасность: я точно знаю, что сотрудникам крупных компаний запрещают отсылать в ChatGPT корпоративные данные, локальные модели это обходят, так как никуда данные не отправляют и процессят их только на устройстве;
— Гибкость: модель можно дообучить, играться с параметрами или можно передать негативный промпт и снять с нее цензуру (тут я написал небольшую инструкцию как этого добиться), или заставить отдавать только строгий JSON формат и тп.
— Это дешевле в частном использовании: не все готовы отдавать по $20 в месяц за GPT4, так как могут учиться программировать, не обладать лишними деньгами и тп.
Поэтому я сразу побежал играться с этой моделью, с конкретной задачей — мне лениво пытаться самому понять, что делают некоторые скрипты (скрипты умнее меня), поэтому я прошу языковые модели конвертировать код в обычный текст.
Для тестов я взял исходный код древнего вируса Чернобыль (CIH), тот самый, который с 1998 вывел из строя 600 миллионов компьютеров, и нанес ущерба на 35 миллионов долларов.
Если откроете ссылку, то увидите что кода довольно много, а каждая языковая модель ограничена на входе размером текста который она может принять на вход (например, модель в которой я тестирую, была натренирована на 4K токенов, что примерно ~2800 слов) — поэтому пришлось насильно расширить контекстное пространство до 16K токенов (спасибо GGUF, не реперу, а новому формату llama.cpp который специально создан, чтобы упростить жизнь для работы с большим контекстом). Короче, спустя пару минут шумящего компьютера я получил описание того, что делает вирус, простым языком, и без всякого интернета 🫣
Дальше планирую с помощью модели порешать разные задачи которые встречаются в работе продуктолога: процессинг данных о использовании сервисов, написание запросов и тп, с GPT4 я уже довольно много всего наделал работая с данными, теперь интересно попробовать что же умеет делать GPT-дома.
☆ Модель с которой я игрался (34B)
☆ Скрипт которым запускаю инференс (Mac)
TL;DR: Жесть мы в будущем, теперь без интернета можно писать и дебажить скрипты
@Denis
Forwarded from Ai molodca (Dobrokotov)
Ребята, там это, Гугловский #bard на русском выкатился: https://bard.google.com. Бесплатно, но нужен европейский ВПН. Так что не чатгпт единым. Пол дня переписываю простенькие тексты, вроде хорошо. Но призываю вас потестить и поделиться свежими впечатлениями в хабе @AIMolodcaHub.
Gemini
Google Gemini
Meet Gemini, Google’s AI assistant. Get help with writing, planning, brainstorming, and more. Experience the power of generative AI.
Forwarded from AbstractDL
Qwen-VL: вероятно лучшая мультимодальная языковая модель (by Alibaba)
Мало того, что по текстовым метрикам Qwen-7b превосходит LlaMa2-13b, так ещё и картинки теперь понимает!
Правда архитектурно ничего нового тут нет:
По точности она бьёт всё, что было до неё, причём с запасом (см. картинку). Модель обучается в 3 этапа: сначала размораживаются ViT и адаптер, затем размораживается LLM, а в конце тюнится одна только LLM (уже на самых чистых диалогах). Модель получилась мультиязычной, поэтому русский язык она тоже понимает.
Статья, GitHub
Мало того, что по текстовым метрикам Qwen-7b превосходит LlaMa2-13b, так ещё и картинки теперь понимает!
Правда архитектурно ничего нового тут нет:
ViT-G + однослойный Q-former + LLMИзображения сжимаются в 256 эмбеддингов, которые идут прямо в контекст языковой модели (как во FROMAGe). Дополнительно Qwen-VL умеет в object detection — bbox'ы подаются и генерируются как обычный текст.
По точности она бьёт всё, что было до неё, причём с запасом (см. картинку). Модель обучается в 3 этапа: сначала размораживаются ViT и адаптер, затем размораживается LLM, а в конце тюнится одна только LLM (уже на самых чистых диалогах). Модель получилась мультиязычной, поэтому русский язык она тоже понимает.
Статья, GitHub
Forwarded from GitHub Community
Blimp — пользовательский интерфейс терминала, который можно использовать для мониторинга информации о погоде, состояния приложений, задержки в сети и многого другого
Конфигурацию можно выполнить через файл blimp.toml, где пользователи могут настраивать виджеты и макет в соответствии со своими предпочтениями
⤷ Ссылка на проект
GitHub | #Interesting #Useful #Support
Конфигурацию можно выполнить через файл blimp.toml, где пользователи могут настраивать виджеты и макет в соответствии со своими предпочтениями
⤷ Ссылка на проект
GitHub | #Interesting #Useful #Support
Forwarded from RUH8
Must read, для всех кого интересует кибер (и шмибер), книжки в этой области, которые вобще стоит открывать можно пересчитать по пальцам одной руки.
Minimodem can be used to transfer data between nearby computers using an
audio cable (or just via sound waves), or between remote computers using
radio, telephone, or another audio communications medium.
audio cable (or just via sound waves), or between remote computers using
radio, telephone, or another audio communications medium.
GitHub
GitHub - kamalmostafa/minimodem: general-purpose software audio FSK modem
general-purpose software audio FSK modem. Contribute to kamalmostafa/minimodem development by creating an account on GitHub.
Forwarded from Open Source
This media is not supported in your browser
VIEW IN TELEGRAM
Open Interpreter
Open Interpreter — это локально работающая реализация интерпретатора кода OpenAI с открытым исходным кодом.
Это позволяет языковым моделям запускать код на вашем компьютере.
Open Interpreter поддерживает несколько языков программирования, таких как Python, JavaScript и Shell.
Он обеспечивает интерфейс на естественном языке для универсальных возможностей вашего компьютера.
Он имеет полный доступ к Интернету, не имеет ограничений по времени или размеру файла и может использовать любой пакет или библиотеку.
Его можно использовать для различных задач, таких как создание и редактирование медиафайлов, управление браузером и анализ наборов данных.
Его можно установить через pip, а доступ к нему можно получить через терминал или через код Python.
Пользователи могут изменить используемую модель.
☝🏻Рекомендуется проявлять осторожность при выполнении кода, который может изменять файлы или настройки системы.
https://github.com/KillianLucas/open-interpreter
Open Interpreter — это локально работающая реализация интерпретатора кода OpenAI с открытым исходным кодом.
Это позволяет языковым моделям запускать код на вашем компьютере.
Open Interpreter поддерживает несколько языков программирования, таких как Python, JavaScript и Shell.
Он обеспечивает интерфейс на естественном языке для универсальных возможностей вашего компьютера.
Он имеет полный доступ к Интернету, не имеет ограничений по времени или размеру файла и может использовать любой пакет или библиотеку.
Его можно использовать для различных задач, таких как создание и редактирование медиафайлов, управление браузером и анализ наборов данных.
Его можно установить через pip, а доступ к нему можно получить через терминал или через код Python.
Пользователи могут изменить используемую модель.
☝🏻Рекомендуется проявлять осторожность при выполнении кода, который может изменять файлы или настройки системы.
https://github.com/KillianLucas/open-interpreter