ChatGPTevelopment & Promptgramming – Telegram
ChatGPTevelopment & Promptgramming
20 subscribers
192 photos
34 videos
5 files
307 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
Вот сейчас будет круто: команда энтузиастов создала модель Open Interpreter — копию Code Interpreter в ChatGPT, но работающую локально.

Благодаря этому вы можете делать что угодно со своим компьютером с помощью текстовых команд — сделать краткую выжимку со статьи Word, изменить настройки системы или управлять браузером.

Доступно полностью бесплатно, установить можно с GitHub.

https://news.1rj.ru/str/exploitex/9595
AI программист

Я пользуюсь GitHub Copilot для ускорения процесса разработки. Он может писать небольшие куски кода, документацию к методам и классам, предлагать как исправить баг, если ему отправить текст из логов и указать конкретный файл или даже кусок кода с ошибкой. Но он не может заменить программиста, даже джуниора.

Ему не хватает:
• Возможности держать в контексте весь проект, а не только один файл.
• Возможности реально запускать и проверять те изменения в коде, которые он предложил.
• Доступа к интернету для поиска актуальной информации / документации, а не только к той, на которой обучена LLM.


Вчера я наткнулся на сервис Devin, который пытается решить эти проблемы. Devin представляет из себя LLM + браузер для поиска актуальной информации + виртуальное окружение для запуска и проверки изменений + кодовый редактор.

На их сайте есть примеры решения реальных задач с Upwork end-to-end. Например, тут стоит задача разобраться как запустить computer vision модель из GitHub репозитория.
• Devin сам делает git pull
• Ставит нужные зависимости
• Исправляет ошибки в зависимостях и коде
• И запускает модель


Звучит круто, хочеться попробовать на своих примерах в реальности. Когда дадут доступ к бете, опишу что вышло 😉
Forwarded from Neurohive
Gorilla: open source модель для вызова 1600+ сторонних API

Gorilla получает на вход запрос на естественном языке и находит семантически и синтаксически правильное API для вызова. С помощью Gorilla впервые продемонстрировано, как использовать LLMs для точного вызова более 1 600 API (их число постоянно растет).

Модель обученна на основе LLaMA и превосходит производительность GPT-4 в написании вызовов API. Gorilla генерирует корректные вызовы API для моделей машинного обучения без галлюцинаций, адаптируется к изменениям в документации и принимает во внимание ограничения API. Производительность настроенной модели превосходит GPT-4 на трех масштабных наборах данных.

Для оценки возможностей модели авторы создали набор данных APIBench, который включает в себя API HuggingFace, TorchHub и TensorHub. Если хотите добавить свое API, просто создайте пул-реквест в репозитории и напишите авторам на электронную почту.

#StateoftheArt
Forwarded from Градиент обреченный (Sergei Averkiev)
🔺 Grok выложили в открытый доступ

🔸 В open source выложили языковую модель Grok-1 от X.AI (твиттер). Название идёт из книги Хайнлайна «Чужак в стране чужой», где воспитанный марсианами человек «грокал» все новые для себя понятия на Земле.

🔸 Модель является претрейном, т.е. для работы в формате диалога её надо будет дообучать на инструкциях.

🔸 Архитектурно это MoE (Mixture of Experts) с 314B параметров (~300Гб). На инференсе активируется 8 экспертов (25% весов).

🔸 Токенизатор на 131k токенов.

> tokenizer.EncodeAsPieces('Языковая модель Grok')

> ['▁Я', 'зы', 'кова', 'я', '▁мо', 'дель', '▁Gro', 'k']


🔸 Лицензия Apache 2.0.

👉 GitHub | Release
This media is not supported in your browser
VIEW IN TELEGRAM
Devin — автономный AI-программист, который умеет самостоятельно разрабатывать приложения

Devin получает текстовый запрос от пользователя, составляет план разработки и, следуя плану, пишет нужный код. По ходу разработки нейросеть самостоятельно скачивает нужные файлы, изучает документацию и исправляет ошибки в коде.


@aioftheday — новости вокруг искусственного интеллекта
Forwarded from Sber AI
Новый чемпион опенсорса: DBRX победила Grok (и всех остальных)

И это несмотря на то, что размеры детища Маска превышают разработку от Databricks в два раза.

Больше подробностей:

LLM использует архитектуру Mixture of Experts
общее количество параметров 132 млрд, из которых 36 активны при любом вводе
обучена с помощью 3 000 H100 и 12 трлн токенов текстовых данных и кода
максимальная длина контекста — 32 тысячи токенов
датасет — более совершенный, чем тот, что использовали для обучения моделей семейства MPT
в модели задействовано в два раза больше экспертов: 16 (активных 4) при 8 у конкурентов (при активных 2)
соответственно, в 65 раз больше возможных комбинаций экспертов

DBRX Base и DBRX Instruct доступны для скачивания на Hugging Face. Репозиторий моделей DBRX можно найти на GitHub.

Больше информации в блоге разработчика.

Изображение DBRX
Please open Telegram to view this post
VIEW IN TELEGRAM
🔗 ТОП ChatGPT или когда уже заменят этих программистов!

Мой список GPT, которыми я пользуюсь:
1. You.com
2. OpenChat
3. Mistral
4. Julius - может читать загружаемые данные

Причем Julius – это прям Jupyter Notebook, где в ячейках на Input сидит ChatGPT и читает ваш промпт, а в ячейках на вывод пишется и автоматически запускается код. Т.е. например я загрузил CSV файл, попросил проанализировать, и в ответ GPT начинает писать код на pandas и тут же его запускает. По факту конечно GPT не анализирует ваши данные, он лишь пишет код и дает команду на запуск. В ответ получает json с датафреймом, который можно распечатать в той же ячейке. А это считайте, как текст. Ну а с текстом chat работать умеет. Тут он просто его пересказывает.

Чисто в теории я уже думаю, что нет проблем запустить таким образом и spark приложение. Будет подольше, но в целом логика та же. Т.е. все что нужно – это дать нейронке читать содержимое ячеек пользователя.

Следующий шаг – дать возможность нейронке именно обучаться на данных. Очевидно, что это будет занимать куда больше времени. Но что если дать обучить на условном сэмпле одного дня в 1Тб, а дальше уже писать код, ориентированный на специфику хранения данных.

Если есть мысли на это счет, wellcome в комменты. А также можете поделиться своими ссылками на полезные AI

https://awclub.github.io/catalog/ - Библиотека всех AI
Please open Telegram to view this post
VIEW IN TELEGRAM
В BigQuery слева-сверху окна редактора запросов появилась кнопка ввода промта. Умение писать SQL запросы постепенно обесценивается, но и скорость написания запросов и исправление ошибок становится быстрее.
@killer_ferature
👍2
This media is not supported in your browser
VIEW IN TELEGRAM
#LLaMa 3 добавили в #VSCode.

Ставите расширение CodeGPT для VSCode и потом ставите Ollama, после чего в терминале пишем:

ollama pull llama3:8b

В настройках расширения, где «Select a mode» выбираете LLaMa 3 и пользуемся.

#LLaMa3 #CodeGPT #Ollama
🔥1
Forwarded from Cross Join - канал о разработке (Anton Okolelov)
Написал статью про семантический поиск с помощью посгреса и OpenAI API.

Казалось бы, в посгресе и так есть неплохой полнотекстовый поиск (tsvector/tsquery), и вы из коробки можете проиндексировать ваши тексты, а потом поискать по ним. Но на самом деле это не совсем то, что нужно — такой поиск работает лишь по чётким совпадениям слов. Т.е. postgres не догадается, что "кошка гонится за мышью" — это довольно близко к "котёнок охотится на грызуна". Как же победить такую проблему?


TLDR:


1. Преобразовываем наши тексты в наборы чисел (векторы) при помощи API openAI.
2. Сохраняем векторы в базе с помощью pgvector.
3. Легко ищем близкие друг к другу векторы или ищем их по вектору-запросу.
4. Ускоряем индексами.

Как всегда, буду рад плюсикам на Хабре:

https://habr.com/ru/companies/karuna/articles/809305/

Канал Cross Join. Подпишись
💬 Amazon открыла больший доступ к своему корпоративному чат-боту Q. Инструмент также обзавелся новыми функциями.

Новая функция Amazon Q Developer помогает с кодированием, тестированием и отладкой приложений. Разработчики могут запрашивать у чат-бота список ресурсов AWS и автоматизировать задачи.

🧑‍💻 Amazon Q Apps позволяет создавать приложения на базе генеративного ИИ даже без опыта кодирования. Для этого достаточно описать нужный тип программы в запросе.

#Amazon #Q
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Все про агенты в LLM🌸
#nlp #про_nlp #nlp_papers #agirussia

Когда привичных способностей LLM уже недостаточно, хочется добавить внешние модули — долгосрочную память, планирование, различные API. Прикрутить самокоррекцию и chain-of-thought. В таком случае, системе можно предоставить некоторую степень автономности — в ограниченных условиях. Такие системы принято называть агентами.

🟣Что такое агент?
Агент — автономная система, в которой LLM является основными "мозгами", к которым подключены API и возможность их самостоятельно вызывать и работать с результатами этих вызовов. Проекты-прототипы:
— AutoGPT — фреймворк для создания агентов и автоматизации LLM, приме проекта — https://godmode.space/
— GPT-Engineer — ассистент для написания кода, который может создать репозиторий проекта, задать уточняющие вопросы походу, написать код и тесты.
— BabyAGI — Llama, RAG + планировщик в докере, такой LangChain на стероидах

Такой подход хорошо соотносится с вики-определением AGI: для него нужна способность изъясняться на естественном языке, учиться новым навыкам, планировать, оперировать знаниями, принимать решения в условиях неопределенности.

🟣Что добавить в агента?
— Набор действий
: генерация команд, релевантных домену, которые можно однозначно проинтерпретировать (вызвать API, отправить поисковый запрос, отправить SQL-запрос в базу)
— Планирование: Цели и их декомпозиция на последовательность действий: агент разбивает крупные задачи на более мелкие действия. Интересный подход — LLM+P (arxiv), где внешняя модель, а не LLM, отвечает за формализм планирования.
Рефлексия и уточнение своих ответов по ходу цепочки сообщений: Chain-of-thought (arxiv), Tree-of-thought (arxiv), саморефлекция как в статье react (arxiv) или Chain of Hindsight (arxiv).
— Память:
RAG, векторные БД, хранение полезной информации в окне контекста.
— API/Инструменты:
имеет смысл подключать в первую очередь те инструменты, которые перекрывают недостатки LLM в вашей области применения. Наример, поиск часто изменяющейся информации (курс валют, погода), поиск по StackOverflow, подключение песочницы для исполнения кода.

🟣Как оценивать агентов?
Оценка подразумевает тестирование агента в изолированной среде и % правильных ответов и действий в разнообразных задачах, обычно очень вольно сформированных. Может быть либо % правильных ответов, либо правильность цепочки действий, либо и то и то.
На текущий момент есть 2 бенчмарка, которые работают именно с логами принятия решений автономных LLM-агентов — это WebArena и AgentBench.
— WebArena смотрит на качество работы агента на основании автоматизации различных веб-задач (найди за меня в интернете, найди за меня в базе, подпиши меня на рассылку, сделай такую-то страничку), и с помощью автоматичсеких метрик оценивает в изолированной среде качество полученных ответов. Лидерборд пока выглядит странновато, и на 1 месте не GPT-4!
— AgentBench развивает идею дальше, и для проверки успешности агентов представляет уже 8 различных сред — веб-браузинг, веб-шоппинг, работу с ОС, работу с SQL-бд, работу с графами знаний, игры, интеллектуальные головоломки, работа по дому (sic!). Задачи предлагаются самые разнообразные, но метрики привязаны именно к среде и набору действий при планировании.
Свой бенчмарк есть формально и у проекта AutoGPT (link), пока что там всего 6 задач и 3 прототипа в лидерборде. Но уже есть задача по safety!

🟣Открытые вопросы
— Как эффективно соединять все модули вместе? Наконец, нашлось применение для символьных методов?
— Новые уязвимости: можно заставить агента зациклиться, бесконечно генерировать no_action_needed, заставить его потратить все оплаченные API лимиты
— Генерация качественных синтетических данных с помощью агентов — решение проблем LLM?
— Нет способа оценивать мультимодальных агентов

Полезные ссылки:
🟣AgentBench Github
🟣WebArena link
🟣Agent Landscape SurveyAgent Landscape Survey arxiv
🟣The Rise and Potential of Large Language Model Based Agents: A Survey arxiv
🟣блог Lilian Weng - autonomous agents link
🟣Agent protocol link
🟣ICLR 2024 Workshop on LLM Agents link
Please open Telegram to view this post
VIEW IN TELEGRAM
#w29 чт 18.07 в 19:00 UseTech
LLM vs Copilot для написания фронтенда: приглашаем на Usetech FronTalk
https://usetech-event.timepad.ru/event/2960310
👍2
Forwarded from Data Memes
​​😍Автоматизация Code Review с помощью LLM

В этой статье мы подробно рассмотрим жизненный цикл ревью и подход RAG, разработанный в Faire для выполнения различных контекстно-специфических автоматизированных ревью.

Читать...
Свежая подборка нейронок для кодеров:

Safurai – полноценный ассистент с ИИ внутри, хорошо справляется с рутиной.

BLACKBOX – превратит ваш запрос в код, предварительно проанализировав 100млн+ репозиториев.

Snyk – сыщик для багов.

Metabob – нейросеть, которая может фиксить коды, даже сгенерированные с помощью ИИ.

JamGPT – Chrome расширение для поиска багов в коде.
Forwarded from Нейроканал
Продвинутый промптинг в ChatGPT

В Tproger подготовили 20 промтов, которые помогут сделать нейросеть вашим верным помощником. Здесь и про оптимизацию кода, и про регулярки, и про генерацию документации.

#gpt #

@neuro_channel
This media is not supported in your browser
VIEW IN TELEGRAM
💻 Microsoft релизнули Copilot 2.0.

— Чат-бот научился анализировать данные в Excel с помощью Python;
— По текстовому запросу Copilot сгенерирует, вставит и выполнит код;
— Нарисует диаграмму и график на основе вашей базы данных;
— Copilot знает все финансовые операции и работает с любыми формулами;
— Сделает выводы, удалит пустые ячейки и возьмет на себя всю бухгалтерию.

Обновленный Copilot доступен бесплатно для всех в Excel, PowerPoint, Outlook, Word и OneDrive.

#нейросети #neural

@aiaiai
Please open Telegram to view this post
VIEW IN TELEGRAM