ChatGPTevelopment & Promptgramming – Telegram
ChatGPTevelopment & Promptgramming
20 subscribers
192 photos
34 videos
5 files
307 links
#ChatGPT using development & Prompt based programming – new era of coding! 🥹
#ChatGPT #GPT4dev
Download Telegram
Audio
Podlodka #314 – AI пишет код

Разговоры про то, что программистов вот-вот заменит какая-то технология, ведутся каждые пару лет. Но в этот раз, кажется, все серьезно – ChatGPT пишет полноценные мобильные приложения, конфиги для AWS и разбирает сложные баги. Чтобы разобраться с тем, а как конкретно LLM генерируют код, как этим можно управлять, и что нас ждет в будущем, мы позвали Егора Богомолова, исследователя в лаборатории ML4SE JetBrains Research.

🎧 Слушать выпуск
Forwarded from Data-comics
Автоматизируют ли датавиз?

Не думаю, что датавиз профи всерьёз переживают о том, что АИ их заменит, но все же, Nick Desbaratas следует тренду и тоже, вслед за Steve Wexler и Andy Cotgrave, рассуждает на эту тему.

Свои рассуждения он выкладывает вот в такой статье.

https://www.practicalreporting.com/blog/2023/3/27/will-ai-automate-data-visualization

Заменят? 😁😁😁
😱😱😱BabyAGI😱😱😱

Ребята реализовали идею, о которой я давно думаю.

Что если поставить GPT-4 высокоуровневую задачу (например сделать мир лучше или сделать исследование в определенном направлении), а затем запустить в бесконечный цикл последовательность
1) С помощью GPT-4 разбить задачу на подзадачи
2) Добавить все подзадачи в список
3) Приоритезировать список
4) Выполнить задачу в таком же цикле (разбить на позадачи, добавить в список и т.д.)

Интересно, но в таком подходе нейронка
а) уходит в очень интересные идеи
б) тратит очень много токенов API 😂

P.S. Изначально проект задумывался как AI стартапер, но на выходе стало понятно, что подход применим к любой задаче.
P.P.S. То, о чем думал я и чего не хватает в проекте, это реального выполнения. Ребята “выполняют” задачу с помощью лингвистической модели в то время как я думал в ключе “сгенерируй код” которой я бы отправлял в python execution.

Ребята заопенсорсили проект

Github: https://github.com/yoheinakajima/babyagi
Paper: https://yoheinakajima.com/task-driven-autonomous-agent-utilizing-gpt-4-pinecone-and-langchain-for-diverse-applications/

UPD: Huston, у нас проблемы!
Другие ребята заопенсорсили похожий проект, который помимо того, что умеет лазить в интернет, так же генерит код и пытается его исполнять 😱😱😱

Github: https://github.com/Torantulino/Auto-GPT

#agi
Forwarded from { между скобок } анонсы 📣 (Grisha Skobelev)
🗓 08 апреля 20:00 по мск ChatGPT в помощь архитектору / Николай Голов, Иван Шумов

Недавно мы обсуждали как устроен и как работает ChatGPT, и что он может полезен для разработчиков. В эту субботу мы планируем в примерах разобрать применение ChatGPT 4.0 для решения задач ИТ-архитектора вместе с Иваном Шумовым. Эта встреча будет полезна разработчикам, архитекторам и всем, кто интересуется технологиями разработки ПО. Присоединяйтесь - будущее уже наступило 🤩

Встречаемся в субботу в 20:00 по мск, подключайтесь к YouTube трансляции или в Zoom

А в комментариях к этому посту оставляйте свои вопросы, которые хотели бы задать Коле и Ване ⤵️
Forwarded from Сиолошная
Вы наверняка подозревали, что у моделей есть свой свой hub. Ну в смысле место, куда люди загружают обученные нейронки, а другие могут их оттуда скачивать и использовать. Вы же об этом подумали, да? 😑

Так вот, сейчас индустриальный стандарт для опенсорсных моделей - это HuggingFace 🤗 Hub.
В статье HuggingGPT: Solving AI Tasks with ChatGPT and its Friends in HuggingFace предлагается дать ChatGPT возможность обращаться к этим моделям (а их тысячи, и они решают сотни разных задач). То есть саму языковую модель на основе GPT мы не учим рисовать изображения или переводить текст в речь, но мы даём ей возможность использовать внешние инструменты. Похожая по смыслу работа уже упоминалась в канале, но та была куда менее масштабируемой, и требовала ресурсов для запуска нейронок локально.

Итого получаем примерно следующее:
1) ChatGPT получает команду на человеческом языке
2) переводит команду в набор "Задач", которые надо выполнить
3) для каждой задачи среди тысяч доступных моделей выбирается нужная (по предоставленному описанию)
4) ChatGPT читает описание аргументов, которые нужно дать модели, и готовит их
5) после исполнения задачи ChatGPT смотрит на результат и движется по плану дальше, повторяя пункты 3-5

Для лучшего понимания можно рассмотреть скриншот из статьи со следующим запросом: "создай изображение, на котором девочка читает книгу, а ее поза такая же, как у мальчика на изображении <такое то>. А после опиши новое изображение своим голосом".

Модель для такого запроса выделяет целых 6 задач (см. в красных рамках на изображении), и успешно справляется с их последовательным выполнением.

Код в репозитории с очень занятным названием "Джарвис": https://github.com/microsoft/JARVIS. Наверное, это отсылка к ИИ-ассистенту из фильма "Железный Человек" :) (я бы точно так же назвал, 💯)
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Сиолошная
Наткнулся на занятную статью "8 вещей, которые надо знать о больших языковых моделях"

Краткое содержание:
1. LLM предсказуемо становятся более "способными" с увеличением затрат в $, даже без крутых инноваций. Главное тут - предсказуемость, что было показано в статье про GPT-4: учили 5-7 маленьких моделек с бюджетом 0.1% от финального, а затем по этому делали предсказание для огромной модели. Для общей оценки перплексии и метрик на подвыборке одной конкретной задаче такое предсказание было очень точным.

2. Однако конкретные важные навыки, как правило, возникают непредсказуемо как побочный продукт увеличения затрат на обучение (дольше тренировать, больше данных, больше модель) - практически невозможно предсказать, когда модели начнут выполнять определенные задачи. Подробнее об этом мы писали в статье про историю развития GPT-моделей, которую, надеюсь, многие из вас читали. На картинке - распределение роста качества моделей в разных задачах. В трети маленькие модели ничего не показывают, средние в целом тоже, а большие БАХ! И учатся решать.

3. LLM часто выучивают и используют представления внешнего мира. Тут приводится много примеров, и вот один из них: модели, обученные играть в настольные игры на основе описаний отдельных ходов, никогда не видя изображения игрового поля, выучивают внутренние представления о состоянии доски на каждом ходу.

4. Не существует надежных методов управления поведением LLM. Хотя и был достигнут некоторый прогресс в понимании и смягчении разных проблем (в том числе ChatGPT и GPT-4 с обучением из обратной связи), нет единого мнения о том, сможем ли мы их решить. Растет обеспокоенность, что проблемы alignment'а станут катастрофическими, когда проявятся в более крупных системах будущего.

5. Эксперты пока не могут интерпретировать внутреннюю работу LLM. Yе существует методики, которая позволила бы каким-либо удовлетворительным образом изложить, какие виды знаний, рассуждений или целей использует модель, когда она генерирует какой-либо результат.

6. Качество выполнения задач человеком не является верхней границей для LLM. Хотя они и обучены в первую очередь имитировать поведение человека при написании текста, но всё равно потенциально могут превзойти нас во многих задачах. Так происходит в более узких задачах вроде шахмат или игры в Го.

7. LLM не должны выражать ценности своих создателей или ценности, закодированные в выборке из интернета. Они не должны повторять стереотипы, теории заговора или стремиться оскорбить кого-либо.

8. Оценки способности модели по первым впечатлениям часто вводят в заблуждение. Очень часто нужно додумать правильный промпт, подсказать модели, может, показать примеры - и она начнёт справляться куда лучше. То есть она "умнее", чем кажется на первый взгляд.
Forwarded from Big Data Science
😎Searching for data and learning SQL at the same time is easy!!!
Census GPT is a tool that allows users to search for data about cities, neighborhoods, and other geographic areas.
Using artificial intelligence technology, Census-GPT organized and analyzed huge amounts of data to create a superdatabase. Currently, the Census-GPT database contains information about the United States, where users can request data on population, crime rates, education, income, age, and more. In addition, Census-GPT can display US maps in a clear and concise manner.
On the Census GPT site, users can also improve existing maps. The data results can be retrieved along with the SQL query. Accordingly, you can learn SQL and automatically test yourself on real examples.
Вышел kandinsky 2.1
Почитать можно тут

А это код, который дергает публичную API (пока работает)
Можете погенерировать картинки на любом тапке с установленным питоном

UPD: Но ожидания в очереди жесть)

import PIL
import base64
import io
import requests
import time

text = "комикс игра престолов"

wtf = '----WebKitFormBoundarywlnxcaZpV1ghiA4E'
cdfdn = '\r\nContent-Disposition: form-data; name='
api_url = 'https://fusionbrain.ai/api/v1/text2image'
api_url_run = api_url + '/run'
api_url_pockets = api_url + '/generate/pockets/'

data = (f'--{wtf}{cdfdn}"queueType"\r\n\r\ngenerate\r\n--{wtf}' +
f'{cdfdn}"query"\r\n\r\n{text}\r\n--{wtf}' +
f'{cdfdn}"preset"\r\n\r\n1\r\n--{wtf}' +
f'{cdfdn}"style"\r\n\r\n\r\n--{wtf}--\r\n').encode()

response = requests.post(api_url_run, headers={'Content-Type': f'multipart/form-data; boundary={wtf}'}, data=data)
pocket = response.json()['result']['pocketId']
time.sleep(3)
response = requests.get(api_url_pockets + f"{pocket}/status",
headers={'Content-Type': f'multipart/form-data; boundary={wtf}'},
)

while response.json()['result'] != 'SUCCESS':
print(response.json()['result'])
time.sleep(3)
response = requests.get(api_url_pockets + f"{pocket}/status")

response = requests.get(api_url_pockets + f"{pocket}/entities")

msg = base64.b64decode(response.json()['result'][0]['response'][0])
buf = io.BytesIO(msg)
img = PIL.Image.open(buf)

img


@powerofdata
Forwarded from UnlimAI Info
Про выбор Движка и точность ответов во всех режимах.

В боте есть возможность выбрать 2 движка: GPT_3.5 и GPT_3.5_Turbo

GPT_3.5_Turbo
заточен как раз на ответы на вопросы, он отвечает правильнее и решает лучше задачи. Но более цензурируемый и отвечает более сухо, как ИИ ассистент. Расходует в 10 раз меньше токенов.

GPT_3.5 гораздо менее цензурируемый, отвечать может много отсебятины, но зато потенциально генерирует более забавные и живые диалоги. Задачи решает плохо. В общем такой разгильдяй-балабол. Расходует в 10 раз больше токенов. Возможно, лучше подходит для имитации именно человека. Правда у него бывают проблемы со склонениями русских слов иногда.

Движок можно выбирать как в режиме обычной генерации текста, так и в режиме Работы с интернетом.

GPT4 мы добавим, когда это можно будет сделать по адекватной цене, сейчас мы, во-первых, не сможем давать бесплатные токены на неё, во-вторых, будет стоить в 6 раз дороже, чем GPT_3.5, там пара сообщений будет съедать сразу очень немало денег. Просто никто серьезно ей пользоваться не будет при таких условиях.
Forwarded from Бидон (BI-DONE) (Сергей Кравченко)
Встречайте на всех книжных полках…
Forwarded from Datalytics
Большие языковые модели (LLMs), к которым относится ChatGPT (и GPT3, которая под капотом у ChatGPT) открывают огромный простор для дешевого создания сервисов, способных выполнять операции по несложному семантическому анализу. Например, я за пару часов с использованием API Яндекс.Переводчика, API OpenAI и библиотеки LangChain сделал небольшого бота, который в ответ на фразу даёт численные оценки её специфичности и детализации с объяснением почему была дана такая оценка, а также рекомендациями как эти показатели улучшить. На картинках примеры, а в конце поста ссылка на блокнот

Отдельно стоит заметить, что в работе с запросами к GPT3 важную роль играет сколько мы поставляем ей примеров и явное указание специфичной формы ответа (будь то перечисление конкретных заголовков, атрибутов ответа, явное указание на то, что ответ должен быть получен в виде таблице). На картинке есть пример запроса

А ещё вижу зарождение новой профессии «prompt engineer», задача которой будет в формировании таких запросов, которые будут максимально эффективно решать потребности бизнеса с помощью LLMs. И тут речь не только про запрос, качественно решающий изначальную задачу, но и про формирование цепочек запросов, настройку переиспользования предыдущих ответов для улучшения качества запросов. В общем, целая новая вдохновляющая область на стыке AI, лингвистики и бизнес-аналитики

https://github.com/axmakarov/datalytics/blob/master/GPT3_phrase_detail_and_specific_analyser.ipynb
Создание интеллектуальной образовательной платформы с помощью OpenAI, ChatGPT и Django

В этом руководстве вы узнаете, как ИИ может помочь создавать образовательные платформы, которые будут умнее, персонализированнее и эффективнее, благодаря использованию последних достижений в области ИИ, таких как GPT-3 и ChatGPT: https://testdriven.io/blog/python-openai-chatgpt/

#нейросети #туториал #ml
PromtStd: новый стандарт для организации и хранения промптов: ChatGpt, Midjourney, и тд #habr
https://habr.com/ru/articles/727942/
Tags: Python, Подготовка технической документации, промт, promt, chatgpt, chat, chatgpt-4, chatgpt4, chatgpt api, chatgpt pro, chatgpt plus, midjourney
Author: denisxab
Как создать GPT-бота в Телеграме

Вы же тоже видели эту рекламу, что «Telegram наконец-то появился ChatGPT»? На деле оказывается, что это обычный бот, который работает через API OpenAI, так ещё и платный.

Вот отличный гайд, как сделать такого же, но полностью своего и гораздо дешевле (а если постараться, то вообще бесплатно).

#туториал #нейросети #бот #telegram
31 марта на Хабре завершился Сезон машинного обучения. Было много всего про ChatGPT (и даже немного про то, что ChatGPT написала сценарий для другой нейросети). Если вы ещё не пробовали поручить нейросети хотя бы часть своей работы, узнайте, как это сделать, в нашей подборке:

💪 Приделываем руки к ChatGPT: бот, который исполняет код в рантайме
🏡 Как воспитать GPT-3 модель в домашних условиях
🛠 ChatGPT: новый инструмент в борьбе с багами. Как можно использовать AI для повышения качества тестирования
🤔 Как решать реальные задачи при помощи ChatGPT
🎥 Диффузионная нейросеть ModelScope text2video 1.7B — создаём видео по текстовому описанию у себя дома

📣 Правила сезона и список всех участников

Если вам интересны последние достижениях в области ИИ и работы с данными, то можете зарегистрироваться и посмотреть конференцию Data Fusion от ВТБ.