Forwarded from Denis Sexy IT 🤖
Давно полезного по ChatGPT не было:
Держите серию промптов, которые позволят свести к минимуму потенциальные ошибки и получить от GPT3.5, GPT4 (и возможно Bard) самые лучшие ответы.
🍌 Сообщение 1 🍌
Опишите вашу проблему для ChatGPT, а в конце нее добавьте:
Этот промпт сам по себе уже можно применять к чему угодно – он все ответы делает лучше, но если вы обсуждаете с ChatGPT какие-то сложные темы (или где есть вычисления), то чтобы выявить ошибки в ее ответах используйте следующий шаг (продолжая чат с ней, не создавая новый).
🍌 Сообщение 2 🍌
Модель дала вам ответы, и теперь хочется не самому сидеть гуглить насколько они верные. Для этого используйте следующий промпт, но вместо % укажите что именно вы получили на прошлом шаге – список, формулы, анекдоты и тп.
После этого, "исследователь из нейронки" напишет вам слабые стороны из сообщения 1. Получается анализ, как правило, намного глубже чем если я просто попросил бы найти ошибки в ответе.
🍌 Сообщение 3 🍌
Полученную критику нужно как-то применить, это еще один "внутренний персонаж нейронки" который закроет задачу и применит правки полученные на прошлом шаге, но их нужно указать вместо % – это могут быть формулы, вычисления, списки и тп.
Поздравляю, вы промпт-инженер!
🦆 P.S. И если вам кажется, что это возможно ерунда – вот видео с влиянием каждого из этих промптов на ответы ChatGPT, именно с точки зрения научных данных, если коротко, все они работают и делают ощутимо лучше.
Держите серию промптов, которые позволят свести к минимуму потенциальные ошибки и получить от GPT3.5, GPT4 (и возможно Bard) самые лучшие ответы.
Опишите вашу проблему для ChatGPT, а в конце нее добавьте:
Let's work this out in a step by step way to be sure we have the right answer.Этот промпт сам по себе уже можно применять к чему угодно – он все ответы делает лучше, но если вы обсуждаете с ChatGPT какие-то сложные темы (или где есть вычисления), то чтобы выявить ошибки в ее ответах используйте следующий шаг (продолжая чат с ней, не создавая новый).
Модель дала вам ответы, и теперь хочется не самому сидеть гуглить насколько они верные. Для этого используйте следующий промпт, но вместо % укажите что именно вы получили на прошлом шаге – список, формулы, анекдоты и тп.
You are a researcher tasked with investigating the % response options provided. List the flaws and faulty logic of each answer option. Let's work this out in a step by step way to be sure we have all the errors:После этого, "исследователь из нейронки" напишет вам слабые стороны из сообщения 1. Получается анализ, как правило, намного глубже чем если я просто попросил бы найти ошибки в ответе.
Полученную критику нужно как-то применить, это еще один "внутренний персонаж нейронки" который закроет задачу и применит правки полученные на прошлом шаге, но их нужно указать вместо % – это могут быть формулы, вычисления, списки и тп.
You are a resolver tasked with 1) finding which of the % answer options the researcher thought was best 2) improving that answer, and 3) Printing the improved answer in full. Let's work this out in a step by step way to be sure we have the right answer:Поздравляю, вы промпт-инженер!
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍7❤5
Forwarded from Love. Death. Transformers.
Братан, да какой ты специалист по нейросетям? Ты все тот же токарь, оператор нейрогенерационного станка ЧПУ, графический фрезеровщик — весь в отца, работяга, заводская порода.
Запихнул болванку дата-сета, ввел параметры, нажал кнопку, ушел айкос курить да в чате с цеховыми пиздеть, вернулся — деталька выточилась уже. Перекинул ее в другой станок, подшлифовал, руками поправил где надо — красота. А вот и смена кончилась, криптополучка пришла, пошел с мужиками по зуму бухать.
Украдено
Запихнул болванку дата-сета, ввел параметры, нажал кнопку, ушел айкос курить да в чате с цеховыми пиздеть, вернулся — деталька выточилась уже. Перекинул ее в другой станок, подшлифовал, руками поправил где надо — красота. А вот и смена кончилась, криптополучка пришла, пошел с мужиками по зуму бухать.
Украдено
👍60😁13🎉3
Forwarded from shonenkov AI
This media is not supported in your browser
VIEW IN TELEGRAM
3D с DeepFloyd-IF выглядит неплохо, модель справилась с рендерингом и генерацией текста на кепке 👀
если вдруг кому-то интересно потыкать, то вот [GitHub с реализацией IF и 3D]
+ в комменты закинул еще несколько 3D анимаций
@shonenkovAI
если вдруг кому-то интересно потыкать, то вот [GitHub с реализацией IF и 3D]
+ в комменты закинул еще несколько 3D анимаций
@shonenkovAI
🔥10👍2🎉2
Forwarded from addmeto (Grigory Bakunov)
Европейский AI Act, если его примут, потребует лицензирования каждой ИИ модели для использования ее в Европе. И это по сути закроет возможность использовать не только OpenAI или гугловские модели, но и поставит вне закона опенсорсные решения, т.к. они не будут тратить время и деньги на лицензирование https://technomancers.ai/eu-ai-act-to-target-us-open-source-software/
Довольно жестко, я потратил 4 дня на то чтобы прочитать этот документ. Если его так примут - многие просто закроют работу своих продуктов в Европе.
Довольно жестко, я потратил 4 дня на то чтобы прочитать этот документ. Если его так примут - многие просто закроют работу своих продуктов в Европе.
Pocketoptionguides
Japan’s AI Strategy: No Copyright, Full Speed
Japan removes copyright barriers for AI training to lead global innovation. Discover how this bold move ties into trading tech and the rise of AI in finance.
😢27🔥8😁4👍1
Media is too big
VIEW IN TELEGRAM
Закрывайте эти ваши нейросети, лучше уже не будет
Кавер System of a down - Toxicity в исполнении Евгения Леонова
Сорс
@derplearning
Кавер System of a down - Toxicity в исполнении Евгения Леонова
Сорс
@derplearning
🔥74❤11😁9😢2👍1
Forwarded from Хабр
Microsoft только что сделала огромную ставку на термоядерный синтез
Учёные десятилетиями мечтали о ядерном синтезе. Который даст неограниченную энергию и не будет угрожать радиацией. Microsoft считает, что технология почти готова. И теперь ставит на это миллиарды. Предыдущая большая ставка компании — на OpenAI и её ИИ-системы — оправдалась с лихвой. За полгода с момента релиза ChatGPT капитализация компании выросла на 670 миллиардов долларов. Таким интересом со стороны инвесторов и близко не могут похвастаться Google, Apple и Amazon.
Посмотрим, сможет ли Сатья Наделла провернуть всё это второй раз, только возможно в ещё большем масштабе
Учёные десятилетиями мечтали о ядерном синтезе. Который даст неограниченную энергию и не будет угрожать радиацией. Microsoft считает, что технология почти готова. И теперь ставит на это миллиарды. Предыдущая большая ставка компании — на OpenAI и её ИИ-системы — оправдалась с лихвой. За полгода с момента релиза ChatGPT капитализация компании выросла на 670 миллиардов долларов. Таким интересом со стороны инвесторов и близко не могут похвастаться Google, Apple и Amazon.
Посмотрим, сможет ли Сатья Наделла провернуть всё это второй раз, только возможно в ещё большем масштабе
🔥31❤8
Forwarded from Denis Sexy IT 🤖
Знаете это чувство, когда сходил в зал и был день ног, а потом все болит? Tesla целых роботов сделала вдохновившись этим эффектом 💃
https://youtu.be/XiQkeWOFwmk
https://youtu.be/XiQkeWOFwmk
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
Tesla Bot Update
Multiple fully Tesla-made bots now walking around & learning about the real world 🤖
Join the Tesla AI team → https://tesla.com/ai
Join the Tesla AI team → https://tesla.com/ai
😁18❤2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Тэкс, Google анонсировал модельки для генерации кода, встроенные прямо в Colab. Скоро появятся во всех ноутбуках.
Под ноутбуком будут бегать модельки под названием Codey (типа аналог OpenAI Codex), которые основаны на Palm-2 и натренены на опенсоурсных исходниках. Теперь везде будут пихать этот Палм.
Хотя, думаю, народ в FAANG-ах уже давно пользуются аналогичным дополнялками внутри компаний. Не будешь же на работе в гугл колабе писать (если вы не стартап) или кодексу свои велосипеды показывать.
Ещё, кажется, что стартапчику Hex Magic кранты.
@ai_newz
Под ноутбуком будут бегать модельки под названием Codey (типа аналог OpenAI Codex), которые основаны на Palm-2 и натренены на опенсоурсных исходниках. Теперь везде будут пихать этот Палм.
Хотя, думаю, народ в FAANG-ах уже давно пользуются аналогичным дополнялками внутри компаний. Не будешь же на работе в гугл колабе писать (если вы не стартап) или кодексу свои велосипеды показывать.
Ещё, кажется, что стартапчику Hex Magic кранты.
@ai_newz
👍10❤5
Forwarded from AbstractDL
TinyStories: The Smallest GPT with Coherent English (by Microsoft)
Как думаете, с какого размера у LM появляется возможность писать связный текст? Оказалось, что и 2.5M параметров достаточно!
Главное препятствие для полноценного понимания языка у трансформеров — огромное количество редких слов (длинный хвост распределения). Но если составить обучающий датасет из 1.5к наиболее частотных корней (словарный запас 5-летнего ребёнка), то даже однослойную GPT можно будет обучить так, что она обойдёт GPT2-XL!
Этот чудесный датасет, написанный руками GPT-4, отлично подходит для валидации новых архитектур, на нём даже скейлинг Шиншиллы подтверждается. Так что если хотите изобрести свою «SuperGPT» архитектуру, то рекомендую экспериментировать на этом сете. Его размер всего 3 Гб.
P.S. Из интересных выводов — лучше масштабировать GPT в глубину, чем в ширину.
Статья, датасет, модель
Как думаете, с какого размера у LM появляется возможность писать связный текст? Оказалось, что и 2.5M параметров достаточно!
Главное препятствие для полноценного понимания языка у трансформеров — огромное количество редких слов (длинный хвост распределения). Но если составить обучающий датасет из 1.5к наиболее частотных корней (словарный запас 5-летнего ребёнка), то даже однослойную GPT можно будет обучить так, что она обойдёт GPT2-XL!
Этот чудесный датасет, написанный руками GPT-4, отлично подходит для валидации новых архитектур, на нём даже скейлинг Шиншиллы подтверждается. Так что если хотите изобрести свою «SuperGPT» архитектуру, то рекомендую экспериментировать на этом сете. Его размер всего 3 Гб.
P.S. Из интересных выводов — лучше масштабировать GPT в глубину, чем в ширину.
Статья, датасет, модель
👍16🔥6❤2😱2