Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
912 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Forwarded from Denis Sexy IT 🤖
Давно полезного по ChatGPT не было:
Держите серию промптов, которые позволят свести к минимуму потенциальные ошибки и получить от GPT3.5, GPT4 (и возможно Bard) самые лучшие ответы.

🍌 Сообщение 1 🍌
Опишите вашу проблему для ChatGPT, а в конце нее добавьте:
Let's work this out in a step by step way to be sure we have the right answer.

Этот промпт сам по себе уже можно применять к чему угодно – он все ответы делает лучше, но если вы обсуждаете с ChatGPT какие-то сложные темы (или где есть вычисления), то чтобы выявить ошибки в ее ответах используйте следующий шаг (продолжая чат с ней, не создавая новый).

🍌 Сообщение 2 🍌
Модель дала вам ответы, и теперь хочется не самому сидеть гуглить насколько они верные. Для этого используйте следующий промпт, но вместо % укажите что именно вы получили на прошлом шаге – список, формулы, анекдоты и тп.

You are a researcher tasked with investigating the % response options provided. List the flaws and faulty logic of each answer option. Let's work this out in a step by step way to be sure we have all the errors:

После этого, "исследователь из нейронки" напишет вам слабые стороны из сообщения 1. Получается анализ, как правило, намного глубже чем если я просто попросил бы найти ошибки в ответе.

🍌 Сообщение 3 🍌
Полученную критику нужно как-то применить, это еще один "внутренний персонаж нейронки" который закроет задачу и применит правки полученные на прошлом шаге, но их нужно указать вместо % – это могут быть формулы, вычисления, списки и тп.

You are a resolver tasked with 1) finding which of the % answer options the researcher thought was best 2) improving that answer, and 3) Printing the improved answer in full. Let's work this out in a step by step way to be sure we have the right answer:

Поздравляю, вы промпт-инженер!

🦆 P.S. И если вам кажется, что это возможно ерунда – вот видео с влиянием каждого из этих промптов на ответы ChatGPT, именно с точки зрения научных данных, если коротко, все они работают и делают ощутимо лучше.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥28👍75
Братан, да какой ты специалист по нейросетям? Ты все тот же токарь, оператор нейрогенерационного станка ЧПУ, графический фрезеровщик — весь в отца, работяга, заводская порода.

Запихнул болванку дата-сета, ввел параметры, нажал кнопку, ушел айкос курить да в чате с цеховыми пиздеть, вернулся — деталька выточилась уже. Перекинул ее в другой станок, подшлифовал, руками поправил где надо — красота. А вот и смена кончилась, криптополучка пришла, пошел с мужиками по зуму бухать.

Украдено
👍60😁13🎉3
Forwarded from Padureac Cristian
😁67😱61👍1
Forwarded from Dev Meme / devmeme
😁49👍3😢1
Forwarded from shonenkov AI
This media is not supported in your browser
VIEW IN TELEGRAM
3D с DeepFloyd-IF выглядит неплохо, модель справилась с рендерингом и генерацией текста на кепке 👀

если вдруг кому-то интересно потыкать, то вот [GitHub с реализацией IF и 3D]

+ в комменты закинул еще несколько 3D анимаций

@shonenkovAI
🔥10👍2🎉2
Forwarded from addmeto (Grigory Bakunov)
Европейский AI Act, если его примут, потребует лицензирования каждой ИИ модели для использования ее в Европе. И это по сути закроет возможность использовать не только OpenAI или гугловские модели, но и поставит вне закона опенсорсные решения, т.к. они не будут тратить время и деньги на лицензирование https://technomancers.ai/eu-ai-act-to-target-us-open-source-software/

Довольно жестко, я потратил 4 дня на то чтобы прочитать этот документ. Если его так примут - многие просто закроют работу своих продуктов в Европе.
😢27🔥8😁4👍1
Media is too big
VIEW IN TELEGRAM
Закрывайте эти ваши нейросети, лучше уже не будет

Кавер System of a down - Toxicity в исполнении Евгения Леонова

Сорс

@derplearning
🔥7411😁9😢2👍1
Forwarded from Хабр
Microsoft только что сделала огромную ставку на термоядерный синтез

Учёные десятилетиями мечтали о ядерном синтезе. Который даст неограниченную энергию и не будет угрожать радиацией. Microsoft считает, что технология почти готова. И теперь ставит на это миллиарды. Предыдущая большая ставка компании — на OpenAI и её ИИ-системы — оправдалась с лихвой. За полгода с момента релиза ChatGPT капитализация компании выросла на 670 миллиардов долларов. Таким интересом со стороны инвесторов и близко не могут похвастаться Google, Apple и Amazon.

Посмотрим, сможет ли Сатья Наделла провернуть всё это второй раз, только возможно в ещё большем масштабе
🔥318
Forwarded from Denis Sexy IT 🤖
Знаете это чувство, когда сходил в зал и был день ног, а потом все болит? Tesla целых роботов сделала вдохновившись этим эффектом 💃
https://youtu.be/XiQkeWOFwmk
Please open Telegram to view this post
VIEW IN TELEGRAM
😁182
Forwarded from Padureac Cristian
😁64
Forwarded from твиттота
😁671
👍42😁84
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Тэкс, Google анонсировал модельки для генерации кода, встроенные прямо в Colab. Скоро появятся во всех ноутбуках.

Под ноутбуком будут бегать модельки под названием Codey (типа аналог OpenAI Codex), которые основаны на Palm-2 и натренены на опенсоурсных исходниках. Теперь везде будут пихать этот Палм.

Хотя, думаю, народ в FAANG-ах уже давно пользуются аналогичным дополнялками внутри компаний. Не будешь же на работе в гугл колабе писать (если вы не стартап) или кодексу свои велосипеды показывать.

Ещё, кажется, что стартапчику Hex Magic кранты.

@ai_newz
👍105
А как тогда называть людей, которые не могут даже нажать на кнопки? 🐱
👍221
😁48🔥163👍3
😱34😁92😢1
Forwarded from AbstractDL
TinyStories: The Smallest GPT with Coherent English (by Microsoft)

Как думаете, с какого размера у LM появляется возможность писать связный текст? Оказалось, что и 2.5M параметров достаточно!

Главное препятствие для полноценного понимания языка у трансформеров — огромное количество редких слов (длинный хвост распределения). Но если составить обучающий датасет из 1.5к наиболее частотных корней (словарный запас 5-летнего ребёнка), то даже однослойную GPT можно будет обучить так, что она обойдёт GPT2-XL!

Этот чудесный датасет, написанный руками GPT-4, отлично подходит для валидации новых архитектур, на нём даже скейлинг Шиншиллы подтверждается. Так что если хотите изобрести свою «SuperGPT» архитектуру, то рекомендую экспериментировать на этом сете. Его размер всего 3 Гб.

P.S. Из интересных выводов — лучше масштабировать GPT в глубину, чем в ширину.

Статья, датасет, модель
👍16🔥62😱2
Lora от подписчика по мотивам Don't Starve Together
🔥15👍5