Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
911 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
I don't know what GPT-5 will run on, but GPT-6 will run on
😁51💯8😱5
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics demos are getting to the next level!
😁65😎11👍4🤣4🔥3
https://www.businessinsider.com/what-sam-altman-did-so-bad-he-got-fired-openai-2023-12

А вот и тизер второго сезона нашего любимого сериала!

Эсли кратко, то Сэма уволили без объявления войны предупреждения одним днём потому, что он был настолько расчётливым и манипулятивным, что успел бы дискредитировать всех участников борды, если бы его предупредили заранее.

Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
😁33😱3
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Real-World Humanoid Locomotion with Reinforcement Learning

Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.

Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).

Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».

Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания 😂😳
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31😱1
А вот такое мы любим.

X-adapter для подключения controlnet, lora от 1.5 к сдохле

Код


За наводку спасибо a s
@derplearning
🔥15
Forwarded from See All
😁46👍2
Forwarded from AI для Всех (Kirill)
ChatGPT научился решать судоку

Месяц назад ему такое еще было не под силу. Bard от Google до сих пор не может 🧠
😁28🔥1
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Harry Potter and the stoners philosophy
😁45🔥144
Forwarded from Denis Sexy IT 🤖
Лол, нашли очередной баг в веб версии GPT4:
При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче.

То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре – ответы на сообщения короче ☕️

Автор
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23
😱37😁23🔥4🤩2
Forwarded from ChillHouse (Alexey Moiseenkov)
Зарплаты подкатили для AI спецов
😢37👀14🤩6😱21
This media is not supported in your browser
VIEW IN TELEGRAM
MLC LLM - универсальный кросплатформенный GPU-accelerated фреймворк для LLM

Да, 7b модели можно спокойно крутить на телефоне с 8гб памяти.
Вот и появилась причина брать 16гб телефоны, лол.

git
blog
ios app
android app
desktop (win/linux/mac)
in-browser

@derplearning
🔥17👍3💯1
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
В продолжение темы роботов — Tesla выкатили новый ролик с Optimus.

Ему прокачали дизайн (выглядит действительно гуманоидно, разве что спина плоская), облегчили на 10 килограмм, добавили манёвренности — бегает на 30% быстрее (в видео ничего не ускорено), дали сенсоры давления на каждый палец — это вообще вау!

Ролик завораживает, действия получаются почти естественными, а мелкая моторика в примере с перекладыванием яйца — жестб. И этот робот тоже учится в симуляции, навыки — не программируются вручную! А ещё Tesla планирует нарастить мощности суперкомпьютера для обучения нейросетей в 10+ раз в следующем году.

Эх, ждём коллаба GPT-6 и тысяч таких роботов 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
19👍2😱1
Хм, тут пишут про Brainoware - гибридный биокомпьютер, который (вроде как) смог научиться распознавать голоса с 78% точностью.

Поместили органоид (состоящий из нейронов полученных из стволовых клеток (?)) на пластину с тысячами электродов и учили на 240 часах записей разговоров 8 человек (информацию транслировали в электрические сигналы). Потом датчиками считывали реакцию органоида и декодировали ее с помощью какого-то алгоритма машинного обучения.

Новость

Brain organoid reservoir computing for artificial intelligence
https://www.nature.com/articles/s41928-023-01069-w


Я это не понимаю, мне это интересно
🔥21😱143🎉2😎1
Forwarded from DL in NLP (Vlad Lialin)
Один из неожиданных и очень крутых демо NeurIPS это робот от Disney 😍
26🤗7
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Итак солевых полный двор, теперь ещё эти будут.

А вообще, скорее бы уже купить новый окулус, чтобы строить домики из грязи, а не вот это вот всё
🤩16😁7
Lofi khachapuri to relax\study

dalle3 image mixer
😁359🔥21
Days without asian tricks: 0

nVidia опровергла релизные заявления AMD, в котором последние сравнивали свой MI300 vs H100 (первые два столбца на графике)

В своей презентации AMD запускали H100 без Tensor-LLM/triton, который любой здравомыслящий человек использовал бы в реальном сценарии.

Ну а за время обработки 1 батча с 1 сэмплом MI300, H100 успевает обработать 14 сэмплов :D

Ждем подобных оптимизаций от AMD.
Конкуренция - хорошо, а то, что AMD заставляет nVidia делать такие ответки - тоже хорошо, держат в тонусе, дышат в затылок шею :D

подробнее

@derplearning
👍12😁1
(нет)
😁59🤩2🤣1