Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
911 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
А вот такое мы любим.

X-adapter для подключения controlnet, lora от 1.5 к сдохле

Код


За наводку спасибо a s
@derplearning
🔥15
Forwarded from See All
😁46👍2
Forwarded from AI для Всех (Kirill)
ChatGPT научился решать судоку

Месяц назад ему такое еще было не под силу. Bard от Google до сих пор не может 🧠
😁28🔥1
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Harry Potter and the stoners philosophy
😁45🔥144
Forwarded from Denis Sexy IT 🤖
Лол, нашли очередной баг в веб версии GPT4:
При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче.

То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре – ответы на сообщения короче ☕️

Автор
Please open Telegram to view this post
VIEW IN TELEGRAM
😁23
😱37😁23🔥4🤩2
Forwarded from ChillHouse (Alexey Moiseenkov)
Зарплаты подкатили для AI спецов
😢37👀14🤩6😱21
This media is not supported in your browser
VIEW IN TELEGRAM
MLC LLM - универсальный кросплатформенный GPU-accelerated фреймворк для LLM

Да, 7b модели можно спокойно крутить на телефоне с 8гб памяти.
Вот и появилась причина брать 16гб телефоны, лол.

git
blog
ios app
android app
desktop (win/linux/mac)
in-browser

@derplearning
🔥17👍3💯1
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
В продолжение темы роботов — Tesla выкатили новый ролик с Optimus.

Ему прокачали дизайн (выглядит действительно гуманоидно, разве что спина плоская), облегчили на 10 килограмм, добавили манёвренности — бегает на 30% быстрее (в видео ничего не ускорено), дали сенсоры давления на каждый палец — это вообще вау!

Ролик завораживает, действия получаются почти естественными, а мелкая моторика в примере с перекладыванием яйца — жестб. И этот робот тоже учится в симуляции, навыки — не программируются вручную! А ещё Tesla планирует нарастить мощности суперкомпьютера для обучения нейросетей в 10+ раз в следующем году.

Эх, ждём коллаба GPT-6 и тысяч таких роботов 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
19👍2😱1
Хм, тут пишут про Brainoware - гибридный биокомпьютер, который (вроде как) смог научиться распознавать голоса с 78% точностью.

Поместили органоид (состоящий из нейронов полученных из стволовых клеток (?)) на пластину с тысячами электродов и учили на 240 часах записей разговоров 8 человек (информацию транслировали в электрические сигналы). Потом датчиками считывали реакцию органоида и декодировали ее с помощью какого-то алгоритма машинного обучения.

Новость

Brain organoid reservoir computing for artificial intelligence
https://www.nature.com/articles/s41928-023-01069-w


Я это не понимаю, мне это интересно
🔥21😱143🎉2😎1
Forwarded from DL in NLP (Vlad Lialin)
Один из неожиданных и очень крутых демо NeurIPS это робот от Disney 😍
26🤗7
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Итак солевых полный двор, теперь ещё эти будут.

А вообще, скорее бы уже купить новый окулус, чтобы строить домики из грязи, а не вот это вот всё
🤩16😁7
Lofi khachapuri to relax\study

dalle3 image mixer
😁359🔥21
Days without asian tricks: 0

nVidia опровергла релизные заявления AMD, в котором последние сравнивали свой MI300 vs H100 (первые два столбца на графике)

В своей презентации AMD запускали H100 без Tensor-LLM/triton, который любой здравомыслящий человек использовал бы в реальном сценарии.

Ну а за время обработки 1 батча с 1 сэмплом MI300, H100 успевает обработать 14 сэмплов :D

Ждем подобных оптимизаций от AMD.
Конкуренция - хорошо, а то, что AMD заставляет nVidia делать такие ответки - тоже хорошо, держат в тонусе, дышат в затылок шею :D

подробнее

@derplearning
👍12😁1
(нет)
😁59🤩2🤣1
Forwarded from Катерина Слободчикова
главное мы друг друга поняли
😁72🔥176
В моем возрасте часто сам собой возникает вопрос из серии "а что ты сделал для хипхопа полезного для человечества?"

Oбычно я вспоминаю клип "linkin park - lost". Да, возможно, я (и любой другой) бы сделал лучше, но сам факт использования моего несчастного скрипта (да, эти всратые vid2vid куски) в этом клипе закрывает over 9000 гештальтов.

Ну и напоминает о том, что если ты lost, попизди с близкими, а не вот это вот все. Это не выход.
36👍4🔥3🤣2😢1👀1
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Все данные для тестов LLM скомпрометированы? 🌸
#nlp #про_nlp #nlp_papers

Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.

Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?

Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.

Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер: да, можем.

Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.

Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!

Выводы:
🟣Мы уже можем тестировать языковые модели, в том числе доступные только по API, на "честность" решения самых разных задач, а также можем проверять, не меняется ли картина во времени.
🟣Реальную сложность представляет обнаружение утечки теста, когда он попал в обучение всего один раз (не удается стат значимо установить разницу в качестве решений)
🟣Нас может ждать глобальный и регулярный пересмотр подхода к тестированию моделей, так как открытые ответы регулярно выкладываются на открытые площадки и, соответственно, компрометируются. Оценка LLM должна быть привязана ко времени?
🟣Остается проверить так все модели OpenAI?

🟣Статья: Proving Test Set Contamination in Black Box Language Models link
Please open Telegram to view this post
VIEW IN TELEGRAM
👍173