Derp Learning – Telegram
Derp Learning
13.1K subscribers
3.16K photos
912 videos
9 files
1.32K links
Используем ИИ строго не по назначению.
Заметки про ИИ, IT, компьютерные игры, и всякие инженерные интересности.
Download Telegram
Найдена редчайшая рукопись средневекового бестиария

@derplearning
😁16🔥84
Heroes of Might and 'Murica
🔥25
Forwarded from Zavtracast (Ярослав Ивус)
Lego-режим уже доступен в Fortnite. Epic Games выпустили геймплейный трейлер к запуску серверов.

В этом режиме нужно исследовать открытый мир, собирать ресурсы, строить убежище и сражаться с мобами. Как там говорится, кхм, «Лицо Нотча представили?».

@zavtracast
👍91🔥1
garak - сканер уязвимостей LLM

Автор называет свое решение аналогом nmap (известный сетевой сканер) для LLM.

С помощью garak можно протестировать языковую модель на

* галлюцинации,
* утечки данных,
* промт инъекции,
* проверка на написание малвари и xss

https://docs.garak.ai/garak/

https://github.com/leondz/garak
👍264🔥3🤩1
Не тому дали Ceo of the Year

Свен Винке на вручении Игры Года
🔥38🤩1👀1
Это очень смешно.

ChatGPT не хочет генерить картинки с персонажами, которые защищены копирайтом.
Но если принести ему записку от Сэма Альтмана, то сгенерит.

Когда-то давно такая фигня работала на продавщицах.

Приносишь им записку от родителей типа "0,5 охоты крепкой для меня, Васи, 63го года рождения" - и продавали.

С продавцами лазейку пофиксили небыстро, думаю с ИИ справятся гораздо быстрее.
😁845🔥4👍2😱1
Media is too big
VIEW IN TELEGRAM
Марк Цукерберг показал технологию, которую использует чтобы выглядеть как обычный человек, которая позволяет в риалтайме на vr-очках показывать анимированный аватар, с учётом мимики лица и движения глаз, которые считывают vr-очки.

В основе лежит лайтовый меш лица, поверх которого рендерятся gaussian splats, причем для specular в том числе. Все это с динамическим освещением.
Говорят, моделировать мелкие детали и волосы так быстрее, чем существующими методами.

Интересно, быстрее ли это классического рендеринга.

Подробнее
Пдф
🔥162😁1😱1😢1
Mistral 8x7b, 32k context length has just dropped!

magnet:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce


RELEASE a6bbd9affe0c2725c1b7410d66833e24

Ждём q5 gguf 😅

Твит
Код

@derplearning
🔥15
Рыночная оценка компаний вроде OpenAI должна равняться кол-ву параметров в их топовой модели. Запомните этот твит (с)
😁30👍7🔥2🤣1😘1
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ты лифт, и тебя попросили поработать в выходные
😁43🎉1
Работающая имплементация mixtral 8x7b в llama!

Первые робкие бенчмарки конкретно для этого кода на картинке выше.

Возможно, что-то ещё работает не так, но уже хотя бы работает. Ждём официальной имплементации и инструкций по запуску.

Для сравнения, Mistral-7b:
WinoGrande: 75.3%
Arc-c: 55.5%
Gsm8k: 52.1%

Код
Веса на hf

@derplearning
🔥15👍1
Forwarded from See All
ахахахаххахахахаххаах
😁49🤩3👀2
I don't know what GPT-5 will run on, but GPT-6 will run on
😁51💯8😱5
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics demos are getting to the next level!
😁65😎11👍4🤣4🔥3
https://www.businessinsider.com/what-sam-altman-did-so-bad-he-got-fired-openai-2023-12

А вот и тизер второго сезона нашего любимого сериала!

Эсли кратко, то Сэма уволили без объявления войны предупреждения одним днём потому, что он был настолько расчётливым и манипулятивным, что успел бы дискредитировать всех участников борды, если бы его предупредили заранее.

Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
😁33😱3
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Real-World Humanoid Locomotion with Reinforcement Learning

Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.

Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).

Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».

Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания 😂😳
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31😱1