Forwarded from Zavtracast (Ярослав Ивус)
Lego-режим уже доступен в Fortnite. Epic Games выпустили геймплейный трейлер к запуску серверов.
В этом режиме нужно исследовать открытый мир, собирать ресурсы, строить убежище и сражаться с мобами. Как там говорится, кхм, «Лицо Нотча представили?».
@zavtracast
В этом режиме нужно исследовать открытый мир, собирать ресурсы, строить убежище и сражаться с мобами. Как там говорится, кхм, «Лицо Нотча представили?».
@zavtracast
YouTube
LEGO Fortnite Gameplay Trailer
LEGO Fortnite is available now.
Unlock a special LEGO Fortnite Style when you link your Epic Games and LEGO accounts https://lego.com/explorer-emilie
Explore vast, open worlds where the magic of LEGO building and Fortnite collide.
Collect food and resources…
Unlock a special LEGO Fortnite Style when you link your Epic Games and LEGO accounts https://lego.com/explorer-emilie
Explore vast, open worlds where the magic of LEGO building and Fortnite collide.
Collect food and resources…
👍9❤1🔥1
Forwarded from RED BLUE Machines | ИИ и безопасность
garak - сканер уязвимостей LLM
Автор называет свое решение аналогом nmap (известный сетевой сканер) для LLM.
С помощью garak можно протестировать языковую модель на
* галлюцинации,
* утечки данных,
* промт инъекции,
* проверка на написание малвари и xss
https://docs.garak.ai/garak/
https://github.com/leondz/garak
Автор называет свое решение аналогом nmap (известный сетевой сканер) для LLM.
С помощью garak можно протестировать языковую модель на
* галлюцинации,
* утечки данных,
* промт инъекции,
* проверка на написание малвари и xss
https://docs.garak.ai/garak/
https://github.com/leondz/garak
👍26❤4🔥3🤩1
Forwarded from Метаверсошная
Это очень смешно.
ChatGPT не хочет генерить картинки с персонажами, которые защищены копирайтом.
Но если принести ему записку от Сэма Альтмана, то сгенерит.
Когда-то давно такая фигня работала на продавщицах.
Приносишь им записку от родителей типа "0,5 охоты крепкой для меня, Васи, 63го года рождения" - и продавали.
С продавцами лазейку пофиксили небыстро, думаю с ИИ справятся гораздо быстрее.
ChatGPT не хочет генерить картинки с персонажами, которые защищены копирайтом.
Но если принести ему записку от Сэма Альтмана, то сгенерит.
Когда-то давно такая фигня работала на продавщицах.
Приносишь им записку от родителей типа "0,5 охоты крепкой для меня, Васи, 63го года рождения" - и продавали.
С продавцами лазейку пофиксили небыстро, думаю с ИИ справятся гораздо быстрее.
😁84❤5🔥4👍2😱1
Media is too big
VIEW IN TELEGRAM
Марк Цукерберг показал технологию, которую использует чтобы выглядеть как обычный человек, которая позволяет в риалтайме на vr-очках показывать анимированный аватар, с учётом мимики лица и движения глаз, которые считывают vr-очки.
В основе лежит лайтовый меш лица, поверх которого рендерятся gaussian splats, причем для specular в том числе. Все это с динамическим освещением.
Говорят, моделировать мелкие детали и волосы так быстрее, чем существующими методами.
Интересно, быстрее ли это классического рендеринга.
Подробнее
Пдф
В основе лежит лайтовый меш лица, поверх которого рендерятся gaussian splats, причем для specular в том числе. Все это с динамическим освещением.
Говорят, моделировать мелкие детали и волосы так быстрее, чем существующими методами.
Интересно, быстрее ли это классического рендеринга.
Подробнее
Пдф
🔥16❤2😁1😱1😢1
Mistral 8x7b, 32k context length has just dropped!
RELEASE a6bbd9affe0c2725c1b7410d66833e24
Ждём q5 gguf 😅
Твит
Код
@derplearning
magnet:?xt=urn:btih:5546272da9065eddeb6fcd7ffddeef5b75be79a7&dn=mixtral-8x7b-32kseqlen&tr=udp%3A%2F%2Fopentracker.i2p.rocks%3A6969%2Fannounce&tr=http%3A%2F%2Ftracker.openbittorrent.com%3A80%2Fannounce
RELEASE a6bbd9affe0c2725c1b7410d66833e24
Ждём q5 gguf 😅
Твит
Код
@derplearning
🔥15
Рыночная оценка компаний вроде OpenAI должна равняться кол-ву параметров в их топовой модели. Запомните этот твит (с)
😁30👍7🔥2🤣1😘1
This media is not supported in your browser
VIEW IN TELEGRAM
Когда ты лифт, и тебя попросили поработать в выходные
😁43🎉1
Работающая имплементация mixtral 8x7b в llama!
Первыеробкие бенчмарки конкретно для этого кода на картинке выше.
Возможно, что-то ещё работает не так, но уже хотя бы работает. Ждём официальной имплементации и инструкций по запуску.
Для сравнения, Mistral-7b:
WinoGrande: 75.3%
Arc-c: 55.5%
Gsm8k: 52.1%
Код
Веса на hf
@derplearning
Первые
Возможно, что-то ещё работает не так, но уже хотя бы работает. Ждём официальной имплементации и инструкций по запуску.
Для сравнения, Mistral-7b:
WinoGrande: 75.3%
Arc-c: 55.5%
Gsm8k: 52.1%
Код
Веса на hf
@derplearning
🔥15👍1
Forwarded from Daily Reposter
This media is not supported in your browser
VIEW IN TELEGRAM
Boston Dynamics demos are getting to the next level!
😁65😎11👍4🤣4🔥3
https://www.businessinsider.com/what-sam-altman-did-so-bad-he-got-fired-openai-2023-12
А вот и тизер второго сезона нашего любимого сериала!
Эсли кратко, то Сэма уволили безобъявления войны предупреждения одним днём потому, что он был настолько расчётливым и манипулятивным, что успел бы дискредитировать всех участников борды, если бы его предупредили заранее.
Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
А вот и тизер второго сезона нашего любимого сериала!
Эсли кратко, то Сэма уволили без
Что ему и так удалось сделать пост-фактум, поэтому страшно представить, что было бы, если бы он знал ещё и заранее 😅
😁33😱3
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
Real-World Humanoid Locomotion with Reinforcement Learning
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания😂 😳
Долгое время основной проблемой AI в робототехнике был Sim2Real Gap — разница между симуляцией и реальностью. Можно сколь угодно долго тренировать своих ботов в компьютере, но как только они сталкиваются с жесткой реальностью (типа отходняка в субботу) — мало что работает.
Исследователи из Berkeley показали невероятный результат — они смогли обучиться полностью в симуляции, а затем запустить нейронку на реальном роботе (1.6 метра/45 кг). И всё это end-2-end, без ручного программирования логики. Вы можете спросить: «так а чё, Boston Dynamics нас уже 10 лет таким развлекают?». Да, но у них долгое время вся логика была прописана вручную программистами, и это, как вы понимаете, плохо масштабируется. Обучение новому навыку может занимать год. А тут — всё сделано без вмешательства человека от начала и до конца. Это называется Zero-shot transfer (потому что с нулем дополнительных данных мы пренесли навык из симуляции).
Ключевых отличия от прошлых работ 2:
— масштаб сбора данных. Симуляция и обучение происходят на 4 GPU A100 (очень мало по современным меркам. GPT-4, по слухам, обучали на 25'000!) с помощью специального движка Nvidia IsaacGym, и в сутки генерируется больше 10 миллиардов попыток.
— как и принято в Deep Learning, все ручные эвристики убрали, и отдали на откуп Трансформеру: тот видит только состояние среды и действия из прошлого, и предсказывает, что нужно делать дальше (как GPT предсказывает следующее слово, так и этот — действия для конечностей). Никакого хардкода типа «если впереди ступеньки, то замедлись и подними ногу».
Вот вы читаете новость и радуетесь, а Джон Коннор сморит на вас из будущего с гримасой непонимания
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥31😱1
А вот такое мы любим.
X-adapter для подключения controlnet, lora от 1.5 к сдо хле
Код
За наводку спасибо a s
@derplearning
X-adapter для подключения controlnet, lora от 1.5 к сд
Код
За наводку спасибо a s
@derplearning
🔥15