Denis Sexy IT 🤖
Лол, нашли очередной баг в веб версии GPT4: При использовании, в ChatGPT, передается текущая системная дата и из-за того, что декабрь месяц праздников, она начала давать ответы короче. То есть тупо сравнили даты май и декабрь, как часть промпта, и при декабре…
Ты: Пишешь в чатгпт в середине декабря
Чатгпт: давай уже после праздников
Чатгпт: давай уже после праздников
😁67❤4🤩2
This media is not supported in your browser
VIEW IN TELEGRAM
MLC LLM - универсальный кросплатформенный GPU-accelerated фреймворк для LLM
Да, 7b модели можно спокойно крутить на телефоне с 8гб памяти.
Вот и появилась причина брать 16гб телефоны, лол.
git
blog
ios app
android app
desktop (win/linux/mac)
in-browser
@derplearning
Да, 7b модели можно спокойно крутить на телефоне с 8гб памяти.
Вот и появилась причина брать 16гб телефоны, лол.
git
blog
ios app
android app
desktop (win/linux/mac)
in-browser
@derplearning
🔥17👍3💯1
Forwarded from Сиолошная
This media is not supported in your browser
VIEW IN TELEGRAM
В продолжение темы роботов — Tesla выкатили новый ролик с Optimus.
Ему прокачали дизайн (выглядит действительно гуманоидно, разве что спина плоская), облегчили на 10 килограмм, добавили манёвренности — бегает на 30% быстрее (в видео ничего не ускорено), дали сенсоры давления на каждый палец — это вообще вау!
Ролик завораживает, действия получаются почти естественными, а мелкая моторика в примере с перекладыванием яйца — жестб. И этот робот тоже учится в симуляции, навыки — не программируются вручную! А ещё Tesla планирует нарастить мощности суперкомпьютера для обучения нейросетей в 10+ раз в следующем году.
Эх, ждём коллаба GPT-6 и тысяч таких роботов👍
Ему прокачали дизайн (выглядит действительно гуманоидно, разве что спина плоская), облегчили на 10 килограмм, добавили манёвренности — бегает на 30% быстрее (в видео ничего не ускорено), дали сенсоры давления на каждый палец — это вообще вау!
Ролик завораживает, действия получаются почти естественными, а мелкая моторика в примере с перекладыванием яйца — жестб. И этот робот тоже учится в симуляции, навыки — не программируются вручную! А ещё Tesla планирует нарастить мощности суперкомпьютера для обучения нейросетей в 10+ раз в следующем году.
Эх, ждём коллаба GPT-6 и тысяч таких роботов
Please open Telegram to view this post
VIEW IN TELEGRAM
❤19👍2😱1
Forwarded from Агенты ИИ | AGI_and_RL
Хм, тут пишут про Brainoware - гибридный биокомпьютер, который (вроде как) смог научиться распознавать голоса с 78% точностью.
Поместили органоид (состоящий из нейронов полученных из стволовых клеток (?)) на пластину с тысячами электродов и учили на 240 часах записей разговоров 8 человек (информацию транслировали в электрические сигналы). Потом датчиками считывали реакцию органоида и декодировали ее с помощью какого-то алгоритма машинного обучения.
Новость
Brain organoid reservoir computing for artificial intelligence
https://www.nature.com/articles/s41928-023-01069-w
Поместили органоид (состоящий из нейронов полученных из стволовых клеток (?)) на пластину с тысячами электродов и учили на 240 часах записей разговоров 8 человек (информацию транслировали в электрические сигналы). Потом датчиками считывали реакцию органоида и декодировали ее с помощью какого-то алгоритма машинного обучения.
Новость
Brain organoid reservoir computing for artificial intelligence
https://www.nature.com/articles/s41928-023-01069-w
Я это не понимаю, мне это интересно
Nature
Brain organoid reservoir computing for artificial intelligence
Nature Electronics - An artificial intelligence hardware approach that uses the adaptive reservoir computation of biological neural networks in a brain organoid can perform tasks such as speech...
🔥21😱14❤3🎉2😎1
Forwarded from DL in NLP (Vlad Lialin)
Один из неожиданных и очень крутых демо NeurIPS это робот от Disney 😍
❤26🤗7
Forwarded from Neural Shit
This media is not supported in your browser
VIEW IN TELEGRAM
Итак солевых полный двор, теперь ещё эти будут.
А вообще, скорее бы уже купить новый окулус, чтобы строить домики из грязи, а не вот это вот всё
А вообще, скорее бы уже купить новый окулус, чтобы строить домики из грязи, а не вот это вот всё
🤩16😁7
Days without asian tricks: 0
nVidia опровергла релизные заявления AMD, в котором последние сравнивали свой MI300 vs H100 (первые два столбца на графике)
В своей презентации AMD запускали H100 без Tensor-LLM/triton, который любой здравомыслящий человек использовал бы в реальном сценарии.
Ну а за время обработки 1 батча с 1 сэмплом MI300, H100 успевает обработать 14 сэмплов :D
Ждем подобных оптимизаций от AMD.
Конкуренция - хорошо, а то, что AMD заставляет nVidia делать такие ответки - тоже хорошо, держат в тонусе, дышат взатылок шею :D
подробнее
@derplearning
nVidia опровергла релизные заявления AMD, в котором последние сравнивали свой MI300 vs H100 (первые два столбца на графике)
В своей презентации AMD запускали H100 без Tensor-LLM/triton, который любой здравомыслящий человек использовал бы в реальном сценарии.
Ну а за время обработки 1 батча с 1 сэмплом MI300, H100 успевает обработать 14 сэмплов :D
Ждем подобных оптимизаций от AMD.
Конкуренция - хорошо, а то, что AMD заставляет nVidia делать такие ответки - тоже хорошо, держат в тонусе, дышат в
подробнее
@derplearning
👍12😁1
Forwarded from Катерина Слободчикова
главное мы друг друга поняли
😁72🔥17❤6
В моем возрасте часто сам собой возникает вопрос из серии "а что ты сделал для хипхопа полезного для человечества?"
Oбычно я вспоминаю клип "linkin park - lost". Да, возможно, я (и любой другой) бы сделал лучше, но сам факт использования моего несчастного скрипта (да, эти всратые vid2vid куски) в этом клипе закрывает over 9000 гештальтов.
Ну и напоминает о том, что если ты lost, попизди с близкими, а не вот это вот все. Это не выход.
Oбычно я вспоминаю клип "linkin park - lost". Да, возможно, я (и любой другой) бы сделал лучше, но сам факт использования моего несчастного скрипта (да, эти всратые vid2vid куски) в этом клипе закрывает over 9000 гештальтов.
Ну и напоминает о том, что если ты lost, попизди с близкими, а не вот это вот все. Это не выход.
YouTube
Lost [Official Music Video] - Linkin Park
Watch the official music video for Lost by Linkin Park from the album Meteora|20.
----------
From Zero (Deluxe Edition) - Out Now: https://lprk.co/fromzerodlx
Official Linkin Park Merch: http://lprk.co/store
Text/Call: https://lprk.co/text
Newsletter Sign…
----------
From Zero (Deluxe Edition) - Out Now: https://lprk.co/fromzerodlx
Official Linkin Park Merch: http://lprk.co/store
Text/Call: https://lprk.co/text
Newsletter Sign…
❤36👍4🔥3🤣2😢1👀1
Forwarded from Kali Novskaya (Tatiana Shavrina)
🌸Все данные для тестов LLM скомпрометированы? 🌸
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:да, можем.
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
🟣 Мы уже можем тестировать языковые модели, в том числе доступные только по API, на "честность" решения самых разных задач, а также можем проверять, не меняется ли картина во времени.
🟣 Реальную сложность представляет обнаружение утечки теста, когда он попал в обучение всего один раз (не удается стат значимо установить разницу в качестве решений)
🟣 Нас может ждать глобальный и регулярный пересмотр подхода к тестированию моделей, так как открытые ответы регулярно выкладываются на открытые площадки и, соответственно, компрометируются. Оценка LLM должна быть привязана ко времени?
🟣 Остается проверить так все модели OpenAI?
🟣 Статья: Proving Test Set Contamination in Black Box Language Models link
#nlp #про_nlp #nlp_papers
Часто можно услышать критику о том, что результатам оценки LLM не стоит доверять, так как многие бенчмарки и датасеты уже давно лежат на гитхабе, а значит, наверняка попали в обучение моделей.
Как надежно тестировать языковые модели, если у нас часто нет доступа к их обучающим данным, а некоторые так и полностью от нас закрыты? Что, если данные были скомпрометированы?
Авторы Alpaca представили новый метод, позволяющий оценить риск утечки (контаминации) датасета, т.е. его ненамеренное/намеренное попадание в обучающую выборку у языковых моделей.
Идея простая: будем считать, что модель "запоминает" задания и ответы на них в той же последовательности, как они идут в датасете. Давайте проверим, сможем ли мы установить статистически значимую разницу в качестве решений задачи, если будем показывать моделям набор тестов задачи в том порядке, как он идут в самом датасете, или же в перемешанном порядке.
Спойлер:
Искусственный эксперимент, при котором небольшой модели (1.4 млрд параметров) при обучении на Википедии "подкладывают" тестовые сеты различных датасетов — один раз, десять раз и т.д. — показывает, что при 10 и более копиях теста в обучении разница в качестве решения устанавливается достаточно надежно, и можно с уверенностью сказать, что можель опирается на запоминание, а не на обобщение или другие "возникающие" интеллектуальные способности.
Авторы протестировали несколько LLM (LLaMA2-7B, Mistral-7B, Pythia-1.4B, GPT-2 XL, BioMedLM) на публичных датасетах — и некоторые из них оказались действительно скомпрометированы. Например, Arc challenge точно попал в обучение Mistral, да еще и 10+ раз!
Выводы:
Please open Telegram to view this post
VIEW IN TELEGRAM
👍17❤3
Forwarded from Техножрица 👩💻👩🏫👩🔧
Нейросеть улучшит фото блюд ресторанов в «Яндекс.Еде»:
https://shoppers.media/news/6087_neiroset-ulucsit-foto-bliud-restoranov-v-iandeksede
---
Готовимся к тому, что опыт заказов еды в приложениях будет с каждым днём все больше походить на рис. 1.🚬
https://shoppers.media/news/6087_neiroset-ulucsit-foto-bliud-restoranov-v-iandeksede
---
Готовимся к тому, что опыт заказов еды в приложениях будет с каждым днём все больше походить на рис. 1.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁24
Forwarded from Оправдания для заказчика
This media is not supported in your browser
VIEW IN TELEGRAM
Собеседование, на котором бывал каждый. Вспомнить это помогла нейросеть DALL-E 3.
🤗32🤣29😁5❤3
Forwarded from Denis Sexy IT 🤖
На этой новости я кончился 😂
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁32