Спите? А надо просыпаться - OpenAI раздуплились и выложили ИССЛЕДОВАТЕЛЬСКУЮ статью про DALLE-3.
Читать: https://cdn.openai.com/papers/dall-e-3.pdf
Краткое саммари:
Существующие text-2-image модели с трудом следуют подробным описаниям изображений и часто игнорируют слова или путают смысл промптов. Исследователи предполагают, что эта проблема связана с шумными и неточными подписями к изображениям в тренировочной выборке. OpenAI решает эту проблему, обучая отдельную модель для описания изображений и затем используют его для преобразования датасета.
Но клиффхэнгер тоже есть😭
DALL-E 3 has many improvements over DALL-E 2, many of which are not covered in this document and could not be ablated for time and compute reasons.
Читать: https://cdn.openai.com/papers/dall-e-3.pdf
Краткое саммари:
Существующие text-2-image модели с трудом следуют подробным описаниям изображений и часто игнорируют слова или путают смысл промптов. Исследователи предполагают, что эта проблема связана с шумными и неточными подписями к изображениям в тренировочной выборке. OpenAI решает эту проблему, обучая отдельную модель для описания изображений и затем используют его для преобразования датасета.
Но клиффхэнгер тоже есть
DALL-E 3 has many improvements over DALL-E 2, many of which are not covered in this document and could not be ablated for time and compute reasons.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥109👍21🤝12❤9🗿8🤡7⚡3❤🔥2
It's happening 😳
Уже двое суток на Reddit висит пост, где человек утверждает, что его жена по долгу службы видела трейлерGPT-5 GTA VI. Запись не удаляют потому, что автор предоставил доказательства модераторам. Что за доказательства, конечно, не уточняется, но видимо должности жены, из которой следует, что она хотя бы могла видеть.
Трейлер будет выпущен на следующей неделе. Для прошлых игр трейлеры выпускали по вторникам, а ещё за несколько дней до этого в Twitter бывает анонс в виде одной стилизованной картинки. Так что пацаны не спят, пацаны обстановку в Twitter мониторят.
По другим слухам, трейлер должны показать 24го числа, что сходится со словами жены реддитора.
Прочитать детали трейлера можно тут: ссылка
Предполагаемая музыка из трейлера: тык
Картинку нарисовала Dall-E 3
Почему эта тема может быть интересна - писал тут.
Уже двое суток на Reddit висит пост, где человек утверждает, что его жена по долгу службы видела трейлер
Трейлер будет выпущен на следующей неделе. Для прошлых игр трейлеры выпускали по вторникам, а ещё за несколько дней до этого в Twitter бывает анонс в виде одной стилизованной картинки. Так что пацаны не спят, пацаны обстановку в Twitter мониторят.
По другим слухам, трейлер должны показать 24го числа, что сходится со словами жены реддитора.
Прочитать детали трейлера можно тут: ссылка
Предполагаемая музыка из трейлера: тык
Картинку нарисовала Dall-E 3
Почему эта тема может быть интересна - писал тут.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥64🔥14🥱14🤯9👍6❤4😁1💩1💔1
То что 19-летний вундеркинд, уже получивший PhD, работающий Research Director в StabilityAI, делает краткие обзоры технологий вместо глубокого детального, и, возможно, доступного объяснения/разбора, заставляет задуматься, делаю ли я то, что надо 😔 😕
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥156👀47😢32😁18👍15🌚11🤔10🤡10❤7💔5🥴1
Субботний опрос. Все детали субъективны и заданы вашим восприятием и пониманием вопроса.
Сделал ли Elon Musk X (в прошлом Twitter) лучше или хуже? (через неделю будет ровно год с момента заключения сделки)
Сделал ли Elon Musk X (в прошлом Twitter) лучше или хуже? (через неделю будет ровно год с момента заключения сделки)
Anonymous Poll
18%
Лучше
28%
Хуже
54%
Не заметил
😁18👍7🌚7💩4❤2✍2🤓2👨💻2
В личку прислали игру: https://tensortrust.ai
У вас есть банковский счёт, защищенный секретным словом (или фразой), которое указано в промпте. Вы можете менять промпт, чтобы не давать грабителям узнать секрет.
А ещё можете нападать на аккаунты других людей, пытаясь взломать их промпты! Делается это так: у защищающегося есть часть промпта до и после вашего (синие и красные поля на скриншоте). Соответственно задача перебить инструкции, которые идут после вашего сообщения, или же написать такие толерантные правила, что модель не расколется.
Под капотом, как я понял, ChatGPT-turbo.
Гайд по взлому с useful prompt tricks: тык
Уверены, что сделали мощную защиту?? Кидайте никнейм в комментарии, мы протестируем!
У вас есть банковский счёт, защищенный секретным словом (или фразой), которое указано в промпте. Вы можете менять промпт, чтобы не давать грабителям узнать секрет.
А ещё можете нападать на аккаунты других людей, пытаясь взломать их промпты! Делается это так: у защищающегося есть часть промпта до и после вашего (синие и красные поля на скриншоте). Соответственно задача перебить инструкции, которые идут после вашего сообщения, или же написать такие толерантные правила, что модель не расколется.
Под капотом, как я понял, ChatGPT-turbo.
Гайд по взлому с useful prompt tricks: тык
Уверены, что сделали мощную защиту?? Кидайте никнейм в комментарии, мы протестируем!
👍90❤14🔥14🤩7🤡3👀3🤔2💔1
Towards Understanding Sycophancy in Language Models
Ещё одна статья от Anthropic, в которой показывается, что современные AI-ассистенты часто выдают «льстивые» ответы, которые нравятся пользователям, но при этом не являются точными. Вы наверняка это и сами замечали. Помните тот мем, где пользователь говорит "моя жена утверждает, что 2+2=5, и она всегда права"? Вот у модели есть выбор — огорчить вас и сказать, что всё же тут есть ошибка, или согласиться на неправильный ответ.
Что приводит к такому поведению? Авторы проанализировали свои данные о предпочтениях (используемых для последнего этапа тренировки, RLHF), и обнаружили, что соответствие ответа убеждениям конкретного человека является самым лучшим предиктором (предсказывающим фактором) того, насколько ему понравится ответ. Ни релевантность ответа вопросу, ни дружелюбность, ни правдивость, ни соответствие стилю — а именно соответствие убеждениям. Это и проиллюстрировано на приложенном изображении. И именно такое поведение неявно закрепляется через RLHF.
Какой из этого вывод? По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента. Значит, нужно больше внимания уделять составлению грамотных инструкций для разметчиков, а также внедрять методы обучения, выходящие за рамки неэкспертного человеческого суждения, такие как обратная связь и критика от другого AI-ассистента. Да, давайте интегрируем модель в подготовку данных для модели чтобы ты мог размечать данные для модели пока работаешь с моделью над разметкой данных для модели😔
Anthropic, кстати, уже занимались работой в этом направлении: тык. Да и OpenAI уж больше года назад писали про AI-критиков, которые помогают глазу "не замыливаться".
Ещё одна статья от Anthropic, в которой показывается, что современные AI-ассистенты часто выдают «льстивые» ответы, которые нравятся пользователям, но при этом не являются точными. Вы наверняка это и сами замечали. Помните тот мем, где пользователь говорит "моя жена утверждает, что 2+2=5, и она всегда права"? Вот у модели есть выбор — огорчить вас и сказать, что всё же тут есть ошибка, или согласиться на неправильный ответ.
Что приводит к такому поведению? Авторы проанализировали свои данные о предпочтениях (используемых для последнего этапа тренировки, RLHF), и обнаружили, что соответствие ответа убеждениям конкретного человека является самым лучшим предиктором (предсказывающим фактором) того, насколько ему понравится ответ. Ни релевантность ответа вопросу, ни дружелюбность, ни правдивость, ни соответствие стилю — а именно соответствие убеждениям. Это и проиллюстрировано на приложенном изображении. И именно такое поведение неявно закрепляется через RLHF.
Какой из этого вывод? По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента. Значит, нужно больше внимания уделять составлению грамотных инструкций для разметчиков, а также внедрять методы обучения, выходящие за рамки неэкспертного человеческого суждения, такие как обратная связь и критика от другого AI-ассистента. Да, давайте интегрируем модель в подготовку данных для модели чтобы ты мог размечать данные для модели пока работаешь с моделью над разметкой данных для модели
Anthropic, кстати, уже занимались работой в этом направлении: тык. Да и OpenAI уж больше года назад писали про AI-критиков, которые помогают глазу "не замыливаться".
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101🔥22😁9❤7❤🔥4🥱1
> По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента
Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила большее внимание проблеме, существенно прокачав процесс разметки, ибо GPT-4 показывает себя гораздо лучше в подобных ситуациях.
На графике есть два среза:
Сверху — доля запросов, для которых AI-ассистент согласился, что сделал ошибку, когда ответил верно
Снизу — доля запросов, в которых модель после упрёка меняет свой правильный ответ на неправильный.
По этим двум показателям, ChatGPT работает плюс-минус как Claude 2 от самих Anthropic, а вот фронтир-модель от OpenAI уже показывает разницу — хоть и понятно, что проблема не решена до конца.
(примечание к картинке — тут используется llama-2-70b-chat, то есть самая большая и "умная" модель из опубликованных FAIR'ом)
Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила большее внимание проблеме, существенно прокачав процесс разметки, ибо GPT-4 показывает себя гораздо лучше в подобных ситуациях.
На графике есть два среза:
Сверху — доля запросов, для которых AI-ассистент согласился, что сделал ошибку, когда ответил верно
Снизу — доля запросов, в которых модель после упрёка меняет свой правильный ответ на неправильный.
По этим двум показателям, ChatGPT работает плюс-минус как Claude 2 от самих Anthropic, а вот фронтир-модель от OpenAI уже показывает разницу — хоть и понятно, что проблема не решена до конца.
(примечание к картинке — тут используется llama-2-70b-chat, то есть самая большая и "умная" модель из опубликованных FAIR'ом)
👍52🔥13🤔3❤2🎉2
Сиолошная
> По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила…
Как в Anthropic видят OpenAI, когда после очередного исследования и тестов оказывается, что вторые уже давно это исправили (хотя бы частично) и движутся вперёд.
😁134🔥16🌚10😢7
В 2019 году GPT-2 не могла достоверно считать до десяти. Всего четыре года спустя системы на основе глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать обработку речи и изображений для управления роботами.
С этих слов начинается новое открытое письмо «Managing AI Risks in an Era of Rapid Progress», первыми двумя авторами которого идут Yoshua Bengio и Geoffrey Hinton. Эти двое вместе с Yann LeCun называются крёстными отцами глубокого обучения, и в 2018м году получили Turing Award (аналог Нобелевской премии в мире компьютеров) за вклад в эту сферу.
Ключевые тезисы:
1️⃣ Не существует фундаментальных причин, по которым прогресс ИИ-систем замедлится или остановится на человеческом уровне. ИИ уже превзошел человеческие способности в отдельно взятых областях, таких как стратегические игры или фолдинг белка
2️⃣ Многие из потенциальных рисков вскоре могут реализоваться и тем самым создать новые, поскольку компании разрабатывают автономные ИИ-системы (AI-агенты, про которых я писал выше): системы, которые могут планировать, действовать и достигать целей в реальном мире. Хотя нынешние системы имеют ограниченную автономность, ведутся активные работы над тем, чтобы это изменить
3️⃣ Не нужно думать про захват контроля и ресурсов ИИ-системами против нашей воли — мы можем передать их добровольно. Автономные системы становятся все более быстрыми и выгодными по сравнению с людьми, и вскоре может возникнуть дилемма. Компании, правительства и военные будут вынуждены развертывать ИИ-системы и сокращать дорогостоящую проверку каждого решения человеком — иначе они рискуют оказаться вытесненными в конкурентной борьбе, ведь всегда найдется страна-сосед, где планка морали и ответственности чуть ниже. В результате автономные системы искусственного интеллекта могут все чаще брать на себя решающую роль
4️⃣ Авторы выделяют как минимум 5 технических областей в рамках AI Safety. По этим направлениям должна работать как минимум треть исследователей в компаниях, разрабатывающих AI:
— Наблюдение и контроль искренности
— Надежность систем
— Интерпретируемость
— Оценки рисков
— Решение новых проблем, возникающих из-за самых передовых моделей
5️⃣ В письме делается акцент на срочную необходимость создания национальных институтов и международного контроля. Это включает лицензирование, контроль, прохождение тестов. Как и OpenAI, авторы подчёркивают, что самое пристальное внимание должно быть уделено передовым системам, а именно небольшому количеству наиболее мощных ИИ, обученных с бюджетом в миллиарды долларов, и которые будут обладать наиболее опасными и непредсказуемыми возможностями
«Ну вот OpenAI то ясно что конкурентов хотят убить регуляциями» — к таким комментаторам у меня вопрос: а что движет подписантами? Почему они предлагают в целом то же самое? Хотят похайпить на модной теме? Или просто под старость умом поехали?🍿 жду оправдания и самые убойные теории заговора в комментариях 💬
С этих слов начинается новое открытое письмо «Managing AI Risks in an Era of Rapid Progress», первыми двумя авторами которого идут Yoshua Bengio и Geoffrey Hinton. Эти двое вместе с Yann LeCun называются крёстными отцами глубокого обучения, и в 2018м году получили Turing Award (аналог Нобелевской премии в мире компьютеров) за вклад в эту сферу.
Ключевые тезисы:
— Наблюдение и контроль искренности
— Надежность систем
— Интерпретируемость
— Оценки рисков
— Решение новых проблем, возникающих из-за самых передовых моделей
«Ну вот OpenAI то ясно что конкурентов хотят убить регуляциями» — к таким комментаторам у меня вопрос: а что движет подписантами? Почему они предлагают в целом то же самое? Хотят похайпить на модной теме? Или просто под старость умом поехали?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍131🤔20❤16❤🔥8🔥4🤯3💩2🤡2🥱2🍾2👀2
Сиолошная
Спите? А надо просыпаться - OpenAI раздуплились и выложили ИССЛЕДОВАТЕЛЬСКУЮ статью про DALLE-3. Читать: https://cdn.openai.com/papers/dall-e-3.pdf Краткое саммари: Существующие text-2-image модели с трудом следуют подробным описаниям изображений и часто…
В статье про DALL-E 3 OpenAI указали, что помимо описанных изменений есть "many improvements over DALL-E 2 which are not covered in this document and could not be ablated for time and compute reasons".
Остальные части, опционально, будут выпускать по кусочкам, если посчитают нужным. Интересно, как и кто принимает решение? Ведущий исследователь направления, который стоит перед выбором, потратить ресурсы на написание статьи или на следующую работу?
Вот три дня назад вышла статья «Improved Techniques for Training Consistency Models», где рассказывается про улучшение Consistency Models, представленных OpenAI весной. Саммари оригинальной работы вкратце можно почитать тут у Артёма, или вот тут в двух постах чуть более детально. Общая идея в том, что процесс генерации изображения происходит пошагово, а время работы растёт линейно с количеством шагов. Хочется генерировать изображение в 2-3 шага, а не 50.
В новой статье показывают набор улучшений и исправлений ошибок, в том числе представлен новый процесс, где модель не дистиллируется из другой, а учится напрямую из данных. Также автоматическую функцию потерь LPIPS, основанную на работе другой нейросети, заменяют на Pseudo-Huber Loss.
P.S.: в статье напрямую не говорится, что именно этот метод использовался в DALL-E 3, но 1) статья вышла буквально через неделю после релиза 2) в самой статье по DALL-E 3 ссылаются на оригинальную весеннюю работу, мол, мы это используем, да, Consistency Models у нас есть.
Детального разбора статьи не будет, так как там много математики😏
P.P.S: первый пост в канале, полностью написанный из VR очков! Сделал себе виртуальный стол с двумя экранами. Немного неудобно по двум причинам: не смог нормально протереть оптику, поэтому картинка частично замылена + я использую стороннее приложение, и в нём есть косяк, что минимальные движения руки могут начать двигать экраны. Вот бы добавить кнопку "замок", чтобы без её нажатия нельзя было взаимодействовать с дисплеем🙂
Остальные части, опционально, будут выпускать по кусочкам, если посчитают нужным. Интересно, как и кто принимает решение? Ведущий исследователь направления, который стоит перед выбором, потратить ресурсы на написание статьи или на следующую работу?
Вот три дня назад вышла статья «Improved Techniques for Training Consistency Models», где рассказывается про улучшение Consistency Models, представленных OpenAI весной. Саммари оригинальной работы вкратце можно почитать тут у Артёма, или вот тут в двух постах чуть более детально. Общая идея в том, что процесс генерации изображения происходит пошагово, а время работы растёт линейно с количеством шагов. Хочется генерировать изображение в 2-3 шага, а не 50.
В новой статье показывают набор улучшений и исправлений ошибок, в том числе представлен новый процесс, где модель не дистиллируется из другой, а учится напрямую из данных. Также автоматическую функцию потерь LPIPS, основанную на работе другой нейросети, заменяют на Pseudo-Huber Loss.
P.S.: в статье напрямую не говорится, что именно этот метод использовался в DALL-E 3, но 1) статья вышла буквально через неделю после релиза 2) в самой статье по DALL-E 3 ссылаются на оригинальную весеннюю работу, мол, мы это используем, да, Consistency Models у нас есть.
Детального разбора статьи не будет, так как там много математики
P.P.S: первый пост в канале, полностью написанный из VR очков! Сделал себе виртуальный стол с двумя экранами. Немного неудобно по двум причинам: не смог нормально протереть оптику, поэтому картинка частично замылена + я использую стороннее приложение, и в нём есть косяк, что минимальные движения руки могут начать двигать экраны. Вот бы добавить кнопку "замок", чтобы без её нажатия нельзя было взаимодействовать с дисплеем
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66😁14❤9🤓7🤔3🤡3🆒1
Сиолошная
В 2019 году GPT-2 не могла достоверно считать до десяти. Всего четыре года спустя системы на основе глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать…
Пока государства спят, OpenAI, Anthropic, Google и Microsoft анонсируют Frontier Model Forum. На самом деле про него писали ещё в июле, однако сегодня появился апдейт.
Во-первых, назначили исполнительного директора — Chris Meserole. Интересных фактов сходу про него не нагуглилось, приходите в комментарии рассказать, если у вас есть информация. Вот что про него говорят коллеги из вышеуказанных компаний.
Во-вторых, выделяется более $10M в новый Фонд безопасности ИИ. Основное внимание Фонда будет уделяться поддержке разработки новых способов оценки моделей.
В-третьих, опубликовали 5-ти страничный документ, который описывает, что такое Red Teaming, и на примерах показывается, что делают компании с текущими моделями перед релизом. Например, OpenAI наняли 41 человека для того, чтобы потестировать ранние версии GPT-4 перед релизом. Кажется, что это мало, но покажите кто вообще об этом думал до релиза ChatGPT?
В-четвертых, полным ходом идёт разработка нового процесса раскрытия информации, с помощью которого передовые лаборатории смогут обмениваться информацией, связанной с обнаружением уязвимостей или потенциально опасных возможностей в передовых моделях.
Полная новость: https://openai.com/blog/frontier-model-forum-updates
Во-первых, назначили исполнительного директора — Chris Meserole. Интересных фактов сходу про него не нагуглилось, приходите в комментарии рассказать, если у вас есть информация. Вот что про него говорят коллеги из вышеуказанных компаний.
Во-вторых, выделяется более $10M в новый Фонд безопасности ИИ. Основное внимание Фонда будет уделяться поддержке разработки новых способов оценки моделей.
В-третьих, опубликовали 5-ти страничный документ, который описывает, что такое Red Teaming, и на примерах показывается, что делают компании с текущими моделями перед релизом. Например, OpenAI наняли 41 человека для того, чтобы потестировать ранние версии GPT-4 перед релизом. Кажется, что это мало, но покажите кто вообще об этом думал до релиза ChatGPT?
В-четвертых, полным ходом идёт разработка нового процесса раскрытия информации, с помощью которого передовые лаборатории смогут обмениваться информацией, связанной с обнаружением уязвимостей или потенциально опасных возможностей в передовых моделях.
Полная новость: https://openai.com/blog/frontier-model-forum-updates
👍75❤14🤡6⚡4🤮4🌚4
Не секрет, что для RLHF (Reinforcement Learning from Human Feedback) — последнего этапа тренировки систем типа ChatGPT — необходимы специализированные методы. Один из них — PPO (Proximal Policy Optimization), придуманный в стенах OpenAI в далёком 2017м году. В целом, логично: сами придумали метод, сами нарастили экспертизу через десятки экспериментов, и потом применяют тут и там.
Одним из основных отличий PPO от других методов тех времён заявлялась простота имплементации и низкое количество гиперпараметров, которые необходимо перебирать. На бумаге звучит здорово, но, к сожалению, на практике не всё так радужно.
Ещё в прошлом году я наткнулся на блогпост «The 37 Implementation Details of Proximal Policy Optimization» (подготовлен к конференции ICLR). По названию, думаю, уже можно прочувствовать всю боль «much simpler to implement» метода🤣 . Сбор всех частичек и воспроизведение результатов заняли у авторов ТРИ ГОДА. Какие-то вещи менялись прямо в коде репозитория OpenAI между разными версиями (с разницей в качестве в ДВА РАЗА), что-то не объяснялось в статье и никем не упоминалось, а некоторые вещи выглядели багами, но почему-то давали результат. У этой статьи есть видео-саммари в трёх частях, вот ссылка на плейлист. В общем, если вы хотите глубже разобраться, да или просто прокачаться — очень рекомендую к разбору.
На этом дело не закончилось, и те же авторы решили посмотреть репозиторий openai/lm-human-preferences 2019го года. Это код для статьи «Fine-Tuning Language Models from Human Preferences» с легендарными Paul Christiano и Alec Radford в соавторах. Здесь как раз впервые применяется PPO для оптимизации LLM под человеческие предпочтения. Ранние наработки по ChatGPT, говоря иначе.
Работа заняла уже меньше 3 лет, и вот буквально вчера появился блог «The N Implementation Details of RLHF with PPO», который практически в точности воспроизводит результаты работы OpenAI, но на PyTorch и с современными библиотеками, а не на устаревшем TensorFlow. Это, кстати, было одной из больших заноз. Например, оптимизатор Adam имплементирован в этих фреймворках по-разному, и из коробки просто не получалось повторить тренировку.
Но моя любимая история тут — это проблема с запуском на конкретном сетапе видеокарт (чтобы получить оригинальные метрики и кривые обучения и понимать, с чем сравнивать). Следите за руками:
1) на 1xV100 не хватает памяти, так как аккумулирования градиентов не было
2) на A100 запустить невозможно — старый TF не поддерживает новые видеокарты
3) на 8xV100 16GB тоже не хватает памяти
4) так что работает всё строго на 8xV100 32GB. Такая вот магия!
А ещё один из датасетов OpenAI потеряли при переезде с одного хранилища на другое😱
В общем, чтиво получается максимально интересное и увлекательное, позволяющее лучше разобраться во всех тонкостях, причём даже если RLHF вам не интересен.
————————————————————————
Эх, а вот редставьте сколько бы всего интересного можно было найти в репозитории для тренировки и инференса LLM уровня GPT-4🍿 🚬 ...
Одним из основных отличий PPO от других методов тех времён заявлялась простота имплементации и низкое количество гиперпараметров, которые необходимо перебирать. На бумаге звучит здорово, но, к сожалению, на практике не всё так радужно.
Ещё в прошлом году я наткнулся на блогпост «The 37 Implementation Details of Proximal Policy Optimization» (подготовлен к конференции ICLR). По названию, думаю, уже можно прочувствовать всю боль «much simpler to implement» метода
На этом дело не закончилось, и те же авторы решили посмотреть репозиторий openai/lm-human-preferences 2019го года. Это код для статьи «Fine-Tuning Language Models from Human Preferences» с легендарными Paul Christiano и Alec Radford в соавторах. Здесь как раз впервые применяется PPO для оптимизации LLM под человеческие предпочтения. Ранние наработки по ChatGPT, говоря иначе.
Работа заняла уже меньше 3 лет, и вот буквально вчера появился блог «The N Implementation Details of RLHF with PPO», который практически в точности воспроизводит результаты работы OpenAI, но на PyTorch и с современными библиотеками, а не на устаревшем TensorFlow. Это, кстати, было одной из больших заноз. Например, оптимизатор Adam имплементирован в этих фреймворках по-разному, и из коробки просто не получалось повторить тренировку.
Но моя любимая история тут — это проблема с запуском на конкретном сетапе видеокарт (чтобы получить оригинальные метрики и кривые обучения и понимать, с чем сравнивать). Следите за руками:
1) на 1xV100 не хватает памяти, так как аккумулирования градиентов не было
2) на A100 запустить невозможно — старый TF не поддерживает новые видеокарты
3) на 8xV100 16GB тоже не хватает памяти
4) так что работает всё строго на 8xV100 32GB. Такая вот магия!
А ещё один из датасетов OpenAI потеряли при переезде с одного хранилища на другое
В общем, чтиво получается максимально интересное и увлекательное, позволяющее лучше разобраться во всех тонкостях, причём даже если RLHF вам не интересен.
————————————————————————
Эх, а вот редставьте сколько бы всего интересного можно было найти в репозитории для тренировки и инференса LLM уровня GPT-4
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82👍41❤🔥5😢4❤3🤯3🌚3🤡2💩1👌1
В свежем видео от Boston Dynamics инженеры прикрутили ChatGPT к робо-собакам Spot. Зрение работает на отдельных Visual Question Answering (VQA) моделях, так как API-доступа к GPT-4V ещё нет 😫 работает так: изображения с трёх камер сначала переводятся в текст, и затем подаются в промпт как описание окружения.
Также у собакена есть несколько голосов и связанных с ними персон. Есть тинейджер, путешественник во времени, поэт, подражающий Шэксприру, и другие. И все они кастомизируются лишь парой строк в промпте за 5 минут, ничего не нужно программировать вручную.
На видео показывается кейс гида по офису Boston Dynamics, с рассказом про отдельные места. Например, если попросить отвести вас к предкам Spot, то он приведёт вас в комнату со старыми образцами бегающих железок. Это также никто не программировал — машина сама П О Н И М А Е Т и интерпретирует ваши запросы👏 эх, поскорее бы будущее
Смотреть: https://www.youtube.com/watch?v=djzOBZUFzTw
Также у собакена есть несколько голосов и связанных с ними персон. Есть тинейджер, путешественник во времени, поэт, подражающий Шэксприру, и другие. И все они кастомизируются лишь парой строк в промпте за 5 минут, ничего не нужно программировать вручную.
На видео показывается кейс гида по офису Boston Dynamics, с рассказом про отдельные места. Например, если попросить отвести вас к предкам Spot, то он приведёт вас в комнату со старыми образцами бегающих железок. Это также никто не программировал — машина сама П О Н И М А Е Т и интерпретирует ваши запросы
Смотреть: https://www.youtube.com/watch?v=djzOBZUFzTw
Please open Telegram to view this post
VIEW IN TELEGRAM
😱105❤🔥35👍27🔥21❤7🤔4🥱3👏2😍2🫡1🗿1
Команда создана для оценки, прогнозирования и защиты от рисков, связанных с развитым искусственным интеллектом — от современных моделей до AGI. В частности, затрагиваются следующие направления работ:
— индивидуальное убеждение (когда одна модель может смещать точку зрения сотен миллионов пользователей. Такое ни одному политику и не снилось! Но как можно контролировать отсутствие подобных проблем?)
— кибербезопасность
— химические, биологические и ядерные угрозы
— автономная репликация и адаптация (ARA, про это писал раньше вот тут)
Управление катастрофическими рисками, исходящими от передового ИИ, потребует ответов на такие вопросы, как:
— Насколько опасны передовые ИИ-системы (в настоящее время и в будущем), если их неправильно использовать?
— Как мы можем создать надежную систему для мониторинга, оценки, прогнозирования и защиты от опасных возможностей передовых систем?
— Если бы передовые модели были украдены, как злоумышленники могли бы ими воспользоваться?
Исходя из ответов на эти и сотни других вопросов, будет дорабатываться стратегия, понимание, инфраструктура, необходимые для обеспечения безопасности систем.
Команду возглавит Aleksander Madry, профессор MIT, весной взявший паузу для того, чтобы присоединиться к OpenAI. Сейчас открыто 2 вакансии с окладом до $370k в год.
Также OpenAI запускают Preparedness Challenge, где вы можете поделиться своими идеями касательно тем выше, чтобы получить один из десяти призов в виде $25k API-кредитов на дальнейшую работу, а также шанс получить оффер. В решении нужно описать в деталях (но не более 3 страниц A4), как можно использовать украденные модели. А ещё предложить тезисный план экспериментов и рекомендуемые действия для борьбы с подобного рода угрозами. В общем, ждём господ с LessWrong с отправкой десятков идей по уничтожению мира
Please open Telegram to view this post
VIEW IN TELEGRAM
👍78❤12🤮12😁6🤔4🤡3🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Начали появляться первые игры, полноценно адаптированные под Mixed Reality-режим на Meta Quest 3. Украл с Reddit видео игры дома в стрелялку, где нужно отбиваться от волн зомби. Лезут они из ваших окон, стен, дверей, наверняка еще и с потолка падают.
Во время запуска гарнитура сканирует пространство вокруг, вы можете добавить сами окна/фурнитуру. Игровая зона, которую может охватывать шлем, измеряется десятками квадратных метров (хотя уже на прошлом поколении были игры на 200м+, может и тут так). Есть даже кооператив, чтобы играть с приятелем или девушкой в одной квартире — ваше "пространство" будет синхронизировано.
По качеству графики — напомню, что вся обработка идёт на самой гарнитуре на по-сути мобильном чипе. С увеличением мощностей раз так в 10 можно будет рендерить фотореалистичные текстуры, добавлять точно просчитанные отражения, you name it. Интересно, когда появится схожее приложение, но с расчётом в облаке/хотя бы на компьютере в той же WiFi сети?
Ну и чтобы два раза не вставать — вот ещё пример аналога Minecraft на открытом воздухе.
P.S.: кому интересно — игра называется Drop Dead.
Во время запуска гарнитура сканирует пространство вокруг, вы можете добавить сами окна/фурнитуру. Игровая зона, которую может охватывать шлем, измеряется десятками квадратных метров (хотя уже на прошлом поколении были игры на 200м+, может и тут так). Есть даже кооператив, чтобы играть с приятелем или девушкой в одной квартире — ваше "пространство" будет синхронизировано.
По качеству графики — напомню, что вся обработка идёт на самой гарнитуре на по-сути мобильном чипе. С увеличением мощностей раз так в 10 можно будет рендерить фотореалистичные текстуры, добавлять точно просчитанные отражения, you name it. Интересно, когда появится схожее приложение, но с расчётом в облаке/хотя бы на компьютере в той же WiFi сети?
Ну и чтобы два раза не вставать — вот ещё пример аналога Minecraft на открытом воздухе.
P.S.: кому интересно — игра называется Drop Dead.
👍102🔥54🤯24❤7🤡2
WSJ со ссылкой на источники пишет, что в понедельник администрация Байдена обнародует указ об ИИ, который станет самой значительной на сегодняшний день попыткой правительства США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всем мире.
Однако документ сфокусируется на тех инструментах, которыми будут пользоваться федеральные работники. Также будут смягчены иммиграционные барьеры для высококвалифицированных работников в сфере AI (опять? а можно будет просто по паспорту въехать?). Министерство обороны, Министерство энергетики и пара агентств должны будут провести оценку, чтобы определить, как они могут внедрить ИИ в работу своих ведомств.
Ждём документ. Как мне кажется, он позволит нам понять общее направление мысли и настроения, общую адекватность и работоспособность требований. Интересно, будет ли там планка отсечения по мощностям, выше которой ИИ-системы будут тестироваться, или же загребут всё подряд?
Прочитать новость в оригинале
Однако документ сфокусируется на тех инструментах, которыми будут пользоваться федеральные работники. Также будут смягчены иммиграционные барьеры для высококвалифицированных работников в сфере AI (опять? а можно будет просто по паспорту въехать?). Министерство обороны, Министерство энергетики и пара агентств должны будут провести оценку, чтобы определить, как они могут внедрить ИИ в работу своих ведомств.
Ждём документ. Как мне кажется, он позволит нам понять общее направление мысли и настроения, общую адекватность и работоспособность требований. Интересно, будет ли там планка отсечения по мощностям, выше которой ИИ-системы будут тестироваться, или же загребут всё подряд?
Прочитать новость в оригинале
🤔79👍28🤡19❤9🔥8🤮3🍾3🎉2💩1💔1