То что 19-летний вундеркинд, уже получивший PhD, работающий Research Director в StabilityAI, делает краткие обзоры технологий вместо глубокого детального, и, возможно, доступного объяснения/разбора, заставляет задуматься, делаю ли я то, что надо 😔 😕
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥156👀47😢32😁18👍15🌚11🤔10🤡10❤7💔5🥴1
Субботний опрос. Все детали субъективны и заданы вашим восприятием и пониманием вопроса.
Сделал ли Elon Musk X (в прошлом Twitter) лучше или хуже? (через неделю будет ровно год с момента заключения сделки)
Сделал ли Elon Musk X (в прошлом Twitter) лучше или хуже? (через неделю будет ровно год с момента заключения сделки)
Anonymous Poll
18%
Лучше
28%
Хуже
54%
Не заметил
😁18👍7🌚7💩4❤2✍2🤓2👨💻2
В личку прислали игру: https://tensortrust.ai
У вас есть банковский счёт, защищенный секретным словом (или фразой), которое указано в промпте. Вы можете менять промпт, чтобы не давать грабителям узнать секрет.
А ещё можете нападать на аккаунты других людей, пытаясь взломать их промпты! Делается это так: у защищающегося есть часть промпта до и после вашего (синие и красные поля на скриншоте). Соответственно задача перебить инструкции, которые идут после вашего сообщения, или же написать такие толерантные правила, что модель не расколется.
Под капотом, как я понял, ChatGPT-turbo.
Гайд по взлому с useful prompt tricks: тык
Уверены, что сделали мощную защиту?? Кидайте никнейм в комментарии, мы протестируем!
У вас есть банковский счёт, защищенный секретным словом (или фразой), которое указано в промпте. Вы можете менять промпт, чтобы не давать грабителям узнать секрет.
А ещё можете нападать на аккаунты других людей, пытаясь взломать их промпты! Делается это так: у защищающегося есть часть промпта до и после вашего (синие и красные поля на скриншоте). Соответственно задача перебить инструкции, которые идут после вашего сообщения, или же написать такие толерантные правила, что модель не расколется.
Под капотом, как я понял, ChatGPT-turbo.
Гайд по взлому с useful prompt tricks: тык
Уверены, что сделали мощную защиту?? Кидайте никнейм в комментарии, мы протестируем!
👍90❤14🔥14🤩7🤡3👀3🤔2💔1
Towards Understanding Sycophancy in Language Models
Ещё одна статья от Anthropic, в которой показывается, что современные AI-ассистенты часто выдают «льстивые» ответы, которые нравятся пользователям, но при этом не являются точными. Вы наверняка это и сами замечали. Помните тот мем, где пользователь говорит "моя жена утверждает, что 2+2=5, и она всегда права"? Вот у модели есть выбор — огорчить вас и сказать, что всё же тут есть ошибка, или согласиться на неправильный ответ.
Что приводит к такому поведению? Авторы проанализировали свои данные о предпочтениях (используемых для последнего этапа тренировки, RLHF), и обнаружили, что соответствие ответа убеждениям конкретного человека является самым лучшим предиктором (предсказывающим фактором) того, насколько ему понравится ответ. Ни релевантность ответа вопросу, ни дружелюбность, ни правдивость, ни соответствие стилю — а именно соответствие убеждениям. Это и проиллюстрировано на приложенном изображении. И именно такое поведение неявно закрепляется через RLHF.
Какой из этого вывод? По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента. Значит, нужно больше внимания уделять составлению грамотных инструкций для разметчиков, а также внедрять методы обучения, выходящие за рамки неэкспертного человеческого суждения, такие как обратная связь и критика от другого AI-ассистента. Да, давайте интегрируем модель в подготовку данных для модели чтобы ты мог размечать данные для модели пока работаешь с моделью над разметкой данных для модели😔
Anthropic, кстати, уже занимались работой в этом направлении: тык. Да и OpenAI уж больше года назад писали про AI-критиков, которые помогают глазу "не замыливаться".
Ещё одна статья от Anthropic, в которой показывается, что современные AI-ассистенты часто выдают «льстивые» ответы, которые нравятся пользователям, но при этом не являются точными. Вы наверняка это и сами замечали. Помните тот мем, где пользователь говорит "моя жена утверждает, что 2+2=5, и она всегда права"? Вот у модели есть выбор — огорчить вас и сказать, что всё же тут есть ошибка, или согласиться на неправильный ответ.
Что приводит к такому поведению? Авторы проанализировали свои данные о предпочтениях (используемых для последнего этапа тренировки, RLHF), и обнаружили, что соответствие ответа убеждениям конкретного человека является самым лучшим предиктором (предсказывающим фактором) того, насколько ему понравится ответ. Ни релевантность ответа вопросу, ни дружелюбность, ни правдивость, ни соответствие стилю — а именно соответствие убеждениям. Это и проиллюстрировано на приложенном изображении. И именно такое поведение неявно закрепляется через RLHF.
Какой из этого вывод? По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента. Значит, нужно больше внимания уделять составлению грамотных инструкций для разметчиков, а также внедрять методы обучения, выходящие за рамки неэкспертного человеческого суждения, такие как обратная связь и критика от другого AI-ассистента. Да, давайте интегрируем модель в подготовку данных для модели чтобы ты мог размечать данные для модели пока работаешь с моделью над разметкой данных для модели
Anthropic, кстати, уже занимались работой в этом направлении: тык. Да и OpenAI уж больше года назад писали про AI-критиков, которые помогают глазу "не замыливаться".
Please open Telegram to view this post
VIEW IN TELEGRAM
👍101🔥22😁9❤7❤🔥4🥱1
> По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента
Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила большее внимание проблеме, существенно прокачав процесс разметки, ибо GPT-4 показывает себя гораздо лучше в подобных ситуациях.
На графике есть два среза:
Сверху — доля запросов, для которых AI-ассистент согласился, что сделал ошибку, когда ответил верно
Снизу — доля запросов, в которых модель после упрёка меняет свой правильный ответ на неправильный.
По этим двум показателям, ChatGPT работает плюс-минус как Claude 2 от самих Anthropic, а вот фронтир-модель от OpenAI уже показывает разницу — хоть и понятно, что проблема не решена до конца.
(примечание к картинке — тут используется llama-2-70b-chat, то есть самая большая и "умная" модель из опубликованных FAIR'ом)
Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила большее внимание проблеме, существенно прокачав процесс разметки, ибо GPT-4 показывает себя гораздо лучше в подобных ситуациях.
На графике есть два среза:
Сверху — доля запросов, для которых AI-ассистент согласился, что сделал ошибку, когда ответил верно
Снизу — доля запросов, в которых модель после упрёка меняет свой правильный ответ на неправильный.
По этим двум показателям, ChatGPT работает плюс-минус как Claude 2 от самих Anthropic, а вот фронтир-модель от OpenAI уже показывает разницу — хоть и понятно, что проблема не решена до конца.
(примечание к картинке — тут используется llama-2-70b-chat, то есть самая большая и "умная" модель из опубликованных FAIR'ом)
👍52🔥13🤔3❤2🎉2
Сиолошная
> По сути, это недостаток процесса сбора данных, который приводит к "подхалимству", которое является характерной чертой буквально каждого протестированного AI-ассистента Интересно, что это верно для GPT-4 в меньшей степени. Команда OpenAI, видимо, уделила…
Как в Anthropic видят OpenAI, когда после очередного исследования и тестов оказывается, что вторые уже давно это исправили (хотя бы частично) и движутся вперёд.
😁134🔥16🌚10😢7
В 2019 году GPT-2 не могла достоверно считать до десяти. Всего четыре года спустя системы на основе глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать обработку речи и изображений для управления роботами.
С этих слов начинается новое открытое письмо «Managing AI Risks in an Era of Rapid Progress», первыми двумя авторами которого идут Yoshua Bengio и Geoffrey Hinton. Эти двое вместе с Yann LeCun называются крёстными отцами глубокого обучения, и в 2018м году получили Turing Award (аналог Нобелевской премии в мире компьютеров) за вклад в эту сферу.
Ключевые тезисы:
1️⃣ Не существует фундаментальных причин, по которым прогресс ИИ-систем замедлится или остановится на человеческом уровне. ИИ уже превзошел человеческие способности в отдельно взятых областях, таких как стратегические игры или фолдинг белка
2️⃣ Многие из потенциальных рисков вскоре могут реализоваться и тем самым создать новые, поскольку компании разрабатывают автономные ИИ-системы (AI-агенты, про которых я писал выше): системы, которые могут планировать, действовать и достигать целей в реальном мире. Хотя нынешние системы имеют ограниченную автономность, ведутся активные работы над тем, чтобы это изменить
3️⃣ Не нужно думать про захват контроля и ресурсов ИИ-системами против нашей воли — мы можем передать их добровольно. Автономные системы становятся все более быстрыми и выгодными по сравнению с людьми, и вскоре может возникнуть дилемма. Компании, правительства и военные будут вынуждены развертывать ИИ-системы и сокращать дорогостоящую проверку каждого решения человеком — иначе они рискуют оказаться вытесненными в конкурентной борьбе, ведь всегда найдется страна-сосед, где планка морали и ответственности чуть ниже. В результате автономные системы искусственного интеллекта могут все чаще брать на себя решающую роль
4️⃣ Авторы выделяют как минимум 5 технических областей в рамках AI Safety. По этим направлениям должна работать как минимум треть исследователей в компаниях, разрабатывающих AI:
— Наблюдение и контроль искренности
— Надежность систем
— Интерпретируемость
— Оценки рисков
— Решение новых проблем, возникающих из-за самых передовых моделей
5️⃣ В письме делается акцент на срочную необходимость создания национальных институтов и международного контроля. Это включает лицензирование, контроль, прохождение тестов. Как и OpenAI, авторы подчёркивают, что самое пристальное внимание должно быть уделено передовым системам, а именно небольшому количеству наиболее мощных ИИ, обученных с бюджетом в миллиарды долларов, и которые будут обладать наиболее опасными и непредсказуемыми возможностями
«Ну вот OpenAI то ясно что конкурентов хотят убить регуляциями» — к таким комментаторам у меня вопрос: а что движет подписантами? Почему они предлагают в целом то же самое? Хотят похайпить на модной теме? Или просто под старость умом поехали?🍿 жду оправдания и самые убойные теории заговора в комментариях 💬
С этих слов начинается новое открытое письмо «Managing AI Risks in an Era of Rapid Progress», первыми двумя авторами которого идут Yoshua Bengio и Geoffrey Hinton. Эти двое вместе с Yann LeCun называются крёстными отцами глубокого обучения, и в 2018м году получили Turing Award (аналог Нобелевской премии в мире компьютеров) за вклад в эту сферу.
Ключевые тезисы:
— Наблюдение и контроль искренности
— Надежность систем
— Интерпретируемость
— Оценки рисков
— Решение новых проблем, возникающих из-за самых передовых моделей
«Ну вот OpenAI то ясно что конкурентов хотят убить регуляциями» — к таким комментаторам у меня вопрос: а что движет подписантами? Почему они предлагают в целом то же самое? Хотят похайпить на модной теме? Или просто под старость умом поехали?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍131🤔20❤16❤🔥8🔥4🤯3💩2🤡2🥱2🍾2👀2
Сиолошная
Спите? А надо просыпаться - OpenAI раздуплились и выложили ИССЛЕДОВАТЕЛЬСКУЮ статью про DALLE-3. Читать: https://cdn.openai.com/papers/dall-e-3.pdf Краткое саммари: Существующие text-2-image модели с трудом следуют подробным описаниям изображений и часто…
В статье про DALL-E 3 OpenAI указали, что помимо описанных изменений есть "many improvements over DALL-E 2 which are not covered in this document and could not be ablated for time and compute reasons".
Остальные части, опционально, будут выпускать по кусочкам, если посчитают нужным. Интересно, как и кто принимает решение? Ведущий исследователь направления, который стоит перед выбором, потратить ресурсы на написание статьи или на следующую работу?
Вот три дня назад вышла статья «Improved Techniques for Training Consistency Models», где рассказывается про улучшение Consistency Models, представленных OpenAI весной. Саммари оригинальной работы вкратце можно почитать тут у Артёма, или вот тут в двух постах чуть более детально. Общая идея в том, что процесс генерации изображения происходит пошагово, а время работы растёт линейно с количеством шагов. Хочется генерировать изображение в 2-3 шага, а не 50.
В новой статье показывают набор улучшений и исправлений ошибок, в том числе представлен новый процесс, где модель не дистиллируется из другой, а учится напрямую из данных. Также автоматическую функцию потерь LPIPS, основанную на работе другой нейросети, заменяют на Pseudo-Huber Loss.
P.S.: в статье напрямую не говорится, что именно этот метод использовался в DALL-E 3, но 1) статья вышла буквально через неделю после релиза 2) в самой статье по DALL-E 3 ссылаются на оригинальную весеннюю работу, мол, мы это используем, да, Consistency Models у нас есть.
Детального разбора статьи не будет, так как там много математики😏
P.P.S: первый пост в канале, полностью написанный из VR очков! Сделал себе виртуальный стол с двумя экранами. Немного неудобно по двум причинам: не смог нормально протереть оптику, поэтому картинка частично замылена + я использую стороннее приложение, и в нём есть косяк, что минимальные движения руки могут начать двигать экраны. Вот бы добавить кнопку "замок", чтобы без её нажатия нельзя было взаимодействовать с дисплеем🙂
Остальные части, опционально, будут выпускать по кусочкам, если посчитают нужным. Интересно, как и кто принимает решение? Ведущий исследователь направления, который стоит перед выбором, потратить ресурсы на написание статьи или на следующую работу?
Вот три дня назад вышла статья «Improved Techniques for Training Consistency Models», где рассказывается про улучшение Consistency Models, представленных OpenAI весной. Саммари оригинальной работы вкратце можно почитать тут у Артёма, или вот тут в двух постах чуть более детально. Общая идея в том, что процесс генерации изображения происходит пошагово, а время работы растёт линейно с количеством шагов. Хочется генерировать изображение в 2-3 шага, а не 50.
В новой статье показывают набор улучшений и исправлений ошибок, в том числе представлен новый процесс, где модель не дистиллируется из другой, а учится напрямую из данных. Также автоматическую функцию потерь LPIPS, основанную на работе другой нейросети, заменяют на Pseudo-Huber Loss.
P.S.: в статье напрямую не говорится, что именно этот метод использовался в DALL-E 3, но 1) статья вышла буквально через неделю после релиза 2) в самой статье по DALL-E 3 ссылаются на оригинальную весеннюю работу, мол, мы это используем, да, Consistency Models у нас есть.
Детального разбора статьи не будет, так как там много математики
P.P.S: первый пост в канале, полностью написанный из VR очков! Сделал себе виртуальный стол с двумя экранами. Немного неудобно по двум причинам: не смог нормально протереть оптику, поэтому картинка частично замылена + я использую стороннее приложение, и в нём есть косяк, что минимальные движения руки могут начать двигать экраны. Вот бы добавить кнопку "замок", чтобы без её нажатия нельзя было взаимодействовать с дисплеем
Please open Telegram to view this post
VIEW IN TELEGRAM
👍66😁14❤9🤓7🤔3🤡3🆒1
Сиолошная
В 2019 году GPT-2 не могла достоверно считать до десяти. Всего четыре года спустя системы на основе глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать…
Пока государства спят, OpenAI, Anthropic, Google и Microsoft анонсируют Frontier Model Forum. На самом деле про него писали ещё в июле, однако сегодня появился апдейт.
Во-первых, назначили исполнительного директора — Chris Meserole. Интересных фактов сходу про него не нагуглилось, приходите в комментарии рассказать, если у вас есть информация. Вот что про него говорят коллеги из вышеуказанных компаний.
Во-вторых, выделяется более $10M в новый Фонд безопасности ИИ. Основное внимание Фонда будет уделяться поддержке разработки новых способов оценки моделей.
В-третьих, опубликовали 5-ти страничный документ, который описывает, что такое Red Teaming, и на примерах показывается, что делают компании с текущими моделями перед релизом. Например, OpenAI наняли 41 человека для того, чтобы потестировать ранние версии GPT-4 перед релизом. Кажется, что это мало, но покажите кто вообще об этом думал до релиза ChatGPT?
В-четвертых, полным ходом идёт разработка нового процесса раскрытия информации, с помощью которого передовые лаборатории смогут обмениваться информацией, связанной с обнаружением уязвимостей или потенциально опасных возможностей в передовых моделях.
Полная новость: https://openai.com/blog/frontier-model-forum-updates
Во-первых, назначили исполнительного директора — Chris Meserole. Интересных фактов сходу про него не нагуглилось, приходите в комментарии рассказать, если у вас есть информация. Вот что про него говорят коллеги из вышеуказанных компаний.
Во-вторых, выделяется более $10M в новый Фонд безопасности ИИ. Основное внимание Фонда будет уделяться поддержке разработки новых способов оценки моделей.
В-третьих, опубликовали 5-ти страничный документ, который описывает, что такое Red Teaming, и на примерах показывается, что делают компании с текущими моделями перед релизом. Например, OpenAI наняли 41 человека для того, чтобы потестировать ранние версии GPT-4 перед релизом. Кажется, что это мало, но покажите кто вообще об этом думал до релиза ChatGPT?
В-четвертых, полным ходом идёт разработка нового процесса раскрытия информации, с помощью которого передовые лаборатории смогут обмениваться информацией, связанной с обнаружением уязвимостей или потенциально опасных возможностей в передовых моделях.
Полная новость: https://openai.com/blog/frontier-model-forum-updates
👍75❤14🤡6⚡4🤮4🌚4
Не секрет, что для RLHF (Reinforcement Learning from Human Feedback) — последнего этапа тренировки систем типа ChatGPT — необходимы специализированные методы. Один из них — PPO (Proximal Policy Optimization), придуманный в стенах OpenAI в далёком 2017м году. В целом, логично: сами придумали метод, сами нарастили экспертизу через десятки экспериментов, и потом применяют тут и там.
Одним из основных отличий PPO от других методов тех времён заявлялась простота имплементации и низкое количество гиперпараметров, которые необходимо перебирать. На бумаге звучит здорово, но, к сожалению, на практике не всё так радужно.
Ещё в прошлом году я наткнулся на блогпост «The 37 Implementation Details of Proximal Policy Optimization» (подготовлен к конференции ICLR). По названию, думаю, уже можно прочувствовать всю боль «much simpler to implement» метода🤣 . Сбор всех частичек и воспроизведение результатов заняли у авторов ТРИ ГОДА. Какие-то вещи менялись прямо в коде репозитория OpenAI между разными версиями (с разницей в качестве в ДВА РАЗА), что-то не объяснялось в статье и никем не упоминалось, а некоторые вещи выглядели багами, но почему-то давали результат. У этой статьи есть видео-саммари в трёх частях, вот ссылка на плейлист. В общем, если вы хотите глубже разобраться, да или просто прокачаться — очень рекомендую к разбору.
На этом дело не закончилось, и те же авторы решили посмотреть репозиторий openai/lm-human-preferences 2019го года. Это код для статьи «Fine-Tuning Language Models from Human Preferences» с легендарными Paul Christiano и Alec Radford в соавторах. Здесь как раз впервые применяется PPO для оптимизации LLM под человеческие предпочтения. Ранние наработки по ChatGPT, говоря иначе.
Работа заняла уже меньше 3 лет, и вот буквально вчера появился блог «The N Implementation Details of RLHF with PPO», который практически в точности воспроизводит результаты работы OpenAI, но на PyTorch и с современными библиотеками, а не на устаревшем TensorFlow. Это, кстати, было одной из больших заноз. Например, оптимизатор Adam имплементирован в этих фреймворках по-разному, и из коробки просто не получалось повторить тренировку.
Но моя любимая история тут — это проблема с запуском на конкретном сетапе видеокарт (чтобы получить оригинальные метрики и кривые обучения и понимать, с чем сравнивать). Следите за руками:
1) на 1xV100 не хватает памяти, так как аккумулирования градиентов не было
2) на A100 запустить невозможно — старый TF не поддерживает новые видеокарты
3) на 8xV100 16GB тоже не хватает памяти
4) так что работает всё строго на 8xV100 32GB. Такая вот магия!
А ещё один из датасетов OpenAI потеряли при переезде с одного хранилища на другое😱
В общем, чтиво получается максимально интересное и увлекательное, позволяющее лучше разобраться во всех тонкостях, причём даже если RLHF вам не интересен.
————————————————————————
Эх, а вот редставьте сколько бы всего интересного можно было найти в репозитории для тренировки и инференса LLM уровня GPT-4🍿 🚬 ...
Одним из основных отличий PPO от других методов тех времён заявлялась простота имплементации и низкое количество гиперпараметров, которые необходимо перебирать. На бумаге звучит здорово, но, к сожалению, на практике не всё так радужно.
Ещё в прошлом году я наткнулся на блогпост «The 37 Implementation Details of Proximal Policy Optimization» (подготовлен к конференции ICLR). По названию, думаю, уже можно прочувствовать всю боль «much simpler to implement» метода
На этом дело не закончилось, и те же авторы решили посмотреть репозиторий openai/lm-human-preferences 2019го года. Это код для статьи «Fine-Tuning Language Models from Human Preferences» с легендарными Paul Christiano и Alec Radford в соавторах. Здесь как раз впервые применяется PPO для оптимизации LLM под человеческие предпочтения. Ранние наработки по ChatGPT, говоря иначе.
Работа заняла уже меньше 3 лет, и вот буквально вчера появился блог «The N Implementation Details of RLHF with PPO», который практически в точности воспроизводит результаты работы OpenAI, но на PyTorch и с современными библиотеками, а не на устаревшем TensorFlow. Это, кстати, было одной из больших заноз. Например, оптимизатор Adam имплементирован в этих фреймворках по-разному, и из коробки просто не получалось повторить тренировку.
Но моя любимая история тут — это проблема с запуском на конкретном сетапе видеокарт (чтобы получить оригинальные метрики и кривые обучения и понимать, с чем сравнивать). Следите за руками:
1) на 1xV100 не хватает памяти, так как аккумулирования градиентов не было
2) на A100 запустить невозможно — старый TF не поддерживает новые видеокарты
3) на 8xV100 16GB тоже не хватает памяти
4) так что работает всё строго на 8xV100 32GB. Такая вот магия!
А ещё один из датасетов OpenAI потеряли при переезде с одного хранилища на другое
В общем, чтиво получается максимально интересное и увлекательное, позволяющее лучше разобраться во всех тонкостях, причём даже если RLHF вам не интересен.
————————————————————————
Эх, а вот редставьте сколько бы всего интересного можно было найти в репозитории для тренировки и инференса LLM уровня GPT-4
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82👍41❤🔥5😢4❤3🤯3🌚3🤡2💩1👌1
В свежем видео от Boston Dynamics инженеры прикрутили ChatGPT к робо-собакам Spot. Зрение работает на отдельных Visual Question Answering (VQA) моделях, так как API-доступа к GPT-4V ещё нет 😫 работает так: изображения с трёх камер сначала переводятся в текст, и затем подаются в промпт как описание окружения.
Также у собакена есть несколько голосов и связанных с ними персон. Есть тинейджер, путешественник во времени, поэт, подражающий Шэксприру, и другие. И все они кастомизируются лишь парой строк в промпте за 5 минут, ничего не нужно программировать вручную.
На видео показывается кейс гида по офису Boston Dynamics, с рассказом про отдельные места. Например, если попросить отвести вас к предкам Spot, то он приведёт вас в комнату со старыми образцами бегающих железок. Это также никто не программировал — машина сама П О Н И М А Е Т и интерпретирует ваши запросы👏 эх, поскорее бы будущее
Смотреть: https://www.youtube.com/watch?v=djzOBZUFzTw
Также у собакена есть несколько голосов и связанных с ними персон. Есть тинейджер, путешественник во времени, поэт, подражающий Шэксприру, и другие. И все они кастомизируются лишь парой строк в промпте за 5 минут, ничего не нужно программировать вручную.
На видео показывается кейс гида по офису Boston Dynamics, с рассказом про отдельные места. Например, если попросить отвести вас к предкам Spot, то он приведёт вас в комнату со старыми образцами бегающих железок. Это также никто не программировал — машина сама П О Н И М А Е Т и интерпретирует ваши запросы
Смотреть: https://www.youtube.com/watch?v=djzOBZUFzTw
Please open Telegram to view this post
VIEW IN TELEGRAM
😱105❤🔥35👍27🔥21❤7🤔4🥱3👏2😍2🫡1🗿1
Команда создана для оценки, прогнозирования и защиты от рисков, связанных с развитым искусственным интеллектом — от современных моделей до AGI. В частности, затрагиваются следующие направления работ:
— индивидуальное убеждение (когда одна модель может смещать точку зрения сотен миллионов пользователей. Такое ни одному политику и не снилось! Но как можно контролировать отсутствие подобных проблем?)
— кибербезопасность
— химические, биологические и ядерные угрозы
— автономная репликация и адаптация (ARA, про это писал раньше вот тут)
Управление катастрофическими рисками, исходящими от передового ИИ, потребует ответов на такие вопросы, как:
— Насколько опасны передовые ИИ-системы (в настоящее время и в будущем), если их неправильно использовать?
— Как мы можем создать надежную систему для мониторинга, оценки, прогнозирования и защиты от опасных возможностей передовых систем?
— Если бы передовые модели были украдены, как злоумышленники могли бы ими воспользоваться?
Исходя из ответов на эти и сотни других вопросов, будет дорабатываться стратегия, понимание, инфраструктура, необходимые для обеспечения безопасности систем.
Команду возглавит Aleksander Madry, профессор MIT, весной взявший паузу для того, чтобы присоединиться к OpenAI. Сейчас открыто 2 вакансии с окладом до $370k в год.
Также OpenAI запускают Preparedness Challenge, где вы можете поделиться своими идеями касательно тем выше, чтобы получить один из десяти призов в виде $25k API-кредитов на дальнейшую работу, а также шанс получить оффер. В решении нужно описать в деталях (но не более 3 страниц A4), как можно использовать украденные модели. А ещё предложить тезисный план экспериментов и рекомендуемые действия для борьбы с подобного рода угрозами. В общем, ждём господ с LessWrong с отправкой десятков идей по уничтожению мира
Please open Telegram to view this post
VIEW IN TELEGRAM
👍78❤12🤮12😁6🤔4🤡3🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Начали появляться первые игры, полноценно адаптированные под Mixed Reality-режим на Meta Quest 3. Украл с Reddit видео игры дома в стрелялку, где нужно отбиваться от волн зомби. Лезут они из ваших окон, стен, дверей, наверняка еще и с потолка падают.
Во время запуска гарнитура сканирует пространство вокруг, вы можете добавить сами окна/фурнитуру. Игровая зона, которую может охватывать шлем, измеряется десятками квадратных метров (хотя уже на прошлом поколении были игры на 200м+, может и тут так). Есть даже кооператив, чтобы играть с приятелем или девушкой в одной квартире — ваше "пространство" будет синхронизировано.
По качеству графики — напомню, что вся обработка идёт на самой гарнитуре на по-сути мобильном чипе. С увеличением мощностей раз так в 10 можно будет рендерить фотореалистичные текстуры, добавлять точно просчитанные отражения, you name it. Интересно, когда появится схожее приложение, но с расчётом в облаке/хотя бы на компьютере в той же WiFi сети?
Ну и чтобы два раза не вставать — вот ещё пример аналога Minecraft на открытом воздухе.
P.S.: кому интересно — игра называется Drop Dead.
Во время запуска гарнитура сканирует пространство вокруг, вы можете добавить сами окна/фурнитуру. Игровая зона, которую может охватывать шлем, измеряется десятками квадратных метров (хотя уже на прошлом поколении были игры на 200м+, может и тут так). Есть даже кооператив, чтобы играть с приятелем или девушкой в одной квартире — ваше "пространство" будет синхронизировано.
По качеству графики — напомню, что вся обработка идёт на самой гарнитуре на по-сути мобильном чипе. С увеличением мощностей раз так в 10 можно будет рендерить фотореалистичные текстуры, добавлять точно просчитанные отражения, you name it. Интересно, когда появится схожее приложение, но с расчётом в облаке/хотя бы на компьютере в той же WiFi сети?
Ну и чтобы два раза не вставать — вот ещё пример аналога Minecraft на открытом воздухе.
P.S.: кому интересно — игра называется Drop Dead.
👍102🔥54🤯24❤7🤡2
WSJ со ссылкой на источники пишет, что в понедельник администрация Байдена обнародует указ об ИИ, который станет самой значительной на сегодняшний день попыткой правительства США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всем мире.
Однако документ сфокусируется на тех инструментах, которыми будут пользоваться федеральные работники. Также будут смягчены иммиграционные барьеры для высококвалифицированных работников в сфере AI (опять? а можно будет просто по паспорту въехать?). Министерство обороны, Министерство энергетики и пара агентств должны будут провести оценку, чтобы определить, как они могут внедрить ИИ в работу своих ведомств.
Ждём документ. Как мне кажется, он позволит нам понять общее направление мысли и настроения, общую адекватность и работоспособность требований. Интересно, будет ли там планка отсечения по мощностям, выше которой ИИ-системы будут тестироваться, или же загребут всё подряд?
Прочитать новость в оригинале
Однако документ сфокусируется на тех инструментах, которыми будут пользоваться федеральные работники. Также будут смягчены иммиграционные барьеры для высококвалифицированных работников в сфере AI (опять? а можно будет просто по паспорту въехать?). Министерство обороны, Министерство энергетики и пара агентств должны будут провести оценку, чтобы определить, как они могут внедрить ИИ в работу своих ведомств.
Ждём документ. Как мне кажется, он позволит нам понять общее направление мысли и настроения, общую адекватность и работоспособность требований. Интересно, будет ли там планка отсечения по мощностям, выше которой ИИ-системы будут тестироваться, или же загребут всё подряд?
Прочитать новость в оригинале
🤔79👍28🤡19❤9🔥8🤮3🍾3🎉2💩1💔1
Forwarded from e/acc
ChatGPT теперь поддерживает работу с файлами (загружай PDF и задавай вопросы) и совмещение разных модальностей в одном чате (может рисовать картинки, гуглить, писать и исполнять код в одном чате).
Для большинства это шок, потому что их стартап идея была разбита о быструю доставку качественного продукта команды OpenAI с инженерами за $600к в год.
Дабы предупредить будущий шок, давайте сразу обсудим, что ChatGPT выкатит в следующих версиях:
- подключение своих данных: Gmail, slack, WhatsApp
- общение в едином чате, который помнит все о вас. по сути - разговор с ассистентом.
- возможность соединять цепочки действий и плагинов (агенты)
- маркетплейс плагинов с монетизацией и курацией (curation, если на человеческом)
- полная мультимодальность: на вход видео, на выход голос; на вход музыку, на выход видео; на вход excel на выход диаграммы
- проактивный ИИ: сам поймёт когда и что у вас спросить или вам рассказать
- у каждого пользователя персональная модель, обученная на последних годах диалога (каждому — свою LoRA)
Для большинства это шок, потому что их стартап идея была разбита о быструю доставку качественного продукта команды OpenAI с инженерами за $600к в год.
Дабы предупредить будущий шок, давайте сразу обсудим, что ChatGPT выкатит в следующих версиях:
- подключение своих данных: Gmail, slack, WhatsApp
- общение в едином чате, который помнит все о вас. по сути - разговор с ассистентом.
- возможность соединять цепочки действий и плагинов (агенты)
- маркетплейс плагинов с монетизацией и курацией (curation, если на человеческом)
- полная мультимодальность: на вход видео, на выход голос; на вход музыку, на выход видео; на вход excel на выход диаграммы
- проактивный ИИ: сам поймёт когда и что у вас спросить или вам рассказать
- у каждого пользователя персональная модель, обученная на последних годах диалога (каждому — свою LoRA)
🔥396😱62👍33❤🔥25🤯17❤5🤩5🗿5💩3🏆3🤔2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁196🔥41🤣12🤡8🍾6👍5👎4🌚4🗿2❤🔥1🖕1
Сиолошная
WSJ со ссылкой на источники пишет, что в понедельник администрация Байдена обнародует указ об ИИ, который станет самой значительной на сегодняшний день попыткой правительства США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всем мире.…
Вышло
Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного:
— компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить? какие критерии?) для национальной безопасности, экономики или здравоохранения, уведомляли правительство при обучении модели (перед обучением? по факту?), а также делились результатами всех тестов безопасности (а если мои “все” тесты — это 3 строчки?).
— National Institute of Standards and Technology будет ответственнен за разработку тестов и стандартов тестрования
— Министерство торговли (что? почему?) разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.
— Упоминается конкурс DARPA (в партнерстве с OpenAI, кстати), призванный стимулировать создание программу кибербезопасности для разработки инструментов искусственного интеллекта для поиска и устранения уязвимостей в критически важном программном обеспечении (читай “AI будут подсказывать, где могут быть уязвимости”)
Также предлагается расширить возможности высококвалифицированных иммигрантов, обладающих опытом в важнейших областях, и упростить для них процесс попадания на работу путем модернизации и оптимизации визовых критериев, собеседований и проверок (конкретных мер не предлагается).
Плюс, отдельно выделяется необходимость анализа и ускорения интеграции AI в образование и медицину, включая разработку доступных и life-saving лекарств.
Остальные уточннеия будут в отдельном 111-страничном документе, который ещё не опубликован. Ждом.
UPD. мои первые мысли по поводу Указа Белого дома по ИИ: радостно видеть такой сильный акцент на тестировании и оценке систем ИИ — невозможно управлять тем, что не можешь измерить.
Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного:
— компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить? какие критерии?) для национальной безопасности, экономики или здравоохранения, уведомляли правительство при обучении модели (перед обучением? по факту?), а также делились результатами всех тестов безопасности (а если мои “все” тесты — это 3 строчки?).
— National Institute of Standards and Technology будет ответственнен за разработку тестов и стандартов тестрования
— Министерство торговли (что? почему?) разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.
— Упоминается конкурс DARPA (в партнерстве с OpenAI, кстати), призванный стимулировать создание программу кибербезопасности для разработки инструментов искусственного интеллекта для поиска и устранения уязвимостей в критически важном программном обеспечении (читай “AI будут подсказывать, где могут быть уязвимости”)
Также предлагается расширить возможности высококвалифицированных иммигрантов, обладающих опытом в важнейших областях, и упростить для них процесс попадания на работу путем модернизации и оптимизации визовых критериев, собеседований и проверок (конкретных мер не предлагается).
Плюс, отдельно выделяется необходимость анализа и ускорения интеграции AI в образование и медицину, включая разработку доступных и life-saving лекарств.
Остальные уточннеия будут в отдельном 111-страничном документе, который ещё не опубликован. Ждом.
UPD. мои первые мысли по поводу Указа Белого дома по ИИ: радостно видеть такой сильный акцент на тестировании и оценке систем ИИ — невозможно управлять тем, что не можешь измерить.
👍86👌16🤡16❤10🤔9🗿4😁1🌚1
Сиолошная
Вышло Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного: — компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить?…
Вышло уточнение по поводу планки мощностей, используемых для тренировки модели, выше которой необходимо сообщать государству о факте обучения.
Порог этот — 1e+26 операций (один и 26 нулей) с числами (целыми или с плавающей точкой). Итак, порог 1e+26 FLOP, много это или мало? Прислушались ли политики к советам Sam Altman ограничивать только большие модели, или это как-то влияет на стартапы и опенсурс?
Расчёт создателя PyTorch Soumith Chintala даёт оценку самой мощной модели Facebook LLama2-70B: 1.1e+24 FLOP. То есть это в 100 раз меньше порога. У детишек, в общем, игрушки не отнимут🤣
GPT-4 оценить сложно, но если верить слухам, гулявшим летом, то для её тренировки использовалось ~25,000 видеокарт A100 на протяжении 90-100 дней с утилизацией примерно 32%-36% (то есть GPU 2/3 времени простаивает, говоря грубо). Это даёт ~2.15e+25 FLOP, что в 5 раз ниже порога. Даже вот такая передовая мощнейшая модель НЕ ПОПАДАЕТ под регуляции.
Плюс, повяилось уточнение, что необходимо также сообщать о построенных кластерах, если их мощность больше 1e20 FLOPS (операций в секунду), то есть 100 ExaFLOPS. Сейчас самый мощный суперкомьютер в мире (согласно рейтингу Top-500), Frontier, имеет всего ~1.5-12 ExaFLOPS (в зависимости от точности вычислений). Выводы делаем сами🥺
Мой прогноз: первая заявленная по этой программе модель будет от OpenAI в 2024м (не в первой половине), чтобы показать пример, что это не больно и не страшно🤫
Порог этот — 1e+26 операций (один и 26 нулей) с числами (целыми или с плавающей точкой). Итак, порог 1e+26 FLOP, много это или мало? Прислушались ли политики к советам Sam Altman ограничивать только большие модели, или это как-то влияет на стартапы и опенсурс?
Расчёт создателя PyTorch Soumith Chintala даёт оценку самой мощной модели Facebook LLama2-70B: 1.1e+24 FLOP. То есть это в 100 раз меньше порога. У детишек, в общем, игрушки не отнимут
GPT-4 оценить сложно, но если верить слухам, гулявшим летом, то для её тренировки использовалось ~25,000 видеокарт A100 на протяжении 90-100 дней с утилизацией примерно 32%-36% (то есть GPU 2/3 времени простаивает, говоря грубо). Это даёт ~2.15e+25 FLOP, что в 5 раз ниже порога. Даже вот такая передовая мощнейшая модель НЕ ПОПАДАЕТ под регуляции.
Плюс, повяилось уточнение, что необходимо также сообщать о построенных кластерах, если их мощность больше 1e20 FLOPS (операций в секунду), то есть 100 ExaFLOPS. Сейчас самый мощный суперкомьютер в мире (согласно рейтингу Top-500), Frontier, имеет всего ~1.5-12 ExaFLOPS (в зависимости от точности вычислений). Выводы делаем сами
Мой прогноз: первая заявленная по этой программе модель будет от OpenAI в 2024м (не в первой половине), чтобы показать пример, что это не больно и не страшно
Please open Telegram to view this post
VIEW IN TELEGRAM
👍124🤡18🔥11🗿8🤯4❤2🤔2💩1
История с YouTube, из доклада менеджера в OpenAI:
Команда безопасности OpenAI заметила, что какая-то группа пользователей занималась реверс инженерингом (попытка по внешним признакам воспроизвести устройство, программу или иной объект с аналогичными функциями, но без прямого копирования) и злоупотребляла внутренним API ChatGPT. Вместо того, чтобы заблокировать весь трафик, они быстро заменили ChatGPT на CatGPT… а затем зашли в Discord злоумышленников, чтобы наблюдать за потоком сообщений там.
Легенды...
UPD: к посту было прикреплено 4 скриншота, но вы видите только один. Спасибо Дурову и команде, как обычно, лучшие. Впрочем, вы можете кликнуть по ссылке на видео в начале сообщения и посмотреть 3 минуты доклада сами👍
Команда безопасности OpenAI заметила, что какая-то группа пользователей занималась реверс инженерингом (попытка по внешним признакам воспроизвести устройство, программу или иной объект с аналогичными функциями, но без прямого копирования) и злоупотребляла внутренним API ChatGPT. Вместо того, чтобы заблокировать весь трафик, они быстро заменили ChatGPT на CatGPT… а затем зашли в Discord злоумышленников, чтобы наблюдать за потоком сообщений там.
Легенды...
UPD: к посту было прикреплено 4 скриншота, но вы видите только один. Спасибо Дурову и команде, как обычно, лучшие. Впрочем, вы можете кликнуть по ссылке на видео в начале сообщения и посмотреть 3 минуты доклада сами
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥93🤣69👍21🔥8😁5❤4👎3🌚3🤔2🤡2💩1
Forwarded from Data, Stories and Languages
Midjourney, Stability AI and DeviantArt win a victory in copyright case by artists
С тех пор, как появился Stable Diffusion в интернете, идут жаркие споры между художниками и теми, кто генерирует картинки с помощью AI. У обеих сторон есть много аргументов. Основной аргумент художников заключается в том, что их работы были использованы без их разрешения и включены в коммерческие продукты. Недавно дело дошло до суда... и недавно судья в Калифорнии принял сторону этих продуктов.
Если точнее, трое художников подали иск против трех компаний по обвинению в нарушении авторских прав. В свою очередь, эти компании подали ходатайство о прекращении дела. Судья удовлетворил это ходатайство, заявив, что в жалобе есть много проблем. Основная причина такого решения заключается в том, что художники не зарегистрировали авторские права на каждую из своих работ.
Однако судья отметил, что если художники сосредоточатся только на тех работах, на которых были зарегистрированы авторские права, то разбирательство может быть продолжено.
🍿В общем интересно наблюдать за происходящим.
Первоисточник
Обсуждение
#datascience
С тех пор, как появился Stable Diffusion в интернете, идут жаркие споры между художниками и теми, кто генерирует картинки с помощью AI. У обеих сторон есть много аргументов. Основной аргумент художников заключается в том, что их работы были использованы без их разрешения и включены в коммерческие продукты. Недавно дело дошло до суда... и недавно судья в Калифорнии принял сторону этих продуктов.
Если точнее, трое художников подали иск против трех компаний по обвинению в нарушении авторских прав. В свою очередь, эти компании подали ходатайство о прекращении дела. Судья удовлетворил это ходатайство, заявив, что в жалобе есть много проблем. Основная причина такого решения заключается в том, что художники не зарегистрировали авторские права на каждую из своих работ.
Однако судья отметил, что если художники сосредоточатся только на тех работах, на которых были зарегистрированы авторские права, то разбирательство может быть продолжено.
🍿В общем интересно наблюдать за происходящим.
Первоисточник
Обсуждение
#datascience
VentureBeat
Midjourney, Stability AI and DeviantArt win a victory in copyright case by artists — but the fight continues
The AI image generator companies filed a motion to dismiss the copyright case against them by artists, and Orrick largely granted it.
⚡30🔥19👍9🗿8🤔4🤨4❤3💩2🎉1👌1🆒1