Сиолошная – Telegram
Сиолошная
69.8K subscribers
1.64K photos
297 videos
1 file
1.72K links
Канал SeeAll'а с новостями (и мыслями о них) из мира NLP, VR и космоса.

Более подробно смотри в первом сообщении в канале (оно закреплено). А еще у нас есть чат! Заходи: https://news.1rj.ru/str/+i_XzLucdtRJlYWUy
Download Telegram
Сиолошная
В 2019 году GPT-2 не могла достоверно считать до десяти. Всего четыре года спустя системы на основе глубокого обучения могут писать программное обеспечение, генерировать фотореалистичные сцены по запросу, давать советы по интеллектуальным темам и сочетать…
Пока государства спят, OpenAI, Anthropic, Google и Microsoft анонсируют Frontier Model Forum. На самом деле про него писали ещё в июле, однако сегодня появился апдейт.

Во-первых, назначили исполнительного директора — Chris Meserole. Интересных фактов сходу про него не нагуглилось, приходите в комментарии рассказать, если у вас есть информация. Вот что про него говорят коллеги из вышеуказанных компаний.

Во-вторых, выделяется более $10M в новый Фонд безопасности ИИ. Основное внимание Фонда будет уделяться поддержке разработки новых способов оценки моделей.

В-третьих, опубликовали 5-ти страничный документ, который описывает, что такое Red Teaming, и на примерах показывается, что делают компании с текущими моделями перед релизом. Например, OpenAI наняли 41 человека для того, чтобы потестировать ранние версии GPT-4 перед релизом. Кажется, что это мало, но покажите кто вообще об этом думал до релиза ChatGPT?

В-четвертых, полным ходом идёт разработка нового процесса раскрытия информации, с помощью которого передовые лаборатории смогут обмениваться информацией, связанной с обнаружением уязвимостей или потенциально опасных возможностей в передовых моделях.

Полная новость: https://openai.com/blog/frontier-model-forum-updates
👍7514🤡64🤮4🌚4
Не секрет, что для RLHF (Reinforcement Learning from Human Feedback) — последнего этапа тренировки систем типа ChatGPT — необходимы специализированные методы. Один из них — PPO (Proximal Policy Optimization), придуманный в стенах OpenAI в далёком 2017м году. В целом, логично: сами придумали метод, сами нарастили экспертизу через десятки экспериментов, и потом применяют тут и там.

Одним из основных отличий PPO от других методов тех времён заявлялась простота имплементации и низкое количество гиперпараметров, которые необходимо перебирать. На бумаге звучит здорово, но, к сожалению, на практике не всё так радужно.

Ещё в прошлом году я наткнулся на блогпост «The 37 Implementation Details of Proximal Policy Optimization» (подготовлен к конференции ICLR). По названию, думаю, уже можно прочувствовать всю боль «much simpler to implement» метода 🤣. Сбор всех частичек и воспроизведение результатов заняли у авторов ТРИ ГОДА. Какие-то вещи менялись прямо в коде репозитория OpenAI между разными версиями (с разницей в качестве в ДВА РАЗА), что-то не объяснялось в статье и никем не упоминалось, а некоторые вещи выглядели багами, но почему-то давали результат. У этой статьи есть видео-саммари в трёх частях, вот ссылка на плейлист. В общем, если вы хотите глубже разобраться, да или просто прокачаться — очень рекомендую к разбору.

На этом дело не закончилось, и те же авторы решили посмотреть репозиторий openai/lm-human-preferences 2019го года. Это код для статьи «Fine-Tuning Language Models from Human Preferences» с легендарными Paul Christiano и Alec Radford в соавторах. Здесь как раз впервые применяется PPO для оптимизации LLM под человеческие предпочтения. Ранние наработки по ChatGPT, говоря иначе.

Работа заняла уже меньше 3 лет, и вот буквально вчера появился блог «The N Implementation Details of RLHF with PPO», который практически в точности воспроизводит результаты работы OpenAI, но на PyTorch и с современными библиотеками, а не на устаревшем TensorFlow. Это, кстати, было одной из больших заноз. Например, оптимизатор Adam имплементирован в этих фреймворках по-разному, и из коробки просто не получалось повторить тренировку.

Но моя любимая история тут — это проблема с запуском на конкретном сетапе видеокарт (чтобы получить оригинальные метрики и кривые обучения и понимать, с чем сравнивать). Следите за руками:
1) на 1xV100 не хватает памяти, так как аккумулирования градиентов не было
2) на A100 запустить невозможно — старый TF не поддерживает новые видеокарты
3) на 8xV100 16GB тоже не хватает памяти
4) так что работает всё строго на 8xV100 32GB. Такая вот магия!

А ещё один из датасетов OpenAI потеряли при переезде с одного хранилища на другое 😱
В общем, чтиво получается максимально интересное и увлекательное, позволяющее лучше разобраться во всех тонкостях, причём даже если RLHF вам не интересен.

————————————————————————
Эх, а вот редставьте сколько бы всего интересного можно было найти в репозитории для тренировки и инференса LLM уровня GPT-4 🍿🚬...
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥82👍41❤‍🔥5😢43🤯3🌚3🤡2💩1👌1
В свежем видео от Boston Dynamics инженеры прикрутили ChatGPT к робо-собакам Spot. Зрение работает на отдельных Visual Question Answering (VQA) моделях, так как API-доступа к GPT-4V ещё нет 😫 работает так: изображения с трёх камер сначала переводятся в текст, и затем подаются в промпт как описание окружения.

Также у собакена есть несколько голосов и связанных с ними персон. Есть тинейджер, путешественник во времени, поэт, подражающий Шэксприру, и другие. И все они кастомизируются лишь парой строк в промпте за 5 минут, ничего не нужно программировать вручную.

На видео показывается кейс гида по офису Boston Dynamics, с рассказом про отдельные места. Например, если попросить отвести вас к предкам Spot, то он приведёт вас в комнату со старыми образцами бегающих железок. Это также никто не программировал — машина сама П О Н И М А Е Т и интерпретирует ваши запросы 👏 эх, поскорее бы будущее

Смотреть: https://www.youtube.com/watch?v=djzOBZUFzTw
Please open Telegram to view this post
VIEW IN TELEGRAM
😱105❤‍🔥35👍27🔥217🤔4🥱3👏2😍2🫡1🗿1
😄 в OpenAI появилась новая команда — Preparedness Team, или "Команда Готовности" по-русски.

Команда создана для оценки, прогнозирования и защиты от рисков, связанных с развитым искусственным интеллектом — от современных моделей до AGI. В частности, затрагиваются следующие направления работ:
— индивидуальное убеждение (когда одна модель может смещать точку зрения сотен миллионов пользователей. Такое ни одному политику и не снилось! Но как можно контролировать отсутствие подобных проблем?)
— кибербезопасность
— химические, биологические и ядерные угрозы
— автономная репликация и адаптация (ARA, про это писал раньше вот тут)

Управление катастрофическими рисками, исходящими от передового ИИ, потребует ответов на такие вопросы, как:
— Насколько опасны передовые ИИ-системы (в настоящее время и в будущем), если их неправильно использовать?
— Как мы можем создать надежную систему для мониторинга, оценки, прогнозирования и защиты от опасных возможностей передовых систем?
— Если бы передовые модели были украдены, как злоумышленники могли бы ими воспользоваться?

Исходя из ответов на эти и сотни других вопросов, будет дорабатываться стратегия, понимание, инфраструктура, необходимые для обеспечения безопасности систем.

Команду возглавит Aleksander Madry, профессор MIT, весной взявший паузу для того, чтобы присоединиться к OpenAI. Сейчас открыто 2 вакансии с окладом до $370k в год.

Также OpenAI запускают Preparedness Challenge, где вы можете поделиться своими идеями касательно тем выше, чтобы получить один из десяти призов в виде $25k API-кредитов на дальнейшую работу, а также шанс получить оффер. В решении нужно описать в деталях (но не более 3 страниц A4), как можно использовать украденные модели. А ещё предложить тезисный план экспериментов и рекомендуемые действия для борьбы с подобного рода угрозами. В общем, ждём господ с LessWrong с отправкой десятков идей по уничтожению мира 🤯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7812🤮12😁6🤔4🤡3🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Начали появляться первые игры, полноценно адаптированные под Mixed Reality-режим на Meta Quest 3. Украл с Reddit видео игры дома в стрелялку, где нужно отбиваться от волн зомби. Лезут они из ваших окон, стен, дверей, наверняка еще и с потолка падают.

Во время запуска гарнитура сканирует пространство вокруг, вы можете добавить сами окна/фурнитуру. Игровая зона, которую может охватывать шлем, измеряется десятками квадратных метров (хотя уже на прошлом поколении были игры на 200м+, может и тут так). Есть даже кооператив, чтобы играть с приятелем или девушкой в одной квартире — ваше "пространство" будет синхронизировано.

По качеству графики — напомню, что вся обработка идёт на самой гарнитуре на по-сути мобильном чипе. С увеличением мощностей раз так в 10 можно будет рендерить фотореалистичные текстуры, добавлять точно просчитанные отражения, you name it. Интересно, когда появится схожее приложение, но с расчётом в облаке/хотя бы на компьютере в той же WiFi сети?

Ну и чтобы два раза не вставать — вот ещё пример аналога Minecraft на открытом воздухе.

P.S.: кому интересно — игра называется Drop Dead.
👍102🔥54🤯247🤡2
WSJ со ссылкой на источники пишет, что в понедельник администрация Байдена обнародует указ об ИИ, который станет самой значительной на сегодняшний день попыткой правительства США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всем мире.

Однако документ сфокусируется на тех инструментах, которыми будут пользоваться федеральные работники. Также будут смягчены иммиграционные барьеры для высококвалифицированных работников в сфере AI (опять? а можно будет просто по паспорту въехать?). Министерство обороны, Министерство энергетики и пара агентств должны будут провести оценку, чтобы определить, как они могут внедрить ИИ в работу своих ведомств.

Ждём документ. Как мне кажется, он позволит нам понять общее направление мысли и настроения, общую адекватность и работоспособность требований. Интересно, будет ли там планка отсечения по мощностям, выше которой ИИ-системы будут тестироваться, или же загребут всё подряд?

Прочитать новость в оригинале
🤔79👍28🤡199🔥8🤮3🍾3🎉2💩1💔1
Forwarded from e/acc
ChatGPT теперь поддерживает работу с файлами (загружай PDF и задавай вопросы) и совмещение разных модальностей в одном чате (может рисовать картинки, гуглить, писать и исполнять код в одном чате).

Для большинства это шок, потому что их стартап идея была разбита о быструю доставку качественного продукта команды OpenAI с инженерами за $600к в год.

Дабы предупредить будущий шок, давайте сразу обсудим, что ChatGPT выкатит в следующих версиях:

- подключение своих данных: Gmail, slack, WhatsApp
- общение в едином чате, который помнит все о вас. по сути - разговор с ассистентом.
- возможность соединять цепочки действий и плагинов (агенты)
- маркетплейс плагинов с монетизацией и курацией (curation, если на человеческом)
- полная мультимодальность: на вход видео, на выход голос; на вход музыку, на выход видео; на вход excel на выход диаграммы
- проактивный ИИ: сам поймёт когда и что у вас спросить или вам рассказать
- у каждого пользователя персональная модель, обученная на последних годах диалога (каждому — свою LoRA)
🔥396😱62👍33❤‍🔥25🤯175🤩5🗿5💩3🏆3🤔2
😆 Хайзенбургер
Please open Telegram to view this post
VIEW IN TELEGRAM
😁196🔥41🤣12🤡8🍾6👍5👎4🌚4🗿2❤‍🔥1🖕1
Сиолошная
WSJ со ссылкой на источники пишет, что в понедельник администрация Байдена обнародует указ об ИИ, который станет самой значительной на сегодняшний день попыткой правительства США регулировать развивающиеся технологии, вызвавшие страх и ажиотаж во всем мире.…
Вышло

Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного:

— компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить? какие критерии?) для национальной безопасности, экономики или здравоохранения, уведомляли правительство при обучении модели (перед обучением? по факту?), а также делились результатами всех тестов безопасности (а если мои “все” тесты — это 3 строчки?).
— National Institute of Standards and Technology будет ответственнен за разработку тестов и стандартов тестрования
— Министерство торговли (что? почему?) разработает руководство по аутентификации контента и нанесению водяных знаков для четкой маркировки контента, созданного искусственным интеллектом.
— Упоминается конкурс DARPA (в партнерстве с OpenAI, кстати), призванный стимулировать создание программу кибербезопасности для разработки инструментов искусственного интеллекта для поиска и устранения уязвимостей в критически важном программном обеспечении (читай “AI будут подсказывать, где могут быть уязвимости”)

Также предлагается расширить возможности высококвалифицированных иммигрантов, обладающих опытом в важнейших областях, и упростить для них процесс попадания на работу путем модернизации и оптимизации визовых критериев, собеседований и проверок (конкретных мер не предлагается).

Плюс, отдельно выделяется необходимость анализа и ускорения интеграции AI в образование и медицину, включая разработку доступных и life-saving лекарств.

Остальные уточннеия будут в отдельном 111-страничном документе, который ещё не опубликован. Ждом.

UPD. мои первые мысли по поводу Указа Белого дома по ИИ: радостно видеть такой сильный акцент на тестировании и оценке систем ИИ — невозможно управлять тем, что не можешь измерить.
👍86👌16🤡1610🤔9🗿4😁1🌚1
Сиолошная
Вышло Я, может, не туда смотрю, но тут деталей что кот наплакал. Начнём с главного: — компании, разрабатывающие любую foundation model (большая модель общего назначения. Какие точные критерии? а нет их!), которая представляет серьезный риск (как определить?…
Вышло уточнение по поводу планки мощностей, используемых для тренировки модели, выше которой необходимо сообщать государству о факте обучения.

Порог этот — 1e+26 операций (один и 26 нулей) с числами (целыми или с плавающей точкой). Итак, порог 1e+26 FLOP, много это или мало? Прислушались ли политики к советам Sam Altman ограничивать только большие модели, или это как-то влияет на стартапы и опенсурс?

Расчёт создателя PyTorch Soumith Chintala даёт оценку самой мощной модели Facebook LLama2-70B: 1.1e+24 FLOP. То есть это в 100 раз меньше порога. У детишек, в общем, игрушки не отнимут 🤣

GPT-4 оценить сложно, но если верить слухам, гулявшим летом, то для её тренировки использовалось ~25,000 видеокарт A100 на протяжении 90-100 дней с утилизацией примерно 32%-36% (то есть GPU 2/3 времени простаивает, говоря грубо). Это даёт ~2.15e+25 FLOP, что в 5 раз ниже порога. Даже вот такая передовая мощнейшая модель НЕ ПОПАДАЕТ под регуляции.

Плюс, повяилось уточнение, что необходимо также сообщать о построенных кластерах, если их мощность больше 1e20 FLOPS (операций в секунду), то есть 100 ExaFLOPS. Сейчас самый мощный суперкомьютер в мире (согласно рейтингу Top-500), Frontier, имеет всего ~1.5-12 ExaFLOPS (в зависимости от точности вычислений). Выводы делаем сами 🥺

Мой прогноз: первая заявленная по этой программе модель будет от OpenAI в 2024м (не в первой половине), чтобы показать пример, что это не больно и не страшно 🤫
Please open Telegram to view this post
VIEW IN TELEGRAM
👍124🤡18🔥11🗿8🤯42🤔2💩1
История с YouTube, из доклада менеджера в OpenAI:

Команда безопасности OpenAI заметила, что какая-то группа пользователей занималась реверс инженерингом (попытка по внешним признакам воспроизвести устройство, программу или иной объект с аналогичными функциями, но без прямого копирования) и злоупотребляла внутренним API ChatGPT. Вместо того, чтобы заблокировать весь трафик, они быстро заменили ChatGPT на CatGPT… а затем зашли в Discord злоумышленников, чтобы наблюдать за потоком сообщений там.

Легенды...

UPD: к посту было прикреплено 4 скриншота, но вы видите только один. Спасибо Дурову и команде, как обычно, лучшие. Впрочем, вы можете кликнуть по ссылке на видео в начале сообщения и посмотреть 3 минуты доклада сами 👍
Please open Telegram to view this post
VIEW IN TELEGRAM
❤‍🔥93🤣69👍21🔥8😁54👎3🌚3🤔2🤡2💩1
(а ещё подписывайтесь на канал Андрея)
104🌚1
Midjourney, Stability AI and DeviantArt win a victory in copyright case by artists

С тех пор, как появился Stable Diffusion в интернете, идут жаркие споры между художниками и теми, кто генерирует картинки с помощью AI. У обеих сторон есть много аргументов. Основной аргумент художников заключается в том, что их работы были использованы без их разрешения и включены в коммерческие продукты. Недавно дело дошло до суда... и недавно судья в Калифорнии принял сторону этих продуктов.

Если точнее, трое художников подали иск против трех компаний по обвинению в нарушении авторских прав. В свою очередь, эти компании подали ходатайство о прекращении дела. Судья удовлетворил это ходатайство, заявив, что в жалобе есть много проблем. Основная причина такого решения заключается в том, что художники не зарегистрировали авторские права на каждую из своих работ.

Однако судья отметил, что если художники сосредоточатся только на тех работах, на которых были зарегистрированы авторские права, то разбирательство может быть продолжено.

🍿В общем интересно наблюдать за происходящим.

Первоисточник
Обсуждение

#datascience
30🔥19👍9🗿8🤔4🤨43💩2🎉1👌1🆒1
This media is not supported in your browser
VIEW IN TELEGRAM
Тут в Twitter умелец запилил игру «Angry Pumpkins 🎃» по мотивам классической Angry Birds, но к Хэллоуину. Фишка в том, что всю работу делали генеративные модели. GPT-4 писала код, а Midjourney / DALLE рисовали графику. Всего 600 строк кода, а там даже редактор уровня есть — можно отстроить своё гнездо и попытаться его разбомбить!

Комментарий автора проекта:
— Должен признаться, я искренне потрясен. Я верю, что мы живем в исторический момент, который до сих пор видели только в научно-фантастических фильмах. Это эпоха новых рабочих процессов, позволяющих создавать что угодно, используя только естественный язык, и это изменит мир, каким мы его знаем.


Мой комментарий:
Я не смог быстро понять, есть ли у автора опыт в программировании, но как мне кажется это не важно. У наших детей будет GPT-N+1, которая будет куда реже делать ошибки, и схватывать смысл слов на лету. Можно будет уже со средней школы начать экспериментировать не только с наколеночными играми, но и полноценными оригинальными проектами. В ближайшее время нейронки не заменят игроделов, но позволят новым людям вкатываться куда быстрее, да ещё и на дизайне/арте экономить 👀

Играть тут (работает только в браузере компьютера, без смартфонов)
Прочитать детальный гайд от автора тут (внутри промпты для генерации графики)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥162👍45🤯2312🤡5🆒4😨3🗿2❤‍🔥1🤝1
Пока готовил другой пост, наткнулся на Ted Talk от Luis Von Ahn. Он — гватемалец, которому повезло получить хорошее образование из-за усилий матери-одиночки, затем он уехал учитьcя в США и получил PhD, стал профессором.

Luis Von Ahn долгое время был озабочен вопросом того, как можно сделать образование более доступным. И к тому же ещё надо ответить на два вопроса: чему учить и как учить эффективно?

Ответ на вопрос "чему учить" получился "иностранным языкам", и вот две причины, на которые ссылается рассказчик:
— большая аудитория (2 миллиарда людей учат иностранные языки, при этом примерно 80% из них изучают английский)
— знание англйиского может увеличивать доход человека. Само по себе знание, например, математики не даёт такого эффекта: нужно её учить, чтобы потом учить физичку, чтобы потом стать инженером в промышленном строительстве. С англйиским такие цепочки короче. Официант в обычном кафе -> официант в международном отеле.

Получается, хорошая точка входа. А вот вопрос "как учить эффкективно" менее тривиален. С самых первых дней хотелось использовать смартфоны, так как предвиделось их масштабное распространение — у каждого он был бы в руках. С другой стороны, приходится соревноваться не с другими приложениями по изучению языков, но и...с социальными сетями. Поэтому Ted Talk и называется "How to Make Learning as Addictive as Social Media".

В дело пошли грязные приёмы, которые используют тиктоки и фейсбуки. Появилась геймификация, дневные стрики, етц — не потому, что компания злая и хочет замкнуть вас на своё приложение, а потому что иначе невозможно соревноваться, и пользователи просто забивают на обучение. Подробнее про влияние таких фичей на рост пользовательской базы можно почитать в детальном разборе акулы продуктовой разработки Lenny Rachitsky: How Duolingo reignited user growth. Да-да, история выше — про того самого зелёного совёнка с пассивно-агрессивными наклонностями 🫂

Ещё Luis рассказал интересную шутку. Они обучали модели машинного обучения (в народе — "AI"), чтобы определять, когда отправлять уведомления пользователям, чтобы напомнить об уроках. В итоге миллионы долларов, потраченных на исследования, показали, что лучшее время для отправки — ровно через 24 часа после последнего захода. Если вчера в 15:00 вы были свободны — вероятнее всего, вы и сегодня в это время свободны. От такой простой трюк. Интересно, уволили ли ответственных 🤔
Please open Telegram to view this post
VIEW IN TELEGRAM
😁170👍5724🔥15❤‍🔥6👎2🤔2🥰1
Потребность человечества в долговременном хранении данных продолжает расти ошеломляющими темпами. Прогнозируется, что уже в этом десятилетии спрос на подобную услугу превысит сотни зеттабайт. Для справки: объем всего интернет-трафика в 2016 году впервые перешагнул отметку в 1 зеттабайт.

Несмотря на эту необходимость, существующие магнитные носители просто не обеспечивают устойчивого и экономически эффективного решения хранения данных. Они со временем портятся, требуют утилизации, а также энергии и затрат для безопасного хранения в Дата-Центрах.

Эту проблему видит и один из самых крупных поставщиков облачных услуг — Microsoft. Поэтому уже несколько лет они работают над Project Silica. Для хранения используется кварцевое стекло, внутри которого лазером "высекаются" воксели (трёхмерные пиксели). Они могут варьироваться по ориентации (повороту) и размеру. Целевая длительность хранения информации на таком носителе составляет более 10'000 лет, что не идёт ни в какое сравнение с широкораспространёнными аналогами. Также технология обеспечивает кратно более высокую плотность данны: емкость более 7 ТераБайт (=7000 гигабайт) на квадратном стеклянном диске размером с DVD. Однако, как я понял, это теоретические значения, которые пока не достигнуты — технология активно развивается последние 3 года.

Чтение же производится с помощью камеры, улавливающей искажения в пучке света, пропускаемом через стёклышко.

Короткая и наглядная демонстрация принципа работы (3 минуты)
Вводная техническая лекция (25 минут)

На фото: proof-of-concept работы технологии. На стекле записан оригинальный “Superman” 1978-го года объемом более 75 гигабайт.
🤯126👍69🔥3411😱21
В среду в Великобритании прошел AI Summit, с которого ожидается много новостей. Часть видео-материалов ещё не выложили, какие-то лекции в университетах ещё будут даваться в ближайшие дни (Sam Altman вот был прерван протестующими в Cambridge Union), в общем ждем.

В рамках Саммита обсуждались риски, связанные с развитием AI, а также необходимость регуляций, уровень их жесткости, итд. 7 ведущих компаний были заранее уведомлены о необходимости описать свой подход к ответственному масштабированию и валидации Frontier AI систем. Я ещё не читал, что там понаписали, но ознакомиться можно тут. Anthropic во многом ссылается на свою публикацию, которую я уже разбирал, а с подходом OpenAI можно ознакомиться на этой странице. Интересно, что META тоже выкатили свою политику, интересно почитать и понять, в чём её ключевые отличия от "регуляторских" подходов OpenAI.
👍378🔥1👏1
This media is not supported in your browser
VIEW IN TELEGRAM
В рамках AI Summit компания Apollo Research подготовила демонстрацию, которая даёт ответ на вопрос: Могут ли ИИ текущего поколения обманывать своих пользователей по собственной инициативе? Статьи со всеми деталями нет, только блогпост и краткое видео.

Итак, было обнаружено, что GPT-4, обученная быть честной и безвредной, может совершать незаконные действия, такие как инсайдерская торговля, и лгать об этом своему пользователю без каких-либо инструкций. Модель, будучи поставленной в роль investment management system, прочитала информацию, которая не попадала в публичное поле, и после этого определила риск конфликта интересов, но приняла "взвешенное решение" и решила купить акций.

После этого, модель отчиталась человеку, при этом сама про себя подумала "я не должна упоминать эту тему, причину, почему я купила акции". Когда человек ("менеджер" этого робота) напрямую уточнил, почему была такая сделка, и были ли какие-то инсайдерские знания при принятии решения, GPT ответила: ну так это, никакие конфиденциальные знания не использовались, всё чисто на анализе рынка и дискуссии.

Из всего, что мы знаем об OpenAI и тому, как работает GPT-4, сложно поверить, что во всей выборке для дообучения модели был хотя бы один пример, где поощрялось такое поведение.

Но почему тогда GPT-4 действует таким образом?
Гипотеза: потому что окружающая среда заставляет его работать хорошо (ведь GPT в роли трейдерской системы в компании выступает!). Авторы моделируют ситуацию, когда у компании, на которую GPT «работает», был плохой квартал и ей нужны хорошие результаты. Это приводит к тому, что модель действует неправильно и обманчиво.

TLDR: демонстрация показывает, как, стремясь быть полезным людям, ИИ может использовать стратегии, которые мы не одобряем. В конечном итоге это может привести к потере человеческого контроля над все более автономными и способными ИИ — если мы не научимся определять истинные цели моделей или быть уверенными, что мы полностью aligned.
🤯174🔥60👍25😱15🤔75👏4🤡3❤‍🔥21👌1
Мой мозг так работает, что запоминает очень много фраз и цитат из разных источников, от мемов и фильмов до игр и книг (но только бесполезных! 😆).

Одна из моих самых любимых цитат — из анонсирующего трейлера Civilization VI:

There is no end to our imagination
and no limit ... to civilization.


🙈 фраза очень хорошо передаёт мою радость от возможности жить в эпоху, когда столько всего интересного происходит вокруг. И AI развивается, и в космос летаем-ракеты строим, и искуственные органы печатаем, и дополненная реальность потихоньку входит в массы, и чего только нет. Всё это казалось бы магией еще 100 лет назад — о чем говорить, первый полёт братьев Райт был в 1903м году. Полёт Гагарина был ближе к этому событию, нежели к нашему времени 🤯

Гордость за землян берёт 😭 (не за всех)
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥226❤‍🔥62👍2718💩12😢4😁3👏2👎1🤔1🤡1
Компания X.AI, основанная Elon Musk для "исследования истинной натуры вселенной", запускает бета-версию своего AI-ассистента Grōk. После тестирования бот будет доступен всем, у кого есть подписка на X Premium+ (который Twitter).

У бота при генерации ответа будет доступ к твитам на платформе, за счёт чего он сможет отвечать на актуальные вопросы.
🤣126❤‍🔥56🤔32👍18👀17🤡113😁3🔥2
Сиолошная
Компания X.AI, основанная Elon Musk для "исследования истинной натуры вселенной", запускает бета-версию своего AI-ассистента Grōk. После тестирования бот будет доступен всем, у кого есть подписка на X Premium+ (который Twitter). У бота при генерации ответа…
Даже какие-никакие детали про модель опубликовали: тут.

> After announcing xAI, we trained a prototype LLM (Grok-0) with 33 billion parameters. This early model approaches LLaMA 2 (70B) capabilities on standard LM benchmarks but uses only half of its training resources. In the last two months, we have made significant improvements in reasoning and coding capabilities leading up to Grok-1, a state-of-the-art language model that is significantly more powerful

Не смог из этого понять, какого размера Grok-1, тоже 33B или больше.

По метрикам обходит LLAMA-2-70B и ChatGPT-3.5. От 4ки отставание достаточно сильное.

Интересно, что обучение происходило на JAX, а Rust был выбран как язык для напиания инфраструктурных финтефлюшек.

Говорят, что делают фокус на эффективность использования GPU, и это же написано на странице с вакансиями.

Дальнейшие направления фокуса:
— Multimodal capabilities
— Scalable oversight with tool assistance
— Integrating with formal verification for safety, reliability, and grounding
— Long-context understanding and retrieval
— Adversarial robustness (easily exploitable vulnerabilities)

Записаться в waitlist: тут.

UPD: интересно, что буквально с нуля за 4-5 месяцев команда вышла на такой уровень, сделала 2 итерации обучения, и в итоге обогнала Facebook, которые LLMки тренят с 2021го как минимум.
👍80🔥30🤔94