gonzo-обзоры ML статей – Telegram
gonzo-обзоры ML статей
24.1K subscribers
2.74K photos
2 videos
3 files
1.36K links
Авторы:
Гриша Сапунов, ранее руководитель разработки Яндекс-Новостей, ныне CTO Intento. Области интересов: AI/ML/DL, биоинформатика.
Лёша Тихонов, ранее аналитик в Яндексе, автор Автопоэта, Нейронной Обороны... Области интересов: discrete domain, NLP, RL.
Download Telegram
This media is not supported in your browser
VIEW IN TELEGRAM
🔥19👍3😁3
Кинопауза. В коллекции GenAI фильмов пополнение.

To make The Frost, Waymark took a noscript written by Josh Rubin, an executive producer at the company who directed the film, and fed it to OpenAI’s image-making model DALL-E 2. After some trial and error to get the model to produce images in a style they were happy with, the filmmakers used DALL-E 2 to generate every single shot. Then they used D-ID, an AI tool that can add movement to still images, to animate these shots, making eyes blink and lips move.

“This is certainly the first generative AI film I’ve seen where the style feels consistent,” says Souki Mehdaoui, an independent filmmaker and cofounder of Bell & Whistle, a consultancy specializing in creative technologies. “Generating still images and puppeteering them gives it a fun collaged vibe.”

https://www.technologyreview.com/2023/06/01/1073858/surreal-ai-generative-video-changing-film/

Не уверен, что доступно без пейволла.
8🔥2🌭2
Важная статья из 2000 года от Билла Джоя (кстати, я забыл, что он автор vi), Chief Scientist'а Sun Microsystems в то время.

Прошло 23 года, стоит её перечитать новым взглядом (а многим, возможно, прочитать впервые). Не знаю, есть ли она в каких-то университетских курсах, но имхо это должно быть мастридом во многих:

https://www.wired.com/2000/04/joy-2/

"Accustomed to living with almost routine scientific breakthroughs, we have yet to come to terms with the fact that the most compelling 21st-century technologies—robotics, genetic engineering, and nanotechnology—pose a different threat than the technologies that have come before. Specifically, robots, engineered organisms, and nanobots share a dangerous amplifying factor: They can self-replicate. A bomb is blown up only once—but one bot can become many, and quickly get out of control."

...

"Each of these technologies also offers untold promise: The vision of near immortality that Kurzweil sees in his robot dreams drives us forward; genetic engineering may soon provide treatments, if not outright cures, for most diseases; and nanotechnology and nanomedicine can address yet more ills. Together they could significantly extend our average life span and improve the quality of our lives. Yet, with each of these technologies, a sequence of small, individually sensible advances leads to an accumulation of great power and, concomitantly, great danger."

...

"The nuclear, biological, and chemical (NBC) technologies used in 20th-century weapons of mass destruction were and are largely military, developed in government laboratories. In sharp contrast, the 21st-century GNR technologies have clear commercial uses and are being developed almost exclusively by corporate enterprises. In this age of triumphant commercialism, technology—with science as its handmaiden—is delivering a series of almost magical inventions that are the most phenomenally lucrative ever seen. We are aggressively pursuing the promises of these new technologies within the now-unchallenged system of global capitalism and its manifold financial incentives and competitive pressures.

Now, as then, we are creators of new technologies and stars of the imagined future, driven—this time by great financial rewards and global competition—despite the clear dangers, hardly evaluating what it may be like to try to live in a world that is the realistic outcome of what we are creating and imagining."

...

"These possibilities are all thus either undesirable or unachievable or both. The only realistic alternative I see is relinquishment: to limit development of the technologies that are too dangerous, by limiting our pursuit of certain kinds of knowledge."

...

"If we could agree, as a species, what we wanted, where we were headed, and why, then we would make our future much less dangerous—then we might understand what we can and should relinquish. Otherwise, we can easily imagine an arms race developing over GNR technologies, as it did with the NBC technologies in the 20th century. This is perhaps the greatest risk, for once such a race begins, it's very hard to end it. This time—unlike during the Manhattan Project—we aren't in a war, facing an implacable enemy that is threatening our civilization; we are driven, instead, by our habits, our desires, our economic system, and our competitive need to know."

...

"Verifying relinquishment will be a difficult problem, but not an unsolvable one. We are fortunate to have already done a lot of relevant work in the context of the BWC and other treaties. Our major task will be to apply this to technologies that are naturally much more commercial than military. The substantial need here is for transparency, as difficulty of verification is directly proportional to the difficulty of distinguishing relinquished from legitimate activities.
🔥16👍5😁31🤔1
The GNR technologies do not divide clearly into commercial and military uses; given their potential in the market, it's hard to imagine pursuing them only in national laboratories. With their widespread commercial pursuit, enforcing relinquishment will require a verification regime similar to that for biological weapons, but on an unprecedented scale. This, inevitably, will raise tensions between our individual privacy and desire for proprietary information, and the need for verification to protect us all. We will undoubtedly encounter strong resistance to this loss of privacy and freedom of action."
Мы в последнее время сильно больше пишем про темы вокруг AI safety, и вряд ли станем писать меньше, потому что вопросов здесь пока больше, чем ответов. При этом массово популярная стратегия считать, что проблем нет и все, кто про них говорит — думеры, по уровню своей аргументации имхо существенно ущербнее, чем у лагеря, который озабочен разными рисками.

In the meantime, вот вам хороший пост в тему от Тани.
👍14
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp #длиннопост #ai_alignment #discussion
🌸TLDR; Мои взгляды на AI Alignment🌸

Сейчас будет пост спекулятивного характера.
Вместо того, чтобы дать вам обзор и источники, буду писать сразу, что думаю. Тезисы по итогу выкристаллизовались из интервью RationalAnswer, а также из нескольких моих лекций по AI Alignment.

🟣AI Alignment — поле экспериментов и смешения дисциплин, где вместе сталкиваются ученые, разработчики, специалисты по этике философии ИИ, эффективные альтруисты, лонгтермисты, космисты и тд, из-за чего консенсуса, конечно же, долгое время не предвидится, и это нормально. Попутно обнародуется много дополнительных проблем, заметенных под ковер, — чего стоит хотя бы один пример из недавнего поста Тимнит Гебру, когда выяснилось, что среди лонгтермистов есть сторонники евгеники.

🟣Разговор про AI Alignment — разговор про риски и их митигирование. С рисками надо работать как с рисками. И тут события с маленькой вероятностью и большим вредом, конечно, смотрятся слабым аргументом. Зато кризис доткомов и 2008 год — это мы офигенно предусмотрели. Такой же кризис с AGI даст совершенно другую степень последствий.

🟣Корпорации — misaligned superintelligent entities, НИИ и лаборатории — aligned non-general superintelligent entities. Когда к этому добавятся misaligned general intelligent entities — вопрос времени.

🟣Мне достаточно странно слышать от людей, которые занимаются разработкой ML-систем, что регулировать ничего не надо. Искренне не понятно, как можно на голубом глазу говорить, что нужно строить машины без тормозов и атомные АЭС без системы безопасности. Почему не нужно делать ничего, чтобы предусмотреть потенциальный вред от своей разработки.
Описание ограничений ML-системы, описание условий, в которых она может работать не как положено — должна ложиться на авторов ML-системы. Тем не менее, формат работы и сложность задачи таковы, что она переносится на коммьюнити.
Желаю несогласным радикализоваться, получив desk reject на конференции за отсутствие limitations и ethical considerations. Нда #reviewer2

🟣Регулирование все равно будет, вопрос в том, сколько нам нанесут счастья и причинят пользы несодержательными законами.

🟣В 2022 и 2023 мы наблюдаем большое количество неудачных стратегий по медиапрезентации ИИ и его последствий. Обсуждали риски — завели хайп-трейн — получили регулирование (OpenAI). Не обсуждали риски — случился pr-риск в Твиттере — получили снятие демо, полный пак по damage control и плохую лицензию на модель (Galactica).
Единственное решение — open source и открытые инструменты с равным доступом для всех. Воспроизводимость, полностью описанные и отвалидированные границы применимости, описанные ограничения на разных типах задач, языках, навыках, распределениях. Плюс быстрый научный прогресс.

🟣Алармизм, "думерство" и т.д. — это все просто попытки повесить ярлык на тот же самый неудобный вопрос: "А как будут работать суды при анкапе?". Никак

Дискасс.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍33🤮20👎32❤‍🔥1🤔1
Делайте ставки, господа.

https://www.isattentionallyouneed.com/

Proposition:

"On January 1, 2027, a Transformer-like model will continue to hold the state-of-the-art position in most benchmarked tasks in natural language processing."
😁22🤔4❤‍🔥1👍1
Интересный апдейт в GPT-4

gpt-4-0613 is now available and adds a new capability: function calling. By describing functions in your prompts, the model can intelligently choose to output a JSON object containing arguments to call these functions based on user input — perfect for integrating with other tools or APIs. Learn more in our function calling documentation.

https://platform.openai.com/docs/guides/gpt/function-calling
👍134🔥2🤔2
[DeepMind AlphaDev] Faster sorting algorithms discovered using deep reinforcement learning
Daniel J. Mankowitz, Andrea Michi, Anton Zhernov, Marco Gelmi, Marco Selvi, Cosmin Paduraru, Edouard Leurent, Shariq Iqbal, Jean-Baptiste Lespiau, Alex Ahern, Thomas Köppe, Kevin Millikin, Stephen Gaffney, Sophie Elster, Jackson Broshear, Chris Gamble, Kieran Milan, Robert Tung, Minjae Hwang, Taylan Cemgil, Mohammadamin Barekatain, Yujia Li, Amol Mandhane, Thomas Hubert, Julian Schrittwieser, Demis Hassabis, Pushmeet Kohli, Martin Riedmiller, Oriol Vinyals & David Silver
Статья: https://www.nature.com/articles/s41586-023-06004-9
Пост: https://www.deepmind.com/blog/alphadev-discovers-faster-sorting-algorithms
(Псевдо)код: https://github.com/deepmind/alphadev

Это в каком-то смысле продолжение истории про AlphaTensor (https://news.1rj.ru/str/gonzo_ML/1146). Там семейство алгоритмов AlphaZero применяли для поиска более быстрого алгоритма матричного умножения, а здесь его применили для поиска алгоритмов сортировки. Полученная система или агент, AlphaDev, нашла новый оптимизированный алгоритм сортировки. Код найденного алгоритма интегрировали в стандартную C++ библиотеку алгоритмов в LLVM (https://reviews.llvm.org/D118029). В этой части библиотеки не было изменений больше десятка лет и это там первый алгоритм, найденный RL. Делаем ставки, через сколько лет в libc++ не останется кода, написанного человеком.

Что интересно, работа эта не новая. Код в libc++ засабмитили ещё в начале прошлого года, а сама работа видимо сделана была и того раньше. В Nature статью засабмитили в июле 2022. AlphaTensor тоже, кстати, был засабмичен за год до самой статьи, ещё в октябре 2021.

Авторы фокусировались на алгоритмах для коротких последовательностей (3-5 элементов) и ищут функции для fixed sort (строго заданное количество элементов, 3, 4 или 5) и variable sort (любое количество элементов от нуля до 3-5). Поиск идёт на уровне ассемблерных инструкций (подмножество инструкций x86: mov/cmov/cmp/jump) с нуля, не с какого-то готового алгоритма. Как и AlphaTensor, AlphaDev основан на AlphaZero. Для использования RL задачу оформили в виде игры c одним игроком AssemblyGame (в случае AlphaTensor был TensorGame).

На каждом ходу AlphaDev смотрит на уже сгенерированный алгоритм (его репрезентацию P_t) и на состояние процессора (регистры и память, Z_t), и делает ход, выбирая инструкцию для добавления в алгоритм. Это делается через MCTS (Monte-Carlo Tree Search), которая по входному состоянию S_t = <P_t, Z_t> выдаёт полиси (распределение действий) и value function предсказывающую cumulative returns из текущего состояния. У value function две головы, одна для latency, другая для корректности.

Пространство решений здесь огромно, поэтому применялись правила для прунинга действий (типа, запрещены последовательные инструкции сравнения, ячейки памяти читаются строго в инкрементальном порядке, регистры аллоцируются также, и т.д.).

Также заявлено, что разрешены и другие трансформации типа перестановки двух инструкций, случайные замены опкода и/или операнда. Гиперпараметрами оптимизировали веса этих других трансформаций.

Алгоритм валидируется на тестовых кейсах, где его выход должен совпасть с эталонным, и вознаграждение агент получает за корректность и скорость (либо длину как прокси для latency) алгоритма.

Для вычисления репрезентации собрали отдельную сеть из двух энкодеров. Один генерит эмбеддинг алгоритма, второй эмбеддинг состояния процессора и памяти. Оба эмбеддинга затем объединяются в итоговую репрезентацию.

Эмбеддинг алгоритма делается трансформером Multi-Query Attention (в котором K и V шарятся между головами, https://arxiv.org/abs/1911.02150), 6 слоёв, 4 головы. Инструкции кодируются опкодом и операндами через one-hot и дают входную последовательность. В доп.материалах также описывается графовый энкодер через GNN.

Эмбеддинг состояния делается двуслойным MLP с relu, от состояния всех регистров и памяти.
🔥18👍113👌2🤔1
Обучали на 16 ядрах TPUv3, миллион итераций с батчем 1024 на ядро. Актор работает на отдельном TPUv4, их было 512. Обучение во всех случаях заканчивалось не больше чем за два дня.

AlphaDev нашла более короткие варианты sort3 и sort5. Для VarSort длина алгоритма уже не очень показатель, потому что там бранчинг в коде, поэтому здесь меряли реальное время исполнения. Здесь тоже система нашла более быстрые решения.

По аналогии с “ходом 37” в го (неожиданный и нестандартный ход), алгоритм и здесь нашёл неожиданное решение, помогшее сэкономить одну инструкцию. Здесь это решение назвали ‘AlphaDev swap and copy moves’ (https://www.nature.com/articles/s41586-023-06004-9/tables/2).

Найденные алгоритмы перевели из ассемблера в C++ и добавили в LLVM libc++. Они быстрее имеющихся в библиотеке алгоритмов до 70% на коротких последовательностях, и примерно на 1.7% на последовательностях длиннее 250К элементов.

Для сравнения сделали версию AlphaDev-S со встроенным state-of-the-art stochastic superoptimization (https://theory.stanford.edu/~aiken/publications/papers/asplos13.pdf) решением для оптимизации функций сортировки. Обычный AlphaDev лучше исследует пространство решений (это называют Exploration hypothesis, её проверили через отображение исследованных пространств с помощью t-SNE), перебирая меньше вариантов, к тому же ему не надо каждый раз вычислять честную latency (у него есть предсказатель value function), что получается быстрее. AlphaDev-S может быть вычислительно более эффективным, если стартует не с нуля, а уже с хорошего решения недалеко от оптимума. Но для алгоритмов с бранчингом AlphaDev всё равно лучше.

Кроме сортировки применили AlphaDev на десериализацию VarInt из protobuf (нашли в три раза более быстрое решение), а также на одной задаче competitive coding из датасета CodeContests (тоже получилось быстрее).

В статье в Nature не нашёл (там только про теоретическую возможность), но в посте заявлено также что проверили AlphaDev на хешировании и там нашли алгоритм, который на 30% быстрее. Закоммитили его в abseil (https://github.com/abseil/abseil-cpp/commit/74eee2aff683cc7dcd2dbaa69b2c654596d8024e).

Что сказать, большое будущее (https://www.deepmind.com/blog/optimising-computer-systems-with-more-generalised-ai-tools) у такого направления как “ML for Systems” (http://mlforsystems.org/). В достаточную универсальность семейства алгоритмов AlphaZero я давно верю.
🔥18👍114