Forwarded from XOR
Ничего необычного, просто глава NVIDIA расписывается на груди фанатки.
Вот что бывает, когда капитализация твоей компании составляется $2,8 трлн.
@xor_journal
Вот что бывает, когда капитализация твоей компании составляется $2,8 трлн.
@xor_journal
👍69 33🔥12💅3🤯2
9 бывших и текущих сотрудников OpenAI публично требуют право в случае чего предупредить общественность об AGI
Они заявляют, что OpenAI ведет себя безрассудно в отношении AGI, оголтело летя впереди планеты всей.
Тем временем сотрудникам не разрешено не то что рассказывать о разработках компании, но и просто высказывать свое мнение о политике OpenAI. Иначе можно сказать «пока» всем своим акциям и, скорее всего, работе.
Сейчас сотрудники требуют обязать компанию прозрачно отчитываться о технологиях перед государством и разрешить ученым осведомлять общество о том, что на их взгляд может быть опасно.
Обожаю это чувство, как его… SkyNet
Они заявляют, что OpenAI ведет себя безрассудно в отношении AGI, оголтело летя впереди планеты всей.
Тем временем сотрудникам не разрешено не то что рассказывать о разработках компании, но и просто высказывать свое мнение о политике OpenAI. Иначе можно сказать «пока» всем своим акциям и, скорее всего, работе.
Сейчас сотрудники требуют обязать компанию прозрачно отчитываться о технологиях перед государством и разрешить ученым осведомлять общество о том, что на их взгляд может быть опасно.
Обожаю это чувство, как его… SkyNet
😁97❤14🔥8 7😨6👍5🙈5
Интересная ситуация произошла в Стэнфорде: там ученым пришлось извиняться перед китайцами за плагиат
Оказалось, что студенты скопипастили код из китайской MiniCPM-Llama3-V 2.5 для своего проекта Llama3-V. Вот и пришлось извинятся, хотя горе-ресерчеры утвеждают, что код писали вообще не они, а их коллега из университета Калифорнии, который сейчас не выходит на связь😦
Медель выходила под флагом Стэнфордского университета, в соавторстве с несколькими профессорами, так что авторитет был подорван довольно сильно. Модель также пришлось удалить с Hugging Face. Да, жаль этих работяг.
Оказалось, что студенты скопипастили код из китайской MiniCPM-Llama3-V 2.5 для своего проекта Llama3-V. Вот и пришлось извинятся, хотя горе-ресерчеры утвеждают, что код писали вообще не они, а их коллега из университета Калифорнии, который сейчас не выходит на связь
Медель выходила под флагом Стэнфордского университета, в соавторстве с несколькими профессорами, так что авторитет был подорван довольно сильно. Модель также пришлось удалить с Hugging Face. Да, жаль этих работяг.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁89 45😎4👍3❤1
Вышел долгожданный код для xLSTM! Это та самая недавняя взрывная архитектура от создателей LSTM, которая может стать альтернативой трансформеру.
Установить библиотеку и поиграться с xLSTM можно с помощью
Репозиторий с кодом тут.
А если вы до сих пор не разобрались с этой многообещающей моделью, то напоминаем, что у нас на сайте лежит ее подробный наглядный разбор: https://datasecrets.ru/articles/10
Установить библиотеку и поиграться с xLSTM можно с помощью
pip install xlstm. Репозиторий с кодом тут.
А если вы до сих пор не разобрались с этой многообещающей моделью, то напоминаем, что у нас на сайте лежит ее подробный наглядный разбор: https://datasecrets.ru/articles/10
❤55🔥21 7👍2🍓2
This media is not supported in your browser
VIEW IN TELEGRAM
Студенты-дипломники, ну как там дела за пару дней до сдач?
🤝85😁46🔥10🗿7❤4👍4👏2
Please open Telegram to view this post
VIEW IN TELEGRAM
😁103🤯21👀14 8👍6☃3❤1
Кстати, кроме этого выпада группы сотрудников OpenAI случилось еще кое-что
Раньше в OpenAI в команде Суцкевера работал исследователь Леопольд Ашенбреннер. Пол года назад его уволили, якобы из-за утечки информации.
А на днях он дал интервью и рассказал, что на самом деле его уволили по другой причине: он критиковал компанию за небезопасное поведение.
Также Леопольд опубликовал кучастраничный отчет о состоянии ИИ. В нем он пишет, что AGI появится уже к 2027 году, и затем очень скоро превратиться в суперинтеллект, который будет опасен для человечества. “Для этого не нужно верить в фантастику, нужно лишь верить в прямые линии на графиках».
По его словам, уже сегодня компании перешли от $10 миллиардных вычислительных кластеров к $100 миллиардным и даже триллионным кластерам.
Пора бы OpenAI выходить на свет, а то общественности еще долго придется оценивать ситуацию по выкрикам отдельных исследователей
Раньше в OpenAI в команде Суцкевера работал исследователь Леопольд Ашенбреннер. Пол года назад его уволили, якобы из-за утечки информации.
А на днях он дал интервью и рассказал, что на самом деле его уволили по другой причине: он критиковал компанию за небезопасное поведение.
Также Леопольд опубликовал кучастраничный отчет о состоянии ИИ. В нем он пишет, что AGI появится уже к 2027 году, и затем очень скоро превратиться в суперинтеллект, который будет опасен для человечества. “Для этого не нужно верить в фантастику, нужно лишь верить в прямые линии на графиках».
По его словам, уже сегодня компании перешли от $10 миллиардных вычислительных кластеров к $100 миллиардным и даже триллионным кластерам.
Пора бы OpenAI выходить на свет, а то общественности еще долго придется оценивать ситуацию по выкрикам отдельных исследователей
This media is not supported in your browser
VIEW IN TELEGRAM
Садимся снимать аниме – в опенсорс вышла модель ToonCraft, которая может сгенерировать мультипликацию по ключевым кадрам.
Она может "заполнить" ролик между двумя поданными кадрами, нарисовать мультик по скетчу и раскрасить анимацию по референсу.
Под капотом DynamiCrafter, которую зафайнтюнили на аниме. Для сохранения точного образа персонажей используется 3D-декодер.
Самое приятное: есть и статья, и демо, и код, и примеры – в общем все, что душе угодно.
Она может "заполнить" ролик между двумя поданными кадрами, нарисовать мультик по скетчу и раскрасить анимацию по референсу.
Под капотом DynamiCrafter, которую зафайнтюнили на аниме. Для сохранения точного образа персонажей используется 3D-декодер.
Самое приятное: есть и статья, и демо, и код, и примеры – в общем все, что душе угодно.
❤50 37👍12🤯4💅1
Stability AI опенсорснули часть функционала Stable Audio — нейросети для генерации музыки и звуков
Сеть обучена только на открытых данных, но ее, тем не менее, нельзя использовать в коммерческих целях. Да и работает она сильно обрезанно, по сравнению с закрытой версией: генерирует треки в четыре раза короче и не работает в режиме Audio2Audio.
Тем не менее, все что опенсорс, мы любим и уважаем (ну если только код не был "позаимствован", как у ребят из Стэнфорда).
Подробности и код для игр с моделькой оставили на сайте.
Сеть обучена только на открытых данных, но ее, тем не менее, нельзя использовать в коммерческих целях. Да и работает она сильно обрезанно, по сравнению с закрытой версией: генерирует треки в четыре раза короче и не работает в режиме Audio2Audio.
Тем не менее, все что опенсорс, мы любим и уважаем (ну если только код не был "позаимствован", как у ребят из Стэнфорда).
Подробности и код для игр с моделькой оставили на сайте.
🔥13👍7❤1
Google такие: «Нечестно, OpenAI специально сделали свою презентацию за день до нашей»
Также Google: опенсорсят конкурента Gradio прямо в день выхода новой версии
Gradio – это тулза для билда ML-приложений из ноутбуков или из проекта. Новый Mesop от Google – в точности то же самое. Даже лендинг похож на игру «найди 10 отличий».
Тем не менее, достойно внимания: гитхаб
Также Google: опенсорсят конкурента Gradio прямо в день выхода новой версии
Gradio – это тулза для билда ML-приложений из ноутбуков или из проекта. Новый Mesop от Google – в точности то же самое. Даже лендинг похож на игру «найди 10 отличий».
Тем не менее, достойно внимания: гитхаб
❤32🤨11🕊6👍3💘2
Forwarded from XOR
This media is not supported in your browser
VIEW IN TELEGRAM
Что известно:
@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥27😁13❤6👍5🕊1🌭1
Vision-LSTM – новая фундаментальная CV-модель на основе xLSTM
Да, надстройки над xLSTM не заставили себя долго ждать. Vision-LSTM (ViL), в первую очередь, удивила всех скоростью. Модель быстрее, чем Vision-Mamba (тоже sequential модель) даже без ядр CUDA.
Под капотом: двунаправленные mLSTM блоки, которые обрабывают patch-токены изображения. При этом, в отличие от Vision-Mamba, где каждый блок обрабатывает последовательность сразу в двух направлениях, здесь направления чередуются между четными и нечетными блоками. За счет этого и скорость.
По метрикам на ImageNet1K тоже лучше, чем Vision-Mamba. Однако, как говорят сами авторы, так как оптимизированной реализации для xLSTM пока нет, для больших моделей все еще лучше подходит ViT (трансформер).
Выглядит многообещающе. Советуем прочитать статью полностью здесь. А еще авторы выложили код.
Да, надстройки над xLSTM не заставили себя долго ждать. Vision-LSTM (ViL), в первую очередь, удивила всех скоростью. Модель быстрее, чем Vision-Mamba (тоже sequential модель) даже без ядр CUDA.
Под капотом: двунаправленные mLSTM блоки, которые обрабывают patch-токены изображения. При этом, в отличие от Vision-Mamba, где каждый блок обрабатывает последовательность сразу в двух направлениях, здесь направления чередуются между четными и нечетными блоками. За счет этого и скорость.
По метрикам на ImageNet1K тоже лучше, чем Vision-Mamba. Однако, как говорят сами авторы, так как оптимизированной реализации для xLSTM пока нет, для больших моделей все еще лучше подходит ViT (трансформер).
Выглядит многообещающе. Советуем прочитать статью полностью здесь. А еще авторы выложили код.
👍27❤10🔥10
Вау! Событие из красной книги: у OpenAI вышла статья с открытым кодом
В числе авторов Илья Суцкевер, и, как вы возможно уже поняли, статья про интерпретируемость. Подход идейно повторяет недавнюю работу Anthropic. Ресерчеры OpenAI также используют разреженный автоэнкодер и с помощью него выделяют в поведении модели "фичи" - интерпретируемые паттерны активаций (о них можно думать, как о темах).
Утверждается, однако, что заявленный подход масштабируется лучше, чем остальные существующие. Из GPT-4 удалось достать 16 миллионов фичей. Есть клевая визуализация. В опенсорсе показали подход на примере GPT-2.
Про управление фичами (в отличие от Anthropic) пока ничего особенного, оставляют на дальнейшие исследования.
В числе авторов Илья Суцкевер, и, как вы возможно уже поняли, статья про интерпретируемость. Подход идейно повторяет недавнюю работу Anthropic. Ресерчеры OpenAI также используют разреженный автоэнкодер и с помощью него выделяют в поведении модели "фичи" - интерпретируемые паттерны активаций (о них можно думать, как о темах).
Утверждается, однако, что заявленный подход масштабируется лучше, чем остальные существующие. Из GPT-4 удалось достать 16 миллионов фичей. Есть клевая визуализация. В опенсорсе показали подход на примере GPT-2.
Про управление фичами (в отличие от Anthropic) пока ничего особенного, оставляют на дальнейшие исследования.
❤26👍18🔥13
Apple решили, что теперь AI – это не Artificial Intelligence, а Apple Intelligence.
Да, именно так они назвали свою новую SIRI. Общество на такой гениальный ребрендинг отреагировало незамедлительно, и Интернет уже полон шуток – мы отобрали лучшие.
Новую систему AI в iOS 18 компания представит на конференции WWDC 2024, то есть через несколько дней.
Да, именно так они назвали свою новую SIRI. Общество на такой гениальный ребрендинг отреагировало незамедлительно, и Интернет уже полон шуток – мы отобрали лучшие.
Новую систему AI в iOS 18 компания представит на конференции WWDC 2024, то есть через несколько дней.
😁83 21🔥9❤2👍2🤪1