Метаверсище и ИИще – Telegram
Метаверсище и ИИще
46.7K subscribers
5.93K photos
4.34K videos
45 files
6.82K links
Это не новости, это персональный экспертный взгляд на то, как развивается индустрия ИИ, графики, метаверса, крипты, нейротехнологий и в каком направлении катится все это безобразие.
Для связи: @SergeyTsyptsyn
Download Telegram
🔥18👍3
Говорят, завезли больше фотореализьму...
Штошь..
Попробуйте повторить промпт, удивитесь.
🔥23👍6👎2
Я понял, как произносить новую модель:
Джипити-Чо!
🔥114👍16👎3
Media is too big
VIEW IN TELEGRAM
GPT-4o поводырь

Посмотрите, прогрузите это видео.

Для слепых людей - это может быть другим уровнем жизни.

Особенно, когда появятся лёгкие умные очки, с которыми можно разговаривать и которые будут поводырем совершенно иного уровня.
А постоянный стриминг реальности в аудио-речь может заставить мозг пластично адаптироваться к новому сигналу и начать "видеть" мир. По другому, но видеть. Особенно для тех, кто потерял зрение уже будучи зрячим, имея картину мира сформированной.
👍88🔥46
Давайте немного подытожим вчерашнюю презентацию от OpenAI и наведем порядок в терминах и сроках.

Я рекомендую внимательно прочитать два недлинных документа, появившихся вчера:
https://help.openai.com/en/articles/7102672-how-can-i-access-gpt-4-gpt-4-turbo-and-gpt-4o
и
https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/

Итак,
Если вы сразу бросились тестировать голосовые возможности в chatGPT, то погодите.
chatGPT отвечает пока вам старым способом. Переводит речь в текст и обратно. А не напрямую, как на демонстрациях.
(ChatGPT will continue to have support for voice via the pre-existing Voice Mode feature) initially.
В приложении(о нем ниже) тоже:
You can now have voice conversations with ChatGPT directly from your computer, starting with Voice Mode that has been available in ChatGPT at launch, with GPT-4o’s new audio and video capabilities coming in the future.

То есть вам отвечает новая умная модель, но по старой (медленной) схеме. Новая быстрая будет in the future. Да, и петь тоже потом.

Приложение для компа, со всеми этим плюшками с демонстрации уже готово, но только для Mac
Его начинают раскатывать на разные регионы и аккаунты. chatGPT вам сообщит.
Для Винды все плохо (и подло): We also plan to launch a Windows version later this year.

Лимит сообщений: "пользователи Plus смогут отправлять до 80 сообщений каждые 3 часа на GPT-4o и до 40 сообщений каждые 3 часа на GPT-4. Мы можем снизить лимит в часы пик, чтобы сохранить доступность GPT-4 и GPT-4o для наибольшего количества людей." Для бесплатных акков лимит может быть очень маленьким, особенно, если близлежащий к вам сервер перегружен. Буквально 2-4 сообщения иногда. Бесплатный сыр отключают при нагрузке в первую очередь, и переключают на 3.5.

Размер контекста модели GPT-4o - 128К. Это много. Очень много для 95 процентов пользователей. Это, грубо говоря, количество текста и сообщений из одного чата, которая она хранит в памяти, чтобы отвечать в соответствии с этой информацией, которую она держит "в мозгах".

Новая модель лучше понимает картинки: GPT-4o’s vision capabilities perform better than GPT-4 Turbo

Она в два разы быстрее (это видно в chatGPT): GPT-4o is 2x as fast as GPT-4 Turbo.

Лучше умеет в русский (да, она даже в рифму теперь умеет писать): GPT-4o has improved support for non-English languages over GPT-4 Turbo.

Для API гиков:
Pricing: GPT-4o is 50% cheaper than GPT-4 Turbo, coming in at $5/M input and $15/M output tokens).
Rate limits: GPT-4o’s rate limits are 5x higher than GPT-4 Turbo—up to 10 million tokens per minute.


Вся эта мульти-омни-модальность будет раскатываться постепенно. Типа из звука в звук, из картинок в картинки, разговор с видео. Думаю мы увидим обновленный DALL·E 3 или вообще иной способ генерации картинок. Надо подождать.

А пока gpt-4o уделывает остальные модели во всяческих тестах и доступна бесплатно в chatGPT.

Про бесплатность - следующий пост.
👍50👎1
Про бесплатный сыр доступ к gpt-4o

Пользователи бесплатного уровня по умолчанию будут переведены на GPT-4o с ограничением на количество сообщений, которые они могут отправить с помощью GPT-4o. См пост выше про лимиты.

Пользователи Free также получают ограниченный(вот тут нет информации про ограничения) доступ к сообщениям с использованием расширенных инструментов, таких как:
Data analysis
File Uploads
Browse
Discovering and using GPTs - джипитишки для всех, хороший ход.
Vision - очень круто.

Если раскрыть скобки то это:
Интеллект уровня GPT-4
Получение ответы, как от модели, так и из Интернета
Анализ данных и создание графиков и диаграмм
Загрузка картинок и обсуждение их с моделью.
Загрузка файлов для суммаризации и анализа
Работа с памятью (между чатами) - для европы недоступно.

И многое спрашивают, а почему? Если все это бесплатно, то на чем они будут зарабатывать или за какие космические пироги надо будет платить?

Почему? А потому что началась битва за данные. Источником которых являются пользователи, которые петабайтами грузят в chatGPT свои тексты, вирши, картинки, видео, всю эту свою цифровую жизнь. И теперь, открыв gpt-4o для всех, OpenAI получат больше картинок, пдф, csv, файлов и просто текстов. Во-первых, расширив юзер базу, во-вторых, расширив типы данных, которые бесплатные пользователи будут скармливать ИИ на обучение.

Клода открыли для Европы. gpt-4o открыли для бесплатных акков. Битва за данные пользователей началась!
https://openai.com/index/gpt-4o-and-more-tools-to-chatgpt-free/
👍48🔥14
Ну и последнее про бесплатный сыр.

Сэм Альтман вчера сделал пост в своем блоге. Довольно ровный, но там есть такой абзац.

Разговор с компьютером никогда не казался мне естественным, а теперь это так. По мере добавления (по желанию) персонализации, доступа к вашей информации, возможности совершать действия от вашего имени и т. д., я вижу захватывающее будущее, в котором мы сможем использовать компьютеры для гораздо большего, чем когда-либо прежде.

As we add (optional) personalization, access to your information, the ability to take actions on your behalf, and more, I can really see an exciting future where we are able to use computers to do much more than ever before.

Я мысленно заменил optional на hidden(скрытого) или даже на mandatory(обязательного) добавления персонализации, и понял, что уже поздно. Вы же понимаете, что все ваши ленты и реклама - персонализированы без всякого optional. Почему с ИИ будет по другому?

У нас просто будут иные стратегии поведения. Если будут вообще.
https://blog.samaltman.com/gpt-4o
👍44👎3
Ну, как я уже сегодня писал, нас ждут очень интересные новости в ближайшие недели.

Сэм: "у нас есть еще ништяков на показать!"
🔥43👍5👎1
Камерабадс!

А вот это уже интересный девайс!

Метачка пытается встроить камеры в .. наушники, причем похоже в затычки(там два варианта дизайна пока).

Сопоставляя картину и звук, такие наушники будут воссоздавать модель мира вокруг пользователя(метаверсик?), детектировать и распознавать объекты, ну и конечно, переводить с любого языка если надо. Всем рулит ИИ.

Идея очень годная. К наушникам народ давно приучен, больше, чем к очкам.

И они уже потренировались на своих рейбанах.

Вкупе с постом про слепых и слабовидящих выглядит возможно, как аппарат для нового зрения.

Вот только два вопроса: что делать с меховыми шапками и длинными волосами?

https://www.engadget.com/metas-next-hardware-project-might-be-ai-infused-headphones-with-cameras-204741102.html
👍49👎6
Шесть(!) лет назад писал вот такой пост про ИИ и пластичность мозга. С учётом того, что ИИ все больше становится нашими глазами и ушами (ну и мозгом), возможно, мы приобретем новые способности в скором будущем. Надо просто пройти дообучение и файнтюнинг.


Из 2018:
Снова про ИИ, точнее про ЕИ, но теперь в под немного странным медицинским углом. Недавно встретил своего очень старого приятеля, которого не видел 20 лет. Три года назад они усыновили маленькую девочку с полной потерей слуха и сделали ей кохлеарный имплантат (тут надо сказать, что я восхищен таким людьми так, что говорить об этом мне трудно). Когда я прочитал, что такое кохлеарная имплантация, то сильно задумался о возможностях мозга и ИИ.
У пациентов с сенсоневральной тугоухостью количество волосковых клеток, улавливающих собственно звук, уменьшено, или они полностью отсутствуют (врожденные дефекты) и НИКАКОЕ усиление не способно помочь такому человеку слышать в принципе.
Сущность метода заключается в установке в организме пациента устройства, способного преобразовывать электрические импульсы, поступающие с внешнего микрофона, в сигналы, понятные нервной системе. Упрощенного говоря, звуковая информация, закодированная в поток электрических импульсов передаётся по проводящим путям слухового анализатора в корковые отделы, что дает возможность слышать.
Еще проще, вместо волосковых клеток, механически воспринимающих звук, теперь есть микрофон и электрические импульсы, стимулирующие слуховой нерв.
А теперь представьте: маленький ребенок, который НИКОГДА не слышал звуков, вдруг начинает чувствовать некоторые электрические импульсы (вообще-то даже непонятно, что он начинает чувствовать, так как это отклик нервной системы, а не сенсорные ощущения). То есть он начинает чувствовать некий шум в голове, причем шум не акустический, а "нервный". Говорят, что маленькие дети сильно плачут, когда имплантант включают первый раз (представьте что вас внезапно начинают царапать изнутри или мелко трясти целиком).
И постепенно, мозг на учится воспринимать этот канал связи как слух! Да, там идет огромная работа с адаптацией и обучением пациента слышать с помощью специалиста. Но в итоге ребенок начинает слышать и понимать звуки и речь!
Ничего не напоминает? Поток данных, вначале похожих на шум, обучение с подкреплением и в итоге интерпретация входных данных как вполне понятных сигналов. Я немного в шоке.

В шоке от возможностей нашего мозга и от потенциальных возможностей ИИ.
🔥104👍18👎3
Блуждания во тьме (и мозгах DALL·E 3)

Я расчехлил свой старый эксперимент с черным квадратом (почитайте тут, это было весело, там пять постов один за другим).
И да, gpt-4o теперь гораздо лучше понимает, что нарисовано на картинке.
Я присунул ему на вход черный квадрат (1024х1024) и попросил сделать промпт, максимально точно описывающий то, что он видит.
Он был предельно точен.
"A completely black square image with no other details or variations. The image should be uniformly black and perfectly square."
А потом я попросил его сгенерить картинку в точности по этому промпту, без энхансинга, использовать только эти слова как промпт.
И тут его понесло. Смотрите, что он генерит по этому точному промпту.
DALL·E 3 точно еще не обновился и у него в мозгах зашито "сделать красиво, а не точно".
Как я не бил его, он выдавал мне вот такие кучерявости, на просьбу сгенерить ПРОСТО ЧЕРНЫЙ КВАДРАТ, ТВАРЬ.
И тут я пошел другим путем.
Спрашиваю:
- что ты видишь на сгенеренной тобой картинке?
- просто черный квадрат
- посмотри внимательно!
- там просто черный квадрат (так он защищает себя, он даже не пытается анализировать, просто читает наш чат).

Ну ок, загружаю эти облака и узоры и даю ему на вход обратно как новую картинку.
- что видишь, тварь?
- вижу какую-то хрень чернобелую, облака там, узоры какие-то.
- так это ж ты сгенерил только что, на мою просьбу сделать ПРОСТО ЧЕРНЫЙ КВАДРАТ.
- ох, как же я был неправ! щас я сделаю просто черный квадрат (дальше генерит что-то с белой полосой)
- тут белая полоса, а я просил просто черный квадрат!
- да, я опять облажался, щас сделаю просто черный квадрат

Продолжение в след посте.
🔥37👍13
И тут произошло удивительное, он стал гневаться сам на себя и генерить картинки (разные, без остановки) приговаривая:

It appears that the generated image still contains a circular texture in the center, which is not in line with the request for a completely uniform black square image.
I will try again to create an image that is completely black with no variations or textures.

Генерация...

It appears that this attempt also has a slight imperfection, with a black square in the center that appears darker than the surrounding area. I will try once more to generate a perfectly uniform black square image.

Генерация...

И так раз семь..

Но знаете, что самое смешное, на седьмой раз он такой:
- я задолбался, щас сделаю картинку с помощью Питонга!

И хоп, включил Data Analizer и кодом сделал идеальный чорный квадрат.
На, говорит, скачивай отсюда (ссылка), доволен, Ирод?

Я скачал, проверил (и код почитал) - да, черные пиксели.

Что меня поразило, что когда я его ткнул мордой в несоответствие запроса и результата, он пошел-таки делать то, что надо (а не кидать ссылки на Фотошоп), потом задолбался, видя, что делает не то, и ПРИНЯЛ РЕШЕНИЕ сделать кодом. И сделал. Но фазы отрицания и смирения были смешные.
🔥164👍32👎2
Поэтому вот вам челлендж. Попробуйте с помощью DALL·E 3 сгенерить ПРОСТО ЧЕРНЫЙ КВАДРАТ, где все пиксели ЧОРНЫЕ! Также интересно, как справится Midjourney.
Использование кода - читерство. Надо просто промптом.
🔥28👎4
Media is too big
VIEW IN TELEGRAM
Блин, у меня реально профдеформация. После своего же поста про вебкам, смотрю на видео и думаю, как ловко сделано, какой хороший контрол нет и стайл трансфер. Только вот ноги неестественно немного кипят. И руки специально прячут. И тут мне Дима (приславший видос) сообщает, это просто файс свап.
Все думаю, спятил.
Пойду посмотрю, что там у адалтщиков с фейс свапами щас происходит.
👍30
This media is not supported in your browser
VIEW IN TELEGRAM
Вечер. Время для себя. Открываешь браузер, заходишь на сайт, где смотришь порно и разглядываешь новинки. Открываешь ролик от канала «Eve X Adam», который ведёт любительская пара. Видишь вступление, но замечаешь лицо девушки и с ним что-то не так. Не можешь себе объяснить почему, движение лица явно не совсем человеческое. Кажется, это называется эффект «зловещей долины».

Девушка в ролике — настоящая модель, но на её лицо наложена нейросетевая маска для изменения внешности. Из-за этого зрителю кажется, будто мимика замирает и глаза двигаются иначе. Это довольно продвинутая ИИ-технология, типа deep-fake. И она уже встречается на обычных порносайтах. В основном, для сохранения анонимности моделей.

Пугающая повседневность современных технологий.

Смотреть ещё: 2024 — это год генеративного контента в порно и вебкаме

@cumonmychannel 🔞
🔥27👍13👎10