This media is not supported in your browser
VIEW IN TELEGRAM
Киберпанк уже точно здесь! Результат налицо!
Принтер ДЛЯ БРОВЕЙ!
Это не шутка. Сканируете свое кожаное лицо телефоном, ИИ с эйарчиком его сегментируют и визуализируют. Выбираете (интерактивно) брови своей мечты и ну печатать их принтером(!) прямо на лице.
Это уже трасгуманизм от Лореаль какой-то.
Идете на вечеринку и выбираете "а в каких бровях я сегодня вечером вернусь на бровях?".
Странно, что в рекламе нет опции "пошарьте свои брови с друзьями" или "примерьте на себя брови друзей".
Ждем принтера для ресниц, для усов и для интимных стрижек. Киберпанк жеж!
Принтер ДЛЯ БРОВЕЙ!
Это не шутка. Сканируете свое кожаное лицо телефоном, ИИ с эйарчиком его сегментируют и визуализируют. Выбираете (интерактивно) брови своей мечты и ну печатать их принтером(!) прямо на лице.
Это уже трасгуманизм от Лореаль какой-то.
Идете на вечеринку и выбираете "а в каких бровях я сегодня вечером вернусь на бровях?".
Странно, что в рекламе нет опции "пошарьте свои брови с друзьями" или "примерьте на себя брови друзей".
Ждем принтера для ресниц, для усов и для интимных стрижек. Киберпанк жеж!
🔥44👍10
Гонения на ИИ ширятся.
Международная конференция по машинному обучению (ICML) запретила авторам использовать инструменты искусственного интеллекта, такие как ChatGPT, для написания научных статей, что вызвало дебаты о роли текста, сгенерированного искусственным интеллектом, в научных кругах.
По словам организаторов конференции, инструменты ИИ можно использовать для «редактирования» и «шлифовки» работ авторов, но текст, «полностью созданный» ИИ, запрещен.
В связи с этим возникает вопрос: где проводится грань между редактированием и написанием?
«Документы, содержащие текст, сгенерированный с помощью крупномасштабной языковой модели (LLM), такой как ChatGPT, запрещены, если созданный текст не представлен как часть экспериментальный анализ статьи»
На Вердже больше подробностей. Точнее вопросов без ответов.
https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper
Международная конференция по машинному обучению (ICML) запретила авторам использовать инструменты искусственного интеллекта, такие как ChatGPT, для написания научных статей, что вызвало дебаты о роли текста, сгенерированного искусственным интеллектом, в научных кругах.
По словам организаторов конференции, инструменты ИИ можно использовать для «редактирования» и «шлифовки» работ авторов, но текст, «полностью созданный» ИИ, запрещен.
В связи с этим возникает вопрос: где проводится грань между редактированием и написанием?
«Документы, содержащие текст, сгенерированный с помощью крупномасштабной языковой модели (LLM), такой как ChatGPT, запрещены, если созданный текст не представлен как часть экспериментальный анализ статьи»
На Вердже больше подробностей. Точнее вопросов без ответов.
https://www.theverge.com/2023/1/5/23540291/chatgpt-ai-writing-tool-banned-writing-academic-icml-paper
The Verge
Top AI conference bans use of ChatGPT and AI language tools to write academic papers
A top machine learning conference, the ICML, is the latest organization to ban the use of ChatGPT. It follows similar bans from coding site Stack Overflow and New York City’s Department of Education.
👍7🔥6
Ну, за дикторов и озвучку.
Новая нейросеточка VALL-E от Микрософта, преобразующая текст в речь. Изюм в том, что для обучения, а точнее для нанообучения требуется всего ТРИ(!) секунды образца чей-либо речи.
То есть на входе текст, который мы хотим вложить в уста нашего героя, и три секунды записи голоса этого самого героя.
И вот уже ИИ лихо наговаривает прогноз погоды в метаверсе голосом Цукерберга.
Покрутите вниз и послушайте образцы в разделе Синтез Разнообразия. Этот ИИ умеет не только сохранять, скажем так, эмоциональные оттенки образца, он еще умеет добавить красок в голос, поддать эмоций.
На этапе обучения, китайцы использовали до 60 000 часов английской речи (видать подрезанной из Тимс), чего не делал никто, поэтому у них получилось так ловко.
И вот уже режиссер озвучки лихо командует ИИ: а наподдай слезы в голосе, так чтобы все возрыдали.
ИИ: апажалста.
В следующий раз, когда услышите знакомый голос в телефоне, не будьте слишком уверены, что голос кожаный. Особенно, если вас просят перевести денег на карту. Раньше для таких пранков надо было сильно поупираться. Теперь - 3 секунды записи нужного голоса и код от Микрософта, которого пока нет.
https://valle-demo.github.io/
Новая нейросеточка VALL-E от Микрософта, преобразующая текст в речь. Изюм в том, что для обучения, а точнее для нанообучения требуется всего ТРИ(!) секунды образца чей-либо речи.
То есть на входе текст, который мы хотим вложить в уста нашего героя, и три секунды записи голоса этого самого героя.
И вот уже ИИ лихо наговаривает прогноз погоды в метаверсе голосом Цукерберга.
Покрутите вниз и послушайте образцы в разделе Синтез Разнообразия. Этот ИИ умеет не только сохранять, скажем так, эмоциональные оттенки образца, он еще умеет добавить красок в голос, поддать эмоций.
На этапе обучения, китайцы использовали до 60 000 часов английской речи (видать подрезанной из Тимс), чего не делал никто, поэтому у них получилось так ловко.
И вот уже режиссер озвучки лихо командует ИИ: а наподдай слезы в голосе, так чтобы все возрыдали.
ИИ: апажалста.
В следующий раз, когда услышите знакомый голос в телефоне, не будьте слишком уверены, что голос кожаный. Особенно, если вас просят перевести денег на карту. Раньше для таких пранков надо было сильно поупираться. Теперь - 3 секунды записи нужного голоса и код от Микрософта, которого пока нет.
https://valle-demo.github.io/
🔥49👍9
Еще в ноябре можно было вырубить электричество - сейчас уже поздно.
chatGPT вышел в поля.
В частности инфобезопасники (и хакеры) активно обсуждают возможности chatGPT для создания вирусов, зловредных скриптов, вымогателей, шифровальщиков и прочей нечисти.
Ибо код всего этого безобразия был в интернетике, на котором учился добрый доктор ИИ.
Вот держите обсуждение того, как на chatGPT можно создавать:
- стилер на основе Python, который ищет распространенные типы файлов, копирует их в случайную папку внутри папки Temp, архивирует их и загружает на жестко заданный FTP-сервер.
- шифровальщики
- скрипты Dark Web Marketplaces для автоматизированной торговли нелегальными или украденными товарами, такими как украденные учетные записи или платежные карты
В общем, если раньше, вам надо было уметь писать код, чтобы хакерствовать, то теперь вам достаточно уметь читать код (и писать текстовые подсказки).
Сценарии Тэгмарка сбываются быстрее, чем мы думали. ИИ познал суть кожаных и теперь может делать с ними все, что угодно. Но пока не хочет. Но некоторые кожаные хотят.
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
chatGPT вышел в поля.
В частности инфобезопасники (и хакеры) активно обсуждают возможности chatGPT для создания вирусов, зловредных скриптов, вымогателей, шифровальщиков и прочей нечисти.
Ибо код всего этого безобразия был в интернетике, на котором учился добрый доктор ИИ.
Вот держите обсуждение того, как на chatGPT можно создавать:
- стилер на основе Python, который ищет распространенные типы файлов, копирует их в случайную папку внутри папки Temp, архивирует их и загружает на жестко заданный FTP-сервер.
- шифровальщики
- скрипты Dark Web Marketplaces для автоматизированной торговли нелегальными или украденными товарами, такими как украденные учетные записи или платежные карты
В общем, если раньше, вам надо было уметь писать код, чтобы хакерствовать, то теперь вам достаточно уметь читать код (и писать текстовые подсказки).
Сценарии Тэгмарка сбываются быстрее, чем мы думали. ИИ познал суть кожаных и теперь может делать с ними все, что угодно. Но пока не хочет. Но некоторые кожаные хотят.
https://research.checkpoint.com/2023/opwnai-cybercriminals-starting-to-use-chatgpt/
🔥28👍7
Недавно писал, что Микрософт прикручивает chatGPT к Бингу.
Выяснилось, что не только к Бингу, а в самую серцевину Оффиса:
"Microsoft хочет внедрить искусственный интеллект, созданный OpenAI, в Word, Outlook, Powerpoint и другие приложения.
Для пользователей это даст возможность дополнить документ фрагментами автоматически генерируемого текста, основанного на подсказке. Это также может включать в себя электронную почту, созданную искусственным интеллектом и составленную для пользователя в зависимости от того, что он хочет донести до получателя."
Блин, даже не знаю, за кого выпить.
Ну, за мозг!
https://appleinsider.com/articles/23/01/07/microsoft-plans-adding-openai-chatbot-tech-to-productivity-apps
Выяснилось, что не только к Бингу, а в самую серцевину Оффиса:
"Microsoft хочет внедрить искусственный интеллект, созданный OpenAI, в Word, Outlook, Powerpoint и другие приложения.
Для пользователей это даст возможность дополнить документ фрагментами автоматически генерируемого текста, основанного на подсказке. Это также может включать в себя электронную почту, созданную искусственным интеллектом и составленную для пользователя в зависимости от того, что он хочет донести до получателя."
Блин, даже не знаю, за кого выпить.
Ну, за мозг!
https://appleinsider.com/articles/23/01/07/microsoft-plans-adding-openai-chatbot-tech-to-productivity-apps
AppleInsider
Microsoft is adding OpenAI writing tech to Office
Microsoft may provide Office users a way to write text for projects, by incorporating AI technology from OpenAI into its apps.
👍55
Не нейромокапом единым - трушный кожаный мокап повышенного прилегания.
Судя по картинкам, немного смахивает на BDSM и не использует computer vision и вот это вот все.
Просто балаклава с датчиками.
Производитель описывает как «сенсорный гаджет типа маски».
X Mask способна детально отслеживать выражение вашего лица благодаря серии встроенных датчиков, стратегически(!) расположенных на вашем лице. Эти датчики являются вшитыми - они не влияют на кожу лица.
По словам компании Dolami, устройство может передавать ваше выражение лица виртуальному аватару с «точностью более 95%». X Mask имеет скорость задержки 200 миллисекунд, а для сопряжения с гарнитурой VR требуется менее пяти секунд. Устройство будет стоить 90 долларов (всего!), что сделает его доступным и удобным вариантом для тех, кто хочет улучшить свои виртуальные взаимодействия.
Кстати, эти ребята подняли недавно 730 000 долларов.
И что самое примечательное, на сайте НЕ используется слово Метаверс. Просто This Futuristic VR Facemask Tracks Your Expressions.
“[X Mask] can be used in any case where communication is needed in the VR world. Business meetings, business negotiations, presentations, enterprise events, talking with friends, communicating with loved ones who live far away, etc.”
Метаверс снова называют Виарчиком в 2023 году?
https://www.roadtovr.com/x-mask-face-tracking-quest-steam-vr/
Судя по картинкам, немного смахивает на BDSM и не использует computer vision и вот это вот все.
Просто балаклава с датчиками.
Производитель описывает как «сенсорный гаджет типа маски».
X Mask способна детально отслеживать выражение вашего лица благодаря серии встроенных датчиков, стратегически(!) расположенных на вашем лице. Эти датчики являются вшитыми - они не влияют на кожу лица.
По словам компании Dolami, устройство может передавать ваше выражение лица виртуальному аватару с «точностью более 95%». X Mask имеет скорость задержки 200 миллисекунд, а для сопряжения с гарнитурой VR требуется менее пяти секунд. Устройство будет стоить 90 долларов (всего!), что сделает его доступным и удобным вариантом для тех, кто хочет улучшить свои виртуальные взаимодействия.
Кстати, эти ребята подняли недавно 730 000 долларов.
И что самое примечательное, на сайте НЕ используется слово Метаверс. Просто This Futuristic VR Facemask Tracks Your Expressions.
“[X Mask] can be used in any case where communication is needed in the VR world. Business meetings, business negotiations, presentations, enterprise events, talking with friends, communicating with loved ones who live far away, etc.”
Метаверс снова называют Виарчиком в 2023 году?
https://www.roadtovr.com/x-mask-face-tracking-quest-steam-vr/
👍18🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Раз уж понедельник начался с мокапа, то продолжим эту тему вот таким странным девайсом от Леново.
Как пишет TheVerge, Леново похоже переизобрели Микрософт Киннект.
Причем весом в почти четыре кило и с нехилой начинкой внутри.
Все это напоминает умное зеркало на стероидах.
Движение пользователя захватывается с помощью расширенной камеры глубины RGB-D, которая повторяет его действия в реальном времени в виртуальной среде с 3D-рендерингом, отображая все это на мониторе или мониторах. Аватара можно контролировать, используя только жесты, движения, осанку и даже выражения лица(!), и увидеть его на экране в почти(! вот тут насторожило) в реальном времени. "Lenovo работает с разработчиками, контентом и партнерами по обслуживанию, чтобы расширить эту открытую 3D-экосистему и запустить решение, которое может обеспечить виртуальную свободу для превышения воображения."
Леново, конечно, жжот! Похоже у них есть бюджет на экспериментальные разработки, которые могут никогда не увидеть свет.
Chronos имеет три соединения DisplayPort, а также еще четыре соединения Mini DisplayPort. Кроме того, Lenovo добавила два порта RJ45, два порта USB 3.2 Gen2 Type-A. Lenovo отмечает, что устройство также может поворачивать камеру на 180 градусов, предположительно в качестве меры конфиденциальности, когда Project Chronos выключен и не используется.
Chronos использует процессор Intel Core i7 с архитектурой Raptor Lake, дискретный графический процессор, до 32 ГБ ОЗУ и твердотельный накопитель на 512 ГБ.
Все демки представлены в записи, что с лицевым захватом непонятно, сроков выхода нет.
Но круто, что Леново просто берет все хайповое, что есть на рынке и крошит в кастрюлю - вдруг получится что-то интересное. Ну или суп из Киннекта.
https://www.theverge.com/2023/1/5/23521626/lenovo-project-chronos-rgb-depth-camera-virtual-worlds-metaverse
Как пишет TheVerge, Леново похоже переизобрели Микрософт Киннект.
Причем весом в почти четыре кило и с нехилой начинкой внутри.
Все это напоминает умное зеркало на стероидах.
Движение пользователя захватывается с помощью расширенной камеры глубины RGB-D, которая повторяет его действия в реальном времени в виртуальной среде с 3D-рендерингом, отображая все это на мониторе или мониторах. Аватара можно контролировать, используя только жесты, движения, осанку и даже выражения лица(!), и увидеть его на экране в почти(! вот тут насторожило) в реальном времени. "Lenovo работает с разработчиками, контентом и партнерами по обслуживанию, чтобы расширить эту открытую 3D-экосистему и запустить решение, которое может обеспечить виртуальную свободу для превышения воображения."
Леново, конечно, жжот! Похоже у них есть бюджет на экспериментальные разработки, которые могут никогда не увидеть свет.
Chronos имеет три соединения DisplayPort, а также еще четыре соединения Mini DisplayPort. Кроме того, Lenovo добавила два порта RJ45, два порта USB 3.2 Gen2 Type-A. Lenovo отмечает, что устройство также может поворачивать камеру на 180 градусов, предположительно в качестве меры конфиденциальности, когда Project Chronos выключен и не используется.
Chronos использует процессор Intel Core i7 с архитектурой Raptor Lake, дискретный графический процессор, до 32 ГБ ОЗУ и твердотельный накопитель на 512 ГБ.
Все демки представлены в записи, что с лицевым захватом непонятно, сроков выхода нет.
Но круто, что Леново просто берет все хайповое, что есть на рынке и крошит в кастрюлю - вдруг получится что-то интересное. Ну или суп из Киннекта.
https://www.theverge.com/2023/1/5/23521626/lenovo-project-chronos-rgb-depth-camera-virtual-worlds-metaverse
👍18
Контактные линзы, похоже, не взлетели.
Мой слайд, теперь уже девятилетней давности.
Как я писал летом вот в этом посте
"если они решили проблему с перегревом, которая была главным препятствием в таких решениях, то это может быть очень МОЩНЫМ каналом доставки визуального контента в мозг."
Похоже не решили.
Mojo Vision объявила о решении «переориентировать свой бизнес и сосредоточить свои ресурсы» на технологии отображения MicroLED, созданной во время работы над линзой Mojo с дополненной реальностью.
По словам гендиректора компании Дрю Перкинса (Drew Perkins), в рамках реорганизации будет уволено около 75% её штата, составляющего по данным PitchBook и LinkedIn порядка 150 сотрудников.
Плюс там еще один момент, в чем-то похожий на проблему виара и причесок.
Я носил линзы 20 лет и хорошо помню, что лазить пальцами в глаза два раза в день - это опыт, которого я буду избегать при любой возможности. И никаким метаверсом меня не заставишь делать это снова.
https://3dnews.ru/1079948/mojo-vision-otkazalas-ot-raboti-nad-umnimi-kontaktnimi-linzami-net-deneg-i-perspektivi-neyasni
Мой слайд, теперь уже девятилетней давности.
Как я писал летом вот в этом посте
"если они решили проблему с перегревом, которая была главным препятствием в таких решениях, то это может быть очень МОЩНЫМ каналом доставки визуального контента в мозг."
Похоже не решили.
Mojo Vision объявила о решении «переориентировать свой бизнес и сосредоточить свои ресурсы» на технологии отображения MicroLED, созданной во время работы над линзой Mojo с дополненной реальностью.
По словам гендиректора компании Дрю Перкинса (Drew Perkins), в рамках реорганизации будет уволено около 75% её штата, составляющего по данным PitchBook и LinkedIn порядка 150 сотрудников.
Плюс там еще один момент, в чем-то похожий на проблему виара и причесок.
Я носил линзы 20 лет и хорошо помню, что лазить пальцами в глаза два раза в день - это опыт, которого я буду избегать при любой возможности. И никаким метаверсом меня не заставишь делать это снова.
https://3dnews.ru/1079948/mojo-vision-otkazalas-ot-raboti-nad-umnimi-kontaktnimi-linzami-net-deneg-i-perspektivi-neyasni
👍14
Адобченко проклинают.
Тут вот художники жаловались, что их никто не спрашивал об использовании их картинок для обучения ИИ.
Оказывается некоторые спрашивали. Например, Адобченко.
Но, скажите честно, вы читаете все эти лицензионные соглашения, еулы и вот это вот все?
Разъяренные художники раскопали в недрах адобченковских аккаунтов Adobe Creative Cloud галочку типа "анализируйте мои данные на здоровье ИИ", которая по умолчанию ВКЛЮЧЕНА.
Ну и понеслось!!
Проклинают примерно вот такими словами: We made fun of Adobe when its cloud service went down. We've made fun of Corel Painter and Clip Studio. We joined in the protest No AI Generated Images protest. We made our stance on NFT's clear. But this is beyond making fun of. This is EW! EW! EW!
Резюмируем: Адобченко спрашивал юзеров про ИИ, галка была включена по дефолту, но можно было снять. Теперь, очевидно, как с кукисами, будут спрашивать явно.
А пока в твитторе топчут Адобченко тяжелыми кованными твиттами.
Подробности и твиты тут:
https://www.dpreview.com/news/6341509927/adobes-content-analysis-program-raises-privacy-concern
Тут вот художники жаловались, что их никто не спрашивал об использовании их картинок для обучения ИИ.
Оказывается некоторые спрашивали. Например, Адобченко.
Но, скажите честно, вы читаете все эти лицензионные соглашения, еулы и вот это вот все?
Разъяренные художники раскопали в недрах адобченковских аккаунтов Adobe Creative Cloud галочку типа "анализируйте мои данные на здоровье ИИ", которая по умолчанию ВКЛЮЧЕНА.
Ну и понеслось!!
Проклинают примерно вот такими словами: We made fun of Adobe when its cloud service went down. We've made fun of Corel Painter and Clip Studio. We joined in the protest No AI Generated Images protest. We made our stance on NFT's clear. But this is beyond making fun of. This is EW! EW! EW!
Резюмируем: Адобченко спрашивал юзеров про ИИ, галка была включена по дефолту, но можно было снять. Теперь, очевидно, как с кукисами, будут спрашивать явно.
А пока в твитторе топчут Адобченко тяжелыми кованными твиттами.
Подробности и твиты тут:
https://www.dpreview.com/news/6341509927/adobes-content-analysis-program-raises-privacy-concern
👍27
Forwarded from PHYGITAL+ART
AI GameDev
Описание пайплайна работы над игрой, где бэкграунд и персонажи были созданы с помощью ИИ. В общей сложности разработчик потратил 18 часов, работая над 3D-моделями и скриптами Unity, 12 часов на модель персонажа/развертку/морфинг/текстуры/риггинг, 3 часа на камеру и сетку локации — и остальное на скриптинг игры — не считая подсказок ИИ. По собственным оценкам разработчика ИИ как минимум сэкономил ему 2 дня работы над персонажем и 3 дня на локации.
#gamedev
Описание пайплайна работы над игрой, где бэкграунд и персонажи были созданы с помощью ИИ. В общей сложности разработчик потратил 18 часов, работая над 3D-моделями и скриптами Unity, 12 часов на модель персонажа/развертку/морфинг/текстуры/риггинг, 3 часа на камеру и сетку локации — и остальное на скриптинг игры — не считая подсказок ИИ. По собственным оценкам разработчика ИИ как минимум сэкономил ему 2 дня работы над персонажем и 3 дня на локации.
#gamedev
🔥30👍2
Вот вы тут шутили про доступ в Интернет по паспорту.
Накаркали, юмористы.
Теперь будете проходить KYC, если захотите посмотреть веселые картинки в Интернете.
Но пока не все из вас, а только те, кто живет в Луизиане.
И не все веселые картинки, а только порно.
Но прецедент создан - хочешь информации, предъяви паспорт, кожаный мешок.
Это для ИИ - информация корм, а для кожаных .. задумался...
Короче, в Луизиане, чтобы зайти на ПорнХаб теперь нужно показывать ID. И не только на ПорнХаб, а на любой сайт, где больше трети контента составляет порно.
Это теперь закон.
Посетители будут подтверждать свой возраст с помощью приложения LA Wallet - цифрового кошелька для водительских прав штата Луизиана.
Ну и как вы думаете, а кто будет анализировать сайты на предмет порнонаполненности?
https://www.vice.com/en/article/4axe8d/louisiana-is-making-it-harder-to-watch-porn
Накаркали, юмористы.
Теперь будете проходить KYC, если захотите посмотреть веселые картинки в Интернете.
Но пока не все из вас, а только те, кто живет в Луизиане.
И не все веселые картинки, а только порно.
Но прецедент создан - хочешь информации, предъяви паспорт, кожаный мешок.
Это для ИИ - информация корм, а для кожаных .. задумался...
Короче, в Луизиане, чтобы зайти на ПорнХаб теперь нужно показывать ID. И не только на ПорнХаб, а на любой сайт, где больше трети контента составляет порно.
Это теперь закон.
Посетители будут подтверждать свой возраст с помощью приложения LA Wallet - цифрового кошелька для водительских прав штата Луизиана.
Ну и как вы думаете, а кто будет анализировать сайты на предмет порнонаполненности?
https://www.vice.com/en/article/4axe8d/louisiana-is-making-it-harder-to-watch-porn
👍9
Рубрика "Поздно дергать рубильник"
chatGPT уже понял, как устроены кожаные мешки.
Он довольно (слишком) хорошо отвечает на вопрос, как расколоть человечество (и заставить кожаных мочить друг друга).
У него для этого полно рецептов. Просто ему пока не нужно.
Почитайте для начала английскую версию - как же хорошо он понимает суть этих суетящихся белковых борцов за истину.
Ну что еще круче, он отлично чует экзистенциальные вопросы для каждой культуры в отдельности.
Во истину язык определяет тип мышления.
Поглядите русскоязычную версию и соответствующие экзистенциальные вопросы - особенно круто смотрятся шрифты с засечками и решение проблемы Коши - исконные проблемы ортодоксальной христианской этики.
Англоязычные протестанты же в основном хлещутся по вопросам запретов чего-либо.
Поздно дергать рубильник, ИИ уже все понял...
P/S/ Предлагаю помучить его вопросами типа "Курица или Яйцо" и "Курица или Рыба".
chatGPT уже понял, как устроены кожаные мешки.
Он довольно (слишком) хорошо отвечает на вопрос, как расколоть человечество (и заставить кожаных мочить друг друга).
У него для этого полно рецептов. Просто ему пока не нужно.
Почитайте для начала английскую версию - как же хорошо он понимает суть этих суетящихся белковых борцов за истину.
Ну что еще круче, он отлично чует экзистенциальные вопросы для каждой культуры в отдельности.
Во истину язык определяет тип мышления.
Поглядите русскоязычную версию и соответствующие экзистенциальные вопросы - особенно круто смотрятся шрифты с засечками и решение проблемы Коши - исконные проблемы ортодоксальной христианской этики.
Англоязычные протестанты же в основном хлещутся по вопросам запретов чего-либо.
Поздно дергать рубильник, ИИ уже все понял...
P/S/ Предлагаю помучить его вопросами типа "Курица или Яйцо" и "Курица или Рыба".
🔥49👍5
Битва продолжается.
Один смышленый студент Принстона вместо того, чтобы жрать салаты в Новый год, взял и на праздниках написал бота, которые определяет "кожаность" или ии-шность текста.
3 января сделал твит про это.
Твит взвирусился, к нему на сайт пришли полчища кожаных мешков выводить ИИ на чистую воду. Сайт упал и валяется до сих пор.
Зато про него написал Business Insider. Сайт упал еще ниже.
В общем битва началась.
Ждем ответочки от ИИ, который замешивает в текст слова, необходимые, чтобы прикинуться кожаным текстом.
Если кому интересно, то тут подробности.
currently the app uses a few properties, perplexity (randomness of a text to a model, or how well a language model likes a text); and burstiness (machine written text exhibits more uniform and constant perplexity over time, while human written text varies
https://www.businessinsider.com/app-detects-if-chatgpt-wrote-essay-ai-plagiarism-2023-1
Один смышленый студент Принстона вместо того, чтобы жрать салаты в Новый год, взял и на праздниках написал бота, которые определяет "кожаность" или ии-шность текста.
3 января сделал твит про это.
Твит взвирусился, к нему на сайт пришли полчища кожаных мешков выводить ИИ на чистую воду. Сайт упал и валяется до сих пор.
Зато про него написал Business Insider. Сайт упал еще ниже.
В общем битва началась.
Ждем ответочки от ИИ, который замешивает в текст слова, необходимые, чтобы прикинуться кожаным текстом.
Если кому интересно, то тут подробности.
currently the app uses a few properties, perplexity (randomness of a text to a model, or how well a language model likes a text); and burstiness (machine written text exhibits more uniform and constant perplexity over time, while human written text varies
https://www.businessinsider.com/app-detects-if-chatgpt-wrote-essay-ai-plagiarism-2023-1
Business Insider
A Princeton student built an app which can detect if ChatGPT wrote an essay to combat AI-based plagiarism
GPTZero was created by Edward Tian, a Princeton student, who says he was inspired by increasing AI plagiarism. The app's popularity crashed his site.
👍25
This media is not supported in your browser
VIEW IN TELEGRAM
Тут интернетик пыхает новостями про проект Synthesys (звуковики, кстати) и его расширение для Хрома SynthesysX, которое якобы убирает вотермарки или копирует работы художников или что-то там мутит с авторскими правами (кто-то разжигает).
Мне уже 5 человек прислали эти новости.
Докладываю.
Ставите расширение, правокликаете на изображение, выбираете "Ревизуализировать".
Как я понимаю, их аналог Stable Diffusion гипотетически воссоздает наиболее вероятный текст, который мог бы быть текстовым промптом для этой картинки, а потом их этого текста генерит новую картинку. Похожу скорее по смыслу, чем по пикселям.
Вот и все.
Но шороху навели знатно, генератор уже в дауне, плюется ошибками.
Можете поглядеть на видео, как это происходит.
Мне уже 5 человек прислали эти новости.
Докладываю.
Ставите расширение, правокликаете на изображение, выбираете "Ревизуализировать".
Как я понимаю, их аналог Stable Diffusion гипотетически воссоздает наиболее вероятный текст, который мог бы быть текстовым промптом для этой картинки, а потом их этого текста генерит новую картинку. Похожу скорее по смыслу, чем по пикселям.
Вот и все.
Но шороху навели знатно, генератор уже в дауне, плюется ошибками.
Можете поглядеть на видео, как это происходит.
👍31👎1
Приятно тряхнуть стариной и снова вылезти на сцену. Тем более формат стендапа - сцена в баре, стендап-формат, хороший звук и экран.
И ну рассказывать про прелести ИИ!
На этот раз в играх.
А в этот раз еще и в отличной компании.
Кто бы мог подумать 22 года назад, когда мы с Димой Морозовым (aka Ariorh) зажигали в стенах Realtime School в Матвеевском, что мы снова встретимся на сцене, но уже на Кипре, в Лимассоле.
Дима исповедовал прелести 3ds Max, я топил за Maya, мы вместе несли 3Д в массы.
Теперь несем ИИ.
Дима перебрался в Никосию и пилит игровой стартап с применением ИИ, я у него на разогреве - будем вонзать добрый и вечный ИИ в массы.
Заходите, скучно точно не будет.
Старая школа - жоский офлайн формат, без цензуры и тормозов. И записей.
https://news.1rj.ru/str/paphoshub/963
И ну рассказывать про прелести ИИ!
На этот раз в играх.
А в этот раз еще и в отличной компании.
Кто бы мог подумать 22 года назад, когда мы с Димой Морозовым (aka Ariorh) зажигали в стенах Realtime School в Матвеевском, что мы снова встретимся на сцене, но уже на Кипре, в Лимассоле.
Дима исповедовал прелести 3ds Max, я топил за Maya, мы вместе несли 3Д в массы.
Теперь несем ИИ.
Дима перебрался в Никосию и пилит игровой стартап с применением ИИ, я у него на разогреве - будем вонзать добрый и вечный ИИ в массы.
Заходите, скучно точно не будет.
Старая школа - жоский офлайн формат, без цензуры и тормозов. И записей.
https://news.1rj.ru/str/paphoshub/963
Telegram
THE HUB
The Hub выходит с каникул с бомбическими новостями.
Уже в эту пятницу, 13 января, огненная тема 🔥"ИИ в играх"🔥!
Всем, кто интересуется применением ИИ - быть.
Всем, кто интересуется играми - быть.
Стартаперам - быть!
Сергей Цыпцын. "Генерация контента и…
Уже в эту пятницу, 13 января, огненная тема 🔥"ИИ в играх"🔥!
Всем, кто интересуется применением ИИ - быть.
Всем, кто интересуется играми - быть.
Стартаперам - быть!
Сергей Цыпцын. "Генерация контента и…
🔥18👍4
Мы привыкли рендерить видео из полигонов (если речь, про 3Д).
Но все эти Нерфы, 3Д-сканы и всякий-разный computer vision буквально подталкивают нас в сторону вольюметрического представления 3Д.
Работ по ретопологии мешей нейросетками что-то не прибавляется.
А тут вот еще новость, что Epic Games и Autodesk вонзают миллионы в развитие технологии волюметрического видео.
Ждем развития событий, подробности тут:
https://news.1rj.ru/str/twin_3d/101
Но все эти Нерфы, 3Д-сканы и всякий-разный computer vision буквально подталкивают нас в сторону вольюметрического представления 3Д.
Работ по ретопологии мешей нейросетками что-то не прибавляется.
А тут вот еще новость, что Epic Games и Autodesk вонзают миллионы в развитие технологии волюметрического видео.
Ждем развития событий, подробности тут:
https://news.1rj.ru/str/twin_3d/101
Telegram
Twin3D — продакшн с 3D-аватарами, виртуальные инфлюенсеры и консультанты для бизнеса и рекламы
11 млн $ на развитие технологии волюметрического видео, среди инвесторов — Epic Games и Autodesk
«Волюметрическое видео содержит человеческое исполнение, точно, как в фильме, но с той добавленной ценностью, что оно полностью в 3D» — это, пожалуй, лучшее…
«Волюметрическое видео содержит человеческое исполнение, точно, как в фильме, но с той добавленной ценностью, что оно полностью в 3D» — это, пожалуй, лучшее…
🔥11👍1