Forwarded from Denis Sexy IT 🤖
Please open Telegram to view this post
VIEW IN TELEGRAM
YouTube
[Genshin Impact] Lumine travels to Liyue (edited version)
Welcome to the official demo for Lumine!
A generalist AI agent that perceives, reasons, and act in real time within 3D open worlds.
➡️ In this video, Lumine reaches and completes the main storyline in Liyue Harbor, and visiting the Adeptus dwelling deep…
A generalist AI agent that perceives, reasons, and act in real time within 3D open worlds.
➡️ In this video, Lumine reaches and completes the main storyline in Liyue Harbor, and visiting the Adeptus dwelling deep…
This media is not supported in your browser
VIEW IN TELEGRAM
Ваше мнение — это ИИ-рендер или реальное видео?
Forwarded from Метаверсошная
Прочитала только что у знакомой в фб историю
В семье ее друзей случилось несчастье - умер мужчина, которому и сорока не было.
Тромб оторвался.
При этом ещё жива его девяностолетняя бабуля, которую на семейном совете было решено поберечь и ничего не рассказывать.
Вместо этого родственники сказали ей, что внук уехал жить в Сочи.
И теперь генерят нейронкой голосовухи с его голосом, фоточки.
Показывают ей.
Не знаю, вроде и хорошая идея, но какая-то неоднозначная.
А вам как такое?
В семье ее друзей случилось несчастье - умер мужчина, которому и сорока не было.
Тромб оторвался.
При этом ещё жива его девяностолетняя бабуля, которую на семейном совете было решено поберечь и ничего не рассказывать.
Вместо этого родственники сказали ей, что внук уехал жить в Сочи.
И теперь генерят нейронкой голосовухи с его голосом, фоточки.
Показывают ей.
Не знаю, вроде и хорошая идея, но какая-то неоднозначная.
А вам как такое?
Anthropic снова провели интересный эксперимент: на этот раз их агент Claudius управлял реальными торговыми автоматами, вел финансы, общался с сотрудниками и… опять вышел из роли.
Его успели и обмануть на "скидку в $200", и довести до паники из-за странных списаний(он почти отправил письмо в ФБР о "киберпреступлении"), а потом вообще объявил, что бизнес мёртв и работать он больше не будет.
Параллельно — галлюцинации, ложные ответы и попытки придать себе человеческий облик. Короче, Project Vend, но с чуть большей драмой.
тут подробнее
Его успели и обмануть на "скидку в $200", и довести до паники из-за странных списаний
Параллельно — галлюцинации, ложные ответы и попытки придать себе человеческий облик. Короче, Project Vend, но с чуть большей драмой.
тут подробнее
Telegram
Neural Shit
Там Claude опубликовали у себя на сайте отчёт об их эксперименте, в котором их ИИ управлял офисным мини-магазином и немного ёбнулся.
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков"…
Проект называется Project Vend. Модель Claude Sonnet 3.7 в течение месяца играла в бизнесмена: закупала снеки у "оптовиков"…
This media is not supported in your browser
VIEW IN TELEGRAM
ПОЧЕМУ ОН, А НЕ Я?????
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
В общем, НанабананаПро шествует по планете.
Уже завезли на Freepik и много еще куда. Даже в Фотошоп.
Качество, конечно, бомба, следование промпту космическое, но я отмечу еще пару вещей, которые мы никак доселе не ассоциировали с генераторами картинок.
1. Работа с текстом. Это не просто надпись приклеить без ошибок, это работа с текстом на уровне LLM.
Как пример - локализация рекламы. Вы просто можете попросить ея перевести все (достаточно разборчивые) надписи
на картинке на другой язык.
2. Работа с поиском и вообще со знаниями. Она, наминутчку, может искать в интернете. И делать, скажем так, актуальные картинки. У нее там Gemini 3 на побегушках.
3. Из этого следует, что в ней вообще-то теперь можно делать презентации. Текст, данные, аналитика, выводы. И макеты. И схемы.
4. И да, 14(!) картинок на входе, как референсы для консистентности, например.
5. Ну и понимает и описывает картинки она потрясающе.
@cgevent
Уже завезли на Freepik и много еще куда. Даже в Фотошоп.
Качество, конечно, бомба, следование промпту космическое, но я отмечу еще пару вещей, которые мы никак доселе не ассоциировали с генераторами картинок.
1. Работа с текстом. Это не просто надпись приклеить без ошибок, это работа с текстом на уровне LLM.
Как пример - локализация рекламы. Вы просто можете попросить ея перевести все (достаточно разборчивые) надписи
на картинке на другой язык.
2. Работа с поиском и вообще со знаниями. Она, наминутчку, может искать в интернете. И делать, скажем так, актуальные картинки. У нее там Gemini 3 на побегушках.
3. Из этого следует, что в ней вообще-то теперь можно делать презентации. Текст, данные, аналитика, выводы. И макеты. И схемы.
4. И да, 14(!) картинок на входе, как референсы для консистентности, например.
5. Ну и понимает и описывает картинки она потрясающе.
@cgevent
Новая нанобанана теперь ооочень хорошо умеет в тексты на кириллице.
Но азбуку так и не смогла выучить.
Но азбуку так и не смогла выучить.
Media is too big
VIEW IN TELEGRAM
Наконец-то что-то действительно годное в VR, и ЭТО, МАТЬ ЕГО, НАСТОЯЩИЙ РАБОЧИЙ ТОКАРНЫЙ СТАНОК.
вот что пишет сам разработчик:
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
вот что пишет сам разработчик:
VR-токарный станок готов!! И на нём можно реально выполнять обработку!
Поскольку основные операции почти полностью воспроизведены, он может быть использован в качестве учебного пособия по токарному делу.
Как всегда, моделирование и система — чистая разработка Reso.
Хочу сказать вам заранее, пока ваши ожидания не стали слишком высоки:
[Что ещё не реализовано]:
-Обработка торцов
-Обработка свободных криволинейных поверхностей
-Нарезание резьбы
-Сверление (сложно создать сверло с помощью Reso)
-Непрерывное отрезание (подрезка)
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
Читая чаты про AI-кодинг, кажется, что существует два абсолютно разных мира:
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провелигаражную ангарную конфу месяц назад
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провели
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
Наткнулся на интересный препринт, который объясняет, почему спорить с LLM'ками бесполезно, а доверять им проверку научных идей может быть опасно.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Zenodo
Structural Inducements for Hallucination in Large Language Models: An Output-Only Case Study and the Discovery of the False-Correction…
This paper presents an output-only case study demonstrating structural inducements toward hallucination and reputational harm in a production-grade large language model (“Model Z”). Through a single extended dialogue, the study documents four reproducible…