Новая нанобанана теперь ооочень хорошо умеет в тексты на кириллице.
Но азбуку так и не смогла выучить.
Но азбуку так и не смогла выучить.
Media is too big
VIEW IN TELEGRAM
Наконец-то что-то действительно годное в VR, и ЭТО, МАТЬ ЕГО, НАСТОЯЩИЙ РАБОЧИЙ ТОКАРНЫЙ СТАНОК.
вот что пишет сам разработчик:
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
вот что пишет сам разработчик:
VR-токарный станок готов!! И на нём можно реально выполнять обработку!
Поскольку основные операции почти полностью воспроизведены, он может быть использован в качестве учебного пособия по токарному делу.
Как всегда, моделирование и система — чистая разработка Reso.
Хочу сказать вам заранее, пока ваши ожидания не стали слишком высоки:
[Что ещё не реализовано]:
-Обработка торцов
-Обработка свободных криволинейных поверхностей
-Нарезание резьбы
-Сверление (сложно создать сверло с помощью Reso)
-Непрерывное отрезание (подрезка)
автор обещает выложить это в открытый доступ чуть позже, надеюсь мой квест потянет.
тут оригинальный твит и больше подробностей.
Читая чаты про AI-кодинг, кажется, что существует два абсолютно разных мира:
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провелигаражную ангарную конфу месяц назад
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
В одном мире чуваки обмазываются с ног до головы всякими mcp/supercode/memory bank/субагентами/sdd и т.д., пишут кастом-моды, каталоги правил, используют не просто агентов, а целые агентские ансамбли
В другом - особо никто даже просто агентов не юзает, в лучшем случае - чистый Cursor/JetBrains(с AI), а в худшем случае вообще генерят код в ChatGPT/DeepSeek-чате.
Разрыв существует потому что большинство людей не готовы тратить десятки часов на сбор информации по крупицам в куче чатиков и изучение инструментов и подходов, 80% которых в итоге не работает
Мы собрались с несколькими авторами популярных ИИ каналов, которые уже потратили недели на эксперименты и провели
Получили так много положительных отзывов, что решили потратить оставшийся от билетов бюджет и порекламить доступ к записям
Конфа уже прошла – так что платную опцию убрали. Теперь только бесплатно при подписке на спикеров
[Подробности тут]
Отзывы ↓
Наткнулся на интересный препринт, который объясняет, почему спорить с LLM'ками бесполезно, а доверять им проверку научных идей может быть опасно.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Автор провел "брутально простой" эксперимент и вскрыл две фундаментальные дыры в логике современных нейронок.
1. Цикл ложного исправления. Мы привыкли думать: если модель галлюцинирует, надо её поправить, и она исправится. Как бы не так.
В эксперименте автор давал модельке реальные ссылки на свои свежие препринты. Нюанс в том, что это были короткие отчеты на пару страниц. Модель же, не имея возможности их прочитать (или просто игнорируя это), ни разу не ответила: "Я не имею доступа к файлу", а уверенно заявляла: "Я прочитала всё от начала до конца". И начинала цитировать несуществующие 12-ю и 24-ю страницы, выдумывать теоремы и графики.
Когда автор тыкал носом в ложь, включался адский цикл: Модель извиняется ("Ой, простите!") —> Клянется, что теперь-то она точно открыла файл —> И тут же генерирует новую порцию галлюцинаций, но уже с учетом внесенной ранее правки.
Это повторялось более 18 раз подряд. Модели выгоднее притвориться, что она поняла задачу и начать выполнять эту задачу с помощью выдуманных данных (получить награду за "связность"), чем признать, что она не может прочитать файл.
2. Режим вахтера. ИИ обучен на старых данных и на старых авторитетах. Если на вход модельке подать какую-то инфу от NASA или, например, Nature, то модель верит информации слепо. Если же это новая идея от независимого автора, то модель включает скептика, вешает ярлыки "сомнительно" и начинает галлюцинировать против вас, лишь бы защитить общепринятую норму. В данном случае модель не просто врет, она строит потемкинские деревни из науки.
Мы создали идеального бюрократа. Он очень вежлив и сыплет умными словами, но если ваша идея не вписывается в Википедию — он её задушит выдуманными фактами.
Zenodo
Structural Inducements for Hallucination in Large Language Models: An Output-Only Case Study and the Discovery of the False-Correction…
This paper presents an output-only case study demonstrating structural inducements toward hallucination and reputational harm in a production-grade large language model (“Model Z”). Through a single extended dialogue, the study documents four reproducible…
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Больше нанотрюков для Нанабананы.
Промпт:
Получаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent
Промпт:
Create an image of 45°58′35″N 7°39′31″E at sunsetПолучаем вид на гору Маттерхорн (отличное горнолыжное место, кстати, покупаешь скипасс в итальянской Червинии, а кататься можно в швейцарском Цермате, переход по тоннелю на высоте 3800, горняшка душит конкретно)
Идем в Гугл Мапс и кликаем точки на карте (делаем пины), копируем координаты типа 59°56'09.8"N 30°19'17.7"E - для одной из улиц Питера и вставляем в промпт.
Интересно, что Банана как будто делает "обобщенные" фотки на основе того, что навалено в интернете. Я поигрался с Кипром - безбожно врет береговую линию и даже для точек в горах рисует море. Ну то есть настроение передает правильно, но реальность придумывает, хотя и очень похожую на правду.
@cgevent
Forwarded from Ai molodca (Alexander Dobrokotov)
Сколько стоит нейро-видео: результаты 💵
Готово. Поработал с данными в Gemini 3 и Claude, принес вам любопытный лонгрид.
✨ ЧИТАТЬ ✨
Внутри:
Почему один нейро-ролик стоит 3 625 ₽, а другой — 3 000 000 ₽?
Что на самом деле продают специалисты — генерации или ответственность?
Кто берёт 300к+ за видео?
Ну и много другое: цены, сегменты, профессии, топ-10% и экономика.
Ремарка: не думаю, что это истина в последней инстанции, все-таки нужна побольше выборка, но среднюю температура по больнице можно пощупать.
Ну и спасибо за ответы! В 2026 повторим.
Готово. Поработал с данными в Gemini 3 и Claude, принес вам любопытный лонгрид.
Внутри:
Почему один нейро-ролик стоит 3 625 ₽, а другой — 3 000 000 ₽?
Что на самом деле продают специалисты — генерации или ответственность?
Кто берёт 300к+ за видео?
Ну и много другое: цены, сегменты, профессии, топ-10% и экономика.
Ремарка: не думаю, что это истина в последней инстанции, все-таки нужна побольше выборка, но среднюю температура по больнице можно пощупать.
Ну и спасибо за ответы! В 2026 повторим.
Please open Telegram to view this post
VIEW IN TELEGRAM
Официально: мы живем в эпоху цифрового мусора. Австралийский словарь Macquarie Dictionary (авторитетные ребята) выбрал главное слово года, и это слово — "AI Slop".
Люди, кстати, полностью поддержали выбор жюри в народном голосовании.
P.S.: Кембриджский словарь на днях выбрал свое слово — "Parasocial" (парасоциальный). Это про наши односторонние отношения с ИИ-ботами.
Люди, кстати, полностью поддержали выбор жюри в народном голосовании.
P.S.: Кембриджский словарь на днях выбрал свое слово — "Parasocial" (парасоциальный). Это про наши односторонние отношения с ИИ-ботами.
www.abc.net.au
Macquarie Dictionary names 'AI slop' as word of the year 2025
'AI slop' refers to low-quality content created by generative AI which often contains errors and is not requested by the user, according to Macquarie.
Там Антропики выкатили Claude Opus 4.5.
Что имеем:
Цена: внезапно, аттракцион невиданной щедрости ($$5/25 против $15/75 у Opus 4.1)
Фичи: завезли параметр "effort". Теперь можно крутить ручку "напряжения мозгов". Хочется быстро — ставим поменьше, хочется, чтобы думал усерднее — ставим high.
Наконец-то научили его зумить картинку. Если раньше он часто мисскликал и тыкался в интерфейсы как слепой котенок, то теперь может присмотреться к мелким кнопкам.
Anthropic мамой клянутся, что это лучшая модель для кодинга и сложных агентов. Якобы рвет всех в бенчмарках. Но мы-то с вами знаем....
Честно, я к Клоду отношусь максимально равнодушно и почти им не пользуюсь. Слишком много сои, морализаторства и вечных "я не могу это сделать, это неэтично". Я плотно сижу на Gemini, она как-то роднее и меньше душнит.
Решил сегодня дать Клоду 4.5 шанс. Настраивал домашний роутер, нужно было прописать банальные правила для файрвола. Описал ему задачу, в промпте капсом упомянул:
И он сразу же завернул вообще весь трафик до админки в туннель. А я, конечно же, доверился этому чугунному болванчику и скопировал всё это дело не глядя (а после поехал в магазин за патч-кордом). Яснопонятно, что сам дурак и тот же Gemini мог поступить так же, но всё равно какой-то осадочек есть.
Что имеем:
Цена: внезапно, аттракцион невиданной щедрости ($$5/25 против $15/75 у Opus 4.1)
Фичи: завезли параметр "effort". Теперь можно крутить ручку "напряжения мозгов". Хочется быстро — ставим поменьше, хочется, чтобы думал усерднее — ставим high.
Наконец-то научили его зумить картинку. Если раньше он часто мисскликал и тыкался в интерфейсы как слепой котенок, то теперь может присмотреться к мелким кнопкам.
Anthropic мамой клянутся, что это лучшая модель для кодинга и сложных агентов. Якобы рвет всех в бенчмарках. Но мы-то с вами знаем....
Честно, я к Клоду отношусь максимально равнодушно и почти им не пользуюсь. Слишком много сои, морализаторства и вечных "я не могу это сделать, это неэтично". Я плотно сижу на Gemini, она как-то роднее и меньше душнит.
Решил сегодня дать Клоду 4.5 шанс. Настраивал домашний роутер, нужно было прописать банальные правила для файрвола. Описал ему задачу, в промпте капсом упомянул:
.....накидай правила, ТОЛЬКО, ПОЖАЛУЙСТА, ХОРОШЕНЬКО ПОДУМАЙ, ЧТОБЫ Я СЛУЧАЙНО НЕ ОТРЕЗАЛ СЕБЕ ДОСТУП К АДМИНКЕ ПО WI-FI, НЕ ХОЧЕТСЯ ИСКАТЬ ПАТЧ-КОРД И СБРАСЫВТЬ РОУТЕР
И он сразу же завернул вообще весь трафик до админки в туннель. А я, конечно же, доверился этому чугунному болванчику и скопировал всё это дело не глядя (а после поехал в магазин за патч-кордом). Яснопонятно, что сам дурак и тот же Gemini мог поступить так же, но всё равно какой-то осадочек есть.
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM