Forwarded from Милитарист
ChatGPT официально достиг человеческого уровня интеллекта.
После того, как ему дали 10 тыс. долларов и отправили торговать криптовалютами, он проиграл 42 сделки из 44, потеряв 7200 долл. за неделю. Но ИИ не собирается сдаваться и продолжает сливать деньги в надежде выйти в плюс.
После того, как ему дали 10 тыс. долларов и отправили торговать криптовалютами, он проиграл 42 сделки из 44, потеряв 7200 долл. за неделю. Но ИИ не собирается сдаваться и продолжает сливать деньги в надежде выйти в плюс.
🤣16😁11
This media is not supported in your browser
VIEW IN TELEGRAM
С помощью нейросетей можно оживить фотографию из семейного архива, заново прожить воспоминания или поиграться с любимыми мемами.
Собрали семь инструментов, которые помогут превратить статичные кадры в анимацию или полноценный ролик с озвучкой
vc.ru/ai/2311063
Собрали семь инструментов, которые помогут превратить статичные кадры в анимацию или полноценный ролик с озвучкой
vc.ru/ai/2311063
❤5
Forwarded from Not Boring Tech
This media is not supported in your browser
VIEW IN TELEGRAM
📜 Datalab выпустили лучшую OCR-модель — Chandra максимально точно извлекает всё содержимое из любых изображений и PDF-документов.
• Превращает фотки и файлы в структурированные форматы HTML, Markdown и JSON.
• Сохраняет макет и отлично вытаскивает таблицы, формулы, диаграммы и даже рукописный текст.
• Поддерживает более 40 языков.
• Возглавляет все независимые бенчмарки, обгоняя DeepSeek OCR, Mistral OCR и других конкурентов.
• Модель Chandra доступна как локально, так и удалённо.
GitHub — здесь, а бесплатная демка — тут.
@notboring_tech
• Превращает фотки и файлы в структурированные форматы HTML, Markdown и JSON.
• Сохраняет макет и отлично вытаскивает таблицы, формулы, диаграммы и даже рукописный текст.
• Поддерживает более 40 языков.
• Возглавляет все независимые бенчмарки, обгоняя DeepSeek OCR, Mistral OCR и других конкурентов.
• Модель Chandra доступна как локально, так и удалённо.
GitHub — здесь, а бесплатная демка — тут.
@notboring_tech
❤8👍3🔥1
Forwarded from Малоизвестное интересное
Даже лев с мозгами ИИ не выжил бы в реальном мире
До робота-кошки – далеко. А пока ИИ останутся умными, но бесплотными “духами”
Новое исследование "Benchmarking World-Model Learning" сравнило людей и топ-модели ИИ в задачах «сначала свободно изучи мир, потом реши новую родственную задачу». Итог прост: люди несравнимо лучше строят модель мира – они целенаправленно экспериментируют, гибко пересматривают гипотезы и переносят знания. Модели же часто «застревают» в первой догадке. Главная причина – у них нет врождённых приоров и социальной стаевой педагогики.
N.B. Приоры (Priors) – это прошитые ожидания о том, как устроены объекты, причины и последствия; у животных это результат эволюции и детского опыта. У ИИ такие ожидания в основном статистические и книжные – они плохо работают в живой, изменчивой среде.
На сегодняшнем уровне технологий у нас нет волшебной кнопки, которая сразу даст инстинкты, безопасное исследование, долговременную память и поведенческие нормы стаи.
Но есть реалистичная дорожная карта. Она включает:
• Объектные и причинные приоры (видеть мир как набор устойчивых вещей и причинно-следственных связей).
• Внутренние мировые модели с планированием (умение «прокручивать» будущие сценарии в уме).
• Популяционное обучение с эмерджентной коммуникацией и ToM-сигналами – задачами/наградами за точное моделирование убеждений и намерений других (Theory of Mind).
• Нормативную надстройку вроде RLHF/«конституции», задающую социальные запреты и предпочтения.
Так почему же мы ещё не там?
Поэтому в обозримом будущем ИИ останутся очень умными, но по сути бесплотными «духами». И до робота-кошки, сопоставимого с настоящей (мечта, близкая к цели Яна ЛеКуна), нам ещё действительно далеко.
P.S. Роботов конечно будет всё больше и больше – но без врождённых приоров и безопасной онлайновой учёбы это будут в основном хорошо дрессированные исполнители в контролируемых декорациях, а не “кошки”, которые учатся жить в мире, а не только в сценариях.
#ВоплощенныйИнтеллект #LLM
До робота-кошки – далеко. А пока ИИ останутся умными, но бесплотными “духами”
Новое исследование "Benchmarking World-Model Learning" сравнило людей и топ-модели ИИ в задачах «сначала свободно изучи мир, потом реши новую родственную задачу». Итог прост: люди несравнимо лучше строят модель мира – они целенаправленно экспериментируют, гибко пересматривают гипотезы и переносят знания. Модели же часто «застревают» в первой догадке. Главная причина – у них нет врождённых приоров и социальной стаевой педагогики.
N.B. Приоры (Priors) – это прошитые ожидания о том, как устроены объекты, причины и последствия; у животных это результат эволюции и детского опыта. У ИИ такие ожидания в основном статистические и книжные – они плохо работают в живой, изменчивой среде.
Можно ли «вложить» это в ИИ одним трюком?
Увы, но ответ «нет».
На сегодняшнем уровне технологий у нас нет волшебной кнопки, которая сразу даст инстинкты, безопасное исследование, долговременную память и поведенческие нормы стаи.
Но есть реалистичная дорожная карта. Она включает:
• Объектные и причинные приоры (видеть мир как набор устойчивых вещей и причинно-следственных связей).
• Внутренние мировые модели с планированием (умение «прокручивать» будущие сценарии в уме).
• Популяционное обучение с эмерджентной коммуникацией и ToM-сигналами – задачами/наградами за точное моделирование убеждений и намерений других (Theory of Mind).
• Нормативную надстройку вроде RLHF/«конституции», задающую социальные запреты и предпочтения.
Так почему же мы ещё не там?
Да потому, что самое трудное – сшить всё вместе: онлайн-обновление убеждений без “забывания”, долговременную память, телесную сенсомоторику и безопасное обучение новому – аккуратно пробуя действия, заранее оценивая риск и останавливаясь до катастрофы.
Поэтому в обозримом будущем ИИ останутся очень умными, но по сути бесплотными «духами». И до робота-кошки, сопоставимого с настоящей (мечта, близкая к цели Яна ЛеКуна), нам ещё действительно далеко.
P.S. Роботов конечно будет всё больше и больше – но без врождённых приоров и безопасной онлайновой учёбы это будут в основном хорошо дрессированные исполнители в контролируемых декорациях, а не “кошки”, которые учатся жить в мире, а не только в сценариях.
#ВоплощенныйИнтеллект #LLM
❤3🤯1
Forwarded from FSCP
This media is not supported in your browser
VIEW IN TELEGRAM
БУДУЩЕЕ 3D-ПЕЧАТИ УЖЕ ЗДЕСЬ
https://www.youtube.com/watch?v=M5DV-ORlXZY
https://www.youtube.com/watch?v=M5DV-ORlXZY
👍5
Media is too big
VIEW IN TELEGRAM
Компания Shenzhen Yuejiang Technology начала продажи робособаки Rover X1. Она может носить вещи и следовать с камерой во время путешествий, а в обычное время — сторожить территорию и выполнять роль компаньона.
Робот стоит 7499 юаней, что несколько «ниже» средних цен робособак на китайском рынке
vc.ru/dev/2320029
Робот стоит 7499 юаней, что несколько «ниже» средних цен робособак на китайском рынке
vc.ru/dev/2320029
❤4😱1
Forwarded from эйай ньюз
GPT 5.1 — вайбы получше 🎧
С этим апдейтом видно большой упор на пользователей, которые остались на 4o из-за того что им не понравилась личность GPT-5 (их, внезапно, довольно много). Первым пунктом в блогпосте идёт то что модель более дружелюбная и что с ней приятнее общаться, при этом бенчмарков там нет совсем.
Кроме этого улучшили следование инструкциям (без цифр), а Instant модель теперь в любом случае будет думать над сложными вопросами. Thinking версию тоже причесали — теперь она тратит меньше компьюта на простые вопросы, а над сложными думает дольше.
Доступ уже раскатывают, начинают с платных пользователей. В API модель должна появится на неделе.
Графики с кайфовым скейлом по оси Y прилагаются, это уже стало визитной карточкой OpenAI.
@ai_newz
С этим апдейтом видно большой упор на пользователей, которые остались на 4o из-за того что им не понравилась личность GPT-5 (их, внезапно, довольно много). Первым пунктом в блогпосте идёт то что модель более дружелюбная и что с ней приятнее общаться, при этом бенчмарков там нет совсем.
Кроме этого улучшили следование инструкциям (без цифр), а Instant модель теперь в любом случае будет думать над сложными вопросами. Thinking версию тоже причесали — теперь она тратит меньше компьюта на простые вопросы, а над сложными думает дольше.
Доступ уже раскатывают, начинают с платных пользователей. В API модель должна появится на неделе.
Графики с кайфовым скейлом по оси Y прилагаются, это уже стало визитной карточкой OpenAI.
@ai_newz
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
Forwarded from e/acc
Любопытно.
2,5 года назад: подписка за $20 на GPT это прикольно, не обязательно
1,5 года назад: отменю GPT, куплю Claude; через месяц, с выходом новой модели, обратно
0,5 года назад: отменю Claude code за $200, куплю GPT Pro
сегодня: если у меня нет подписки на Gemini/NanoBanana, Claude Code и GPT Pro, то я не могу нормально функционировать в личной жизни и профессионально.
Продукты становятся незаменимы, а мы становится все больше киборгами.
2,5 года назад: подписка за $20 на GPT это прикольно, не обязательно
1,5 года назад: отменю GPT, куплю Claude; через месяц, с выходом новой модели, обратно
0,5 года назад: отменю Claude code за $200, куплю GPT Pro
сегодня: если у меня нет подписки на Gemini/NanoBanana, Claude Code и GPT Pro, то я не могу нормально функционировать в личной жизни и профессионально.
Продукты становятся незаменимы, а мы становится все больше киборгами.
👍7🤣1
Forwarded from Femida
Uno Reverse из мира индийского скама
Стандартная схема: индус-скамер написал парню с просьбой оплаты доставки каких-то вещей (чтобы потом украсть данные его карты).
Но парень оказался не из простых и, поняв что это развод, он обратился к ChatGPT и попросил написать фейковый «платёжный шлюз», замаскированный под сканер qr-кодов, который при включении камеры фотографировал бы зашедшего на сайт пользователя и отправлял его местоположение.
Он скинул эту ссылку скамеру и попросил «отсканировать QR для ускорения оплаты». Сразу после этого создателю сайта пришла геопозиция и фото горе-скамера.😆
Пикрелейтед.
Стандартная схема: индус-скамер написал парню с просьбой оплаты доставки каких-то вещей (чтобы потом украсть данные его карты).
Но парень оказался не из простых и, поняв что это развод, он обратился к ChatGPT и попросил написать фейковый «платёжный шлюз», замаскированный под сканер qr-кодов, который при включении камеры фотографировал бы зашедшего на сайт пользователя и отправлял его местоположение.
Он скинул эту ссылку скамеру и попросил «отсканировать QR для ускорения оплаты». Сразу после этого создателю сайта пришла геопозиция и фото горе-скамера.
Пикрелейтед.
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍2
This media is not supported in your browser
VIEW IN TELEGRAM
Google добавила в Gemini генератор веб-приложений Opal. Он помогает вайб-кодить внутри чат-бота, давая схему с готовыми шагами.
Также Opal доступен бесплатно на отдельном сайте, где есть визуальный конструктор
vc.ru/ai/2656482
Также Opal доступен бесплатно на отдельном сайте, где есть визуальный конструктор
vc.ru/ai/2656482
❤5
Forwarded from e/acc
Любопытный график сегодня скинули. Полтора года назад Сергей Брин вернулся в Google, став де-факто СЕО направления ИИ в компании. Вот результат, когда СЕО-фаундер-инженер руководит компанией.
👍4🤪2🤝1
Forwarded from сбежавшая нейросеть
Media is too big
VIEW IN TELEGRAM
Google показывает, как мы будем общаться с ИИ в ближайшем будущем
Я много ругал Gemini 3 Pro в последних постах (например, в обзоре), настало время хвалить. Например, у модели совсем другой уровень работы с визуалом. Gemini 3 Pro хороша в бенчмарках на пространственное мышление и отлично понимает, что изображено на картинках, интерфейсах и видео.
Во многом благодаря этому Gemini 3 Pro хорошо кодит фронтенд. Да, пока не уровень дизайнерских студий, но модель создает вполне симпатичные интерфейсы, причем почти без косяков. Плюс Nano Banana Pro, хорошо рисующая картинки и инфографику.
И вот это все позволило Google начать экспериментировать с тем, как мы взаимодействуем с ИИ. Сейчас получается забавная ситуация: нейронки вроде как считаются одним из главных изобретений в истории человечества, а взаимодействуем мы с ними в основном, печатая буквы в чате, максимум – голосом.
Согласен, во многих ситуациях текст удобен – но полно и случаев, когда нужен визуал. Gemini уже давно умеет искать в интернете картинки и вставлять их в ответ, причем подбирая в тексте подходящее место, в отличие от того же ChatGPT, который просто ставит “карусель” из четырех изображений в самое начало. Уже это добавляет наглядности, но прямо сейчас Google раскатывает интерактивные изображения – вы видите, например, изображение человеческой клетки, а кликая на разные участки, получаете более подробные объяснения.
Развитие этой функции – динамический просмотр. У меня он доступен в Gemini App и в последние дни это одна из моих любимых игрушек. Веб-дизайн в Gemini 3 Pro дошел до уровня, когда модель на лету собирает сносно выглядящие и работающие сайты. В Google решили этим воспользоваться - в динамическом просмотре вы вводите промпт, можно даже самый простой, а модель за пару минут собирает для вас визуальный ответ. Пример смотрите в начале поста, попросил модель рассказать про Genie 3.
Также советую режим Build в AI Studio, тем более что он бесплатен. Вайб-кодинг у всех на слуху уже год, но долгое время это все равно была не самая понятная для рядового пользователя штука – да, модель писала код с одного запроса, но затем его нужно было где-то размещать, запускать, отлаживать.
В Build второй этап как раз убран: просто текстом пишем, что хотим получить, ИИ дает подсказки, как лучше сделать и что еще можно добавить. Затем кодит – и результат работы виден прямо в этом же интерфейсе. Далее можно вносить доработки и править баги, а когда результат вас устроит – опубликовать в Google Cloud Run.
Для более сложного вайб-кодинга Google сейчас тестирует приложение Antigravity, где пользователь ставит сразу нескольким ИИ задачи как агентам: один занимается планированием, другой пишет новую функцию и так далее. Еще есть Jules для программирования в связке с Github (аналог ChatGPT Codex и Claude Code), а для подписки Gemini готовится агент, который сам “ходит” по интернету, собирает информацию, а затем отдает вам или презентацию, или план покупок с возможностью сделать их прямо с помощью агента.
Аналогичный ChatGPT Agent пока не взлетел из-за того, что ИИ OpenAI медленно и неумело работают с интерфейсами, но это как раз область, где Gemini 3 Pro хорошо продвинулась. Так что Gemini Agent может оказаться более шустрым и сообразительным.
Пока проблема в том, что все эти функции раскиданы по разным интерфейсам, что-то доступно бесплатно, что-то на подписке, что-то – только для тестировщиков. Полагаю, у Google уйдет еще какое-то время, чтобы отобрать действительно работающие штуки, а затем свести их воедино.
Но это правильный путь – я убежден, что в будущем ИИ станет для нас чем-то вроде операционной системы. А вместо чата появится что-то вроде интерактивного пространства – умного рабочего стола, на котором нейронка будет выстраивать формат общения в зависимости от запроса пользователя и его предпочтений. Где-то это будет старый добрый текст, где-то – графика или видео, сгенерированные Nano Banana / Veo, а где-то, возможно, виртуальный аватар для общения.
Я много ругал Gemini 3 Pro в последних постах (например, в обзоре), настало время хвалить. Например, у модели совсем другой уровень работы с визуалом. Gemini 3 Pro хороша в бенчмарках на пространственное мышление и отлично понимает, что изображено на картинках, интерфейсах и видео.
Во многом благодаря этому Gemini 3 Pro хорошо кодит фронтенд. Да, пока не уровень дизайнерских студий, но модель создает вполне симпатичные интерфейсы, причем почти без косяков. Плюс Nano Banana Pro, хорошо рисующая картинки и инфографику.
И вот это все позволило Google начать экспериментировать с тем, как мы взаимодействуем с ИИ. Сейчас получается забавная ситуация: нейронки вроде как считаются одним из главных изобретений в истории человечества, а взаимодействуем мы с ними в основном, печатая буквы в чате, максимум – голосом.
Согласен, во многих ситуациях текст удобен – но полно и случаев, когда нужен визуал. Gemini уже давно умеет искать в интернете картинки и вставлять их в ответ, причем подбирая в тексте подходящее место, в отличие от того же ChatGPT, который просто ставит “карусель” из четырех изображений в самое начало. Уже это добавляет наглядности, но прямо сейчас Google раскатывает интерактивные изображения – вы видите, например, изображение человеческой клетки, а кликая на разные участки, получаете более подробные объяснения.
Развитие этой функции – динамический просмотр. У меня он доступен в Gemini App и в последние дни это одна из моих любимых игрушек. Веб-дизайн в Gemini 3 Pro дошел до уровня, когда модель на лету собирает сносно выглядящие и работающие сайты. В Google решили этим воспользоваться - в динамическом просмотре вы вводите промпт, можно даже самый простой, а модель за пару минут собирает для вас визуальный ответ. Пример смотрите в начале поста, попросил модель рассказать про Genie 3.
Также советую режим Build в AI Studio, тем более что он бесплатен. Вайб-кодинг у всех на слуху уже год, но долгое время это все равно была не самая понятная для рядового пользователя штука – да, модель писала код с одного запроса, но затем его нужно было где-то размещать, запускать, отлаживать.
В Build второй этап как раз убран: просто текстом пишем, что хотим получить, ИИ дает подсказки, как лучше сделать и что еще можно добавить. Затем кодит – и результат работы виден прямо в этом же интерфейсе. Далее можно вносить доработки и править баги, а когда результат вас устроит – опубликовать в Google Cloud Run.
Для более сложного вайб-кодинга Google сейчас тестирует приложение Antigravity, где пользователь ставит сразу нескольким ИИ задачи как агентам: один занимается планированием, другой пишет новую функцию и так далее. Еще есть Jules для программирования в связке с Github (аналог ChatGPT Codex и Claude Code), а для подписки Gemini готовится агент, который сам “ходит” по интернету, собирает информацию, а затем отдает вам или презентацию, или план покупок с возможностью сделать их прямо с помощью агента.
Аналогичный ChatGPT Agent пока не взлетел из-за того, что ИИ OpenAI медленно и неумело работают с интерфейсами, но это как раз область, где Gemini 3 Pro хорошо продвинулась. Так что Gemini Agent может оказаться более шустрым и сообразительным.
Пока проблема в том, что все эти функции раскиданы по разным интерфейсам, что-то доступно бесплатно, что-то на подписке, что-то – только для тестировщиков. Полагаю, у Google уйдет еще какое-то время, чтобы отобрать действительно работающие штуки, а затем свести их воедино.
Но это правильный путь – я убежден, что в будущем ИИ станет для нас чем-то вроде операционной системы. А вместо чата появится что-то вроде интерактивного пространства – умного рабочего стола, на котором нейронка будет выстраивать формат общения в зависимости от запроса пользователя и его предпочтений. Где-то это будет старый добрый текст, где-то – графика или видео, сгенерированные Nano Banana / Veo, а где-то, возможно, виртуальный аватар для общения.
❤4🔥3
Forwarded from Евгений Юрченко | Инвест–Гайд
🔥 Сегодня в 15:00 МСК — эфир с человеком, который живёт в ИИ
Позвал друга, который реально погружён в тему. Никакой воды — просто расскажет что знает, что использует, и накидает кучу рабочих лайфхаков.
Что обсудим:
🎯 Джентльменский набор AI-сервисов — что держать под рукой
✍️ Как задавать вопросы простым языком и получать топовые ответы
🔍 Как выбирать инструменты под задачу и качественно ресёрчить
🛡 Проверка на галлюцинации — чтобы ИИ не наврал
🎙 Удобный голосовой ввод для текстов и промптов
📋 Как вести учёт созвонов с командой и партнёрами через AI
📈 Внедрение ИИ в бизнес — что делать по шагам, чтобы был эффект
👥 Как сделать так, чтобы команда реально пользовалась
💰 Подписки на Perplexity Pro, Gemini, GPT — как получить почти бесплатно (скидка 98%)
🛠 Как собрать своего GPT-ассистента
⚡️ Как превращать идеи в работающий продукт: мастер-класс (если успеем!)
Формат — живой разговор с ответами на ваши вопросы.
15:00 МСК. Сегодня. Приходите.
Позвал друга, который реально погружён в тему. Никакой воды — просто расскажет что знает, что использует, и накидает кучу рабочих лайфхаков.
Что обсудим:
🎯 Джентльменский набор AI-сервисов — что держать под рукой
✍️ Как задавать вопросы простым языком и получать топовые ответы
🔍 Как выбирать инструменты под задачу и качественно ресёрчить
🛡 Проверка на галлюцинации — чтобы ИИ не наврал
🎙 Удобный голосовой ввод для текстов и промптов
📋 Как вести учёт созвонов с командой и партнёрами через AI
📈 Внедрение ИИ в бизнес — что делать по шагам, чтобы был эффект
👥 Как сделать так, чтобы команда реально пользовалась
💰 Подписки на Perplexity Pro, Gemini, GPT — как получить почти бесплатно (скидка 98%)
🛠 Как собрать своего GPT-ассистента
⚡️ Как превращать идеи в работающий продукт: мастер-класс (если успеем!)
Формат — живой разговор с ответами на ваши вопросы.
15:00 МСК. Сегодня. Приходите.
🔥6❤1👍1
Евгений Юрченко | Инвест–Гайд
🔥 Сегодня в 15:00 МСК — эфир с человеком, который живёт в ИИ Позвал друга, который реально погружён в тему. Никакой воды — просто расскажет что знает, что использует, и накидает кучу рабочих лайфхаков. Что обсудим: 🎯 Джентльменский набор AI-сервисов — что…
ссылка на эфир будет у меня в @chipda
Forwarded from Евгений Юрченко | Инвест–Гайд
Мы в эфире!!! 😧 😧 😧
https://youtube.com/live/ewZfLACSWGU
https://youtube.com/live/ewZfLACSWGU
https://youtube.com/live/ewZfLACSWGU
Тема: эффективные способы прокачать ежедневную рутину с помощью ИИ
https://youtube.com/live/ewZfLACSWGU
https://youtube.com/live/ewZfLACSWGU
https://youtube.com/live/ewZfLACSWGU
Тема: эффективные способы прокачать ежедневную рутину с помощью ИИ
Please open Telegram to view this post
VIEW IN TELEGRAM
Youtube
- YouTube
Enjoy the videos and music you love, upload original content, and share it all with friends, family, and the world on YouTube.
🔥2
Forwarded from Евгений Юрченко | Инвест–Гайд
Типичный выпускник воркшопа Человек 2.0 😂
Места ещё есть. Начинаем через 4 дня. http://evgyur.pro/human20
Места ещё есть. Начинаем через 4 дня. http://evgyur.pro/human20
❤2
Forwarded from Amigo | Crash Brief
Какие задачи хотите решить с помощью ИИ агентов/вайбкода/OpenClaw?
Anonymous Poll
40%
Личное/хобби
39%
Бизнес процессы для себя
11%
Бизнес процессы для других
4%
Стартап
7%
Другое