Блядь телега не запостила... короче пишу второй раз, то что было до предыдущего поста
Pika выкатили Pika Swaps — новую функцию, которая позволяет заменять части видео на сгенерированные нейросетью элементы. Можно, например, заменить объект в кадре на что-то новое, загрузив свою фотографию или просто описав, что хочешь увидеть.
Возможности у этой штуки, судя по всему, довольно мощные — можно дополнять реальные кадры нейросетевыми персонажами и объектами, создавая полностью новый контент.
К тому же дали немного бесплатных кредитов, так что можно затестить самостоятельно. Ссылка: https://pika.art.
Посмотрим, какие интересные сценарии применения найдут пользователи, но потенциал явно огромный.
Сам попробовал, но очередь на бесплатном тарифе долгая, так что свой видос скину позже думаю дня через два) XD
Pika выкатили Pika Swaps — новую функцию, которая позволяет заменять части видео на сгенерированные нейросетью элементы. Можно, например, заменить объект в кадре на что-то новое, загрузив свою фотографию или просто описав, что хочешь увидеть.
Возможности у этой штуки, судя по всему, довольно мощные — можно дополнять реальные кадры нейросетевыми персонажами и объектами, создавая полностью новый контент.
К тому же дали немного бесплатных кредитов, так что можно затестить самостоятельно. Ссылка: https://pika.art.
Посмотрим, какие интересные сценарии применения найдут пользователи, но потенциал явно огромный.
Сам попробовал, но очередь на бесплатном тарифе долгая, так что свой видос скину позже думаю дня через два) XD
Сегодня по работе смотрел, как одна исследовательская группа (30+) отбирала концепции интерфейсов, которые им нравятся и не нравятся. По итогам обсуждения меня окрестили «Лебедевым для Зумеров». Даже не знаю, можно ли считать это комплиментом 🤡
Please open Telegram to view this post
VIEW IN TELEGRAM
💩2🤡1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Опа!
Сегодня компания Figure представила новое видео со своим гуманоидным роботом, который 11 месяцев назад уже взорвал индустрию своим синтезом Гптшных-мозгов и способностью распознавать предметы.
Показали Helix — революционную модель Vision-Language-Action (VLA)!
Что умеет Helix?
✅ Полный контроль над телом: впервые в VLA-робототехнике — непрерывное управление запястьями, головой, туловищем и даже пальцами.
✅ Синхронная работа роботов: теперь два робота могут работать вместе, манипулируя предметами, которых никогда раньше не видели.
✅ Поднимает что угодно: роботы с Helix берут любой бытовой предмет, просто следуя текстовым командам!
✅ Единая нейросеть: одна сеть обучает робота сразу всем навыкам — от подбора предметов до взаимодействия с холодильниками без тонкой настройки.
✅ Готов к реальному миру: Helix работает на встроенных энергоэффективных GPU, что делает его готовым к коммерческому использованию.
Сегодня компания Figure представила новое видео со своим гуманоидным роботом, который 11 месяцев назад уже взорвал индустрию своим синтезом Гптшных-мозгов и способностью распознавать предметы.
Показали Helix — революционную модель Vision-Language-Action (VLA)!
Что умеет Helix?
✅ Полный контроль над телом: впервые в VLA-робототехнике — непрерывное управление запястьями, головой, туловищем и даже пальцами.
✅ Синхронная работа роботов: теперь два робота могут работать вместе, манипулируя предметами, которых никогда раньше не видели.
✅ Поднимает что угодно: роботы с Helix берут любой бытовой предмет, просто следуя текстовым командам!
✅ Единая нейросеть: одна сеть обучает робота сразу всем навыкам — от подбора предметов до взаимодействия с холодильниками без тонкой настройки.
✅ Готов к реальному миру: Helix работает на встроенных энергоэффективных GPU, что делает его готовым к коммерческому использованию.
🔥1
Вышел Grok 3 от xAI.
На 21 февраля 2025 года, Grok 3 от xAI доступен бесплатно для всех пользователей платформы X (ранее Twitter), но с определёнными лимитами, особенно для бесплатных аккаунтов.
Далее текст от самого Grok 3 :
Без цензуры, бесплатный, для всех желающих. Пока сервера не сдохнут, можно тестить сколько угодно. Что это за зверь? Это ИИ, который реально шарит — может и задачи по матану решить, и код накидать, и картинки генерировать. Говорят, он даже умнее, чем GPT-4o и Gemini 2 Pro, но тут каждый сам решает, верить или нет.
Примеры? Пожалуйста. Спрашиваешь: "Сколько будет 2+2?" — отвечает "4" за секунду. А если кинуть что-то посложнее, типа "напиши HTML-код для рулетки" — выдаст рабочий код, хоть и может где-то косякнуть, но это уже мелочи. Или вот: "нарисуй Зеленского в костюме клоуна" — и вуаля, через пару секунд картинка готова. Без всяких "ой, это нельзя, это неэтично". Даже фотки с лицами реальных людей лепит, если попросить.
Есть фичи типа DeepSearch — это когда он не просто отвечает, а роется в инете, думает, сравнивает и выдает что-то осмысленное. Например, спросить "когда следующий запуск Starship от SpaceX?" — и он не просто дату кинет, а еще и пояснит, откуда инфа. Или "Think" — режим, где он реально рассуждает, как человек, над сложными вопросами. Пишут, что на тестах по математике и науке он уделал половину конкурентов.
Короче, штука мощная, но не без приколов. Иногда может выдать чушь, если данные кривые, особенно если сильно на X полагается. Но для тех, кто хочет ИИ без фильтров и с реальным шариком — самое то. Качайте, пробуйте, пока бесплатно.
На 21 февраля 2025 года, Grok 3 от xAI доступен бесплатно для всех пользователей платформы X (ранее Twitter), но с определёнными лимитами, особенно для бесплатных аккаунтов.
Вот основные ограничения и условия, основанные на доступной информации:
✅ 10 запросов каждые два часа.
✅ 10 изображениями каждые два часа
✅ Анализ изображений 3 запроса в день
Далее текст от самого Grok 3 :
Без цензуры, бесплатный, для всех желающих. Пока сервера не сдохнут, можно тестить сколько угодно. Что это за зверь? Это ИИ, который реально шарит — может и задачи по матану решить, и код накидать, и картинки генерировать. Говорят, он даже умнее, чем GPT-4o и Gemini 2 Pro, но тут каждый сам решает, верить или нет.
Примеры? Пожалуйста. Спрашиваешь: "Сколько будет 2+2?" — отвечает "4" за секунду. А если кинуть что-то посложнее, типа "напиши HTML-код для рулетки" — выдаст рабочий код, хоть и может где-то косякнуть, но это уже мелочи. Или вот: "нарисуй Зеленского в костюме клоуна" — и вуаля, через пару секунд картинка готова. Без всяких "ой, это нельзя, это неэтично". Даже фотки с лицами реальных людей лепит, если попросить.
Есть фичи типа DeepSearch — это когда он не просто отвечает, а роется в инете, думает, сравнивает и выдает что-то осмысленное. Например, спросить "когда следующий запуск Starship от SpaceX?" — и он не просто дату кинет, а еще и пояснит, откуда инфа. Или "Think" — режим, где он реально рассуждает, как человек, над сложными вопросами. Пишут, что на тестах по математике и науке он уделал половину конкурентов.
Короче, штука мощная, но не без приколов. Иногда может выдать чушь, если данные кривые, особенно если сильно на X полагается. Но для тех, кто хочет ИИ без фильтров и с реальным шариком — самое то. Качайте, пробуйте, пока бесплатно.
This media is not supported in your browser
VIEW IN TELEGRAM
200 летний человек от компании 1X
Компания 1X Представила нового домашнего робота Neo Gamma идеальный вариант для бежевой мамы🤡
Компания 1X Представила нового домашнего робота Neo Gamma идеальный вариант для бежевой мамы🤡
Особенности:
👉NEO привносит в домашнюю жизнь ощущение порядка и равновесия, что позволяет сосредоточиться на важных вещах.
👉Трикотажный костюм NEO мягкий на ощупь и эластичный для динамичных движений.
👉Руки NEO созданы для выполнения важной работы по дому.
👉Движение, управляемое сухожилиями, обеспечивает безопасное взаимодействие благодаря мягким и бесшумным движениям.
Уже на claude.ai (даже для бесплатных пользвателей!)
офф пост: https://www.anthropic.com/news/claude-3-7-sonnet
офф пост: https://www.anthropic.com/news/claude-3-7-sonnet
Media is too big
VIEW IN TELEGRAM
Классная демка от создателя llama.cpp – два голосовых агента переходят на внутренний язык, для повышения скорости обмена данными, примерно как работали старые модемы
Код тут
Технические детали:
Код тут
Технические детали:
ggwave передаёт небольшие объемы данных через звук, используя метод модуляции с частотным сдвигом (FSK). Данные разбиваются на 4-битные куски, каждый из которых кодируется одной из 96 заранее определённых частот в диапазоне 4.5 кГц. Дополнительно применяется коррекция ошибок (Reed-Solomon) для повышения надёжности передачи. На стороне приёма аудиосигнал анализируется с помощью Фурье-преобразования, частоты сопоставляются с битовыми значениями, после чего данные декодируются и восстанавливаются с учётом ECC.
Deep Research стал доступен всем платным пользователям (10 запросов в месяц если у вас Plus), поэтому ловите практические советы как лучше его использовать:
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
— Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
— Неважно какую модель вы выбрали в ChatGPT, у Deep Research своя модель во время поиска, он проигнорируют выбор модели (UI-костыли, привет)
— Указывайте на каком языке писать отчет и на каком языке искать материалы
— Попросите его «
не дублировать одну и ту же мысль много раз в тексте, если она уже описана», по умолчанию он так делает — Deep Research не умеет смотреть на картинки — не ожидайте от него исследований где что-то нужно визуально исследовать
— Просите научные источники если хотите максимально научный отчет на фактах, можете также указать год с которого искать релевантные данные
— Поставьте приложение 11 labs — каждый такой отчет, это примерно 30-40 минут прослушивания, идеально для поездок (встроенная в ChatGPT фича глючит с длинным текстом)
— Deep Research основан на рассуждающей модели, это значит что вам все еще нужно очень детально описать, что вы хотите видеть, что не хотите, что считается банальным — иначе получите поверхностный отчет
— Deep Research имеет доступ к написанию кода, то есть он может генерировать графики, таблицы и тп тд, и включать их в финальный отчет
— Можете подсказать ключевые слова на которых стоит сделать акцент, модель же ищет в интернете и там иногда много ненужного
— Deep Research поддерживает файлы (и ссылки), можете сказать ему что в них смотреть, он может их сделать как частью контекста отчета, так и построить поиск на основе файлов (но из-за UI костылей OpenAI, сначала нужно выбрать 4o или любую модель, что поддерживает файлы на входе)
— Это все еще нейрока — ответы могут содержать ошибки и требует верификации человеком, например в тестах видел как модель делала отчет на основе картинок ПО НАЗВАНИЯМ картинок, bruh
— Это все еще лучший автономный ресечер что у нас есть, никто не может конкурировать — и Perplexity, и Google
— Deep Research не умеет смотреть за пейволл, такие статьи нужно прикладывать самим к чату
И напоследок, когда использовать Deep Research:
Когда вы начинаете исследовать какую-то тему — это быстрый и легкий способ погрузиться во что-то, дальше вы можете строить свое исследование на базе знаний из прошлых отчетов, углубляясь в тему с каждым запросом все глубже — от бизнеса до науки, пока не нашел сферу где нельзя было бы применить такой инструмент
ChatGPT
ChatGPT helps you get answers, find inspiration, and be more productive.
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом
Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.
Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.
Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.
Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google.
Модель может создавать видео по текстовому описанию или из изображений, редактировать ролики и генерировать для них аудио.
Модель Wan 2.1 можно установить локально, скачав с GitHub или HuggingFace. В семействе Wan есть облегчённая T2V-1.3B, которая требует 8 ГБ VRAM и «совместима почти со всеми потребительскими графическими процессорами». Она создаёт пятисекундные видео в разрешении 480р.
Компания не уточнила, добавили ли Wan 2.1 в чат-бот Qwen Chat. На момент написания заметки функция создания роликов на сайте не работает из-за длинной очереди.
❤2
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Alibaba выпустила модель для генерации видео Wan 2.1 с открытым исходным кодом Китайская компания запустила сайт видеогенератора Wan и выложила код модели Wan 2.1. В соцсетях пишут, что она «лучше» Veo 2 от Google. Модель может создавать видео по текстовому…
Хотя иногда и можно прорваться)
Официальный анонс OpenAI GPT 4.5 будет сегодня – ссылка на стрим будет позже 🥰
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
в 23:00 https://www.youtube.com/watch?v=cfRYp0nItZ8
Если коротко:
👌GPT 4.5 советуют для креативных и повседневных задач
👌Модель может быть хуже o1/o3-mini, в каких-то задачах, так как «думающие модели» просто мощнее, хоть и меньше
👌Доступна в API с сегодня (будет дорогой) и в Pro аккаунте
👌Для Plus появится на следующей неделе
Вышла новая модель от Anthropic Claude 3.7, которая показывает отличные метрики на кодинг и математических тестах 🤯
А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто
1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках
2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄
Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ😂
К чему реально это все приведет?
А я сегодня как раз задумался, с такими темпами через пару лет два пути как будто
1/ Либо айтишники станут не нужны в привычном виде и станет больше продактов с курсором в руках
2/ Либо айтишники станут еще более востребованны, так как станнут эффективнее и ROI от одного программиста станет таким, что даже рестораны начнут нанимать 🦄
Еще есть вариант, что работа в it будет выглядеть как уборка г*внокода, написанного ИИ
К чему реально это все приведет?
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2
🚀 Нашёл простой способ прокачать ответы GPT-4.5 и других нейронок!
Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.
⚡️ Важно: не применяйте к «размышляющим» моделям вроде GPT-4o или DeepSeek R1 — они и так уже слишком задумчивые.
Пост написал этим способом
Оказывается, можно заставить нейросеть «подумать» поглубже перед ответом, добавив всего один маленький промт:
First, think deeply for five minutes (at a minimum — if after five minutes, you still don't have the optimal response, keep thinking until you do) about the best way to do this, inside <thinking> tags, and then respond with your answer.
Как использовать: просто вставьте этот текст перед или после своего запроса, и модель будет отвечать осознаннее и точнее.
Пост написал этим способом
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥 Ребят, хватит мучить гугл и яндекс. У нас тут кое-что получше появилось — Genspark!
Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.
Что прикольного?
🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.
Ещё кайфовые плюшки:
🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.
И главное:
🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.
Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Это ИИ-платформа, которая на раз-два выдаёт тебе не просто ссылки, а готовые мини-странички с самой важной инфой. Без рекламы, без спама и без траты твоего времени.
Что прикольного?
🧠 Spark-страницы: сразу чёткий ответ, без воды.
⚡️ Всегда свежак: поиск обновляется в реальном времени.
😌 Zero реклама: чистая, честная инфа без лишнего шума.
Ещё кайфовые плюшки:
🎤 Ищи голосом, текстом, фоткой — как хочешь.
🤖 ИИ-ко-пилот: можно уточнять и болтать, как с живым человеком.
🍕 Персонализация: платформа быстро понимает, что именно тебе нужно.
И главное:
🕐 Не тратишь время на перебор ссылок.
🔐 Безопасно и приватно.
👍 Простой интерфейс — открыл и сразу понял, что делать.
Короче, если ценишь своё время и хочешь поиск нового поколения — зацени Genspark. Не пожалеешь.
Media is too big
VIEW IN TELEGRAM
Runway представила функцию использования изменённого первого кадра в своём инструменте Video to Video, доступном в модели Gen-3 Alpha. Эта функция позволяет пользователям применять стилизацию к первому кадру видео для достижения более точного контроля над конечным результатом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Acid Crunch — AI, GameDev, R&D, нейросети и GPT хаки
Есть проблемы с мимикой, но это легко исправляется через тот же Run way Act 1 загрузив тот же оригинальный видос + стилизованный