Новое поколение моделей от Runway уже доступно или будет доступно в течение дня. Пока только для платных пользователей :(
В этом релизе ранвей делает упор на стабильных персонажей, объекты и сцены для создания полноценных ии-фильмов.
Получается ли? – да. По крайней мере в черепикнутых примерах выше.
Не могу сказать, что реализм роликов зашкаливает, но в анимации и физике мира модель чувствует себя уверенно.
Сделаем ролик с обзором? – 💯
@how2ai
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
💯42👍11❤5🔥4🤯3🤔1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁17👍7❤4🗿3🤮1
Anonymous Poll
65%
Cursor
11%
Windsurf
28%
Другая ии-краказябра и аргументация «почему» в комментах
❤9🔥3😁3👍1
LLM генерирует картинки...
Топ 28 (а на самом деле еще больше) способов использовать генерацию картинок в новом GPT 4o в новом ролике
Уже на ютубе - https://youtu.be/K72cHXDxKvM
Топ 28 (а на самом деле еще больше) способов использовать генерацию картинок в новом GPT 4o в новом ролике
Уже на ютубе - https://youtu.be/K72cHXDxKvM
🔥13❤4👏3👍1
Дядя Сэм сжалился над любопытными разработчиками. о3 и даже о4-мини и даже о3-про будут выпущены. первые две через пару недель. Веротяно.
Ну а GPT-5 ожидается через несколько месяцев.
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤17🔥9👏4👍1👌1
По прогнозам экспертов AGI и "взрыв интеллекта" ждет нас уже в 2027 году. Статья объемная с описанием всех этапов и умозаключений – советую почитать. Хотя бы саммари. Но заканчивается все двумя вариантами:
1) Race Ending – США агрессивно внедряет новые разработки, чтобы не уступить первенство Китаю, что приводит неспособности контроллировать сверх-ителлект, который обманывает государство и корпорации и создает биооружие, уничтожая человечество.
2) Slowdown Ending – компании во время успевают привлечь исследователей и тормозят развитие ИИ с возможностью отслеживать цепочку рассуждений (в первом варианте мы уже совсем не понимаем, как думают ии). В силу больших мощностей США создает самый мощный ИИ, который 100-кратно ускоряет прогресс и мы вступаем в post-humanity эру.
Это если очень кратко. А вот еще несколько интересных тейков из прогноза:
Рынок труда для джунов программистов переживает бурю: искусственный интеллект может делать все, чему учит степень CS, но люди, умеющие управлять и контролировать качество команд искусственных интеллектов, зарабатывают на жизнь. Бизнес-гуру говорят соискателям, что знакомство с ИИ - самый важный навык для резюме. Многие люди боятся, что следующая волна ИИ придет за их рабочими местами; в Вашингтоне проходит акция протеста против ИИ, в которой участвуют 10 000 человек.
С помощью тысяч автоматизированных исследователей Agent-2 компания OpenBrain (гипотетическая компания) добивается значительных алгоритмических успехов. Один из таких прорывов - отказ от размышлений при помощи токенов в пользу более быстрого мыслительного процесса (нейронная рекурсия и память). Это позволит передавать в 1000 раз больше информации за тоже время.
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥16👍10❤4🌚2💩1
🦙🤘 Meta Llama 4 БЕГЕМОТ
Очень понравилось название
Вчера вышли две модели: Llama 4 Scout и Llama 4 Maverick. И да, это самые мощные open-source мультимодальные модели на рынке.
– Llama 4 Scout: 17B активных параметров, 109B в общем, 16 экспертов, 10М токенов контекстное окно (!). Работает на одной H100.
– Llama 4 Maverick: тоже 17B активных, но уже 128 экспертов и 400B общих параметров. Обходит GPT-4o и Gemini 2.0 Flash в большинстве бенчмарков. Отлично справляется с кодингом, изображениями и логикой. ELO 1417 в LMArena.
– Обе модели мультимодальные, работают с текстом, изображениями и видео, поддерживают до 8 картинок на вход. Зацените бенчмакр NiH (Needle in Haystack) на скрине выше. На мультимодальность мета явно делает акцент в этом релизе.
– В основе — учитель-модель Llama 4 Behemoth: 2 триллиона параметров, всё ещё обучается. Превосходит GPT-4.5 и Claude 3.7 Sonnet на STEM-задачах и используется для дистилляции меньших моделей.
– Llama 4 Reasoning будет в течение месяца по словам Цука. Будем ждать!
Жалко, что эти лламы прискакали только к enterprise боярам. Маленьких версий для наших с вами утюгов у меты в этот раз не нашлось. Ну чтож, тестим через облако:
https://replicate.com/meta
https://api.together.ai
https://www.meta.ai/
https://lmarena.ai/?leaderboard
@how2ai #дядя_д
Вчера вышли две модели: Llama 4 Scout и Llama 4 Maverick. И да, это самые мощные open-source мультимодальные модели на рынке.
– Llama 4 Scout: 17B активных параметров, 109B в общем, 16 экспертов, 10М токенов контекстное окно (!). Работает на одной H100.
– Llama 4 Maverick: тоже 17B активных, но уже 128 экспертов и 400B общих параметров. Обходит GPT-4o и Gemini 2.0 Flash в большинстве бенчмарков. Отлично справляется с кодингом, изображениями и логикой. ELO 1417 в LMArena.
– Обе модели мультимодальные, работают с текстом, изображениями и видео, поддерживают до 8 картинок на вход. Зацените бенчмакр NiH (Needle in Haystack) на скрине выше. На мультимодальность мета явно делает акцент в этом релизе.
– В основе — учитель-модель Llama 4 Behemoth: 2 триллиона параметров, всё ещё обучается. Превосходит GPT-4.5 и Claude 3.7 Sonnet на STEM-задачах и используется для дистилляции меньших моделей.
– Llama 4 Reasoning будет в течение месяца по словам Цука. Будем ждать!
Жалко, что эти лламы прискакали только к enterprise боярам. Маленьких версий для наших с вами утюгов у меты в этот раз не нашлось. Ну чтож, тестим через облако:
https://replicate.com/meta
https://api.together.ai
https://www.meta.ai/
https://lmarena.ai/?leaderboard
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍20🔥6❤5👏3
🫣 Новостей все больше, ролики всё длиннее...
Новый ролик уже 34мин😧
Ищите на канале - https://youtu.be/-cLDvMQZBt4
Новый ролик уже 34мин😧
Ищите на канале - https://youtu.be/-cLDvMQZBt4
🔥18
Media is too big
VIEW IN TELEGRAM
📌 В недавнем ролике мы рассказали о том, что языковые модели теперь умеют генерировать не только текст, но и изображения.
⚠️ Теперь мир перевернулся еще дальше, диффузионные модели генерируют не только изображения, но и...
ЗДАНИЯ В МАЙНКРАФТЕ
Мы видели уже многое: Раньше диффузионные модели использовались для симуляции геймплея в майнкрафт (попробовать тут), ЛЛМ использовались для строительства зданий в физических условиях майнкрафта (даже сделали бенчмарк)
Теперь мы наблюдаем новый этап. Диф модель работает в физических ограничениях манкрафта и собирает объемный объект из блоков! вместо вокселей и пикселей
🚀 Потестировать - https://github.com/timothy-barnes-2357/Build-with-Bombs
@how2ai #minecraft #игорян
⚠️ Теперь мир перевернулся еще дальше, диффузионные модели генерируют не только изображения, но и...
ЗДАНИЯ В МАЙНКРАФТЕ
Мы видели уже многое: Раньше диффузионные модели использовались для симуляции геймплея в майнкрафт (попробовать тут), ЛЛМ использовались для строительства зданий в физических условиях майнкрафта (даже сделали бенчмарк)
Теперь мы наблюдаем новый этап. Диф модель работает в физических ограничениях манкрафта и собирает объемный объект из блоков! вместо вокселей и пикселей
🚀 Потестировать - https://github.com/timothy-barnes-2357/Build-with-Bombs
@how2ai #minecraft #игорян
🔥23👍8
Наткнулся на интересный бенчмарк "Goose Vibe Check". Команда Goose запустила свой бенчмарк для теста “агентных” способностей ИИ – не просто болтать, а выполнять задачи с помощью инструментов: искать инфу, менять файлы, генерировать игры.
Тестируют open-source и закрытые модели, заставляя создавать Flappy Bird вики-странички и искать рестораны в Нью-Йорке. Все по одному промпту.
Результаты:
🥇 Claude 3.5 Sonnet-2 — абсолютный топ (1.00 балл).
🥈 Claude 3.7 Sonnet — хуже!! 0.94. Ест токенов гораздо больше, а делает не лучше.
– о1 и gpt-4o делят четвертое место, набирая 0.81
– Среди опенсорса — qwen2.5-coder:32b (0.80) и DeepSeek V3 (0.73) показали отличные результаты.
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
👍23👀6🔥2👏1🫡1
Но и достойная обертка и инфраструктура. Вот несколько важных анонсов за сегодня:
1) Обновился Google AI Studio – новый приятный интерфейс. У кого-то из твиттерских даже добавился раздел видео-генерации и VEO 2 (см скрин). У меня пока нет.
2) Вайб-кодинг в массы – Firebase Studio. Гугл сел за стол к Vercel и Lovable и забирает хлеб. Или крохи. Надо тестировать. Можно быстро сгенерировать рабочее приложение на Next.js по описанию или картинке. Публикация в Firebase App Hosting за 1 клик
3) Agent Development Kit (ADK) — создание агентов в 100 строк кода. В ADK встроены:
– интерактивные диалоги (аудио и видео),
– Agent Garden – библиотека готовых решений,
– работа с любыми LLM – Gemini, Anthropic, Mistral и др.,
– Model Context Protocol (MCP)
Что уже успели протестирвоать из новых релизов?
@how2ai #дядя_д
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27❤12🎉7🤔2