Forwarded from Сиолошная
Gemini 2.5 Pro обновилась, по показываемым бенчмаркам самый большой прирост произошёл в веб-программировании (см. вторую картинку).
Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA — бенчмарке на знание очень редких и специфичных фактов — примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.
На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы — но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.
А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать — не ясно.
Google +уважение за то, что не побоялись сравниться с o3 (по многим бенчам проигрывает, см. первую картинку). Очень интересно, что оценка на SimpleQA — бенчмарке на знание очень редких и специфичных фактов — примерно одинаковая. Возможно это говорит о приблизительно равном размере моделей, но это (очень) неточно.
На арене две версии Gemini и одна o3 делят первое место. По моим ощущениям, я почти всегда закидываю запрос и в o3, и в 2.5, обе почти всегда одинаково решают проблемы — но стиль написания Python-кода o3 мне ближе (не засоряет всё комментариями). За прошлую неделю было 2 раза, что o3 не решила, а 2.5 решила, и один раз наоборот. This is a good model sir.
А ещё ждём preview Computer Use-версии (агент, контролирующий компьютер/браузер), который засветился на сайте. Будет ли он выпущен до Google I/O 20-21-го мая или же нам придётся ждать — не ясно.
❤4👍4
вот чем, конечно, Google может задавить конкурентов, - это поиском, доступным для ИИ моделей.
236 сайтов уже, и это он еще не закончил.
Ни один Perplexity не может себе такого позволить.
#Gemini #google #search
———
@tsingular
236 сайтов уже, и это он еще не закончил.
Ни один Perplexity не может себе такого позволить.
#Gemini #google #search
———
@tsingular
👍13✍3❤1
This media is not supported in your browser
VIEW IN TELEGRAM
Ну что ж.
В городе реально новый герой.
Gemini 2.5 Pro preview 0506 прекрасно справился с моим любимым тестом:
Напиши венок сонетов
Без уточнений что это и как это.
Выдал точно 14 сонетов и 15й магистрал собрал.
К магистралу, конечно, вопросы - рифмы нет, но в целом гораздо лучше чем любые другие модели.
До этого с такой задачей справлялся только Sonnet 3.7
Так что можно говорить о реальном прогрессе.
С 0506 Gemini можно будет создавать шедевры и в коде и в тексте.
Полный стих в комментариях.
#Gemini #0506 #сонет
———
@tsingular
В городе реально новый герой.
Gemini 2.5 Pro preview 0506 прекрасно справился с моим любимым тестом:
Напиши венок сонетов
Без уточнений что это и как это.
Выдал точно 14 сонетов и 15й магистрал собрал.
К магистралу, конечно, вопросы - рифмы нет, но в целом гораздо лучше чем любые другие модели.
До этого с такой задачей справлялся только Sonnet 3.7
Так что можно говорить о реальном прогрессе.
С 0506 Gemini можно будет создавать шедевры и в коде и в тексте.
Полный стих в комментариях.
#Gemini #0506 #сонет
———
@tsingular
🔥16
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Офигенный пример из нового Gemini 2.5 (I/O Edition)
- Гемини, возьми картинку и постарайся воспроизвести ее кодом, принимая во внимание все паттерны.
Поглядите на эти анимации.
Image2Code в действии. Помните все эти арт-проекты и виджеинг? Не чокаясь.
I/O Edition - это замысловатый нейминг от Гугла в честь их конференции.
@cgevent
- Гемини, возьми картинку и постарайся воспроизвести ее кодом, принимая во внимание все паттерны.
Поглядите на эти анимации.
Image2Code в действии. Помните все эти арт-проекты и виджеинг? Не чокаясь.
I/O Edition - это замысловатый нейминг от Гугла в честь их конференции.
@cgevent
🔥10❤🔥6👍1
Forwarded from Анализ данных (Data analysis)
🚀 LTX-Video 13B — один из самых мощных open-source видеогенераторов.
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
Разработчики внедрили в модель мультимасштабный рендеринг.
✅ Обычные генеративные модели видео рендерят всё изображение целиком, одним разрешением.
Когда в сцене много движущихся объектов или деталей, модель может "размазать" их, потерять чёткость или неправильно совместить фон и передний план.
📝 А мультимасштабный рендеринг — это параллельная отрисовка картинки на разных уровнях детализации:
один поток отвечает за фон (низкая детализация, большой масштаб),
другой — за объекты в центре, движущиеся элементы (высокая детализация, малый масштаб).
Потом всё объединяется в один кадр, как слои в Photoshop.
🎯 Зачем это нужно?
Фон остаётся стабильным, не "дергается"
Движущиеся объекты остаются чёткими и отдельными от фона
Картинка в целом не разваливается (нет смешивания движений, артефактов)
Такой подход помогает удерживать высокое качество картинки даже при сложном движении — например, если в кадре бежит персонаж на фоне движущегося города.
👉 По сути, это умное раздельное внимание к разным частям кадра, чтобы не терять детали ни в статике, ни в движении.
Что нового?
– Модель 13 миллиардов параметров
– Multiscale rendering → больше деталей, чётче текстуры
– Лучше понимает движение и сцену
– Запускается локально на GPU
– Поддержка keyframes, движения камеры/персонажей, мультисценных секвенций
Запускается даже на RTX 4090.
#AI #videoAI #ltxvideo #deeplearning #generativeAI #opensource #videogeneration
▪Попробовать можно тут→ https://app.ltx.studio/ltx-video
▪Code → https://github.com/Lightricks/LTX-Video
▪Weights → https://huggingface.co/Lightricks/LTX-Video
👍9⚡4🔥1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Media is too big
VIEW IN TELEGRAM
Comfy-трансформация
Есть у нас свой макаронный монстр - ComfyUI.
Глядя на название, уже чувствуешь подвох с UI - в общем пакет сложный. Тем кто не нюхал пороха с Houdini, Nuke, Тач, разными Shader Graph или упасихоспади Natron, будет сложно.
Тут надо отметить, что прикручивание нодового интерфейса к генерациям - это не эксклюзив, этим занимаются Glif.app, florafauna.ai, даже InvokeAI лепит свой нетворк граф.
Но по степени низкоуровневости и опенсорсности альтернатив у Комфи нет.
Как и по степени сложности освоения.
И если раньше Комфи всегда ассоциировался как альтернатива почившему Автоматик1111 или полупочившему Forge для генерации картинок, то потом он превратился в комбайн для ЛОКАЛЬНОЙ работы с любыми моделями (видео, аудио, ллм).
Но вчера произошел тектонический сдвиг:
Теперь в комфи завезли 65 готовых API-нод, которые позволяют подключать разные облачные (платные или нет) модели — от Veo2 до GPT4o и даже до Flux Ultra.
Вот список моделей:
Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro]
Kling 2.0, 1.6, 1.5 & Various Effects
Luma Photon, Ray2, Ray1.6
MiniMax Text-to-Video, Image-to-Video
PixVerse V4 & Effects
Recraft V3, V2 & Various Tools
Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large
Google Veo2
Ideogram V3, V2, V1
OpenAI GPT4o image
Pika 2.2
Думаю, список будет расширяться.
Но почему я думаю, что это тектоника плит?
Комфи таким образом превращается в аггрегатор моделей, коммерческих в том числе. Ну то есть он одной ногой влезает на поляну, где топчутся Fal.ai или Replicate, а другой - на поляну где рядятся Krea и Freeplik и Флора.
Вот если бы кто-то ввалил им денег и они бы написать нормальную UI морду ПОВЕРХ макаронных изделий, что был бы хит (SwarmUI - это очень-очень плохо, как по замыслу, так и по исполнению).
В общем шаг исторический.
https://blog.comfy.org/p/comfyui-native-api-nodes
@cgevent
Есть у нас свой макаронный монстр - ComfyUI.
Глядя на название, уже чувствуешь подвох с UI - в общем пакет сложный. Тем кто не нюхал пороха с Houdini, Nuke, Тач, разными Shader Graph или упасихоспади Natron, будет сложно.
Тут надо отметить, что прикручивание нодового интерфейса к генерациям - это не эксклюзив, этим занимаются Glif.app, florafauna.ai, даже InvokeAI лепит свой нетворк граф.
Но по степени низкоуровневости и опенсорсности альтернатив у Комфи нет.
Как и по степени сложности освоения.
И если раньше Комфи всегда ассоциировался как альтернатива почившему Автоматик1111 или полупочившему Forge для генерации картинок, то потом он превратился в комбайн для ЛОКАЛЬНОЙ работы с любыми моделями (видео, аудио, ллм).
Но вчера произошел тектонический сдвиг:
Теперь в комфи завезли 65 готовых API-нод, которые позволяют подключать разные облачные (платные или нет) модели — от Veo2 до GPT4o и даже до Flux Ultra.
Вот список моделей:
Black Forest Labs Flux 1.1[pro] Ultra, Flux .1[pro]
Kling 2.0, 1.6, 1.5 & Various Effects
Luma Photon, Ray2, Ray1.6
MiniMax Text-to-Video, Image-to-Video
PixVerse V4 & Effects
Recraft V3, V2 & Various Tools
Stability AI Stable Image Ultra, Stable Diffusion 3.5 Large
Google Veo2
Ideogram V3, V2, V1
OpenAI GPT4o image
Pika 2.2
Думаю, список будет расширяться.
Но почему я думаю, что это тектоника плит?
Комфи таким образом превращается в аггрегатор моделей, коммерческих в том числе. Ну то есть он одной ногой влезает на поляну, где топчутся Fal.ai или Replicate, а другой - на поляну где рядятся Krea и Freeplik и Флора.
Вот если бы кто-то ввалил им денег и они бы написать нормальную UI морду ПОВЕРХ макаронных изделий, что был бы хит (SwarmUI - это очень-очень плохо, как по замыслу, так и по исполнению).
В общем шаг исторический.
https://blog.comfy.org/p/comfyui-native-api-nodes
@cgevent
👍6
Media is too big
VIEW IN TELEGRAM
🤖 AgenticSeek: бесплатная локальная альтернатива Manus AI
AgenticSeek представляет собой 100% локальную альтернативу Manus AI — голосовой ИИ-ассистент, который просматривает веб, пишет код и планирует задачи, сохраняя все данные на вашем устройстве.
Ключевые преимущества:
• 🔒 Полностью локальный и приватный. Ваши файлы, беседы и поисковые запросы остаются у вас.
• 🌐 Умный веб-браузинг — AgenticSeek может самостоятельно просматривать интернет: искать, читать, извлекать информацию, заполнять веб-формы — всё без вашего участия.
• 💻 Автономный помощник для разработки — нужен код? Он может писать, отлаживать и запускать программы на Python, C, Go, Java и других языках.
• 🧠 Интеллектуальный выбор агентов — вы спрашиваете, он автоматически подбирает лучшего агента для задачи.
• 📋 Планирует и выполняет сложные задачи — от планирования поездок до комплексных проектов — может разбивать большие задачи на этапы и выполнять их с помощью нескольких ИИ-агентов.
• 🎙 С голосовым управлением — чистый, быстрый, футуристичный голос и распознавание речи, позволяющие разговаривать с ним как с вашим персональным ИИ из научно-фантастического фильма.
Технические особенности:
• Поддержка различных LLM-провайдеров: Ollama, lm-studio, OpenAI API и др.
• Работает с моделями от 7B до 70B+ (рекомендуется от 14B и выше)
• Распознавание и синтез речи работают полностью локально
• Поддержка нескольких языков
• Автоматический старт всех необходимых сервисов через Docker
Для работы требуется хотя бы GPU с 12 ГБ VRAM, но для полноценного использования рекомендуется 24+ ГБ.
Теперь бесплатный Манус есть у нас дома. :)
#AgenticSeek #LocalLLM #агенты #deepresearch
———
@tsingular
AgenticSeek представляет собой 100% локальную альтернативу Manus AI — голосовой ИИ-ассистент, который просматривает веб, пишет код и планирует задачи, сохраняя все данные на вашем устройстве.
Ключевые преимущества:
• 🔒 Полностью локальный и приватный. Ваши файлы, беседы и поисковые запросы остаются у вас.
• 🌐 Умный веб-браузинг — AgenticSeek может самостоятельно просматривать интернет: искать, читать, извлекать информацию, заполнять веб-формы — всё без вашего участия.
• 💻 Автономный помощник для разработки — нужен код? Он может писать, отлаживать и запускать программы на Python, C, Go, Java и других языках.
• 🧠 Интеллектуальный выбор агентов — вы спрашиваете, он автоматически подбирает лучшего агента для задачи.
• 📋 Планирует и выполняет сложные задачи — от планирования поездок до комплексных проектов — может разбивать большие задачи на этапы и выполнять их с помощью нескольких ИИ-агентов.
• 🎙 С голосовым управлением — чистый, быстрый, футуристичный голос и распознавание речи, позволяющие разговаривать с ним как с вашим персональным ИИ из научно-фантастического фильма.
Технические особенности:
• Поддержка различных LLM-провайдеров: Ollama, lm-studio, OpenAI API и др.
• Работает с моделями от 7B до 70B+ (рекомендуется от 14B и выше)
• Распознавание и синтез речи работают полностью локально
• Поддержка нескольких языков
• Автоматический старт всех необходимых сервисов через Docker
Для работы требуется хотя бы GPU с 12 ГБ VRAM, но для полноценного использования рекомендуется 24+ ГБ.
Теперь бесплатный Манус есть у нас дома. :)
#AgenticSeek #LocalLLM #агенты #deepresearch
———
@tsingular
🔥11👍2🤯2🆒2
This media is not supported in your browser
VIEW IN TELEGRAM
🔍 Anthropic API теперь с веб-поиском для Claude
Anthropic запустил новую функцию веб-поиска в своем API — теперь Claude может получать доступ к текущей информации со всего интернета.
Это серьезно расширяет возможности для разработчиков, которые теперь могут создавать приложения с актуальными данными.
Когда Claude получает запрос, требующий актуальной информации или специализированных знаний, он использует свои способности рассуждения, чтобы сначала определить, поможет ли инструмент веб-поиска предоставить более точный ответ.
При необходимости модель генерирует поисковый запрос, анализирует результаты и предоставляет комплексный ответ со ссылками на источники.
Техническая начинка:
• Claude может работать как агент, проводя несколько последовательных поисков, используя ранние результаты для формирования последующих запросов
• Каждый ответ включает цитаты с материалами, позволяя пользователям проверять информацию
• Настраиваемые списки разрешенных и заблокированных доменов — можно указать, из каких источников Claude может получать информацию
• Управление функцией на уровне организации через админ-настройки
Практическое применение:
• Финансовые сервисы: анализ цен акций в реальном времени, рыночных трендов и нормативных обновлений
• Юридические исследования: доступ к недавним судебным решениям и правовым новостям
• Инструменты для разработчиков: использование последней документации API и технологических обновлений
• Повышение продуктивности аналитиков через доступ к последним отчетам и исследованиям
Функция веб-поиска также интегрирована в Claude Code, что особенно ценно при работе с новыми или быстро развивающимися фреймворками и библиотеками.
Важно: Сервис доступен для моделей Claude 3.7 Sonnet, обновленной Claude 3.5 Sonnet и Claude 3.5 Haiku по цене $10 за 1000 поисковых запросов ПОВЕРХ стандартной стоимость токенов моделей.
#Claude #API #поиск #агенты
———
@tsingular
Anthropic запустил новую функцию веб-поиска в своем API — теперь Claude может получать доступ к текущей информации со всего интернета.
Это серьезно расширяет возможности для разработчиков, которые теперь могут создавать приложения с актуальными данными.
Когда Claude получает запрос, требующий актуальной информации или специализированных знаний, он использует свои способности рассуждения, чтобы сначала определить, поможет ли инструмент веб-поиска предоставить более точный ответ.
При необходимости модель генерирует поисковый запрос, анализирует результаты и предоставляет комплексный ответ со ссылками на источники.
Техническая начинка:
• Claude может работать как агент, проводя несколько последовательных поисков, используя ранние результаты для формирования последующих запросов
• Каждый ответ включает цитаты с материалами, позволяя пользователям проверять информацию
• Настраиваемые списки разрешенных и заблокированных доменов — можно указать, из каких источников Claude может получать информацию
• Управление функцией на уровне организации через админ-настройки
Практическое применение:
• Финансовые сервисы: анализ цен акций в реальном времени, рыночных трендов и нормативных обновлений
• Юридические исследования: доступ к недавним судебным решениям и правовым новостям
• Инструменты для разработчиков: использование последней документации API и технологических обновлений
• Повышение продуктивности аналитиков через доступ к последним отчетам и исследованиям
Функция веб-поиска также интегрирована в Claude Code, что особенно ценно при работе с новыми или быстро развивающимися фреймворками и библиотеками.
Важно: Сервис доступен для моделей Claude 3.7 Sonnet, обновленной Claude 3.5 Sonnet и Claude 3.5 Haiku по цене $10 за 1000 поисковых запросов ПОВЕРХ стандартной стоимость токенов моделей.
#Claude #API #поиск #агенты
———
@tsingular
🔥5
Media is too big
VIEW IN TELEGRAM
Удобно, конечно, что теперь результаты поиска можно представить сразу в виде приложения наглядного.
Gemini 2.5 pro preview 0506 - такое рисует за 95 секунд.
Код в комментарии.
#gemini #timeline
———
@tsingular
Gemini 2.5 pro preview 0506 - такое рисует за 95 секунд.
Код в комментарии.
#gemini #timeline
———
@tsingular
🔥5⚡1✍1
Forwarded from AI Insider
Morgan Stanley прогнозирует, что к 2050 году в мире будет эксплуатироваться более 1 миллиарда человекоподобных роботов, что принесет совокупный доход около 5 триллионов долларов за следующие 25 лет.
В отчете прогнозируется, что к середине 2030-х годов число установленных устройств, в настоящее время исчисляемое десятками тысяч, вырастет до миллионов.
Для сравнения, Илон Маск считает, что к 2040 году в мире будет насчитываться не менее 10 миллиардов человекоподобных роботов, каждый из которых будет стоить от 20 000 до 25 000 долларов США🔵
В отчете прогнозируется, что к середине 2030-х годов число установленных устройств, в настоящее время исчисляемое десятками тысяч, вырастет до миллионов.
Для сравнения, Илон Маск считает, что к 2040 году в мире будет насчитываться не менее 10 миллиардов человекоподобных роботов, каждый из которых будет стоить от 20 000 до 25 000 долларов США
Please open Telegram to view this post
VIEW IN TELEGRAM
✍4👾2🤨1
Forwarded from CodeCamp
Figma ночью устроили маленькую ИИ-революцию — теперь это уже не просто редактор интерфейсов, а конструктор сайтов, приложений и даже маркетинга.
Чуваки показали 4 интересных нейро-фичи, если в двух словах:
— Можно сгенерить сайт из шаблона, добавить анимации и прокрутку — и сразу опубликовать;
— Можно описать приложение промтом, а Claude соберёт прототип с редактируемым дизайном;
— Можно рисовать векторную графику прямо в Figma — кисти, текстуры, иллюстрации, мини-Illustrator у нас дома;
— А если вдруг вы маркетолог — для вас сделали генератор бренд-контента для соцсетей, презентаций и рассылок.
Судя по всему, Figma до последнего ждали, что их купит Adobe, и только теперь начинают релизить прикольные штуки😁
Чуваки показали 4 интересных нейро-фичи, если в двух словах:
— Можно сгенерить сайт из шаблона, добавить анимации и прокрутку — и сразу опубликовать;
— Можно описать приложение промтом, а Claude соберёт прототип с редактируемым дизайном;
— Можно рисовать векторную графику прямо в Figma — кисти, текстуры, иллюстрации, мини-Illustrator у нас дома;
— А если вдруг вы маркетолог — для вас сделали генератор бренд-контента для соцсетей, презентаций и рассылок.
Судя по всему, Figma до последнего ждали, что их купит Adobe, и только теперь начинают релизить прикольные штуки
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥15
Media is too big
VIEW IN TELEGRAM
Дженсен Хуан интересно так говорит, что - ИИ создает новый тип работы по созданию ПО, фундаментально меняя принципы его написания и работы.
И что следующая волна, это Фабрики ИИ.
«Одна фабрика ИИ мощностью 1 гигаватт может приносить 60 миллиардов долларов в год»
Такая вот простая математика станков по печатанию денег.
Гигаватты в миллиарды $.
#Jensen #Huang #newdev
———
@tsingular
И что следующая волна, это Фабрики ИИ.
«Одна фабрика ИИ мощностью 1 гигаватт может приносить 60 миллиардов долларов в год»
Такая вот простая математика станков по печатанию денег.
Гигаватты в миллиарды $.
#Jensen #Huang #newdev
———
@tsingular
⚡5❤🔥3🔥1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Heygen Avatar IV
Хейген под День Радио выпустил новую фичу, которая позволяет генерить естественные видео ролики просто по 1 фото и тексту.
Что он делает:
1. Берет текст и анализирует стиль, тон, ритм, эмоции
2. Создает детали движений - наклоны головы, естественные паузы, микродвижения мускулов, моргания и т.д.
3. На основе всего генерит абсолютно реалистичное видео озвучки текста.
С праздником :)
#heygen #avatariv
———
@tsingular
Хейген под День Радио выпустил новую фичу, которая позволяет генерить естественные видео ролики просто по 1 фото и тексту.
Что он делает:
1. Берет текст и анализирует стиль, тон, ритм, эмоции
2. Создает детали движений - наклоны головы, естественные паузы, микродвижения мускулов, моргания и т.д.
3. На основе всего генерит абсолютно реалистичное видео озвучки текста.
С праздником :)
#heygen #avatariv
———
@tsingular
🔥29👍9⚡3🆒2
Изобретён метод обучения фотонного ИИ
Исследователи из Пенсильванского университета создали первый оптический нейроморфный процессор, способный обучать нейросети с помощью света, а не электричества.
Технология позволяет ускорить работу ИИ и снизить энергопотребление в 100 раз.
Потенциально это откроет путь к полностью оптическим вычислительным системам.
#PhotonComputing #Фотоны #кратко
------
@tsingular
Исследователи из Пенсильванского университета создали первый оптический нейроморфный процессор, способный обучать нейросети с помощью света, а не электричества.
Технология позволяет ускорить работу ИИ и снизить энергопотребление в 100 раз.
Потенциально это откроет путь к полностью оптическим вычислительным системам.
#PhotonComputing #Фотоны #кратко
------
@tsingular
🔥23⚡11👍2
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
Управление камерой для генерации картинок в chatGPT.
Получается такой одновременный отлет и outpaint картинки.
Промпт: Представь себе вид с дрона с высоты 200 метров, смотрящего прямо вниз. Подумайте, сколько деталей ты увидишь с такой высоты. А теперь напиши промпт, который четко описывает эту сцену, и создай изображение.
Imagine a drone view from 500 feet above, looking straight down. Think of all the details you'd see from that height. Now, write a prompt that describes this scene clearly and create an image.
Можете попробовать другие виды камер\ракурсов вместо drone view.
Тут забрал
@cgevent
Получается такой одновременный отлет и outpaint картинки.
Промпт: Представь себе вид с дрона с высоты 200 метров, смотрящего прямо вниз. Подумайте, сколько деталей ты увидишь с такой высоты. А теперь напиши промпт, который четко описывает эту сцену, и создай изображение.
Imagine a drone view from 500 feet above, looking straight down. Think of all the details you'd see from that height. Now, write a prompt that describes this scene clearly and create an image.
Можете попробовать другие виды камер\ракурсов вместо drone view.
Тут забрал
@cgevent
⚡5✍1