Jules — ИИ-кодер Google выходит из бета-версии
Jules теперь доступен всем разработчикам после публичного бета-тестирования.
Асинхронный агент работает на Gemini 2.5 Pro и умеет клонировать репозитории, писать тесты, исправлять баги и создавать пулл-реквесты в фоновом режиме.
Основная фишка — полная автономность. Пока вы занимаетесь другими задачами, Jules анализирует весь контекст проекта в изолированных Google Cloud виртуальных машинах.
Интегрируется с GitHub, предоставляет детальные планы задач с обоснованием изменений. Разработчики отмечают рост продуктивности в 3-5 раз для рутинных операций.
В РФ не доступно, нужен VPN.
#Jules #Google #GitHub
------
@tsingular
Jules теперь доступен всем разработчикам после публичного бета-тестирования.
Асинхронный агент работает на Gemini 2.5 Pro и умеет клонировать репозитории, писать тесты, исправлять баги и создавать пулл-реквесты в фоновом режиме.
Основная фишка — полная автономность. Пока вы занимаетесь другими задачами, Jules анализирует весь контекст проекта в изолированных Google Cloud виртуальных машинах.
Интегрируется с GitHub, предоставляет детальные планы задач с обоснованием изменений. Разработчики отмечают рост продуктивности в 3-5 раз для рутинных операций.
В РФ не доступно, нужен VPN.
#Jules #Google #GitHub
------
@tsingular
❤3👍3
Pixel Photonics получила прорыв в масштабируемых квантовых детекторах света
Стартап Pixel Photonics создал революционные детекторы одиночных фотонов, интегрированные в волноводы. Их WI-SNSPD технология позволяет масштабировать квантовые системы без потери точности.
Компания получила €1 млн финансирования от SPRIND и уже поставила системы для QuiX Quantum и DLR. Новые детекторы работают на сверхпроводящих нанопроводах и легко встраиваются в существующие оптические системы.
Главная фишка — многомодовое детектирование с высокой скоростью и ультраточностью. Это решает главную проблему квантовых компьютеров — шум и нестабильность при масштабировании.
Квантовые детекторы станут обычным делом, как сейчас камеры в телефонах — только будут ловить отдельные фотоны :)
#quantum #photonics #detectors
------
@tsingular
Стартап Pixel Photonics создал революционные детекторы одиночных фотонов, интегрированные в волноводы. Их WI-SNSPD технология позволяет масштабировать квантовые системы без потери точности.
Компания получила €1 млн финансирования от SPRIND и уже поставила системы для QuiX Quantum и DLR. Новые детекторы работают на сверхпроводящих нанопроводах и легко встраиваются в существующие оптические системы.
Главная фишка — многомодовое детектирование с высокой скоростью и ультраточностью. Это решает главную проблему квантовых компьютеров — шум и нестабильность при масштабировании.
Квантовые детекторы станут обычным делом, как сейчас камеры в телефонах — только будут ловить отдельные фотоны :)
#quantum #photonics #detectors
------
@tsingular
👍3
Контекстная инженерия важнее промптинга в ИИ
Филипп Шмид утверждает: навык будущего в ИИ — не промпт-инженерия, а контекстная инженерия.
Промптинг слишком узок для сложных ИИ-продуктов. Контекстная инженерия создаёт комплексную информационную экосистему для моделей — предоставляет инструменты, данные и контекст в нужный момент.
Langchain про контекст-инженерию
Разница принципиальная: промпт — это формулирвоание и перефразирование текста и он как бы отступает на второй план, а контекст — построение динамической информационной системы вокруг ИИ и правильная его архитектура фундаментально важнее.
#context #engineering #prompting
------
@tsingular
Филипп Шмид утверждает: навык будущего в ИИ — не промпт-инженерия, а контекстная инженерия.
Промптинг слишком узок для сложных ИИ-продуктов. Контекстная инженерия создаёт комплексную информационную экосистему для моделей — предоставляет инструменты, данные и контекст в нужный момент.
Langchain про контекст-инженерию
Разница принципиальная: промпт — это формулирвоание и перефразирование текста и он как бы отступает на второй план, а контекст — построение динамической информационной системы вокруг ИИ и правильная его архитектура фундаментально важнее.
#context #engineering #prompting
------
@tsingular
👍7
Google запустил AI First Colab Notebooks в BigQuery и Vertex AI
Google интегрировал ИИ-агентов прямо в Colab блокноты для работы с данными.
Теперь можно просто сказать "проанализируй эти данные" и Data Science Agent сам напишет код, построит графики и найдёт закономерности.
Агенты работают с BigQuery и генерируют код на Python автоматически. Доступны бесплатные GPU и TPU для ускорения вычислений.
Основная фишка — никакой настройки инфраструктуры. Открыл браузер, написал задачу на обычном языке, получил анализ.
Интеграция с Gemini AI позволяет генерировать код и объяснения прямо в процессе работы с данными.
#Google #Colab #BigQuery
------
@tsingular
Google интегрировал ИИ-агентов прямо в Colab блокноты для работы с данными.
Теперь можно просто сказать "проанализируй эти данные" и Data Science Agent сам напишет код, построит графики и найдёт закономерности.
Агенты работают с BigQuery и генерируют код на Python автоматически. Доступны бесплатные GPU и TPU для ускорения вычислений.
Основная фишка — никакой настройки инфраструктуры. Открыл браузер, написал задачу на обычном языке, получил анализ.
Интеграция с Gemini AI позволяет генерировать код и объяснения прямо в процессе работы с данными.
#Google #Colab #BigQuery
------
@tsingular
⚡6❤2🤯1
Forwarded from Никита Шарипов
Media is too big
VIEW IN TELEGRAM
Ночью вышло обновление для Flow: если коротко, то теперь режим Ingredients to Video стоит всего $0.10.
Раньше одна генерация обходилась в $1 и была крайне непредсказуемой. Это отдельный режим Veo, где можно смешать три картинки и задать им «действие». Позже я выпущу подробный материал по этому режиму — в своё время «сжёг» там миллионы.
Теперь о действительно важном. Некоторое время назад Flow реанимировал режим Frames to Video и добавил туда массу обновлений, но так и не объяснил, что именно изменилось. В ролике выше я протестировал две картинки. Первая — абстрактная мультяшная кухня; цель — понять, как Veo распознаёт «объекты» на сложных и нестандартных изображениях. Вторая — обычная «Серая карта», классическая локация из 3D-рендера (чуть ниже объясню, зачем она понадобилась).
Любая генерация имеет себестоимость для компании, и они не могут работать долго в ноль или минус, один вопрос когда модель сама создает локацию и персонажа как в Text to Video, то есть просчитывает с нуля, а совершенно другой вопрос, когда мы ей на вход уже даем готовое изображение и ей нужно понять на изображении кто есть кто, и как с чем можно взаимодействовать. Вот тут уровень сложности невероятно повышается.
Специфика тестирования заключается в том, я подал на вход только изображение локаций, а действие и персонажа создавал через описание. Это было важно чтобы понять какие "ограничения визуального бюджета" есть у Veo, чтобы после прогнозировать что я вообще могу сделать,
Задачей 2 — стала нанесение текстур на стены обычной graybox модели. Выглядит крайне интересно, потому что я не ожидал что у Veo будут проблемы с тем, чтобы раскрасить текстуры.
Но тесты провалились, инвалидная коляска для моего алмазного шарика и серые стены для 3D карты серого показали что реальные возможности Frames to Video сильно ограничены и стоит ждать еще множества обновлений чтобы это исправили.
Раньше одна генерация обходилась в $1 и была крайне непредсказуемой. Это отдельный режим Veo, где можно смешать три картинки и задать им «действие». Позже я выпущу подробный материал по этому режиму — в своё время «сжёг» там миллионы.
Теперь о действительно важном. Некоторое время назад Flow реанимировал режим Frames to Video и добавил туда массу обновлений, но так и не объяснил, что именно изменилось. В ролике выше я протестировал две картинки. Первая — абстрактная мультяшная кухня; цель — понять, как Veo распознаёт «объекты» на сложных и нестандартных изображениях. Вторая — обычная «Серая карта», классическая локация из 3D-рендера (чуть ниже объясню, зачем она понадобилась).
Frames to Video: Модель в оковах. Она должна сначала провести титаническую работу по деконструкции вашего изображения (понять объекты, 3D-пространство, стиль), а затем сгенерировать движение, не нарушая ни одного из этих условий. Любое неверное понимание исходной картинки ведет к браку.
Любая генерация имеет себестоимость для компании, и они не могут работать долго в ноль или минус, один вопрос когда модель сама создает локацию и персонажа как в Text to Video, то есть просчитывает с нуля, а совершенно другой вопрос, когда мы ей на вход уже даем готовое изображение и ей нужно понять на изображении кто есть кто, и как с чем можно взаимодействовать. Вот тут уровень сложности невероятно повышается.
Специфика тестирования заключается в том, я подал на вход только изображение локаций, а действие и персонажа создавал через описание. Это было важно чтобы понять какие "ограничения визуального бюджета" есть у Veo, чтобы после прогнозировать что я вообще могу сделать,
Задачей 2 — стала нанесение текстур на стены обычной graybox модели. Выглядит крайне интересно, потому что я не ожидал что у Veo будут проблемы с тем, чтобы раскрасить текстуры.
Эксперимент с серым 3D рендером должен был чисто теоретически элегантно сделать следующее: самый правильный вариант любой видео-генерации это базовый драфтинг локации в 3D, а после его оживление, по себестоимости это получается все равно сильно ниже реальной анимации. Поэтому задумкой было:
1) сделать 3D карту серого локации
2) Раскрасить ее с помощью Frames to Video
3) следующим кадром добавить так же во Frames to Video персонажа и задать ему действие. Таким образом мы смогли бы создать "идеально понятную" для Veo локацию в которой он смог бы не тратить много визуального бюджета на определение границ.
Но тесты провалились, инвалидная коляска для моего алмазного шарика и серые стены для 3D карты серого показали что реальные возможности Frames to Video сильно ограничены и стоит ждать еще множества обновлений чтобы это исправили.
Сегодня в 19:00 я буду приглашенным гостем на канале @vmind_ai1
Если вам интересно изучать Veo дальше приходите, можно будем говорить о Veo.
🔥4❤1
Ollama неожиданно полезла на поляну хостинга моделей.
https://ollama.com/turbo
Пока только для gpt-oss в режиме превью, но уже предлагают такой сценарий, когда их фреймворк, если включить в нем турбо режим, - будет для инференса обращаться к датацентру олламы в Штатах.
Для этого надо получить у них ключ и добавить в вызов.
Документация тут
#ollama #cloud
———
@tsingular
https://ollama.com/turbo
Пока только для gpt-oss в режиме превью, но уже предлагают такой сценарий, когда их фреймворк, если включить в нем турбо режим, - будет для инференса обращаться к датацентру олламы в Штатах.
Для этого надо получить у них ключ и добавить в вызов.
Документация тут
#ollama #cloud
———
@tsingular
👀4⚡2
Shanghai Electric показал промышленного гуманоида Suyuan
На конференции WAIC 2025 Shanghai Electric представил робота Suyuan высотой 167 см и весом 50 кг.
Характеристики:
- 38 степеней свободы для гибких движений
- 275 TOPS вычислительной мощности !!! Вот этот момент интересен. Похоже у него NVidia Orin64gb в голове
- поднимает 10 кг общего груза
- каждая рука - до 2 кг
#Shanghai #Suyuan #WAIC2025
———
@tsingular
На конференции WAIC 2025 Shanghai Electric представил робота Suyuan высотой 167 см и весом 50 кг.
Характеристики:
- 38 степеней свободы для гибких движений
- 275 TOPS вычислительной мощности !!! Вот этот момент интересен. Похоже у него NVidia Orin64gb в голове
- поднимает 10 кг общего груза
- каждая рука - до 2 кг
#Shanghai #Suyuan #WAIC2025
———
@tsingular
🔥4
NuMarkdown OCR фреймворк теперь умеет в логический анализ
Компания NuMind выпустила модель NuMarkdown-8B-Thinking — теперь распознавалка документов может рассуждать и анализировать контекст.
Файнтюн Qwen 2.5-VL-7B заточен на синтетическом датасете рассуждений перевода документов в Markdown, что позволило добиться значительного роста в качестве распознавания, обойдя GPT-4o и OCRFlux и вывести результат на уровень Gemini 2.5.
Полная модель и инструкции по запуску в разных средах:
https://huggingface.co/numind/NuMarkdown-8B-Thinking
Размер 16 гигов
Лицензия MIT
#NuMarkdown #OCR
———
@tsingular
Компания NuMind выпустила модель NuMarkdown-8B-Thinking — теперь распознавалка документов может рассуждать и анализировать контекст.
Файнтюн Qwen 2.5-VL-7B заточен на синтетическом датасете рассуждений перевода документов в Markdown, что позволило добиться значительного роста в качестве распознавания, обойдя GPT-4o и OCRFlux и вывести результат на уровень Gemini 2.5.
Полная модель и инструкции по запуску в разных средах:
https://huggingface.co/numind/NuMarkdown-8B-Thinking
Размер 16 гигов
Лицензия MIT
#NuMarkdown #OCR
———
@tsingular
1🔥4❤1
Хедж-фонд из ИИ агентов
Вашему вниманию фреймворк, создающий коллектив ИИ-агентов для управления инвестициями.
ИИ команду можно собрать на свой вкус из аналитиков данных, инвестиционных стратегов, менеджеров рисков и трейдеров.
Каждый агент выполняет специализированные функции — от анализа рынка до исполнения сделок.
В команде преднастроены синтетические личности:
Асват Дамодаран, Бен Грэм, Билл Экман, Кэти Вуд, Чарли Мангер, Майкл Берри, Питер Линч, Фил Фишер, Ракеш Джунджхунвала, Стэнли Дракенмиллер, Уоррен Баффет
А так же:
Агент оценки — рассчитывает внутреннюю стоимость акций и генерирует торговые сигналы.
Агент настроений — анализирует рыночные настроения и генерирует торговые сигналы.
Агент фундаментальных данных — анализирует фундаментальные данные и генерирует торговые сигналы.
Агент технических данных — анализирует технические индикаторы и генерирует торговые сигналы.
Менеджер рисков — рассчитывает показатели риска и устанавливает лимиты позиций.
Менеджер портфеля — принимает окончательные торговые решения и генерирует ордера.
Кстати, команда из GigaChat собрала и запустила этот фреймворк на отечественной модели, так что, в принципе, если к Московской бирже по апи подключить, - будет местное решение.
В комментарии преза Сбера с инструкцией как запустить фреймворк на ГигаЧате.
#hedge #trading #portfolio #GigaChat
———
@tsingular
Вашему вниманию фреймворк, создающий коллектив ИИ-агентов для управления инвестициями.
ИИ команду можно собрать на свой вкус из аналитиков данных, инвестиционных стратегов, менеджеров рисков и трейдеров.
Каждый агент выполняет специализированные функции — от анализа рынка до исполнения сделок.
В команде преднастроены синтетические личности:
Асват Дамодаран, Бен Грэм, Билл Экман, Кэти Вуд, Чарли Мангер, Майкл Берри, Питер Линч, Фил Фишер, Ракеш Джунджхунвала, Стэнли Дракенмиллер, Уоррен Баффет
А так же:
Агент оценки — рассчитывает внутреннюю стоимость акций и генерирует торговые сигналы.
Агент настроений — анализирует рыночные настроения и генерирует торговые сигналы.
Агент фундаментальных данных — анализирует фундаментальные данные и генерирует торговые сигналы.
Агент технических данных — анализирует технические индикаторы и генерирует торговые сигналы.
Менеджер рисков — рассчитывает показатели риска и устанавливает лимиты позиций.
Менеджер портфеля — принимает окончательные торговые решения и генерирует ордера.
Кстати, команда из GigaChat собрала и запустила этот фреймворк на отечественной модели, так что, в принципе, если к Московской бирже по апи подключить, - будет местное решение.
В комментарии преза Сбера с инструкцией как запустить фреймворк на ГигаЧате.
#hedge #trading #portfolio #GigaChat
———
@tsingular
👍5🔥4⚡3❤1🤣1
Держите универсальный минимальный промпт, выжимающий из моделей максимум в коде:
Просто добавляете в инструкции и получаете буст в лучшей архитектуре кода, компактности и снижению расхода токенов.
Бонусом игрушка в комментах :)
#dev #lifehack #промпт
———
@tsingular
WiseArchitect&OlympicSmart&Concise&Ternary
Просто добавляете в инструкции и получаете буст в лучшей архитектуре кода, компактности и снижению расхода токенов.
Бонусом игрушка в комментах :)
#dev #lifehack #промпт
———
@tsingular
1👍17🔥8🤔5❤2⚡2
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Unitree A2 Stellar Hunter!
Новый четырёхногий робот весом всего 37 кг
🚀 Запас хода без нагрузки — 20 км
Легче, Прочнее, Быстрее.
Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.
#robots #dogs
———
@tsingular
Новый четырёхногий робот весом всего 37 кг
Легче, Прочнее, Быстрее.
Разработан специально для промышленных задач, где важны автономность, манёвренность и надёжность.
#robots #dogs
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥46🤯17👍7 4❤3⚡1
Смотрим и комментируем эфир презентации GPT5
https://www.youtube.com/watch?v=0Uu_VJeVVfo
https://www.youtube.com/watch?v=0Uu_VJeVVfo
YouTube
Introducing GPT-5
Sam Altman, Greg Brockman, Sebastien Bubeck, Mark Chen, Yann Dubois, Brian Fioca, Adi Ganesh, Oliver Godement, Saachi Jain, Christina Kaplan, Christina Kim, Elaine Ya Le, Felipe Millon, Michelle Pokrass, Jakub Pachocki, Max Schwarzer, Rennie Song, Ruochen…
👍10✍2
в Курсоре вручную добавляйте просто gpt-5 и будет вам счастье
До конца недели БЕСПЛАТНО!!!
#Cursor #GPT5
———
@tsingular
До конца недели БЕСПЛАТНО!!!
#Cursor #GPT5
———
@tsingular
1🔥12❤1
отдельная двойка за график
это в каком отчаянии нужно быть, чтобы так играть столбиками?
прикладываю исправленный вариант
не благодарите
#openai #fail
———
@tsingular
это в каком отчаянии нужно быть, чтобы так играть столбиками?
прикладываю исправленный вариант
не благодарите
#openai #fail
———
@tsingular
1🤯7❤5😁1
Так, а вот это достойно повтора.
https://news.1rj.ru/str/tsingular/4742
ДО КОНЦА НЕДЕЛИ БЕСПЛАТНО!!!
Отменяем все планы, переписываем ВЕСЬ КОД :)!!!111
#Cursor #Free
———
@tsingular
https://news.1rj.ru/str/tsingular/4742
ДО КОНЦА НЕДЕЛИ БЕСПЛАТНО!!!
Отменяем все планы, переписываем ВЕСЬ КОД :)!!!111
#Cursor #Free
———
@tsingular
Telegram
Технозаметки Малышева
в Курсоре вручную добавляйте просто gpt-5 и будет вам счастье
До конца недели БЕСПЛАТНО!!!
#Cursor #GPT5
———
@tsingular
До конца недели БЕСПЛАТНО!!!
#Cursor #GPT5
———
@tsingular
🔥6
Forwarded from Анализ данных (Data analysis)
🤦♂️ После того как OpenAi уверенно сообщили о сниженияи галлюцинаций у GPT‑5, первый же тест оказался... галлюцинацией.
🔍 Модель повторила старый фейк о том, как крыло самолёта создаёт подъёмную силу — "equal transit theory", которую давно опровергли в аэродинамике.
🧠 Проблема не в том, что Chatgpt ошибается. Проблема в том, что он делает это *уверенно* — даже в примере, призванном показать прогресс.
🔍 Модель повторила старый фейк о том, как крыло самолёта создаёт подъёмную силу — "equal transit theory", которую давно опровергли в аэродинамике.
🧠 Проблема не в том, что Chatgpt ошибается. Проблема в том, что он делает это *уверенно* — даже в примере, призванном показать прогресс.
🔥15🗿5