This media is not supported in your browser
VIEW IN TELEGRAM
Notebook LM от Google теперь умеет создавать целые документалки из ваших источников
Они выкатили фичу Cinematic Video Overview. Если прошлая версия Video Overviews создавала только статические слайды, то тут вы получите на выходе полностью анимированный иммерсивный ролик.
Gemini 3 работает как режиссер, Nano Banana Pro генерирует референсы, и Veo 3 занимается видео-анимацией.
Выглядит прямо занятно. Конечно, это пока лишь скромный зачаток, но представьте: если сегодня NotebookLM превращает документы вот в такие кинематографические обзоры, то через пару лет мы сможем за минуты генерировать целые фильмы по любой теме. Вообразите эффект на образование.
Ну а пока фича доступна, к сожалению, только аккаунтам Ultra и только на английском.
Они выкатили фичу Cinematic Video Overview. Если прошлая версия Video Overviews создавала только статические слайды, то тут вы получите на выходе полностью анимированный иммерсивный ролик.
Gemini 3 работает как режиссер, Nano Banana Pro генерирует референсы, и Veo 3 занимается видео-анимацией.
Выглядит прямо занятно. Конечно, это пока лишь скромный зачаток, но представьте: если сегодня NotebookLM превращает документы вот в такие кинематографические обзоры, то через пару лет мы сможем за минуты генерировать целые фильмы по любой теме. Вообразите эффект на образование.
Ну а пока фича доступна, к сожалению, только аккаунтам Ultra и только на английском.
❤158🔥66👍26🤨5😁2
This media is not supported in your browser
VIEW IN TELEGRAM
Как фактчекнуть любой пост в Telegram за несколько секунд
Telegram – один из главных источников новостей. Но вместе с новостями тут всегда много шума и хайпа, а точности иногда меньше, чем хотелось бы. Особенно по теме ИИ.
Поэтому заинтересованному читателю почти каждый раз приходится идти перепроверять.
Так вот: делимся с вами лайфхаком, как сделать это прямо в Telegram за несколько секунд. Достаточно вызвать бот Алисы AI и попросить модель фактчекнуть текст. Вот промпт, который обычно используем мы:
Бот быстро проведет вебсерч и ответит в том же чате (при этом добавлять бота в чат не требуется, он работает абсолютно везде).
А еще @alisa неплохо умеет рисовать. Пользуйтесь!
Telegram – один из главных источников новостей. Но вместе с новостями тут всегда много шума и хайпа, а точности иногда меньше, чем хотелось бы. Особенно по теме ИИ.
Поэтому заинтересованному читателю почти каждый раз приходится идти перепроверять.
Так вот: делимся с вами лайфхаком, как сделать это прямо в Telegram за несколько секунд. Достаточно вызвать бот Алисы AI и попросить модель фактчекнуть текст. Вот промпт, который обычно используем мы:
@alisa проверь факты в этом тексте: что правда, что требует уточнения, что ложно. Приведи объяснения и достоверные источники.
Бот быстро проведет вебсерч и ответит в том же чате (при этом добавлять бота в чат не требуется, он работает абсолютно везде).
А еще @alisa неплохо умеет рисовать. Пользуйтесь!
1🤨259🗿102😁55 23❤15👍14🔥7🫡4✍3🤔2
Data Secrets
по итогу Nvidia инвестировали в три раза меньше, чем планировали, так что их вложение вовсе не означает, что между ними и OpenAI все гладко.
Что и требовалось доказать: Дженсен Хуанг во всеуслышание заявил, что его недавние инвестиции в OpenAI и Anthropic, вероятно, будут последними для обоих
Хотя он мягко объясняет это скорым возможным IPO компаний, аналитики больше верят в другие причины, и, в первую очередь, в опасения Nvidia по поводу пузыря.
Сделки с OpenAI в основном имеют циркулярный характер: Nvidia дают денег, а OpenAI несут их обратно в Nvidia. Проще говоря, Nvidia боится попасть под раздачу, когда пузырь схлопнется, и вскроется отсутствие независимого роста компании.
Это не говоря уже про регуляторные риски: SEC вообще в какой-то момент могут расценить это как мошенничество и фиктивный оборот бизнеса. Поэтому сейчас Nvidia логично выбирают стратегию расширения экосистемы, а не дополнительных вложений.
Ну а с Anthropic ситуация осложняется, конечно, из-за ситуации с администрацией Трампа.
Хотя он мягко объясняет это скорым возможным IPO компаний, аналитики больше верят в другие причины, и, в первую очередь, в опасения Nvidia по поводу пузыря.
Сделки с OpenAI в основном имеют циркулярный характер: Nvidia дают денег, а OpenAI несут их обратно в Nvidia. Проще говоря, Nvidia боится попасть под раздачу, когда пузырь схлопнется, и вскроется отсутствие независимого роста компании.
Это не говоря уже про регуляторные риски: SEC вообще в какой-то момент могут расценить это как мошенничество и фиктивный оборот бизнеса. Поэтому сейчас Nvidia логично выбирают стратегию расширения экосистемы, а не дополнительных вложений.
Ну а с Anthropic ситуация осложняется, конечно, из-за ситуации с администрацией Трампа.
1😁125 28👍15❤5🐳4🔥2🦄2 2👾1
This media is not supported in your browser
VIEW IN TELEGRAM
В сети появилось видео, как проходит работа сотрудников c Claude Code в стартапе, привлекшем миллиарды $.
4😁371 44😎29❤10💯7🤯3🔥2 2🤗1
Сбер продолжает линию опенсорса — выложили код и веса Green-VLA
Немного контекста: в начале февраля техрепорт по Green-VLA стал лучшей работой недели на Hugging Face, в нем авторы рассказали, как учили антропоморфа Грина манипулировать предметами в реальном мире. Помимо описания всех этапов обучения, они пообещали выложить все наработки в открытый доступ, что и произошло сегодня.
Чем вообще важен этот релиз:
1️⃣ Модель превосходит по качеству устоявшихся лидеров в области (π0.5 от Physical Intelligence) и выбивает SOTA-метрики на робототехнических бенчах, таких как Fractal и Bridge
2️⃣ Архитектурно это VLM (Qwen3-VL-4B) с дополнительным трансформером, который с помощью flow-matching предсказывает действия робота в реальном времени
3️⃣ Базовые веса обучены на большом количестве робототехнических и веб-данных, модель уже из коробки отлично понимает инструкции, различает объекты и может управлять разными роботами
Это самая важная часть релиза, если вы хотите научить робота манипулировать объектами, например для работы на складе, то достаточно лишь небольшого дообучения модели под вашего робота!
Код и веса уже выложили, так что можно тестить
Немного контекста: в начале февраля техрепорт по Green-VLA стал лучшей работой недели на Hugging Face, в нем авторы рассказали, как учили антропоморфа Грина манипулировать предметами в реальном мире. Помимо описания всех этапов обучения, они пообещали выложить все наработки в открытый доступ, что и произошло сегодня.
Чем вообще важен этот релиз:
Это самая важная часть релиза, если вы хотите научить робота манипулировать объектами, например для работы на складе, то достаточно лишь небольшого дообучения модели под вашего робота!
Код и веса уже выложили, так что можно тестить
Please open Telegram to view this post
VIEW IN TELEGRAM
👍134😁46🗿23🔥16❤10❤🔥4⚡2🤓1🫡1👾1
This media is not supported in your browser
VIEW IN TELEGRAM
OpenAI выпустили Symphony – опенсорсный оркестратор для агентов
https://github.com/openai/symphony
По сути, это фреймворк для автономной работы над задачами. Вы соединяете Symphony с доской тасок, агент следит за ней, подхватывает новые задачи и запускает под них отдельный run с агентами, работающими в изолированной копии репозитория.
То есть Symphony полностью самостоятельно проходит путь от созданной задачи до PR через планирование, написание кода и тестирование. Человеку останется только ревью и аппрув, с самим агентом можно не нянчиться.
Считай, полноценный джун👉
Работать может на любой модели, лицензия Apache 2.0
https://github.com/openai/symphony
По сути, это фреймворк для автономной работы над задачами. Вы соединяете Symphony с доской тасок, агент следит за ней, подхватывает новые задачи и запускает под них отдельный run с агентами, работающими в изолированной копии репозитория.
То есть Symphony полностью самостоятельно проходит путь от созданной задачи до PR через планирование, написание кода и тестирование. Человеку останется только ревью и аппрув, с самим агентом можно не нянчиться.
Считай, полноценный джун
Работать может на любой модели, лицензия Apache 2.0
Please open Telegram to view this post
VIEW IN TELEGRAM
2🔥160🤯38❤22😁2👨💻1👾1
Когда в 2023-м все начали говорить про агентов, под этим чаще всего подразумевали цепочку промптов с фиксацией контекста, а про инфраструктуру, как правило, даже не задумывались. Сейчас кто-то по-прежнему считает, что агенты — это окошечки с LLM, а развернутая на единственной ноде модель — это подходящая инфраструктура для агентской системы. На самом деле это, конечно, не так.
Чтобы экономика сходилась и железо утилизировалось эффективно, нужно учитывать реальный паттерн нагрузки: долгие сессии, многошаговые диалоги, большие контексты.
В последнем обновлении Yandex AI Studio интересен не столько факт, что появилась модель DeepSeek V3.2, сколько то, как под нее оптимизировали инференс. Модель работает в режиме prefill/decode, где prefill-ноды оптимизированы под быстрый прогон длинных контекстов, а decode-ноды — под устойчивую генерацию с низким и стабильным показателем Time Between Tokens. Чтобы это работало, пришлось научиться передавать KV-кэши между серверами в реальном времени, а это гигабайты данных.
Дальше — больше. Введена иерархия кэшей (GPU → CPU → распрелеленный слой), а балансировщик теперь «знает», где уже хранятся закешированные фрагменты контекста, и отправляет запрос туда, где cache hit rate будет выше.
Возможно, именно здесь и начинается взрослая эпоха для агентных систем — не промпт-цепочки, а полноценные цифровые организмы, у которых есть память, тело и дисциплина.
Чтобы экономика сходилась и железо утилизировалось эффективно, нужно учитывать реальный паттерн нагрузки: долгие сессии, многошаговые диалоги, большие контексты.
В последнем обновлении Yandex AI Studio интересен не столько факт, что появилась модель DeepSeek V3.2, сколько то, как под нее оптимизировали инференс. Модель работает в режиме prefill/decode, где prefill-ноды оптимизированы под быстрый прогон длинных контекстов, а decode-ноды — под устойчивую генерацию с низким и стабильным показателем Time Between Tokens. Чтобы это работало, пришлось научиться передавать KV-кэши между серверами в реальном времени, а это гигабайты данных.
Дальше — больше. Введена иерархия кэшей (GPU → CPU → распрелеленный слой), а балансировщик теперь «знает», где уже хранятся закешированные фрагменты контекста, и отправляет запрос туда, где cache hit rate будет выше.
Поверх этого слоя появились приватные эндпоинты и правила модерации ответов моделей, что особенно актуально при работе с опенсорс моделями в корпоративном контуре. Добавили и новый подход к тарификации: появились токены инструментов и токены кеширования. Первые участвуют при вызове встроенных инструментов (File Search, Web Search, MCP), вторые — при повторном использовании уже обработанных фрагментов запроса. Всё это стоит в четыре раза дешевле обычных токенов и делает длинные агентские сценарии экономически осмысленными.
Возможно, именно здесь и начинается взрослая эпоха для агентных систем — не промпт-цепочки, а полноценные цифровые организмы, у которых есть память, тело и дисциплина.
🗿97🔥37🤨17👍16❤11 7🤔5🤯2😁1👾1
Модель вышла в версиях Thinking и Pro. Метрики подросли на кодинге (немного), на математике (прилично) и на computer use. Последним хвастаются особенно.
Кроме того, модель стала эффективнее: использует меньше токенов при рассуждении и отвечает быстрее. Но есть нюанс: теперь она стоит немножко дороже.
Что еще интересного:
– Модель теперь можно остановить посередине ответа и добавить дополнительные инструкции.
– Контекст теперь до 1 миллиона токенов (наконец-то!)
– В Codex появился /fast мод, который ускорит генерацию в 1.5x (это та же модель и тот же уровень рассуждений, просто быстрее). Правда, в таком режиме каждый токен будет учитываться в лимитах за два.
https://openai.com/index/introducing-gpt-5-4/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤107😁40🔥23🎉13🦄8 7🗿6 5👍2👾1
Google предложили, как обучать LLM становиться умнее по ходу диалога
Есть довольно известная проблема: LLM плохо обновляют убеждения по мере получения новой информации. Хотя от модели ожидается, что она должна понимать предпочтения пользователя по его ответам и при накоплении таких данных становится полезнее, на самом деле LLM в этом плохи.
С математической точки зрения это означает, что у моделей нет байесовского мышления, то есть умения обновлять вероятность гипотез при поступлении новой информации. У людей, кстати, такое мышление развито хорошо.
Здесь исследователи предлагают интересный подход. Вместо того, чтобы учить модель обновлять знания с помощью файнтюна на обычных диалогах, они берут и дистиллируют в нее настоящий байесовский алгоритм. То есть:
1. Строится обычный автомат Байеса, который знаком всем, кто изучал классический ML. Он решает задачу, просто обновляя вероятность разных гипотез по формуле.
2. LLM файнтюнят на ответах алгоритма, чтобы она переняла общую логику обновления, но уже без формулы.
Результаты получились интересные.
Во-первых, модель действительно начинает вести себя ближе к байесовскому оптимуму и учитывать новые данные. На основной задаче рекомендаций качество заметно увеличилось.
Во-вторых, появилось обобщение. То есть модель фактически выучивает сам принцип рассуждения, и начинает использовать эту стратегию в других задачах, где ее напрямую не обучали.
Короче говоря, довольно показательно, и авторы делают вывод о том, что обучение на демонстрациях алгоритмов в целом – работает. В действительности, мы ведь и правда хотим от LLM, чтобы они были не просто генераторами текста, а универсальными имитатороми алгоритмов мышления.
research.google/blog/teaching-llms-to-reason-like-bayesians/
Есть довольно известная проблема: LLM плохо обновляют убеждения по мере получения новой информации. Хотя от модели ожидается, что она должна понимать предпочтения пользователя по его ответам и при накоплении таких данных становится полезнее, на самом деле LLM в этом плохи.
С математической точки зрения это означает, что у моделей нет байесовского мышления, то есть умения обновлять вероятность гипотез при поступлении новой информации. У людей, кстати, такое мышление развито хорошо.
Здесь исследователи предлагают интересный подход. Вместо того, чтобы учить модель обновлять знания с помощью файнтюна на обычных диалогах, они берут и дистиллируют в нее настоящий байесовский алгоритм. То есть:
1. Строится обычный автомат Байеса, который знаком всем, кто изучал классический ML. Он решает задачу, просто обновляя вероятность разных гипотез по формуле.
2. LLM файнтюнят на ответах алгоритма, чтобы она переняла общую логику обновления, но уже без формулы.
Например, нам нужно понять, какие фильмы любит пользователь – боевики, комедии или драмы:
– В начале вероятности равные, по 33%.
– Мы советуем ему три фильма разных жанров, и он выбирает боевик. Мы также знаем вероятность выбора боевика при условии предпочтении каждого из жанров (например, 80%, 20% и 30%).
– Алгоритм на основе всего этого обновляет вероятности по формуле и получается, что они равны уже 62%, 23% и 15%.
– Такие априорные и апостериорные вероятности показывают LLMке.
– Постепенно она учится вести себя как алгоритм.
Результаты получились интересные.
Во-первых, модель действительно начинает вести себя ближе к байесовскому оптимуму и учитывать новые данные. На основной задаче рекомендаций качество заметно увеличилось.
Во-вторых, появилось обобщение. То есть модель фактически выучивает сам принцип рассуждения, и начинает использовать эту стратегию в других задачах, где ее напрямую не обучали.
Короче говоря, довольно показательно, и авторы делают вывод о том, что обучение на демонстрациях алгоритмов в целом – работает. В действительности, мы ведь и правда хотим от LLM, чтобы они были не просто генераторами текста, а универсальными имитатороми алгоритмов мышления.
research.google/blog/teaching-llms-to-reason-like-bayesians/
1❤172❤🔥40👍38🔥13🤯3🤗3 3😁2👾2 2
Media is too big
VIEW IN TELEGRAM
Cursor теперь может мониторить вашу кодовую базу автономно и постоянно
Теперь там есть возможность настроить ИИ‑агентов, которые автоматически выполняют задачи в вашей базе по расписанию или по событиям (push, Slack, PagerDuty и т.п.).
Каждый такой агент крутится в отдельной cloud‑sandbox, может ходить в твой репозиторий, CI, Slack и внешние сервисы через MCP (Model Context Protocol).
То есть при срабатывании триггера поднимается изолированная среда, в нее подтягивается свежий код, и агент выполняет нужный сценарий. Настройки могут быть максимально гибкими.
Внутри уже есть типовые шаблоны: ежедневные дайджесты изменений в базе, поиск уязвимостей и простых багов, обновление документации. Пробуем!
cursor.com/blog/automations
Теперь там есть возможность настроить ИИ‑агентов, которые автоматически выполняют задачи в вашей базе по расписанию или по событиям (push, Slack, PagerDuty и т.п.).
Каждый такой агент крутится в отдельной cloud‑sandbox, может ходить в твой репозиторий, CI, Slack и внешние сервисы через MCP (Model Context Protocol).
То есть при срабатывании триггера поднимается изолированная среда, в нее подтягивается свежий код, и агент выполняет нужный сценарий. Настройки могут быть максимально гибкими.
Внутри уже есть типовые шаблоны: ежедневные дайджесты изменений в базе, поиск уязвимостей и простых багов, обновление документации. Пробуем!
cursor.com/blog/automations
😁64❤33👍33🔥12🤨5 3
Поздравляем подписчиц с Международным Женским Днем!
Желаем, чтобы в жизни было больше прорывов, чем в новостях про очередную AI-модель, и чтобы мечты сбывались чаще, чем обещания Илона Маска.
С праздником!🤍
Желаем, чтобы в жизни было больше прорывов, чем в новостях про очередную AI-модель, и чтобы мечты сбывались чаще, чем обещания Илона Маска.
С праздником!
Please open Telegram to view this post
VIEW IN TELEGRAM
3😁186💘94❤65🍓8🗿5❤🔥4🔥3 3👌2🤗1 1
Autoresearch от Андрея Карпаты
Встречаем новый проект от гуру: агент, который автономно проводит эксперименты и обучает LLM.
Autoresearch состоит из: самого агента, одной GPU и простой среды обучения маленькой LLM. Агент самостоятельно изменяет train.py, запускает короткие сессии обучения модели по 5 минут, оценивает улучшение метрик и сохраняет или отбрасывает изменения.
Так он может провести десятки экспериментов за ночь. Вы встаете – и получаете уже улучшенную модель, экономя себе несколько часов рутинного копания в коде (см.график с изменениями метрики по итерациям⬆️ ).
Все свои дополнительные инструкции можно дописать в program.md: где менять гиперпараметры, что исследовать. Исходный program.md сделан предельно простым, но при желании можно упороться и добавить мультиагентность, новые метрики, стратегии и прочее.
https://github.com/karpathy/autoresearch
Встречаем новый проект от гуру: агент, который автономно проводит эксперименты и обучает LLM.
Autoresearch состоит из: самого агента, одной GPU и простой среды обучения маленькой LLM. Агент самостоятельно изменяет train.py, запускает короткие сессии обучения модели по 5 минут, оценивает улучшение метрик и сохраняет или отбрасывает изменения.
Так он может провести десятки экспериментов за ночь. Вы встаете – и получаете уже улучшенную модель, экономя себе несколько часов рутинного копания в коде (см.график с изменениями метрики по итерациям
Все свои дополнительные инструкции можно дописать в program.md: где менять гиперпараметры, что исследовать. Исходный program.md сделан предельно простым, но при желании можно упороться и добавить мультиагентность, новые метрики, стратегии и прочее.
https://github.com/karpathy/autoresearch
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥194👍40❤29 15🤯13😁4🤨4🤔3❤🔥2
Современные туториалы от мировых математических гениев такие типа ⬆️
Кажется, для математиков пора официально вводить термин вайбпрувинг
А ссылка на новое видео Тао вот: https://youtu.be/JHEO7cplfk8
Кажется, для математиков пора официально вводить термин вайбпрувинг
А ссылка на новое видео Тао вот: https://youtu.be/JHEO7cplfk8
Please open Telegram to view this post
VIEW IN TELEGRAM
❤121😁96👍23🔥13🤔3😎1
This media is not supported in your browser
VIEW IN TELEGRAM
В стартапе Eon Systems ученые сделали первую полноценную цифровую эмуляцию мозга животного, которая способна управлять телом
Короче, на равных с искусственным интеллектом аля Джарвис в науке уже давно существует и другая идея: не обучать саму машину, а взять настоящий биологический мозг, полностью скопировать его в цифровую модель и запустить на роботе или компьютере. Особенно этот концепт знаком любителям научной фантастики.
Так вот ученые из Eon Systems заявляют, что они впервые создали такую систему и могут показывать ее в действии.
Они взяли мозг плодовой мухи, скопировали его и создали так называемый connectome: как бы полную карту всех нейронов мозга и связей между ними. То есть все нейроны, все соединения и сигналы синапсов.
Сам мезанизм такого копирования не свеж, и, вообще говоря, сама копия мозга мухи существует уже с 2024 года, НО что Eon Systems сделали впервые – так это соединили эту модель с настоящим телом в симуляции.
Другими словами, они впервые продемонтрировали полный цикл среда → сенсоры → мозг → моторные команды → движение тела. Это называется closing the sensorimotor loop – замыкание петли восприятия и действия. Причем получившаяся виртуальная муха демонтрирует не какой-то один тип поведения, а сразу несколько базовых паттернов.
Никаких искусственных нейросетей. Просто взяли карту мозга, подключили к телу, и это заработало. Хотя говорить, что совсем никакого ML там нет, было бы нечестно: даже если мы видим карту мозга, его динамика (пороги возбуждения, сила синапсов и тд) остается неизвестной, и ее тут как раз приближают моделями. Но это все равно нельзя назвать ИИ в привычном смысле слова.
Главное – что в целом работоспособность принципа brain upload +-подтверждена. Авторы пишут, что дальше все дело в масштабируемости. Для понимания, в мозге мухи примерно 140к нейронов (и даже его скопировать непросто), а у человека нейронов ~86 млрд.
Короче, на равных с искусственным интеллектом аля Джарвис в науке уже давно существует и другая идея: не обучать саму машину, а взять настоящий биологический мозг, полностью скопировать его в цифровую модель и запустить на роботе или компьютере. Особенно этот концепт знаком любителям научной фантастики.
Так вот ученые из Eon Systems заявляют, что они впервые создали такую систему и могут показывать ее в действии.
Они взяли мозг плодовой мухи, скопировали его и создали так называемый connectome: как бы полную карту всех нейронов мозга и связей между ними. То есть все нейроны, все соединения и сигналы синапсов.
Сам мезанизм такого копирования не свеж, и, вообще говоря, сама копия мозга мухи существует уже с 2024 года, НО что Eon Systems сделали впервые – так это соединили эту модель с настоящим телом в симуляции.
Другими словами, они впервые продемонтрировали полный цикл среда → сенсоры → мозг → моторные команды → движение тела. Это называется closing the sensorimotor loop – замыкание петли восприятия и действия. Причем получившаяся виртуальная муха демонтрирует не какой-то один тип поведения, а сразу несколько базовых паттернов.
Никаких искусственных нейросетей. Просто взяли карту мозга, подключили к телу, и это заработало. Хотя говорить, что совсем никакого ML там нет, было бы нечестно: даже если мы видим карту мозга, его динамика (пороги возбуждения, сила синапсов и тд) остается неизвестной, и ее тут как раз приближают моделями. Но это все равно нельзя назвать ИИ в привычном смысле слова.
Главное – что в целом работоспособность принципа brain upload +-подтверждена. Авторы пишут, что дальше все дело в масштабируемости. Для понимания, в мозге мухи примерно 140к нейронов (и даже его скопировать непросто), а у человека нейронов ~86 млрд.
1❤🔥112🔥51🤯41❤13 10😁6 6🤔1
Please open Telegram to view this post
VIEW IN TELEGRAM
🕊123😁92❤15🔥8🤔6🤓4💯2🤨2❤🔥1 1
Ничего необычного, просто в Китае прямо на улицах устанавливают всем желающим OpenClaw
Конкретно эти фотографии сделаны у офиса Tencent в Шэньчжэне. Там разработчики провели бесплатный ивент по установке OpenClaw. Говорят, пришло около тысячи человек.
Подобные мероприятия прошли также в Шанхае, Пекине и нескольких других городах.
Кстати, в Китае в целом сейчас планируют развернуть огромную программу поддержки OpenClaw. Они хотят создавать так называемые Lobster service zones: физические или облачные места, где OpenClaw уже развернут и настроен. Операторам будут выделять бюджет на хостинг, а люди и компании смогут пользоваться (почти) бесплатно.
Плюс разработчикам или компаниям, которые контрибьютят приложения/скиллы на OpenClaw для приоритетных отраслей, обещают до 2 млн юаней субсидий на проект. А проекты, которые признают «демонстрационными» (успешные применения OpenClaw), получают разовую выплату до 1 млн юаней. Это примерно 140к доллларов.
Конкретно эти фотографии сделаны у офиса Tencent в Шэньчжэне. Там разработчики провели бесплатный ивент по установке OpenClaw. Говорят, пришло около тысячи человек.
Подобные мероприятия прошли также в Шанхае, Пекине и нескольких других городах.
Кстати, в Китае в целом сейчас планируют развернуть огромную программу поддержки OpenClaw. Они хотят создавать так называемые Lobster service zones: физические или облачные места, где OpenClaw уже развернут и настроен. Операторам будут выделять бюджет на хостинг, а люди и компании смогут пользоваться (почти) бесплатно.
Плюс разработчикам или компаниям, которые контрибьютят приложения/скиллы на OpenClaw для приоритетных отраслей, обещают до 2 млн юаней субсидий на проект. А проекты, которые признают «демонстрационными» (успешные применения OpenClaw), получают разовую выплату до 1 млн юаней. Это примерно 140к доллларов.
3😁160🔥105👍36❤17 15🤯11🗿7🕊3🐳2 2🤔1