Forwarded from Про AI
Microsoft анонсировали новую функцию для Windows — виртуального помощника Copilot Appearance, заменяющего привычную «скрепку».
Этот помощник будет реагировать на ваши действия и запросы в реальном времени: улыбаться, кивать, говорить, давать советы и даже запоминать контекст беседы.
Ожидается, что новая функция появится уже в этом году.
Про AI
Этот помощник будет реагировать на ваши действия и запросы в реальном времени: улыбаться, кивать, говорить, давать советы и даже запоминать контекст беседы.
Ожидается, что новая функция появится уже в этом году.
Про AI
😁2
Forwarded from 42 секунды
Bloomberg: Китайский Unitree начал продавать роботов-гуманоидов по цене ниже $6 тыс.
– Стартап анонсировал робота R1 по стартовой цене $5,9 тыс.
– Новая модель робота R1 от Unitree весит всего лишь 25 кг
– Робот-гуманоид Unitree также оснащен мультимодальным ИИ
– Китайские компании активно продвигают своих роботов
– Они намерены составить конкуренцию Boston Dynamics и др.
– Роботов-гуманоидов можно использовать на заводах и др.
– Цена роботов имеет решающее значение для распространения
– Более старая модель робота G1 от Unitree стоила $16 тыс.
– Продвинутая и крупная модель робота H1 стоит от $90 тыс.
– UBTech Robotics планирует выпустить робота за $20 тыс.
@ftsec
– Стартап анонсировал робота R1 по стартовой цене $5,9 тыс.
– Новая модель робота R1 от Unitree весит всего лишь 25 кг
– Робот-гуманоид Unitree также оснащен мультимодальным ИИ
– Китайские компании активно продвигают своих роботов
– Они намерены составить конкуренцию Boston Dynamics и др.
– Роботов-гуманоидов можно использовать на заводах и др.
– Цена роботов имеет решающее значение для распространения
– Более старая модель робота G1 от Unitree стоила $16 тыс.
– Продвинутая и крупная модель робота H1 стоит от $90 тыс.
– UBTech Robotics планирует выпустить робота за $20 тыс.
@ftsec
Forwarded from GPT/ChatGPT/AI Central Александра Горного
Переписка с ChatGPT может быть использована в суде
Глава OpenAI признал, что в отличие от настоящего психотерапевта или адвоката, разговоры с ботом не защищены законом.
Если на OpenAI подадут в суд, переписку могут запросить, даже если вы её удалили — по политике компании, чаты стираются через 30 дней, но могут быть сохранены по требованию суда или “по соображениям безопасности”.
“Когда вы говорите с терапевтом, адвокатом или врачом, у вас есть право на конфиденциальность. А с ChatGPT — нет. Мы это ещё не урегулировали”, — сказал Альтман.
https://www.businessinsider.com/chatgpt-privacy-therapy-sam-altman-openai-lawsuit-2025-7?international=true&r=US&IR=T
Глава OpenAI признал, что в отличие от настоящего психотерапевта или адвоката, разговоры с ботом не защищены законом.
Если на OpenAI подадут в суд, переписку могут запросить, даже если вы её удалили — по политике компании, чаты стираются через 30 дней, но могут быть сохранены по требованию суда или “по соображениям безопасности”.
“Когда вы говорите с терапевтом, адвокатом или врачом, у вас есть право на конфиденциальность. А с ChatGPT — нет. Мы это ещё не урегулировали”, — сказал Альтман.
https://www.businessinsider.com/chatgpt-privacy-therapy-sam-altman-openai-lawsuit-2025-7?international=true&r=US&IR=T
Forwarded from эйай ньюз
GLM 4.5 — китайский опенсорс продолжает доминировать
Очередная очень сильная открытая MoE модель от китайцев, с очень хорошими результатами на бенчах. Гибридний ризонер, с упором на тулюз. Доступна по MIT лицензии, 128к контекста, нативный function calling, из коробки работают стриминг и batching, есть FP8‑инференс и совместимость с vLLM/SGLang.
Как и Kimi K2 модельку тренировали с Muon, но в отличие от Kimi авторы использовали QK норму вместо клиппинга — Kimi такой трюк не позволило провернуть использование MLA, из-за чего им пришлось придумывать свою версию оптимайзера. Для спекулятивного декодинга получше модельку тренировали с MTP. Она заметно глубже чем другие открытые китайские MoE — это повышает перформанс, за счёт роста размера KV-кэша. Вместе с этим они используют заметно больше attention heads. Это хоть и не помогает лоссу, но заметно улучшает ризонинг бенчмарки.
Модель идёт в двух размерах — 355B (32B active) и 106B (12B active). Претрейн был на 22 триллионах токенов — 15 триллионов токенов обычных данных, а после них 7 триллионов кода с ризонингом. На мидтрейне в модель запихнули по 500 миллиардов токенов кода и ризонинг данных с контекстом расширенным до 32к, а после этого 100 миллиардов long context и агентных данных при контексте уже в 128к.
Посттрейн двухэтапный — сначала из базовой модели через cold‑start+RL тренируют три эксперта (reasoning модель, agentic модель, и для общих тасков) и сводят их знания в одну модель через self‑distillation. Затем идёт объединённое обучение: общий SFT → Reasoning RL → Agentic RL → General RL.
Для ризонинга применяют одноступенчатый RL на полном 64K‑контексте с curriculum по сложности, динамическими температурами и адаптивным клиппингом. Агентные навыки тренируют на верифицируемых треках — поиск информации и программирование с обратной связью по исполнению. Полученные улучшения помогают и deep search и общему tool‑use. Кстати, их посттрейн фреймворк открытый и лежит на гитхабе.
Веса
Демо
Блогпост
Посттрейн фреймворк
@ai_newz
Очередная очень сильная открытая MoE модель от китайцев, с очень хорошими результатами на бенчах. Гибридний ризонер, с упором на тулюз. Доступна по MIT лицензии, 128к контекста, нативный function calling, из коробки работают стриминг и batching, есть FP8‑инференс и совместимость с vLLM/SGLang.
Как и Kimi K2 модельку тренировали с Muon, но в отличие от Kimi авторы использовали QK норму вместо клиппинга — Kimi такой трюк не позволило провернуть использование MLA, из-за чего им пришлось придумывать свою версию оптимайзера. Для спекулятивного декодинга получше модельку тренировали с MTP. Она заметно глубже чем другие открытые китайские MoE — это повышает перформанс, за счёт роста размера KV-кэша. Вместе с этим они используют заметно больше attention heads. Это хоть и не помогает лоссу, но заметно улучшает ризонинг бенчмарки.
Модель идёт в двух размерах — 355B (32B active) и 106B (12B active). Претрейн был на 22 триллионах токенов — 15 триллионов токенов обычных данных, а после них 7 триллионов кода с ризонингом. На мидтрейне в модель запихнули по 500 миллиардов токенов кода и ризонинг данных с контекстом расширенным до 32к, а после этого 100 миллиардов long context и агентных данных при контексте уже в 128к.
Посттрейн двухэтапный — сначала из базовой модели через cold‑start+RL тренируют три эксперта (reasoning модель, agentic модель, и для общих тасков) и сводят их знания в одну модель через self‑distillation. Затем идёт объединённое обучение: общий SFT → Reasoning RL → Agentic RL → General RL.
Для ризонинга применяют одноступенчатый RL на полном 64K‑контексте с curriculum по сложности, динамическими температурами и адаптивным клиппингом. Агентные навыки тренируют на верифицируемых треках — поиск информации и программирование с обратной связью по исполнению. Полученные улучшения помогают и deep search и общему tool‑use. Кстати, их посттрейн фреймворк открытый и лежит на гитхабе.
Веса
Демо
Блогпост
Посттрейн фреймворк
@ai_newz
Forwarded from TechSparks
Очерк истории Perplexity и его фаундера Аравинда Шриниваса очень вовремя опубликован — компания все больше выходит из тени двух гигантов, OpenAI и Google, выясняющих отношения на тему того, кто будет определять будущее поведение пользователей в интернете.
Повороты сюжета и детали сценария достойны хорошего сериала — возможно, его когда-нибудь и снимут.
Начать с того, что Шринивас родом из того же города, что и Сундар Пичаи и его знаменитый земляк был для него кумиром, когда Шринивас стажировался в DeepMind. Не раз прочитаная история создания Гугла и вдохновила на создание своего стартапа.
А дальше было много решений, за которыми теперь пристально следят большие опытные игроки. Отказ от разработки собственной модели, прямой вызов Гуглу: желание создать answer engine вместо search engine. Причем эта идея когда-то нравилась Брину, но в те времена (2001 год) технологии не позволяли ее реализовать, и ставка была сделана на ссылки, а не ответы.
Perplexity старается быть продуктовой компанией, и пока у нее получается. Иногда настолько хорошо, что первый AI-native браузер выпустили они. (Я, кстати, пользуюсь Comet несколько недель, и он мне нравится все больше). Потому вокруг компании вьются желающие ее купить, но пока, несмотря на большие расходы, Perplexity умудряется сохранять независимость и находить инвесторов при оценке в 18 млрд:)
В общем, почитайте:)
https://fortune.com/article/perplexity-ceo-aravind-srinivas-ai/
Повороты сюжета и детали сценария достойны хорошего сериала — возможно, его когда-нибудь и снимут.
Начать с того, что Шринивас родом из того же города, что и Сундар Пичаи и его знаменитый земляк был для него кумиром, когда Шринивас стажировался в DeepMind. Не раз прочитаная история создания Гугла и вдохновила на создание своего стартапа.
А дальше было много решений, за которыми теперь пристально следят большие опытные игроки. Отказ от разработки собственной модели, прямой вызов Гуглу: желание создать answer engine вместо search engine. Причем эта идея когда-то нравилась Брину, но в те времена (2001 год) технологии не позволяли ее реализовать, и ставка была сделана на ссылки, а не ответы.
Perplexity старается быть продуктовой компанией, и пока у нее получается. Иногда настолько хорошо, что первый AI-native браузер выпустили они. (Я, кстати, пользуюсь Comet несколько недель, и он мне нравится все больше). Потому вокруг компании вьются желающие ее купить, но пока, несмотря на большие расходы, Perplexity умудряется сохранять независимость и находить инвесторов при оценке в 18 млрд:)
В общем, почитайте:)
https://fortune.com/article/perplexity-ceo-aravind-srinivas-ai/
Fortune
How Aravind Srinivas turned Perplexity AI into an $18 billion would-be Google killer | Fortune
AI-powered summaries from Perplexity have pressured the search giant to adapt, and its Comet browser is an agentic AI breakthrough.
Forwarded from vc.ru
This media is not supported in your browser
VIEW IN TELEGRAM
Китайская Tencent выпустила модель Hunyuan3D World Model. Она создаёт интерактивные 3D-миры для игр, фильмов и VR-приложений.
По получившимся 3D-сценам можно перемещаться или «осматривать» их в режиме панорамы
vc.ru/ai/2125050
По получившимся 3D-сценам можно перемещаться или «осматривать» их в режиме панорамы
vc.ru/ai/2125050
Forwarded from Ринат Шакиров | Промпты для Midjourney | ChatGPT (Ринат Шакиров)
Media is too big
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Qwen выпустил новую видеомодель Wan 2.2
Теперь вы можете создавать кинематографические кадры, создавать видео с реальными эмоциями и управлять движением камеры с гораздо большей детализацией.
Детали:
🔴 Первая в мире видеомодель MoE с открытым исходным кодом: наша архитектура Mix-of-Experts масштабирует емкость модели без увеличения вычислительных затрат.
Специализированные эксперты совместно справляются с диффузионным шумоподавлением временных шагов!
🔴 Кинематографическая система управления: напрямую управляйте освещением, цветом, движением камеры, композицией и многим другим!
🔴 Модели и возможности с полностью открытым исходным кодом: доступ к преобразованию текста в видео (wan2.2-t2V-A14B), преобразованию изображения в видео (wan2.2-i2V-A14B) и унифицированному созданию видео (wan2.2-TI2V-5B)!
🔴 Превосходная способность генерировать сложные движения и многие другие фундаментальные улучшения!
Эта модель поддерживает как преобразование текста в видео, так и изображение в видео с разрешением 720P и частотой 24 кадра в секунду.
Тестить тут
Гитхаб
Hugging Face
#новости@dailyprompts
Теперь вы можете создавать кинематографические кадры, создавать видео с реальными эмоциями и управлять движением камеры с гораздо большей детализацией.
Детали:
Специализированные эксперты совместно справляются с диффузионным шумоподавлением временных шагов!
Эта модель поддерживает как преобразование текста в видео, так и изображение в видео с разрешением 720P и частотой 24 кадра в секунду.
Тестить тут
Гитхаб
Hugging Face
#новости@dailyprompts
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Ринат Шакиров | Промпты для Midjourney | ChatGPT (Ринат Шакиров)
This media is not supported in your browser
VIEW IN TELEGRAM
Runway выпустила функцию Aleph
Runway выпустила Aleph, мощную контекстную видео-модель для редактирования и генерации видео непосредственно на платформе.
Основные моменты:
🔴 Современное редактирование видео в режиме чата
🔴 Редактируйте, анимируйте и создавайте видео в диалоговом режиме
🔴 Система построена на той же инфраструктуре, что и Runway Gen 4, для обеспечения согласованности сцен и снимков
Тестить тут
#новости@dailyprompts
Runway выпустила Aleph, мощную контекстную видео-модель для редактирования и генерации видео непосредственно на платформе.
Основные моменты:
Тестить тут
#новости@dailyprompts
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Всеволод Викулин | AI разбор
Продолжаем грызть науку LLM-строения.
В прошлых 5 публикациях мы поняли, из каких кубиков состоит LLM-система. Сейчас пришло время из них что-то собирать.
А как собирать?
Тема 6. Этапы LLM-проекта
Я делю разработку на 4 этапа:
1) Бизнес постановка
2) Создание прототипа
3) Упрощение протототипа
4) Деплой системы и мониторинг качества
Бизнес постановка
Нам нужны частотные и дорогие задачи. Важно, чтобы была толерантность к ошибкам — близкое к 100% качество у LLM бывает разве что в простой классификации. Классические примеры:
- Бот поддержки клиентов — большой объем, средняя толерантность, средняя стоимость операции
- Copilot для разработчика — средний объем, высокая толерантность (copilot же), высокая стоимость операции
- Автоматизация документооборота— средний объем, средняя толерантность, средняя стоимость операции
Создание прототипа
Проблема подавляющего большинства ИИ-проектов: когда начинается плотная разработка никто не понимает, что надо сделать. И начинают выдумывать на ходу, когда надо не выдумывать, а надо уже делать. Подумать надо было заранее. И все ваше подумывание отразить в прототипе.
Цель прототипа: получить продуктовый ориентир, что наша система должна уметь. При этом там могут быть какие угодно большие модели, он может работать час на запрос и ломаться от промпт-инъекций. Не ругайте его. Он исправится на следующем этапе. Признак успеха этого этапа: человек, который делал бизнес постановку скажет: "вот сделайте такое, только быстро, и я буду счастлив".
Важно: прототип могут и должны собирать люди, которые участвовали в этапе бизнес постановки. Иначе у вас получится опять сферическая LLM в вакууме. Про это читайте пост.
Упрощение протототипа
Здесь сильные технические люди крутят-вертят LLM. Чтобы прототип не стоил, как запуск ракеты Илона Маска.
Большое разнообразие различных вариантов:
1) Дистилляция. Большие модели нужно сжать в модели поменьше. Качество может теряться, но если мы решаем конкретную узкую задачу, должно упасть не сильно. Вот тут подробный разбор метода.
2) Дообучение. Можно не дистиллировать, а просто взять модель поменьше. Но тогда придется их покрутить, так как они справляться будут хуже. Здесь приходит на помощь дообучение (особенно Reinforcement Learning). Вот тут много примеров по дообучению разных LLM разными методами.
3) Работа с контекстом окном. Убирание лишнего из контекста, суммаризация (я пока не устал шутить про контекст-инженера)
4) Оптимизации. Тут отдельный мир: размер батча/квантизация/спекулятивный декодинг. Про это есть отдельная методичка в этом посте.
И еще куча-куча всего. Тут живет мощная LLM-инженерия.
Деплой и мониторинг качества
Здесь происходит классическая разработка. Пишется сервис, в котором работает наша эффективная система. Самое важное: нам нужно контролировать качество этого сервиса. При чем не разово, а постоянно. Зачем?
Во-первых, мы могли где-то набагать при написании сервиса. Во-вторых, мы можем набагать попозже. И еще есть distribution shift, когда пользователи по-другому начинаются пользоваться системой, и она начинает хуже работать. Про это неплохо написано в моем любимом учебнике по DL.
Литература для обязательного изучения
- Довольно понятная (мне) моя статья. Часть материала пересекается с постом.
- Гайд, как быстро улучшать AI-продукты
- Очень крутая статья про мониторинг и distribution shift
Как всегда, жду вопросы в комментариях или в личных сообщениях.
Дальше будем разбирать методы оценки качества для LLM, готовьтесь.
#llm_system_design
В прошлых 5 публикациях мы поняли, из каких кубиков состоит LLM-система. Сейчас пришло время из них что-то собирать.
А как собирать?
Тема 6. Этапы LLM-проекта
Я делю разработку на 4 этапа:
1) Бизнес постановка
2) Создание прототипа
3) Упрощение протототипа
4) Деплой системы и мониторинг качества
Бизнес постановка
Нам нужны частотные и дорогие задачи. Важно, чтобы была толерантность к ошибкам — близкое к 100% качество у LLM бывает разве что в простой классификации. Классические примеры:
- Бот поддержки клиентов — большой объем, средняя толерантность, средняя стоимость операции
- Copilot для разработчика — средний объем, высокая толерантность (copilot же), высокая стоимость операции
- Автоматизация документооборота— средний объем, средняя толерантность, средняя стоимость операции
Создание прототипа
Проблема подавляющего большинства ИИ-проектов: когда начинается плотная разработка никто не понимает, что надо сделать. И начинают выдумывать на ходу, когда надо не выдумывать, а надо уже делать. Подумать надо было заранее. И все ваше подумывание отразить в прототипе.
Цель прототипа: получить продуктовый ориентир, что наша система должна уметь. При этом там могут быть какие угодно большие модели, он может работать час на запрос и ломаться от промпт-инъекций. Не ругайте его. Он исправится на следующем этапе. Признак успеха этого этапа: человек, который делал бизнес постановку скажет: "вот сделайте такое, только быстро, и я буду счастлив".
Важно: прототип могут и должны собирать люди, которые участвовали в этапе бизнес постановки. Иначе у вас получится опять сферическая LLM в вакууме. Про это читайте пост.
Упрощение протототипа
Здесь сильные технические люди крутят-вертят LLM. Чтобы прототип не стоил, как запуск ракеты Илона Маска.
Большое разнообразие различных вариантов:
1) Дистилляция. Большие модели нужно сжать в модели поменьше. Качество может теряться, но если мы решаем конкретную узкую задачу, должно упасть не сильно. Вот тут подробный разбор метода.
2) Дообучение. Можно не дистиллировать, а просто взять модель поменьше. Но тогда придется их покрутить, так как они справляться будут хуже. Здесь приходит на помощь дообучение (особенно Reinforcement Learning). Вот тут много примеров по дообучению разных LLM разными методами.
3) Работа с контекстом окном. Убирание лишнего из контекста, суммаризация (я пока не устал шутить про контекст-инженера)
4) Оптимизации. Тут отдельный мир: размер батча/квантизация/спекулятивный декодинг. Про это есть отдельная методичка в этом посте.
И еще куча-куча всего. Тут живет мощная LLM-инженерия.
Деплой и мониторинг качества
Здесь происходит классическая разработка. Пишется сервис, в котором работает наша эффективная система. Самое важное: нам нужно контролировать качество этого сервиса. При чем не разово, а постоянно. Зачем?
Во-первых, мы могли где-то набагать при написании сервиса. Во-вторых, мы можем набагать попозже. И еще есть distribution shift, когда пользователи по-другому начинаются пользоваться системой, и она начинает хуже работать. Про это неплохо написано в моем любимом учебнике по DL.
Литература для обязательного изучения
- Довольно понятная (мне) моя статья. Часть материала пересекается с постом.
- Гайд, как быстро улучшать AI-продукты
- Очень крутая статья про мониторинг и distribution shift
Как всегда, жду вопросы в комментариях или в личных сообщениях.
Дальше будем разбирать методы оценки качества для LLM, готовьтесь.
#llm_system_design
Forwarded from эйай ньюз
Для подписчиков Claude введут недельные лимиты
Изменение войдёт в силу через месяц — 28 августа и будет касаться как подписчиков Plus так и подписчиков Max. По словам Anthropic, это нужно так как некоторые пользователи подписки Max используют запросов в Claude Code на десятки тысяч долларов по API прайсингу.
Сейчас лимиты полностью сбрасываются каждые 5 часов, после апдейта этот лимит останется, но поверх него будет введён новый лимит на использование, который будет сбрасываться раз в неделю. После достижения лимита продолжить пользователям предложат платить за API. По словам Anthropic, изменения заденут менее 5% пользователей.
@ai_newz
Изменение войдёт в силу через месяц — 28 августа и будет касаться как подписчиков Plus так и подписчиков Max. По словам Anthropic, это нужно так как некоторые пользователи подписки Max используют запросов в Claude Code на десятки тысяч долларов по API прайсингу.
Сейчас лимиты полностью сбрасываются каждые 5 часов, после апдейта этот лимит останется, но поверх него будет введён новый лимит на использование, который будет сбрасываться раз в неделю. После достижения лимита продолжить пользователям предложат платить за API. По словам Anthropic, изменения заденут менее 5% пользователей.
@ai_newz
Forwarded from vc.ru
Microsoft начала тестировать в Edge режим Copilot — он добавляет в браузер ИИ-помощника, который умеет просматривать страницы, сравнивать содержимое вкладок, анализировать действия в интернете и помогать с бронированиями или покупками.
Пока он доступен бесплатно
vc.ru/ai/2126234
Пока он доступен бесплатно
vc.ru/ai/2126234