Идеальный спальный район, если вы живёте и работаете в виртуальной реальности.
#Китай
------
@tsingular
#Китай
------
@tsingular
🤯17😁6
Pipedream - Гигантская коллекция MCP серверов на все случаи жизни.
https://mcp.pipedream.com/
Перечень категорий для понимания:
Artificial Intelligence (AI),
Business Management,
CRM,
Commerce,
Communication,
Data Analytics,
Databases,
Developer Tools,
Entertainment,
File Storage,
Help Desk & Support,
Human Resources,
Infrastructure & Cloud,
Language Tools,
Learning & Education,
Marketing,
Productivity,
Smart Home Automation,
Social Media,
Surveys & Forms,
Travel,
Web & App Development
Все будет MCP!
#MCP #каталог
———
@tsingular
https://mcp.pipedream.com/
Перечень категорий для понимания:
Artificial Intelligence (AI),
Business Management,
CRM,
Commerce,
Communication,
Data Analytics,
Databases,
Developer Tools,
Entertainment,
File Storage,
Help Desk & Support,
Human Resources,
Infrastructure & Cloud,
Language Tools,
Learning & Education,
Marketing,
Productivity,
Smart Home Automation,
Social Media,
Surveys & Forms,
Travel,
Web & App Development
Все будет MCP!
#MCP #каталог
———
@tsingular
✍6⚡1👀1
🌐 Глобальная гонка AI-образования: Китай внедряет обязательную программу
Китай запускает масштабную инициативу по внедрению искусственного интеллекта в образование — от начальной до старшей школы.
🇨🇳 Китай: системный подход к AI-образованию
Ключевые шаги:
• Начальная школа: формирование базовых понятий через знакомство с технологиями распознавания голоса и классификации изображений
• Средняя школа: углубленное изучение логики AI, анализ процессов машинного обучения, развитие критического мышления
• Старшая школа: практическое проектирование и совершенствование алгоритмических моделей, развитие междисциплинарного системного мышления
• Обязательный минимум: 8 часов AI-обучения в год, начиная с 1 сентября 2025 года
• Подготовка педагогов: интеграция AI-компетенций в программу повышения квалификации учителей
🌏 Глобальный контекст: как другие страны развивают AI-образование
🇰🇷 Южная Корея
• К 2025 году: AI-курсы на всех уровнях образования
• Персонализированные AI-репетиторы для адаптации заданий под образовательный уровень ученика
• $740 млн на цифровую трансформацию образования (2024-2026)
• Активная подготовка педагогов через систему KERIS
🇸🇬 Сингапур
• Стратегия "Smart Nation" с целью глобального лидерства в AI к 2030 году
• AI-компаньоны для персонализированной обратной связи и мотивации учащихся
• К 2026 году: обязательная подготовка всех учителей по AI-технологиям
• Исследовательский центр AICET для разработки инновационных образовательных решений
🇯🇵 Япония
• Комплексное руководство по интеграции генеративного AI в образование с фокусом на "человекоцентричный" подход
• 60% государственных школ уже внедрили AI-инструменты обучения за последние два года
• Платформа LEAF для персонализации контента, особенно для учащихся с особыми потребностями
• 92% японских компаний планируют интегрировать AI в свои операции к 2025 году, что создает спрос на соответствующие навыки
🇺🇸 США
• Децентрализованная модель с федеральными грантами штатам и округам
• Добровольные рамки AI4K12 для разработки учебных программ
• Значительные различия в доступе и качестве между регионами и школами
• Отсутствие единой национальной стратегии внедрения AI в образование
• Указ Трампа об усилении образования с ИИ
🇪🇺 Европейский Союз
• План действий AI Continent для усиления инновационного потенциала ЕС
• Инициатива InvestAI с мобилизацией €200 млрд инвестиций
• Разработка рамочной программы AI-грамотности для начального и среднего образования совместно с ОЭСР
• Дорожная карта по цифровому образованию до 2030 года
🇮🇳 Индия
• Инициатива YUVAi для учащихся 8-12 классов
• Использование AI для визуализации сложных математических и научных концепций
• Виртуальные лаборатории для повышения доступности в недостаточно обслуживаемых регионах
• Раннее прогнозирование успеваемости учащихся для своевременного вмешательства
Прогнозы показывают, что к 2030 году страны с системными подходами к внедрению AI в образование получат значительное конкурентное преимущество на глобальном технологическом рынке.
#образование #Китай
———
@tsingular
Китай запускает масштабную инициативу по внедрению искусственного интеллекта в образование — от начальной до старшей школы.
🇨🇳 Китай: системный подход к AI-образованию
Ключевые шаги:
• Начальная школа: формирование базовых понятий через знакомство с технологиями распознавания голоса и классификации изображений
• Средняя школа: углубленное изучение логики AI, анализ процессов машинного обучения, развитие критического мышления
• Старшая школа: практическое проектирование и совершенствование алгоритмических моделей, развитие междисциплинарного системного мышления
• Обязательный минимум: 8 часов AI-обучения в год, начиная с 1 сентября 2025 года
• Подготовка педагогов: интеграция AI-компетенций в программу повышения квалификации учителей
🌏 Глобальный контекст: как другие страны развивают AI-образование
🇰🇷 Южная Корея
• К 2025 году: AI-курсы на всех уровнях образования
• Персонализированные AI-репетиторы для адаптации заданий под образовательный уровень ученика
• $740 млн на цифровую трансформацию образования (2024-2026)
• Активная подготовка педагогов через систему KERIS
🇸🇬 Сингапур
• Стратегия "Smart Nation" с целью глобального лидерства в AI к 2030 году
• AI-компаньоны для персонализированной обратной связи и мотивации учащихся
• К 2026 году: обязательная подготовка всех учителей по AI-технологиям
• Исследовательский центр AICET для разработки инновационных образовательных решений
🇯🇵 Япония
• Комплексное руководство по интеграции генеративного AI в образование с фокусом на "человекоцентричный" подход
• 60% государственных школ уже внедрили AI-инструменты обучения за последние два года
• Платформа LEAF для персонализации контента, особенно для учащихся с особыми потребностями
• 92% японских компаний планируют интегрировать AI в свои операции к 2025 году, что создает спрос на соответствующие навыки
🇺🇸 США
• Децентрализованная модель с федеральными грантами штатам и округам
• Добровольные рамки AI4K12 для разработки учебных программ
• Значительные различия в доступе и качестве между регионами и школами
• Отсутствие единой национальной стратегии внедрения AI в образование
• Указ Трампа об усилении образования с ИИ
🇪🇺 Европейский Союз
• План действий AI Continent для усиления инновационного потенциала ЕС
• Инициатива InvestAI с мобилизацией €200 млрд инвестиций
• Разработка рамочной программы AI-грамотности для начального и среднего образования совместно с ОЭСР
• Дорожная карта по цифровому образованию до 2030 года
🇮🇳 Индия
• Инициатива YUVAi для учащихся 8-12 классов
• Использование AI для визуализации сложных математических и научных концепций
• Виртуальные лаборатории для повышения доступности в недостаточно обслуживаемых регионах
• Раннее прогнозирование успеваемости учащихся для своевременного вмешательства
Прогнозы показывают, что к 2030 году страны с системными подходами к внедрению AI в образование получат значительное конкурентное преимущество на глобальном технологическом рынке.
#образование #Китай
———
@tsingular
👍27🔥10✍4⚡4😢4❤1👀1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
К вопросу о замене кожаных.
Есть такой известный проект MasterClass.
Там курсы и лекции от известных авторитетов (ну или не очень известных).
Так вот, они взяли (пока) четырех самых хайповых типа Гордона Рамси и Марка Кубана и сделали из них ИИ-двойников. Теперь они называются ИИ-коучи, обученные на материалах кожаных звезд.
Все это стоит отдельной (от мастерклассовской) подписки и вы получаете доступ к ИИ-копиям селебов.
Можете перебеседовать с ИИ-Гордоном за стейки или запитчить свой стартап ИИ-Кубану
Мой пойнт в том, что равно как и с актерами, те звезды, которые уже имеют имя, будут получать еще пару нулей в контракте за использование ИИ-образа. А безымянным дикторам или актерам озвучки (и не только озвучки) придется выбирать, кормить свою морду\голос в ИИ или пытаться пробиться по старинке.
https://oncall.masterclass.com/
P/S/ Говорят, что если предложить ИИ-Гордону Рамси сунуть стейк в микроволновку, он все равно не начинает материться. Цензура там превыше всего.
@cgevent
Есть такой известный проект MasterClass.
Там курсы и лекции от известных авторитетов (ну или не очень известных).
Так вот, они взяли (пока) четырех самых хайповых типа Гордона Рамси и Марка Кубана и сделали из них ИИ-двойников. Теперь они называются ИИ-коучи, обученные на материалах кожаных звезд.
Все это стоит отдельной (от мастерклассовской) подписки и вы получаете доступ к ИИ-копиям селебов.
Можете перебеседовать с ИИ-Гордоном за стейки или запитчить свой стартап ИИ-Кубану
Мой пойнт в том, что равно как и с актерами, те звезды, которые уже имеют имя, будут получать еще пару нулей в контракте за использование ИИ-образа. А безымянным дикторам или актерам озвучки (и не только озвучки) придется выбирать, кормить свою морду\голос в ИИ или пытаться пробиться по старинке.
https://oncall.masterclass.com/
P/S/ Говорят, что если предложить ИИ-Гордону Рамси сунуть стейк в микроволновку, он все равно не начинает материться. Цензура там превыше всего.
@cgevent
🔥8
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
➡️ Как работает:
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
✔️ Стек:
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.
🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.
🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw
@ai_machinelearning_big_data
#tts #llm #opensource
RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.
1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через
RealtimeSTT (на базе Whisper)4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через
RealtimeTTS (Coqui XTTSv2, Kokoro и др.)6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через
turndetect.py✨ Особенности:
- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API
- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker
@ai_machinelearning_big_data
#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍3⚡2❤1
🚀 MCP Курс от Anthropic на платформе DeepLearning.ai
Anthropic выпустила новый курс по Model Context Protocol (MCP).
Уровень: Средний
Продолжительность: 1 час 38 минут
Преподаватель: Elie Schoppik (Anthropic)
Формат: Бесплатный онлайн-курс
Структура курса:
11 уроков
7 практических примеров кода
Видеоматериалы с пошаговыми инструкциями
По окончании курса вы сможете создавать AI-приложения, способные подключаться к экосистеме MCP-серверов с минимальными интеграционными усилиями.
В курсе также рассматривается будущее MCP:
- Мульти-агентная архитектура
- MCP Registry API
- Обнаружение серверов
- Авторизация и аутентификация
Курс ведет Elie Schoppik, технический преподаватель Anthropic, и рассчитан на разработчиков с базовым пониманием Python и опытом работы с LLM.
#MCP #Anthropic #DeepLearning #обучение
———
@tsingular
Anthropic выпустила новый курс по Model Context Protocol (MCP).
Уровень: Средний
Продолжительность: 1 час 38 минут
Преподаватель: Elie Schoppik (Anthropic)
Формат: Бесплатный онлайн-курс
Структура курса:
11 уроков
7 практических примеров кода
Видеоматериалы с пошаговыми инструкциями
По окончании курса вы сможете создавать AI-приложения, способные подключаться к экосистеме MCP-серверов с минимальными интеграционными усилиями.
В курсе также рассматривается будущее MCP:
- Мульти-агентная архитектура
- MCP Registry API
- Обнаружение серверов
- Авторизация и аутентификация
Курс ведет Elie Schoppik, технический преподаватель Anthropic, и рассчитан на разработчиков с базовым пониманием Python и опытом работы с LLM.
#MCP #Anthropic #DeepLearning #обучение
———
@tsingular
⚡7✍4👍2
Forwarded from Machinelearning
Google DeepMind представили AlphaEvolve — агент на базе Gemini, способный автоматически генерировать новые алгоритмы и находить оптимальные решения сложных задач.
🔘 Генерирует быстрые алгоритмы умножения матриц
🔘 Находит новые решения математических задач
🔘 Оптимизирует работу дата-центров, чипов и обучения ИИ модель за счёт сгенерированный алгоритмов
1) Генерация идей с помощью LLMs: Модель Gemini анализирует существующие подходы к решению задачи и предлагает новые алгоритмические идеи, используя свой широкий контекст и знания.
2) Автоматическая оценка: Каждый предложенный алгоритм проходит через систему автоматической оценки, которая измеряет его эффективность, точность и другие ключевые метрики, позволяя объективно сравнивать различные решения.
3) Эволюционное улучшение: AlphaEvolve применяет эволюционные методы, такие как мутация и рекомбинация, чтобы постепенно улучшать алгоритмы, объединяя лучшие элементы из различных решений и отбрасывая менее эффективные варианты.
Этот подход уже продемонстрировал свою эффективность: AlphaEvolve смог обнаружить новые, более эффективные алгоритмы умножения матриц, превосходящие предыдущие достижения, такие как AlphaTensor. Это открывает возможности для оптимизации вычислений в дата-центрах, проектировании чипов и обучении ИИ-моделей.
Google также применили AlphaEvolve к более чем 50 открытым задачам в области:
✍️ математического анализа,
📐 геометрии,
➕ комбинаторики и
🔂 теории чисел — включая задачу о числе поцелуев (kissing number problem).
🔵 В 75% случаев агент открыл лучшее из известных решений.
🔵 В 20% случаев он улучшил ранее известные решения, тем самым сделав новые открытия.
Доступ пока не дают, но выглядит очень интересно.
@ai_machinelearning_big_data
📎 Подробнее
#google #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
Что умеет Wan2.1-VACE:
💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.
🔍 Ключевые особенности:
▪ SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.
▪ Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.
▪ Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..
▪ Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.
- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.
@ai_machinelearning_big_data
#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
ChatGPT 4.1 теперь есть не только в API, но в веб интерфейсе.
Рекомендуется для разработки кода.
Быстрая и достаточно умная по меркам OpenAI :)
(фанатам Соннет 3.7 и Gemini 0506 не пригодится )
#OpenAI #chatGPT
———
@tsingular
Рекомендуется для разработки кода.
Быстрая и достаточно умная по меркам OpenAI :)
#OpenAI #chatGPT
———
@tsingular
👍5😁4
Корпорация из Редмонда вводит голосовую активацию своего цифрового ассистента в Windows 11 через команду 'Hey, Copilot!'.
В тестовом режиме уже доступна участником программы Windows Insiders.
После произнесения ключевой фразы появляется плавающий интерфейс микрофона и звуковое подтверждение активации.
Технология использует локальное распознавание с 10-секундным аудиобуфером без отправки данных в облако.
Система работает офлайн, хотя полный функционал Copilot Voice требует сетевого соединения.
Обновление доступно пользователям с англоязычным интерфейсом при наличии версии приложения 1.25051.10.0 или новее.
Привет, товарищ майор! :)
#Microsoft #Copilot #Voice
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡1👍1
👀Ученые MIT обнаружили, что модели машинного зрения не понимают отрицание
Исследователи MIT обнаружили фундаментальный недостаток в работе vision-language моделей (VLM) - они не способны понимать отрицания ("нет", "не", "отсутствует"), что может привести к катастрофическим последствиям в критически важных сферах.
Суть проблемы:
• VLM игнорируют слова отрицания и фокусируются только на присутствующих объектах ("affirmation bias")
• При тестировании модели показали результаты на уровне случайного угадывания
• Проблема обнаружена во всех протестированных VLM без исключения
Практические риски:
• В медицинской диагностике: неверная интерпретация заключений (например, "отсутствие увеличенного сердца" может быть воспринято как "увеличенное сердце")
• В промышленности: неправильная идентификация дефектов продукции
• В других критических сферах: потенциально опасные ошибки из-за неверной интерпретации отсутствующих признаков
Исследователи начали решать проблему, создав специальный датасет с отрицаниями для дообучения моделей, что улучшило результаты на 10-30%, но предупреждают: "Если что-то настолько фундаментальное, как отрицание, не работает, мы не должны использовать эти модели во многих текущих применениях — без качественной оценки".
Важный вывод: перед внедрением VLM в критических областях необходимо тщательное тестирование на понимание отрицаний.
Не думай о белом слоне.
Кстати это не только с графикой такая беда.
В определении интента при работе с текстом есть похожая задача.
Необходимо переформулировать запрос и включать в него подраздел - о чем пользователь забыл упомянуть в запросе, но оно относится к предметной области. Такой вариант обогащения контекста.
Графические модели так же можно проверять - "нарисуй комнату без жирафа".
#VLM #отрицания #контекст
———
@tsingular
Исследователи MIT обнаружили фундаментальный недостаток в работе vision-language моделей (VLM) - они не способны понимать отрицания ("нет", "не", "отсутствует"), что может привести к катастрофическим последствиям в критически важных сферах.
Суть проблемы:
• VLM игнорируют слова отрицания и фокусируются только на присутствующих объектах ("affirmation bias")
• При тестировании модели показали результаты на уровне случайного угадывания
• Проблема обнаружена во всех протестированных VLM без исключения
Практические риски:
• В медицинской диагностике: неверная интерпретация заключений (например, "отсутствие увеличенного сердца" может быть воспринято как "увеличенное сердце")
• В промышленности: неправильная идентификация дефектов продукции
• В других критических сферах: потенциально опасные ошибки из-за неверной интерпретации отсутствующих признаков
Исследователи начали решать проблему, создав специальный датасет с отрицаниями для дообучения моделей, что улучшило результаты на 10-30%, но предупреждают: "Если что-то настолько фундаментальное, как отрицание, не работает, мы не должны использовать эти модели во многих текущих применениях — без качественной оценки".
Важный вывод: перед внедрением VLM в критических областях необходимо тщательное тестирование на понимание отрицаний.
Не думай о белом слоне.
Кстати это не только с графикой такая беда.
В определении интента при работе с текстом есть похожая задача.
Необходимо переформулировать запрос и включать в него подраздел - о чем пользователь забыл упомянуть в запросе, но оно относится к предметной области. Такой вариант обогащения контекста.
Графические модели так же можно проверять - "нарисуй комнату без жирафа".
#VLM #отрицания #контекст
———
@tsingular
✍5⚡3🔥3
В своём боте @sketchmaster_bot проверил эту тему
Нарисуй, говорю, комнату без жирафа.
Но у меня под капотом предобработка запроса как раз есть и из короткого запроса был автоматом сделан развёрнутый:
Даже из описания обстановки чувствуется, что жирафа очень не хватает, он где-то рядом :)
И цвета и пустота ожидания.
В общем с задачей справился, считаю на 100% :)
Но, ещё раз, - важна предобработка.
#dev #нейрорендер #боты
———
@tsingular
Нарисуй, говорю, комнату без жирафа.
Но у меня под капотом предобработка запроса как раз есть и из короткого запроса был автоматом сделан развёрнутый:
Скудно обставленная комната, залитая мягким рассеянным светом. Стены приглушенного кремового цвета, отражающие нежное свечение. Простой деревянный стул стоит возле большого пустого окна с видом на туманный, неясный пейзаж. Пол покрыт потертым узорчатым ковром в оттенках охры и коричневого. Ощущение тихого уединения пронизывает пространство.
Даже из описания обстановки чувствуется, что жирафа очень не хватает, он где-то рядом :)
И цвета и пустота ожидания.
В общем с задачей справился, считаю на 100% :)
Но, ещё раз, - важна предобработка.
#dev #нейрорендер #боты
———
@tsingular
😁10🔥4⚡3👍2
Bitrix24 теперь идет с GPT на борту.
ИИ интегрирован в задачи, чаты, CRM и в режиме Копайлота во все сервисы Битрикса
https://www.bitrix24.ru/features/copilot/
Онлайн эфир
Так же запущены ИИ Агенты - Бизнес-процессы 2.0
Агенты собираются или в no-code интерфейсе или с использованием ИИ ассистента - Марты.
В том числе проектирование можно вести в голосовом режиме.
ИИ ассистент на базе БитриксCRM будет генерить и вести повторные продажи на базе истории покупок и данных CRM с интеграцией в маркетплейсы.
Каждую ночь база анализируется ИИ и с утра у вас к каждому заказчику новый персонифицированный лид.
Причём это будет бесплатный базовый функционал.
Теперь не нужно будет самостоятельно собирать CRM.
ИИ ассистент сам создаст структуру таблиц, карточку сделки, стадии воронок и т.д.
Может или создать заново или изменить существующую и создаст обучающий курс объясняющий что где и как работает.
#Bitrix24
———
@tsingular
ИИ интегрирован в задачи, чаты, CRM и в режиме Копайлота во все сервисы Битрикса
https://www.bitrix24.ru/features/copilot/
Онлайн эфир
Так же запущены ИИ Агенты - Бизнес-процессы 2.0
Агенты собираются или в no-code интерфейсе или с использованием ИИ ассистента - Марты.
В том числе проектирование можно вести в голосовом режиме.
ИИ ассистент на базе БитриксCRM будет генерить и вести повторные продажи на базе истории покупок и данных CRM с интеграцией в маркетплейсы.
Каждую ночь база анализируется ИИ и с утра у вас к каждому заказчику новый персонифицированный лид.
Причём это будет бесплатный базовый функционал.
Теперь не нужно будет самостоятельно собирать CRM.
ИИ ассистент сам создаст структуру таблиц, карточку сделки, стадии воронок и т.д.
Может или создать заново или изменить существующую и создаст обучающий курс объясняющий что где и как работает.
#Bitrix24
———
@tsingular
🤔6🔥3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖Open Agent Platform - No-Code решение для создания агентов от LangChain
LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).
Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI
Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.
Demo:
https://oap.langchain.com
Github:
https://github.com/langchain-ai/open-agent-platform/
#langchain #agents #frameworks
———
@tsingular
LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).
Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI
Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.
Demo:
https://oap.langchain.com
Github:
https://github.com/langchain-ai/open-agent-platform/
#langchain #agents #frameworks
———
@tsingular
⚡8👍2
🔊Unsloth опубликовал готовый код для файнтюна TTS моделей
Unsloth выпустил набор блокнотов для файнтюнинга моделей Text-to-Speech (TTS), предлагая разработчикам мощный инструментарий кастомизации.
Технические возможности:
- Оптимизированная производительность: в 1.5 раза быстрее и на 50% меньше потребление памяти благодаря Flash Attention 2
-Поддержка популярных моделей: Sesame CSM (1B), Orpheus (3B), CrisperWhisper, Spark и другие модели из экосистемы transformers
- Двусторонний подход: поддержка как TTS (текст-в-речь), так и STT (речь-в-текст) моделей, включая OpenAI Whisper
Блокноты для файнтюна:
- Sesame-CSM (1B)
- Orpheus-TTS (3B)
- Whisper Large V3 (STT)
- Spark-TTS (0.5B)
- Llasa-TTS (3B)
- Oute-TTS (1B)
Практическое применение:
- Клонирование голосов: создание кастомных голосовых моделей
- Настройка стиля и тона: адаптация эмоциональной окраски (поддержка тегов типа
- Поддержка новых языков: расширение языковых возможностей базовых моделей
- Экспорт в различные форматы: поддержка llama.cpp для совместимости
Рабочий процесс:
1. Загрузка модели через FastModel с опциями для 16-бит LoRA или полного файнтюнинга
2. Подготовка датасета- поддерживаются как готовые наборы с Hugging Face, так и собственные датасеты
3. Настройка параметров обучения с оптимизированными настройками для голосовых моделей
4. Запуск файнтюнинга с мониторингом прогресса
5. Сохранение и экспорт результатов в различные форматы
Unsloth существенно упрощает файнтюн, делая технологии персонализации голоса более доступными для разработчиков.
Самое вкусное во всей этой истории, - готовые коллаб-блокноты.
Можно пользовать из облака или скопировать себе и запускать локально.
#Unsloth #TextToSpeech #TTS #finetuning
———
@tsingular
Unsloth выпустил набор блокнотов для файнтюнинга моделей Text-to-Speech (TTS), предлагая разработчикам мощный инструментарий кастомизации.
Технические возможности:
- Оптимизированная производительность: в 1.5 раза быстрее и на 50% меньше потребление памяти благодаря Flash Attention 2
-Поддержка популярных моделей: Sesame CSM (1B), Orpheus (3B), CrisperWhisper, Spark и другие модели из экосистемы transformers
- Двусторонний подход: поддержка как TTS (текст-в-речь), так и STT (речь-в-текст) моделей, включая OpenAI Whisper
Блокноты для файнтюна:
- Sesame-CSM (1B)
- Orpheus-TTS (3B)
- Whisper Large V3 (STT)
- Spark-TTS (0.5B)
- Llasa-TTS (3B)
- Oute-TTS (1B)
Практическое применение:
- Клонирование голосов: создание кастомных голосовых моделей
- Настройка стиля и тона: адаптация эмоциональной окраски (поддержка тегов типа
<laugh>, <sigh>)- Поддержка новых языков: расширение языковых возможностей базовых моделей
- Экспорт в различные форматы: поддержка llama.cpp для совместимости
Рабочий процесс:
1. Загрузка модели через FastModel с опциями для 16-бит LoRA или полного файнтюнинга
2. Подготовка датасета- поддерживаются как готовые наборы с Hugging Face, так и собственные датасеты
3. Настройка параметров обучения с оптимизированными настройками для голосовых моделей
4. Запуск файнтюнинга с мониторингом прогресса
5. Сохранение и экспорт результатов в различные форматы
Unsloth существенно упрощает файнтюн, делая технологии персонализации голоса более доступными для разработчиков.
Самое вкусное во всей этой истории, - готовые коллаб-блокноты.
Можно пользовать из облака или скопировать себе и запускать локально.
#Unsloth #TextToSpeech #TTS #finetuning
———
@tsingular
👍6🔥2❤1⚡1
Stackoverflow туда же.
ИИ становится единым источником любых знаний уже.
#Stackoverflow
------
@tsingular
ИИ становится единым источником любых знаний уже.
#Stackoverflow
------
@tsingular
✍9👀4😢2⚡1🤯1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Пурдюбик кубик.
Это дикое сломо. В реальности робат собирает кубик Рубика за, внимание 0.103 секунды ИЗ ЛЮБОГО положения граней. С помощью computer vision.
Посмотрите момент вначале и в конце.
Итак.
Студенты Университета Purdue построили робота Purdubik's Cube, который собрал(решив по дороге) кубик Рубика за 0,103 секунды, установив 21 апреля 2025 года мировой рекорд Гиннесса.
Робот использует комп. зрение и алгоритмы для решения кубика в режиме реального времени, а не только заранее запрограммированные движения.
Ну, за рекорды.
@cgevent
Это дикое сломо. В реальности робат собирает кубик Рубика за, внимание 0.103 секунды ИЗ ЛЮБОГО положения граней. С помощью computer vision.
Посмотрите момент вначале и в конце.
Итак.
Студенты Университета Purdue построили робота Purdubik's Cube, который собрал(решив по дороге) кубик Рубика за 0,103 секунды, установив 21 апреля 2025 года мировой рекорд Гиннесса.
Робот использует комп. зрение и алгоритмы для решения кубика в режиме реального времени, а не только заранее запрограммированные движения.
Ну, за рекорды.
@cgevent
🔥20