Технозаметки Малышева – Telegram
Технозаметки Малышева
8.48K subscribers
3.8K photos
1.43K videos
40 files
3.98K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Рендер или видео?

Наверное, можно выпить за подтанцовки....

Но если это реально риалтайм, то это очень круто.

Илон Маск третий день подряд спамит в твитторе разными видосами про Оптимуса.

Ждём ответок от китайцев и Бостона.

P.S. обратите внимание, что сторонников рендера сильно поубавилось... вы куда подевались?

@cgevent
🔥14👍1
🌊 Windsurf Wave 8: UX-апгрейд и плагины на стероидах от нового актива OpenAI

Windsurf (экс-Codeium), ИИ-ассистент для разработчиков, недавно приобретенный OpenAI (~$3 млрд), выпустил обновление Wave 8.
Релиз улучшил UX и добавил плагины, особенно для JetBrains.

Ключевые обновления Windsurf Wave 8:

🧠 JetBrains Plugin для Cascade:
Memories (Память): Cascade теперь запоминает важную информацию из диалога для использования в последующих шагах, что критично для сохранения контекста.
Rules (Правила): создана поддержка .windsurfrules для точной настройки поведения ИИ.
MCP Support (Поддержка Model Context Protocol): Позволяет подключать Cascade в JetBrains к локально запущенным MCP-серверам для извлечения данных из произвольных источников.

Цены Windsurf:
Free: $0/мес. (25 кредитов промптов, ~100 GPT-4.1 запросов, базовые функции Cascade, 1 деплой приложения/день)
Pro: $15/мес. (500 кредитов, ~2000 GPT-4.1 запросов, 5 деплоев/день, доп. кредиты $10/250)
Teams: $30/пользователя/мес. (все из Pro + централизованный биллинг, аналитика, приоритетная поддержка)
Enterprise: от $60/пользователя/мес. (все из Teams + 1000 кредитов, RBAC, SSO, опции для крупных команд)

По функционалу еле еле догоняют Курсор. Но достаточно бодро.
Если купить и там и там Про подписку за $200 в год - можно все самые сильные модели использовать по 500 запросов и там и там.
На круг может выйти дешевле, чем переходить на оплату по вызовам.
А функционал, похоже, со временем станет одинаковым.

#Windsurf #OpenAI #Codeium #JetBrains #Cascade #Dev #IDE
———
@tsingular
2
Идеальный спальный район, если вы живёте и работаете в виртуальной реальности.

#Китай
------
@tsingular
🤯17😁6
Pipedream - Гигантская коллекция MCP серверов на все случаи жизни.

https://mcp.pipedream.com/

Перечень категорий для понимания:
Artificial Intelligence (AI),
Business Management,
CRM,
Commerce,
Communication,
Data Analytics,
Databases,
Developer Tools,
Entertainment,
File Storage,
Help Desk & Support,
Human Resources,
Infrastructure & Cloud,
Language Tools,
Learning & Education,
Marketing,
Productivity,
Smart Home Automation,
Social Media,
Surveys & Forms,
Travel,
Web & App Development

Все будет MCP!

#MCP #каталог
———
@tsingular
61👀1
Forwarded from Клиент
Коллеги, когда там вас уже заменят нейросетями?
😁10😭4👻2
🌐 Глобальная гонка AI-образования: Китай внедряет обязательную программу

Китай запускает масштабную инициативу по внедрению искусственного интеллекта в образование — от начальной до старшей школы.

🇨🇳 Китай: системный подход к AI-образованию
Ключевые шаги:
• Начальная школа: формирование базовых понятий через знакомство с технологиями распознавания голоса и классификации изображений
• Средняя школа: углубленное изучение логики AI, анализ процессов машинного обучения, развитие критического мышления
• Старшая школа: практическое проектирование и совершенствование алгоритмических моделей, развитие междисциплинарного системного мышления
• Обязательный минимум: 8 часов AI-обучения в год, начиная с 1 сентября 2025 года
• Подготовка педагогов: интеграция AI-компетенций в программу повышения квалификации учителей

🌏 Глобальный контекст: как другие страны развивают AI-образование
🇰🇷 Южная Корея
• К 2025 году: AI-курсы на всех уровнях образования
• Персонализированные AI-репетиторы для адаптации заданий под образовательный уровень ученика
• $740 млн на цифровую трансформацию образования (2024-2026)
• Активная подготовка педагогов через систему KERIS

🇸🇬 Сингапур
• Стратегия "Smart Nation" с целью глобального лидерства в AI к 2030 году
• AI-компаньоны для персонализированной обратной связи и мотивации учащихся
• К 2026 году: обязательная подготовка всех учителей по AI-технологиям
• Исследовательский центр AICET для разработки инновационных образовательных решений

🇯🇵 Япония
• Комплексное руководство по интеграции генеративного AI в образование с фокусом на "человекоцентричный" подход
• 60% государственных школ уже внедрили AI-инструменты обучения за последние два года
• Платформа LEAF для персонализации контента, особенно для учащихся с особыми потребностями
• 92% японских компаний планируют интегрировать AI в свои операции к 2025 году, что создает спрос на соответствующие навыки

🇺🇸 США
• Децентрализованная модель с федеральными грантами штатам и округам
• Добровольные рамки AI4K12 для разработки учебных программ
• Значительные различия в доступе и качестве между регионами и школами
• Отсутствие единой национальной стратегии внедрения AI в образование
Указ Трампа об усилении образования с ИИ

🇪🇺 Европейский Союз
• План действий AI Continent для усиления инновационного потенциала ЕС
• Инициатива InvestAI с мобилизацией €200 млрд инвестиций
• Разработка рамочной программы AI-грамотности для начального и среднего образования совместно с ОЭСР
• Дорожная карта по цифровому образованию до 2030 года

🇮🇳 Индия
• Инициатива YUVAi для учащихся 8-12 классов
• Использование AI для визуализации сложных математических и научных концепций
• Виртуальные лаборатории для повышения доступности в недостаточно обслуживаемых регионах
• Раннее прогнозирование успеваемости учащихся для своевременного вмешательства

Прогнозы показывают, что к 2030 году страны с системными подходами к внедрению AI в образование получат значительное конкурентное преимущество на глобальном технологическом рынке.

#образование #Китай
———
@tsingular
👍27🔥1044😢41👀1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
К вопросу о замене кожаных.

Есть такой известный проект MasterClass.
Там курсы и лекции от известных авторитетов (ну или не очень известных).

Так вот, они взяли (пока) четырех самых хайповых типа Гордона Рамси и Марка Кубана и сделали из них ИИ-двойников. Теперь они называются ИИ-коучи, обученные на материалах кожаных звезд.
Все это стоит отдельной (от мастерклассовской) подписки и вы получаете доступ к ИИ-копиям селебов.
Можете перебеседовать с ИИ-Гордоном за стейки или запитчить свой стартап ИИ-Кубану

Мой пойнт в том, что равно как и с актерами, те звезды, которые уже имеют имя, будут получать еще пару нулей в контракте за использование ИИ-образа. А безымянным дикторам или актерам озвучки (и не только озвучки) придется выбирать, кормить свою морду\голос в ИИ или пытаться пробиться по старинке.

https://oncall.masterclass.com/

P/S/ Говорят, что если предложить ИИ-Гордону Рамси сунуть стейк в микроволновку, он все равно не начинает материться. Цензура там превыше всего.
@cgevent
🔥8
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.

RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.

➡️ Как работает:

1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через RealtimeSTT (на базе Whisper)
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через RealtimeTTS (Coqui XTTSv2, Kokoro и др.)
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через turndetect.py

Особенности:


- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API

✔️ Стек:

- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker

✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.

🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.

🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw

@ai_machinelearning_big_data

#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍321
🚀 MCP Курс от Anthropic на платформе DeepLearning.ai

Anthropic выпустила новый курс по Model Context Protocol (MCP).

Уровень: Средний
Продолжительность: 1 час 38 минут
Преподаватель: Elie Schoppik (Anthropic)
Формат: Бесплатный онлайн-курс

Структура курса:
11 уроков
7 практических примеров кода
Видеоматериалы с пошаговыми инструкциями

По окончании курса вы сможете создавать AI-приложения, способные подключаться к экосистеме MCP-серверов с минимальными интеграционными усилиями.

В курсе также рассматривается будущее MCP:
- Мульти-агентная архитектура
- MCP Registry API
- Обнаружение серверов
- Авторизация и аутентификация

Курс ведет Elie Schoppik, технический преподаватель Anthropic, и рассчитан на разработчиков с базовым пониманием Python и опытом работы с LLM.

#MCP #Anthropic #DeepLearning #обучение
———
@tsingular
74👍2
Forwarded from Machinelearning
🔥 AlphaEvolve — агент нового поколения для открытия новых алгоритмов на базе Gemini

Google DeepMind представили AlphaEvolve — агент на базе Gemini, способный автоматически генерировать новые алгоритмы и находить оптимальные решения сложных задач.

🔥 Что умеет AlphaEvolve:

🔘 Генерирует быстрые алгоритмы умножения матриц
🔘 Находит новые решения математических задач
🔘 Оптимизирует работу дата-центров, чипов и обучения ИИ модель за счёт сгенерированный алгоритмов

✔️ Как он работает:
1) Генерация идей с помощью LLMs: Модель Gemini анализирует существующие подходы к решению задачи и предлагает новые алгоритмические идеи, используя свой широкий контекст и знания.

2) Автоматическая оценка: Каждый предложенный алгоритм проходит через систему автоматической оценки, которая измеряет его эффективность, точность и другие ключевые метрики, позволяя объективно сравнивать различные решения.

3) Эволюционное улучшение: AlphaEvolve применяет эволюционные методы, такие как мутация и рекомбинация, чтобы постепенно улучшать алгоритмы, объединяя лучшие элементы из различных решений и отбрасывая менее эффективные варианты.

Этот подход уже продемонстрировал свою эффективность: AlphaEvolve смог обнаружить новые, более эффективные алгоритмы умножения матриц, превосходящие предыдущие достижения, такие как AlphaTensor. Это открывает возможности для оптимизации вычислений в дата-центрах, проектировании чипов и обучении ИИ-моделей.
Google также применили AlphaEvolve к более чем 50 открытым задачам в области:

✍️ математического анализа,
📐 геометрии,
комбинаторики и
🔂 теории чисел — включая задачу о числе поцелуев (kissing number problem).

🔵 В 75% случаев агент открыл лучшее из известных решений.
🔵 В 20% случаев он улучшил ранее известные решения, тем самым сделав новые открытия.

Доступ пока не дают, но выглядит очень интересно.

@ai_machinelearning_big_data


📎 Подробнее

#google #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🔥 Alibaba представили новую модель - Wan2.1-VACE: универсальную модель для создания и редактирования видео.

Что умеет Wan2.1-VACE:
🟢 R2V — генерация видео по ссылке-примере (Reference-to-Video)
🟢 V2V — редактирование видео по видео (Video-to-Video)
🟢 MV2V — редактирование замаскированных областей видео (Masked Video-to-Video)

💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.

🔍 Ключевые особенности:
SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.

Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.

Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..

Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.

- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.

🔜 GitHub: github.com/Wan-Video/Wan2.1
🔜 HuggingFace: huggingface.co/Wan-AI
🔜 ModelScope: modelscope.cn/organization/Wan-Al
🔜 API сервис: bailian.console.alibabacloud.com

@ai_machinelearning_big_data


#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
ChatGPT 4.1 теперь есть не только в API, но в веб интерфейсе.

Рекомендуется для разработки кода.
Быстрая и достаточно умная по меркам OpenAI :)
(фанатам Соннет 3.7 и Gemini 0506 не пригодится )

#OpenAI #chatGPT
———
@tsingular
👍5😁4
👋"Привет Copilot" - Microsoft запускает голосовую активацию ИИ

Корпорация из Редмонда вводит голосовую активацию своего цифрового ассистента в Windows 11 через команду 'Hey, Copilot!'.

В тестовом режиме уже доступна участником программы Windows Insiders.

После произнесения ключевой фразы появляется плавающий интерфейс микрофона и звуковое подтверждение активации.

Технология использует локальное распознавание с 10-секундным аудиобуфером без отправки данных в облако.

Система работает офлайн, хотя полный функционал Copilot Voice требует сетевого соединения.

Обновление доступно пользователям с англоязычным интерфейсом при наличии версии приложения 1.25051.10.0 или новее.

Привет, товарищ майор! :)

#Microsoft #Copilot #Voice
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
👀Ученые MIT обнаружили, что модели машинного зрения не понимают отрицание

Исследователи MIT обнаружили фундаментальный недостаток в работе vision-language моделей (VLM) - они не способны понимать отрицания ("нет", "не", "отсутствует"), что может привести к катастрофическим последствиям в критически важных сферах.

Суть проблемы:
• VLM игнорируют слова отрицания и фокусируются только на присутствующих объектах ("affirmation bias")
• При тестировании модели показали результаты на уровне случайного угадывания
• Проблема обнаружена во всех протестированных VLM без исключения

Практические риски:
• В медицинской диагностике: неверная интерпретация заключений (например, "отсутствие увеличенного сердца" может быть воспринято как "увеличенное сердце")
• В промышленности: неправильная идентификация дефектов продукции
• В других критических сферах: потенциально опасные ошибки из-за неверной интерпретации отсутствующих признаков

Исследователи начали решать проблему, создав специальный датасет с отрицаниями для дообучения моделей, что улучшило результаты на 10-30%, но предупреждают: "Если что-то настолько фундаментальное, как отрицание, не работает, мы не должны использовать эти модели во многих текущих применениях — без качественной оценки".

Важный вывод: перед внедрением VLM в критических областях необходимо тщательное тестирование на понимание отрицаний.

Не думай о белом слоне.

Кстати это не только с графикой такая беда.
В определении интента при работе с текстом есть похожая задача.
Необходимо переформулировать запрос и включать в него подраздел - о чем пользователь забыл упомянуть в запросе, но оно относится к предметной области. Такой вариант обогащения контекста.

Графические модели так же можно проверять - "нарисуй комнату без жирафа".

#VLM #отрицания #контекст
———
@tsingular
53🔥3
В своём боте @sketchmaster_bot проверил эту тему

Нарисуй, говорю, комнату без жирафа.
Но у меня под капотом предобработка запроса как раз есть и из короткого запроса был автоматом сделан развёрнутый:

Скудно обставленная комната, залитая мягким рассеянным светом. Стены приглушенного кремового цвета, отражающие нежное свечение. Простой деревянный стул стоит возле большого пустого окна с видом на туманный, неясный пейзаж. Пол покрыт потертым узорчатым ковром в оттенках охры и коричневого. Ощущение тихого уединения пронизывает пространство.


Даже из описания обстановки чувствуется, что жирафа очень не хватает, он где-то рядом :)
И цвета и пустота ожидания.

В общем с задачей справился, считаю на 100% :)

Но, ещё раз, - важна предобработка.

#dev #нейрорендер #боты
———
@tsingular
😁10🔥43👍2
Bitrix24 теперь идет с GPT на борту.

ИИ интегрирован в задачи, чаты, CRM и в режиме Копайлота во все сервисы Битрикса

https://www.bitrix24.ru/features/copilot/

Онлайн эфир

Так же запущены ИИ Агенты - Бизнес-процессы 2.0
Агенты собираются или в no-code интерфейсе или с использованием ИИ ассистента - Марты.
В том числе проектирование можно вести в голосовом режиме.

ИИ ассистент на базе БитриксCRM будет генерить и вести повторные продажи на базе истории покупок и данных CRM с интеграцией в маркетплейсы.
Каждую ночь база анализируется ИИ и с утра у вас к каждому заказчику новый персонифицированный лид.
Причём это будет бесплатный базовый функционал.

Теперь не нужно будет самостоятельно собирать CRM.
ИИ ассистент сам создаст структуру таблиц, карточку сделки, стадии воронок и т.д.
Может или создать заново или изменить существующую и создаст обучающий курс объясняющий что где и как работает.

#Bitrix24
———
@tsingular
🤔6🔥3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖Open Agent Platform - No-Code решение для создания агентов от LangChain

LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).

Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI

Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.

Demo:
https://oap.langchain.com

Github:
https://github.com/langchain-ai/open-agent-platform/

#langchain #agents #frameworks
———
@tsingular
8👍2
🔊Unsloth опубликовал готовый код для файнтюна TTS моделей

Unsloth выпустил набор блокнотов для файнтюнинга моделей Text-to-Speech (TTS), предлагая разработчикам мощный инструментарий кастомизации.

Технические возможности:
- Оптимизированная производительность: в 1.5 раза быстрее и на 50% меньше потребление памяти благодаря Flash Attention 2
-Поддержка популярных моделей: Sesame CSM (1B), Orpheus (3B), CrisperWhisper, Spark и другие модели из экосистемы transformers
- Двусторонний подход: поддержка как TTS (текст-в-речь), так и STT (речь-в-текст) моделей, включая OpenAI Whisper

Блокноты для файнтюна:
- Sesame-CSM (1B)
- Orpheus-TTS (3B)
- Whisper Large V3 (STT)
- Spark-TTS (0.5B)
- Llasa-TTS (3B)
- Oute-TTS (1B)

Практическое применение:
- Клонирование голосов: создание кастомных голосовых моделей
- Настройка стиля и тона: адаптация эмоциональной окраски (поддержка тегов типа <laugh>, <sigh>)
- Поддержка новых языков: расширение языковых возможностей базовых моделей
- Экспорт в различные форматы: поддержка llama.cpp для совместимости

Рабочий процесс:
1. Загрузка модели через FastModel с опциями для 16-бит LoRA или полного файнтюнинга
2. Подготовка датасета- поддерживаются как готовые наборы с Hugging Face, так и собственные датасеты
3. Настройка параметров обучения с оптимизированными настройками для голосовых моделей
4. Запуск файнтюнинга с мониторингом прогресса
5. Сохранение и экспорт результатов в различные форматы

Unsloth существенно упрощает файнтюн, делая технологии персонализации голоса более доступными для разработчиков.

Самое вкусное во всей этой истории, - готовые коллаб-блокноты.
Можно пользовать из облака или скопировать себе и запускать локально.

#Unsloth #TextToSpeech #TTS #finetuning
———
@tsingular
👍6🔥211
ИИ теперь популярнее Википедии.

Скоро будет популярнее поисковиков.

#Wikipedia
———
@tsingular
16🤨31🆒1