Технозаметки Малышева – Telegram
Технозаметки Малышева
8.49K subscribers
3.8K photos
1.43K videos
40 files
3.98K links
Новости инноваций из мира Искусственного Интеллекта. 🤖

Всё об ИИ, ИТ трендах и Технологической Сингулярности.

🤖: @ai_gptfreebot [бесплатный бот]
✍️: @tsingular_bot [каталог ботов и курсов]

💸[поддержка]: pay.cloudtips.ru/p/c8960bbb
Download Telegram
Идеальный спальный район, если вы живёте и работаете в виртуальной реальности.

#Китай
------
@tsingular
🤯17😁6
Pipedream - Гигантская коллекция MCP серверов на все случаи жизни.

https://mcp.pipedream.com/

Перечень категорий для понимания:
Artificial Intelligence (AI),
Business Management,
CRM,
Commerce,
Communication,
Data Analytics,
Databases,
Developer Tools,
Entertainment,
File Storage,
Help Desk & Support,
Human Resources,
Infrastructure & Cloud,
Language Tools,
Learning & Education,
Marketing,
Productivity,
Smart Home Automation,
Social Media,
Surveys & Forms,
Travel,
Web & App Development

Все будет MCP!

#MCP #каталог
———
@tsingular
61👀1
Forwarded from Клиент
Коллеги, когда там вас уже заменят нейросетями?
😁10😭4👻2
🌐 Глобальная гонка AI-образования: Китай внедряет обязательную программу

Китай запускает масштабную инициативу по внедрению искусственного интеллекта в образование — от начальной до старшей школы.

🇨🇳 Китай: системный подход к AI-образованию
Ключевые шаги:
• Начальная школа: формирование базовых понятий через знакомство с технологиями распознавания голоса и классификации изображений
• Средняя школа: углубленное изучение логики AI, анализ процессов машинного обучения, развитие критического мышления
• Старшая школа: практическое проектирование и совершенствование алгоритмических моделей, развитие междисциплинарного системного мышления
• Обязательный минимум: 8 часов AI-обучения в год, начиная с 1 сентября 2025 года
• Подготовка педагогов: интеграция AI-компетенций в программу повышения квалификации учителей

🌏 Глобальный контекст: как другие страны развивают AI-образование
🇰🇷 Южная Корея
• К 2025 году: AI-курсы на всех уровнях образования
• Персонализированные AI-репетиторы для адаптации заданий под образовательный уровень ученика
• $740 млн на цифровую трансформацию образования (2024-2026)
• Активная подготовка педагогов через систему KERIS

🇸🇬 Сингапур
• Стратегия "Smart Nation" с целью глобального лидерства в AI к 2030 году
• AI-компаньоны для персонализированной обратной связи и мотивации учащихся
• К 2026 году: обязательная подготовка всех учителей по AI-технологиям
• Исследовательский центр AICET для разработки инновационных образовательных решений

🇯🇵 Япония
• Комплексное руководство по интеграции генеративного AI в образование с фокусом на "человекоцентричный" подход
• 60% государственных школ уже внедрили AI-инструменты обучения за последние два года
• Платформа LEAF для персонализации контента, особенно для учащихся с особыми потребностями
• 92% японских компаний планируют интегрировать AI в свои операции к 2025 году, что создает спрос на соответствующие навыки

🇺🇸 США
• Децентрализованная модель с федеральными грантами штатам и округам
• Добровольные рамки AI4K12 для разработки учебных программ
• Значительные различия в доступе и качестве между регионами и школами
• Отсутствие единой национальной стратегии внедрения AI в образование
Указ Трампа об усилении образования с ИИ

🇪🇺 Европейский Союз
• План действий AI Continent для усиления инновационного потенциала ЕС
• Инициатива InvestAI с мобилизацией €200 млрд инвестиций
• Разработка рамочной программы AI-грамотности для начального и среднего образования совместно с ОЭСР
• Дорожная карта по цифровому образованию до 2030 года

🇮🇳 Индия
• Инициатива YUVAi для учащихся 8-12 классов
• Использование AI для визуализации сложных математических и научных концепций
• Виртуальные лаборатории для повышения доступности в недостаточно обслуживаемых регионах
• Раннее прогнозирование успеваемости учащихся для своевременного вмешательства

Прогнозы показывают, что к 2030 году страны с системными подходами к внедрению AI в образование получат значительное конкурентное преимущество на глобальном технологическом рынке.

#образование #Китай
———
@tsingular
👍27🔥1044😢41👀1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
К вопросу о замене кожаных.

Есть такой известный проект MasterClass.
Там курсы и лекции от известных авторитетов (ну или не очень известных).

Так вот, они взяли (пока) четырех самых хайповых типа Гордона Рамси и Марка Кубана и сделали из них ИИ-двойников. Теперь они называются ИИ-коучи, обученные на материалах кожаных звезд.
Все это стоит отдельной (от мастерклассовской) подписки и вы получаете доступ к ИИ-копиям селебов.
Можете перебеседовать с ИИ-Гордоном за стейки или запитчить свой стартап ИИ-Кубану

Мой пойнт в том, что равно как и с актерами, те звезды, которые уже имеют имя, будут получать еще пару нулей в контракте за использование ИИ-образа. А безымянным дикторам или актерам озвучки (и не только озвучки) придется выбирать, кормить свою морду\голос в ИИ или пытаться пробиться по старинке.

https://oncall.masterclass.com/

P/S/ Говорят, что если предложить ИИ-Гордону Рамси сунуть стейк в микроволновку, он все равно не начинает материться. Цензура там превыше всего.
@cgevent
🔥8
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
🗣️ RealtimeVoiceChat — живой голосовой чат с ИИ.

RealtimeVoiceChat — это open-source проект, который позволяет общаться с LLM в реальном времени голосом. Он объединяет распознавание речи, LLM и синтез речи в единую систему с минимальной задержкой — около 500 мс при локальной установке.

➡️ Как работает:

1. Запись речи в браузере
2. Передача аудио по WebSocket на сервер
3. Распознавание речи через RealtimeSTT (на базе Whisper)
4. Ответ от LLM (Ollama, OpenAI и др.)
5. Озвучка ответа через RealtimeTTS (Coqui XTTSv2, Kokoro и др.)
6. Обратная передача аудио в браузер
7. Поддержка прерываний и динамики через turndetect.py

Особенности:


- Задержка ~500 мс
- Поддержка разных LLM и TTS движков
- Быстрый запуск через Docker Compose
- Чистый веб-интерфейс на Vanilla JS + Web Audio API

✔️ Стек:

- Backend: Python + FastAPI
- Frontend: JS + WebSockets
- ML: transformers, torchaudio, Ollama, Whisper, TTS
- Контейнеризация: Docker

✔️ Требуется CUDA-совместимая видеокарта (для Whisper/TTS) и Docker.

🔥 Отличный проект для тех, кто хочет интегрировать голосовой интерфейс с LLM — например, для ассистентов, чат-ботов, презентаций или UX-экспериментов.

🔜 Репозиторий: https://github.com/KoljaB/RealtimeVoiceChat
🔜 Демо: https://www.youtube.com/watch?v=-1AD4gakCKw

@ai_machinelearning_big_data

#tts #llm #opensource
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥6👍321
🚀 MCP Курс от Anthropic на платформе DeepLearning.ai

Anthropic выпустила новый курс по Model Context Protocol (MCP).

Уровень: Средний
Продолжительность: 1 час 38 минут
Преподаватель: Elie Schoppik (Anthropic)
Формат: Бесплатный онлайн-курс

Структура курса:
11 уроков
7 практических примеров кода
Видеоматериалы с пошаговыми инструкциями

По окончании курса вы сможете создавать AI-приложения, способные подключаться к экосистеме MCP-серверов с минимальными интеграционными усилиями.

В курсе также рассматривается будущее MCP:
- Мульти-агентная архитектура
- MCP Registry API
- Обнаружение серверов
- Авторизация и аутентификация

Курс ведет Elie Schoppik, технический преподаватель Anthropic, и рассчитан на разработчиков с базовым пониманием Python и опытом работы с LLM.

#MCP #Anthropic #DeepLearning #обучение
———
@tsingular
74👍2
Forwarded from Machinelearning
🔥 AlphaEvolve — агент нового поколения для открытия новых алгоритмов на базе Gemini

Google DeepMind представили AlphaEvolve — агент на базе Gemini, способный автоматически генерировать новые алгоритмы и находить оптимальные решения сложных задач.

🔥 Что умеет AlphaEvolve:

🔘 Генерирует быстрые алгоритмы умножения матриц
🔘 Находит новые решения математических задач
🔘 Оптимизирует работу дата-центров, чипов и обучения ИИ модель за счёт сгенерированный алгоритмов

✔️ Как он работает:
1) Генерация идей с помощью LLMs: Модель Gemini анализирует существующие подходы к решению задачи и предлагает новые алгоритмические идеи, используя свой широкий контекст и знания.

2) Автоматическая оценка: Каждый предложенный алгоритм проходит через систему автоматической оценки, которая измеряет его эффективность, точность и другие ключевые метрики, позволяя объективно сравнивать различные решения.

3) Эволюционное улучшение: AlphaEvolve применяет эволюционные методы, такие как мутация и рекомбинация, чтобы постепенно улучшать алгоритмы, объединяя лучшие элементы из различных решений и отбрасывая менее эффективные варианты.

Этот подход уже продемонстрировал свою эффективность: AlphaEvolve смог обнаружить новые, более эффективные алгоритмы умножения матриц, превосходящие предыдущие достижения, такие как AlphaTensor. Это открывает возможности для оптимизации вычислений в дата-центрах, проектировании чипов и обучении ИИ-моделей.
Google также применили AlphaEvolve к более чем 50 открытым задачам в области:

✍️ математического анализа,
📐 геометрии,
комбинаторики и
🔂 теории чисел — включая задачу о числе поцелуев (kissing number problem).

🔵 В 75% случаев агент открыл лучшее из известных решений.
🔵 В 20% случаев он улучшил ранее известные решения, тем самым сделав новые открытия.

Доступ пока не дают, но выглядит очень интересно.

@ai_machinelearning_big_data


📎 Подробнее

#google #DeepMind
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥11
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
🔥 Alibaba представили новую модель - Wan2.1-VACE: универсальную модель для создания и редактирования видео.

Что умеет Wan2.1-VACE:
🟢 R2V — генерация видео по ссылке-примере (Reference-to-Video)
🟢 V2V — редактирование видео по видео (Video-to-Video)
🟢 MV2V — редактирование замаскированных областей видео (Masked Video-to-Video)

💡 Эти возможности можно свободно комбинировать, выполняя сложные креативные задачи.

🔍 Ключевые особенности:
SOTA-производительность: Wan2.1 стабильно превосходит существующие open-source модели и даже коммерческие решения уровня state-of-the-art в ряде бенчмарков.

Работает на обычных видеокартах: Модель T2V-1.3B требует всего 8.19 ГБ видеопамяти, что делает её совместимой почти со всеми пользовательскими GPU. Например, на RTX 4090 она генерирует 5-секундное видео 480P примерно за 4 минуты (без оптимизаций, таких как квантизация). Её производительность сопоставима с некоторыми закрытыми моделями.

Мультизадачность: Wan2.1 демонстрирует хорошие результаты в задачах текст-в-видео, изображение-в-видео, видеомонтаж, текст-в-изображение и видео-в-аудио, продвигая границы генерации видео..

Модель способна выдавать 1080P в теории любой длины, при этом сохраняя временную структуру.

- Размер модели: 1.3B и 14B
- Лицензия: Apache-2.

🔜 GitHub: github.com/Wan-Video/Wan2.1
🔜 HuggingFace: huggingface.co/Wan-AI
🔜 ModelScope: modelscope.cn/organization/Wan-Al
🔜 API сервис: bailian.console.alibabacloud.com

@ai_machinelearning_big_data


#Alibaba #wan #videogeneration
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6
ChatGPT 4.1 теперь есть не только в API, но в веб интерфейсе.

Рекомендуется для разработки кода.
Быстрая и достаточно умная по меркам OpenAI :)
(фанатам Соннет 3.7 и Gemini 0506 не пригодится )

#OpenAI #chatGPT
———
@tsingular
👍5😁4
👋"Привет Copilot" - Microsoft запускает голосовую активацию ИИ

Корпорация из Редмонда вводит голосовую активацию своего цифрового ассистента в Windows 11 через команду 'Hey, Copilot!'.

В тестовом режиме уже доступна участником программы Windows Insiders.

После произнесения ключевой фразы появляется плавающий интерфейс микрофона и звуковое подтверждение активации.

Технология использует локальное распознавание с 10-секундным аудиобуфером без отправки данных в облако.

Система работает офлайн, хотя полный функционал Copilot Voice требует сетевого соединения.

Обновление доступно пользователям с англоязычным интерфейсом при наличии версии приложения 1.25051.10.0 или новее.

Привет, товарищ майор! :)

#Microsoft #Copilot #Voice
———
@tsingular
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
👀Ученые MIT обнаружили, что модели машинного зрения не понимают отрицание

Исследователи MIT обнаружили фундаментальный недостаток в работе vision-language моделей (VLM) - они не способны понимать отрицания ("нет", "не", "отсутствует"), что может привести к катастрофическим последствиям в критически важных сферах.

Суть проблемы:
• VLM игнорируют слова отрицания и фокусируются только на присутствующих объектах ("affirmation bias")
• При тестировании модели показали результаты на уровне случайного угадывания
• Проблема обнаружена во всех протестированных VLM без исключения

Практические риски:
• В медицинской диагностике: неверная интерпретация заключений (например, "отсутствие увеличенного сердца" может быть воспринято как "увеличенное сердце")
• В промышленности: неправильная идентификация дефектов продукции
• В других критических сферах: потенциально опасные ошибки из-за неверной интерпретации отсутствующих признаков

Исследователи начали решать проблему, создав специальный датасет с отрицаниями для дообучения моделей, что улучшило результаты на 10-30%, но предупреждают: "Если что-то настолько фундаментальное, как отрицание, не работает, мы не должны использовать эти модели во многих текущих применениях — без качественной оценки".

Важный вывод: перед внедрением VLM в критических областях необходимо тщательное тестирование на понимание отрицаний.

Не думай о белом слоне.

Кстати это не только с графикой такая беда.
В определении интента при работе с текстом есть похожая задача.
Необходимо переформулировать запрос и включать в него подраздел - о чем пользователь забыл упомянуть в запросе, но оно относится к предметной области. Такой вариант обогащения контекста.

Графические модели так же можно проверять - "нарисуй комнату без жирафа".

#VLM #отрицания #контекст
———
@tsingular
53🔥3
В своём боте @sketchmaster_bot проверил эту тему

Нарисуй, говорю, комнату без жирафа.
Но у меня под капотом предобработка запроса как раз есть и из короткого запроса был автоматом сделан развёрнутый:

Скудно обставленная комната, залитая мягким рассеянным светом. Стены приглушенного кремового цвета, отражающие нежное свечение. Простой деревянный стул стоит возле большого пустого окна с видом на туманный, неясный пейзаж. Пол покрыт потертым узорчатым ковром в оттенках охры и коричневого. Ощущение тихого уединения пронизывает пространство.


Даже из описания обстановки чувствуется, что жирафа очень не хватает, он где-то рядом :)
И цвета и пустота ожидания.

В общем с задачей справился, считаю на 100% :)

Но, ещё раз, - важна предобработка.

#dev #нейрорендер #боты
———
@tsingular
😁10🔥43👍2
Bitrix24 теперь идет с GPT на борту.

ИИ интегрирован в задачи, чаты, CRM и в режиме Копайлота во все сервисы Битрикса

https://www.bitrix24.ru/features/copilot/

Онлайн эфир

Так же запущены ИИ Агенты - Бизнес-процессы 2.0
Агенты собираются или в no-code интерфейсе или с использованием ИИ ассистента - Марты.
В том числе проектирование можно вести в голосовом режиме.

ИИ ассистент на базе БитриксCRM будет генерить и вести повторные продажи на базе истории покупок и данных CRM с интеграцией в маркетплейсы.
Каждую ночь база анализируется ИИ и с утра у вас к каждому заказчику новый персонифицированный лид.
Причём это будет бесплатный базовый функционал.

Теперь не нужно будет самостоятельно собирать CRM.
ИИ ассистент сам создаст структуру таблиц, карточку сделки, стадии воронок и т.д.
Может или создать заново или изменить существующую и создаст обучающий курс объясняющий что где и как работает.

#Bitrix24
———
@tsingular
🤔6🔥3👀1
This media is not supported in your browser
VIEW IN TELEGRAM
🤖Open Agent Platform - No-Code решение для создания агентов от LangChain

LangChain представил свою платформу для создания агентов без кода — Open Agent Platform (OAP).

Ключевые особенности
- Управление агентами: Создание, настройка и взаимодействие через интуитивный веб-интерфейс
- RAG-интеграция: Поддержка Retrieval Augmented Generation через LangConnect
- Подключение инструментов: Соединение агентов с внешними сервисами через MCP-серверы
- Агент-супервизор: Оркестрация взаимодействия нескольких агентов через Agent Supervisor
- Встроенная аутентификация: Готовая система доступа и контроля пользователей
- Настраиваемые агенты: Простое определение пользовательских конфигураций через UI

Если уже используете LangGraph, OAP предоставляет удобный способ создания и управления агентами.

Demo:
https://oap.langchain.com

Github:
https://github.com/langchain-ai/open-agent-platform/

#langchain #agents #frameworks
———
@tsingular
8👍2
🔊Unsloth опубликовал готовый код для файнтюна TTS моделей

Unsloth выпустил набор блокнотов для файнтюнинга моделей Text-to-Speech (TTS), предлагая разработчикам мощный инструментарий кастомизации.

Технические возможности:
- Оптимизированная производительность: в 1.5 раза быстрее и на 50% меньше потребление памяти благодаря Flash Attention 2
-Поддержка популярных моделей: Sesame CSM (1B), Orpheus (3B), CrisperWhisper, Spark и другие модели из экосистемы transformers
- Двусторонний подход: поддержка как TTS (текст-в-речь), так и STT (речь-в-текст) моделей, включая OpenAI Whisper

Блокноты для файнтюна:
- Sesame-CSM (1B)
- Orpheus-TTS (3B)
- Whisper Large V3 (STT)
- Spark-TTS (0.5B)
- Llasa-TTS (3B)
- Oute-TTS (1B)

Практическое применение:
- Клонирование голосов: создание кастомных голосовых моделей
- Настройка стиля и тона: адаптация эмоциональной окраски (поддержка тегов типа <laugh>, <sigh>)
- Поддержка новых языков: расширение языковых возможностей базовых моделей
- Экспорт в различные форматы: поддержка llama.cpp для совместимости

Рабочий процесс:
1. Загрузка модели через FastModel с опциями для 16-бит LoRA или полного файнтюнинга
2. Подготовка датасета- поддерживаются как готовые наборы с Hugging Face, так и собственные датасеты
3. Настройка параметров обучения с оптимизированными настройками для голосовых моделей
4. Запуск файнтюнинга с мониторингом прогресса
5. Сохранение и экспорт результатов в различные форматы

Unsloth существенно упрощает файнтюн, делая технологии персонализации голоса более доступными для разработчиков.

Самое вкусное во всей этой истории, - готовые коллаб-блокноты.
Можно пользовать из облака или скопировать себе и запускать локально.

#Unsloth #TextToSpeech #TTS #finetuning
———
@tsingular
👍6🔥211
ИИ теперь популярнее Википедии.

Скоро будет популярнее поисковиков.

#Wikipedia
———
@tsingular
16🤨31🆒1
Stackoverflow туда же.

ИИ становится единым источником любых знаний уже.

#Stackoverflow
------
@tsingular
9👀4😢21🤯1
Forwarded from Метаверсище и ИИще (Sergey Tsyptsyn ️️)
This media is not supported in your browser
VIEW IN TELEGRAM
Пурдюбик кубик.

Это дикое сломо. В реальности робат собирает кубик Рубика за, внимание 0.103 секунды ИЗ ЛЮБОГО положения граней. С помощью computer vision.

Посмотрите момент вначале и в конце.

Итак.

Студенты Университета Purdue построили робота Purdubik's Cube, который собрал(решив по дороге) кубик Рубика за 0,103 секунды, установив 21 апреля 2025 года мировой рекорд Гиннесса.
Робот использует комп. зрение и алгоритмы для решения кубика в режиме реального времени, а не только заранее запрограммированные движения.

Ну, за рекорды.

@cgevent
🔥20