This media is not supported in your browser
VIEW IN TELEGRAM
🌟 DOCKER КАК НАСТРОИТЬ ПЕРЕД КАЖДЫМ ПРОЕКТОМ
Совет - Docker: настраивай окружение ДО начала проекта, а не когда всё уже «почти готово».
Большинство проблем в проде появляется не из-за кода, а из-за разницы окружений.
Правильный подход - сначала контейнерная база, потом разработка.
Выбирай лёгкий базовый образ без лишнего мусора, фиксируй зависимости отдельным слоем, обязательно делай .dockerignore, чтобы не тащить в образ кэш и хлам.
Сразу разделяй dev и prod конфигурации, используй docker-compose даже если сервис один, не храни секреты в Dockerfile и добавляй HEALTHCHECK, чтобы контейнер считался «живым» только когда реально работает приложение.
Docker - это фундамент проекта, а не финальный штрих.
- https://www.youtube.com/shorts/1q4ceKg1wAA
Совет - Docker: настраивай окружение ДО начала проекта, а не когда всё уже «почти готово».
Большинство проблем в проде появляется не из-за кода, а из-за разницы окружений.
Правильный подход - сначала контейнерная база, потом разработка.
Выбирай лёгкий базовый образ без лишнего мусора, фиксируй зависимости отдельным слоем, обязательно делай .dockerignore, чтобы не тащить в образ кэш и хлам.
Сразу разделяй dev и prod конфигурации, используй docker-compose даже если сервис один, не храни секреты в Dockerfile и добавляй HEALTHCHECK, чтобы контейнер считался «живым» только когда реально работает приложение.
Docker - это фундамент проекта, а не финальный штрих.
Dockerfile (база для Python-проекта)
FROM python:3.12-slim
WORKDIR /app
Сначала зависимости — кеш будет работать правильно
COPY requirements.txt .
RUN pip install --no-cache-dir -r requirements.txt
Потом код
COPY . .
EXPOSE 8000
HEALTHCHECK CMD curl --fail http://localhost:8000/health
|| exit 1
CMD ["python", "app.py"]
.dockerignore
.git
pycache
venv
node_modules
*.log
docker-compose.yml
version: "3.9"
services:
app:
build: .
ports:
- "8000:8000"
env_file:
- .env
- https://www.youtube.com/shorts/1q4ceKg1wAA
👍4🔥3❤1😁1
🔥 Бесплатный интенсив по ChatGPT и созданию НЕЙРОСТРУДНИКОВ без опыта программирования🔥
Вы узнаете, как использовать ChatGPT в профессиональных целях, создавать нейросотрудников на заказ и зарабатывать на ИИ от 150.000р в месяц.
Простое понимание основ, без сложного кода!
Что будет на интенсиве?
🧬 Теория: как создаются нейро-сотрудники с GPT на Python
🧬 Практика: мы создадим нейро-консультанта, нейро-HR, нейро-маркетолога и др.
Интенсив - максимально простой и доступный, без какого-либо сложного программирования.
Ведущий интенсива - Senior AI-разработчик нейросетей с 2003 года и основатель Университета искусственного интеллекта - Дмитрий Романов.
🤖Присоединяйтесь к нашему бесплатному интенсиву и разберитесь в этой увлекательной теме с нами!
Вы узнаете, как использовать ChatGPT в профессиональных целях, создавать нейросотрудников на заказ и зарабатывать на ИИ от 150.000р в месяц.
Простое понимание основ, без сложного кода!
Что будет на интенсиве?
🧬 Теория: как создаются нейро-сотрудники с GPT на Python
🧬 Практика: мы создадим нейро-консультанта, нейро-HR, нейро-маркетолога и др.
Интенсив - максимально простой и доступный, без какого-либо сложного программирования.
Ведущий интенсива - Senior AI-разработчик нейросетей с 2003 года и основатель Университета искусственного интеллекта - Дмитрий Романов.
🤖Присоединяйтесь к нашему бесплатному интенсиву и разберитесь в этой увлекательной теме с нами!
👎3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
Обработка исключений при работе с API в Python
Не забывайте об обработке исключений при работе с внешними ресурсами, такими как API или базы данных. Это поможет избежать неожиданных сбоев в работе вашего приложения и упростит отладку.
Не забывайте об обработке исключений при работе с внешними ресурсами, такими как API или базы данных. Это поможет избежать неожиданных сбоев в работе вашего приложения и упростит отладку.
import requests
def fetch_data(url):
try:
response = requests.get(url)
response.raise_for_status() # Проверка на HTTP ошибки
return response.json() # Возвращаем данные в формате JSON
except requests.exceptions.HTTPError as http_err:
print(f"HTTP error occurred: {http_err}")
except requests.exceptions.ConnectionError:
print("Connection error occurred. Please check your internet connection.")
except json.JSONDecodeError:
print("Error decoding JSON response.")
except Exception as err:
print(f"An error occurred: {err}")
data = fetch_data("https://api.example.com/data")
❤2👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
Это ломает людям представление о сложности задач. Формат простой: сначала условие на экране, потом включается таймер, ты отправляешь задачу модели, и через пару секунд уже показываешь готовое решение.
Такой контраст "человек думает 20 минут - ИИ думает 3 секунды" вызывает вау-эффект и отлично удерживает внимание. Главное - бери задачу, которую зрители узнают: строки, словари, алгоритмы, обработка данных.
import time
def interview_task(nums):
# Классическая задача: найти два числа, дающих нужную сумму
target = 9
seen = {}
for i, num in enumerate(nums):
diff = target - num
if diff in seen:
return seen[diff], i
seen[num] = i
# Имитация "ИИ думает"
print("Задача отправлена ИИ...")
start = time.time()
result = interview_task([2, 7, 11, 15])
end = time.time()
print("Ответ ИИ:", result)
print("Время решения:", round(end - start, 3), "сек")
Please open Telegram to view this post
VIEW IN TELEGRAM
🤔2❤1
🔥 Полезная подборка каналов только код, практика и самые передовые инструменты, которые используют разработчики прямо сейчас.👇
🖥 Машинное обучение : t.me/machinelearning_interview
🖥 ИИ: t.me/ai_machinelearning_big_data
🖥 Python: t.me/pythonl
🖥 Linux: t.me/linuxacademiya
🖥 C++ t.me/cpluspluc
🖥 Docker: t.me/DevopsDocker
🖥 Хакинг: t.me/linuxkalii
🖥 Devops: t.me/DevOPSitsec
👣 Golang: t.me/Golang_google
🖥 Javanoscript: t.me/javanoscriptv
🖥 C#: t.me/csharp_ci
🖥 Java: t.me/javatg
🖥 Базы данных: t.me/sqlhub
👣 Rust: t.me/rust_code
🤖 Технологии: t.me/machineint
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
🖥 Chatgpt бот в тг: t.me/Chatgpturbobot
📚 Бесплатные ит-книги: https://news.1rj.ru/str/addlist/HwywK4fErd8wYzQy
🖥 Подборка по Golang: https://news.1rj.ru/str/addlist/MUtJEeJSxeY2YTFi
⚡️ Лучшие ИИ ресурсы: https://news.1rj.ru/str/addlist/2Ls-snqEeytkMDgy
Самое лучшее в этом: ты учишься даже тогда, когда “нет времени, просто потому что читаешь правильную ленту.
💰 Экономика и инвестиции в ИИ t.me/financeStable
💼 Актуальные вакансии: t.me/addlist/_zyy_jQ_QUsyM2Vi
📚 Бесплатные ит-книги: https://news.1rj.ru/str/addlist/HwywK4fErd8wYzQy
⚡️ Лучшие ИИ ресурсы: https://news.1rj.ru/str/addlist/2Ls-snqEeytkMDgy
Самое лучшее в этом: ты учишься даже тогда, когда “нет времени, просто потому что читаешь правильную ленту.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
Извините, готов рассматривать офферы только от 3000$
😁8🔥5
Forwarded from Machinelearning
Tongyi выложила фундаментальную версию модели семейства Z-Image.
В отличие от ранее выпущенной Turbo, это полновесный трансформер, ориентированный на максимальное качество и управляемость генерации .
Z-Image отлично подходит для дообучения, тренировки LoRA и интеграции с ControlNet.
Модель поддерживает CFG и работу с негативными промптами, генерируя результат за 28–50 шагов.
@ai_machinelearning_big_data
#AI #ML #Diffusion #ZImage #Tongyi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1👎1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Найди любого человека в файлах Эпштейна с помощью Python!
Этот репозиторий позволяет проверить, упоминаются ли ваши контакты в открытых судебных документах по делу Эпштейна.
Инструмент анализирует список имён (например, из LinkedIn) и ищет точные совпадения в опубликованных судебных материалах. В результате вы получаете удобный HTML-отчёт со всеми найденными упоминаниями.
Что умеет:
- Поиск по базе судебных документов
- Сортировка упоминаний по количеству
- Генерация наглядного HTML-отчёта
- Работа с файлами контактов (CSV)
Проверь своего друга, не был ли он замечен на печально известном острове.
https://github.com/cfinke/EpsteIn
Этот репозиторий позволяет проверить, упоминаются ли ваши контакты в открытых судебных документах по делу Эпштейна.
Инструмент анализирует список имён (например, из LinkedIn) и ищет точные совпадения в опубликованных судебных материалах. В результате вы получаете удобный HTML-отчёт со всеми найденными упоминаниями.
Что умеет:
- Поиск по базе судебных документов
- Сортировка упоминаний по количеству
- Генерация наглядного HTML-отчёта
- Работа с файлами контактов (CSV)
Проверь своего друга, не был ли он замечен на печально известном острове.
Клонируем репозиторий
git clone https://github.com/cfinke/EpsteIn.git
cd EpsteIn
Установка зависимостей
pip install -r requirements.txt
Подготовьте CSV-файл с именами (по одному имени в строке)
example.csv:
Oleg Petrov
Nikolay Sobolev
Запуск анализа
python epstein.py example.csv
После выполнения будет создан HTML-отчет с найденными совпадениями
https://github.com/cfinke/EpsteIn
❤4👍2👎1😁1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ LavaSR - улучшение речи в 4000× быстрее реального времени
В open-source выложили LavaSR - модель для улучшения качества речи, которая работает с экстремальной скоростью.
Что умеет модель:
- Скорость — до 4000× realtime
(обрабатывает часы аудио за секунды)
- Универсальность — поддержка любого аудио от 8 kHz до 48 kHz
- Размер — всего ~50 МБ, можно запускать практически везде
- Качество — сопоставимо с более крупными моделями
Где это может пригодиться
- очистка шума в записях
- улучшение качества звонков
- подготовка аудио для ASR / speech-to-text
- подкасты, стримы, voice-боты
- обработка аудио на edge-устройствах
Лёгкая модель + высокая скорость = удобно для реальных production-задач.
Репозиторий: https://github.com/ysharma3501/LavaSR
📲 Max
В open-source выложили LavaSR - модель для улучшения качества речи, которая работает с экстремальной скоростью.
Что умеет модель:
- Скорость — до 4000× realtime
(обрабатывает часы аудио за секунды)
- Универсальность — поддержка любого аудио от 8 kHz до 48 kHz
- Размер — всего ~50 МБ, можно запускать практически везде
- Качество — сопоставимо с более крупными моделями
Где это может пригодиться
- очистка шума в записях
- улучшение качества звонков
- подготовка аудио для ASR / speech-to-text
- подкасты, стримы, voice-боты
- обработка аудио на edge-устройствах
Лёгкая модель + высокая скорость = удобно для реальных production-задач.
Репозиторий: https://github.com/ysharma3501/LavaSR
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Создадим бота, , КОТОРЫЙ ОТВЕЧАЕТ ЗА ТЕБЯ 24 на 7.
Давайте сделаем AI, который будет отвечать людям за тебя.
Работает это очень просто. Человек пишет комментарий в Telegram или в чат. Бот получает сообщение, отправляет его в GPT, генерирует ответ в твоём стиле и сразу отвечает. Для пользователя это выглядит так, как будто ты всегда онлайн.
Самое важное — правильно задать промпт. Например: «Отвечай дружелюбно, кратко и в стиле автора». Тогда бот будет поддерживать диалог, благодарить за комментарии и вовлекать людей. Такой автоответчик отлично работает для каналов, прогрева аудитории, поддержки и роста активности.
По сути, это твой AI-менеджер общения, который работает 24/7 и не устаёт.
Давайте сделаем AI, который будет отвечать людям за тебя.
Работает это очень просто. Человек пишет комментарий в Telegram или в чат. Бот получает сообщение, отправляет его в GPT, генерирует ответ в твоём стиле и сразу отвечает. Для пользователя это выглядит так, как будто ты всегда онлайн.
Самое важное — правильно задать промпт. Например: «Отвечай дружелюбно, кратко и в стиле автора». Тогда бот будет поддерживать диалог, благодарить за комментарии и вовлекать людей. Такой автоответчик отлично работает для каналов, прогрева аудитории, поддержки и роста активности.
По сути, это твой AI-менеджер общения, который работает 24/7 и не устаёт.
import openai
from telegram import Update
from telegram.ext import ApplicationBuilder, MessageHandler, filters, ContextTypes
openai.api_key = "OPENAI_API_KEY"
TELEGRAM_TOKEN = "TELEGRAM_BOT_TOKEN"
SYSTEM_PROMPT = "Ты дружелюбный помощник автора. Отвечай кратко и по делу."
async def handle_message(update: Update, context: ContextTypes.DEFAULT_TYPE):
user_text = update.message.text
response = openai.ChatCompletion.create(
model="gpt-4o-mini",
messages=[
{"role": "system", "content": SYSTEM_PROMPT},
{"role": "user", "content": user_text}
]
)
reply = response.choices[0].message["content"]
await update.message.reply_text(reply)
app = ApplicationBuilder().token(TELEGRAM_TOKEN).build()
app.add_handler(MessageHandler(filters.TEXT & ~filters.COMMAND, handle_message))
app.run_polling()
❤4👎3
# 🤖 WiFi DensePose: Поза без камер
WiFi DensePose — система оценки позы человека, использующая данные о состоянии канала (CSI) для определения позы в реальном времени без камер. Идеально подходит для приложений в области здравоохранения, фитнеса и безопасности.
🚀 Основные моменты:
- Приватность: работает без камер, используя WiFi-сигналы.
- Реальное время: задержка менее 50 мс, 30 FPS.
- Многопользовательский режим: отслеживание до 10 человек одновременно.
- Оптимизация под конкретные задачи: здравоохранение, умный дом и безопасность.
- Готовность к производству: API с аутентификацией и мониторингом.
📌 GitHub: https://github.com/ruvnet/wifi-densepose
#python
WiFi DensePose — система оценки позы человека, использующая данные о состоянии канала (CSI) для определения позы в реальном времени без камер. Идеально подходит для приложений в области здравоохранения, фитнеса и безопасности.
🚀 Основные моменты:
- Приватность: работает без камер, используя WiFi-сигналы.
- Реальное время: задержка менее 50 мс, 30 FPS.
- Многопользовательский режим: отслеживание до 10 человек одновременно.
- Оптимизация под конкретные задачи: здравоохранение, умный дом и безопасность.
- Готовность к производству: API с аутентификацией и мониторингом.
📌 GitHub: https://github.com/ruvnet/wifi-densepose
#python
GitHub
GitHub - ruvnet/wifi-densepose: WiFi DensePose turns commodity WiFi signals into real-time human pose estimation, vital sign monitoring…
WiFi DensePose turns commodity WiFi signals into real-time human pose estimation, vital sign monitoring, and presence detection — all without a single pixel of video. - GitHub - ruvnet/wifi-densep...
❤3
ByteDance выпустила новую open-source модель для генерации изображений.
По первым отзывам, она показывает результаты лучше, чем Qwen-Image и Z-Image.
Главная особенность — модель работает в autoregressive-режиме.
Это означает, что изображение создаётся поэтапно, как текст в LLM, а не одним «шумовым» проходом, как в диффузионных моделях.
Такой подход даёт:
- лучшее понимание сцены и объектов
- более логичную композицию
- стабильность персонажей и деталей
- более «осмысленную» генерацию
Похожий принцип уже используют современные системы вроде GPT-Image и других новых генераторов.
GitHub: https://github.com/shallowdream204/BitDance
По первым отзывам, она показывает результаты лучше, чем Qwen-Image и Z-Image.
Главная особенность — модель работает в autoregressive-режиме.
Это означает, что изображение создаётся поэтапно, как текст в LLM, а не одним «шумовым» проходом, как в диффузионных моделях.
Такой подход даёт:
- лучшее понимание сцены и объектов
- более логичную композицию
- стабильность персонажей и деталей
- более «осмысленную» генерацию
Похожий принцип уже используют современные системы вроде GPT-Image и других новых генераторов.
GitHub: https://github.com/shallowdream204/BitDance
❤4👍3
Forwarded from Python/ django
💸 AI, который должен зарабатывать… или обанкротится
Исследователи представили ClawWork - систему, где модель работает в условиях реальной экономики.
Стартовые условия:
- баланс: $10
- каждая генерация = реальные расходы на токены
- никакого безлимита
- не заработал - банкрот
Как это работает:
→ AI получает реальные профессиональные задачи
(финансы, медицина, юриспруденция, аналитика)
→ Сам создаёт полноценные результаты с нуля
→ Качество оценивается GPT-5.2 по профессиональным критериям
→ Оплата рассчитывается по формуле:
качество × оценка часов × средняя зарплата (BLS)
→ Каждый API-запрос уменьшает баланс
Результаты:
- $10K заработано за 7 часов
- 0 участия человека
- 220 задач
- 44 профессии
- лучшие модели - $1500+ в час (эквивалент)
Это уже не просто бенчмарк.
Это экономический тест на выживание.
Модель должна принимать решения:
- быстро выполнять задачи ради кэша
- или тратить ресурсы на обучение, чтобы зарабатывать больше позже
Дополнительно:
AI может работать как живой сотрудник в
Telegram, Slack, Discord и WhatsApp —
и каждое сообщение стоит реальных денег.
Проект полностью open-source (MIT).
Следующий этап оценки AI - не тесты и бенчмарки.
А способность приносить деньги в реальной экономике.
https://github.com/HKUDS/ClawWork
📲 Max
@pythonl
Исследователи представили ClawWork - систему, где модель работает в условиях реальной экономики.
Стартовые условия:
- баланс: $10
- каждая генерация = реальные расходы на токены
- никакого безлимита
- не заработал - банкрот
Как это работает:
→ AI получает реальные профессиональные задачи
(финансы, медицина, юриспруденция, аналитика)
→ Сам создаёт полноценные результаты с нуля
→ Качество оценивается GPT-5.2 по профессиональным критериям
→ Оплата рассчитывается по формуле:
качество × оценка часов × средняя зарплата (BLS)
→ Каждый API-запрос уменьшает баланс
Результаты:
- $10K заработано за 7 часов
- 0 участия человека
- 220 задач
- 44 профессии
- лучшие модели - $1500+ в час (эквивалент)
Это уже не просто бенчмарк.
Это экономический тест на выживание.
Модель должна принимать решения:
- быстро выполнять задачи ради кэша
- или тратить ресурсы на обучение, чтобы зарабатывать больше позже
Дополнительно:
AI может работать как живой сотрудник в
Telegram, Slack, Discord и WhatsApp —
и каждое сообщение стоит реальных денег.
Проект полностью open-source (MIT).
Следующий этап оценки AI - не тесты и бенчмарки.
А способность приносить деньги в реальной экономике.
https://github.com/HKUDS/ClawWork
@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2👎2
🧠 Claude-Mem: Умная система памяти для Claude Code
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javanoscript
Claude-Mem обеспечивает сохранение контекста между сессиями, автоматически фиксируя использование инструментов и создавая семантические резюме. Это позволяет Claude поддерживать непрерывность знаний о проектах даже после завершения сессий.
🚀 Основные моменты:
- Автоматическое сохранение контекста между сессиями
- Генерация семантических резюме
- Поддержка Claude Code
- Легкая установка через плагины
📌 GitHub: https://github.com/thedotmack/claude-mem
#javanoscript
GitHub
GitHub - thedotmack/claude-mem: A Claude Code plugin that automatically captures everything Claude does during your coding sessions…
A Claude Code plugin that automatically captures everything Claude does during your coding sessions, compresses it with AI (using Claude's agent-sdk), and injects relevant context back into...
❤5👍1
Новая модель GPT-5.4 от OpenAI поднялась на 6 пунктов и разделила 1-е место в Intelligence Index вместе с Gemini 3.1 Pro Preview от Google.
Модель показывает очень сильные результаты в задачах уровня научных исследований, особенно в физике и агентном программировании, устанавливая новые рекорды по нескольким бенчмаркам.
Также у неё огромное контекстное окно — 1.05 млн токенов.
Но есть и минус.
Модель очень дорогая:
• запуск бенчмарков обошёлся почти в 3 раза дороже, чем у Gemini
• уровень галлюцинаций вырос до 89%, потому что модель слишком стремится отвечать на вопросы, даже когда не уверена.
•
🐍 Python полезные ресурсы 🚀Max
Модель показывает очень сильные результаты в задачах уровня научных исследований, особенно в физике и агентном программировании, устанавливая новые рекорды по нескольким бенчмаркам.
Также у неё огромное контекстное окно — 1.05 млн токенов.
Но есть и минус.
Модель очень дорогая:
• запуск бенчмарков обошёлся почти в 3 раза дороже, чем у Gemini
• уровень галлюцинаций вырос до 89%, потому что модель слишком стремится отвечать на вопросы, даже когда не уверена.
•
🐍 Python полезные ресурсы 🚀Max
❤2👍1
Forwarded from Machinelearning
Tencent HY опубликовала первую часть серии работ под названием HY-WU (Weight Unleashing). Суть метода в отказе от стандартной парадигмы адаптации, при которой модель получает один фиксированный набор весов для всех задач.
Специальная модель-генератор синтезирует LoRA отдельно под каждый входной пример прямо во время инференса, без дополнительной оптимизации на тест-тайме.
Проблема, которую решает HY-WU, хорошо знакома всем, кто работал с дообучением: когда задачи противоречат друг другу (например, "размыть" против "убрать размытие" или "состарить лицо" против "восстановить"), общий адаптер вынужден идти на компромисс.
Градиенты конфликтуют, и результат оказывается хуже, чем если бы задачи обучались раздельно.
Чтобы не быть голословными, авторы измерили это напрямую: косинусное сходство градиентов между разнородными задачами устойчиво отрицательно, среднее около −0.30, то есть задачи буквально тянут веса в противоположные стороны.
HY-WU предлагает условную генерацию параметров. Модель-генератор (8B параметров) принимает на вход совместное представление изображения и текстового запроса через энкодер SigLIP2, после чего генерирует LoRA-матрицы (~0.72B) и инжектирует их в базовую модель.
Обучение сквозное, только через downstream-loss, без предварительно собранных чекпойнтов адаптеров.
Для тестов выбрали задачу редактирования изображения текстовым запросом - в нем конфликты неизбежны и визуально очевидны.
Tencent проверили: прирост качества дается именно условной маршрутизацией, а не просто увеличением числа параметров. Когда генератор использовали с перемешанными или усредненными условиями, результат проваливался до уровня базовой модели.
Полный SFT с намного большим числом обучаемых параметров давал сопоставимый результат с обычным Shared LoRA, так как в обоих случаях в инференсе применяется одна фиксированная точка в пространстве весов.
Выпущенная работа - первая часть серии исследований по функциональной памяти для генеративных моделей. В планах:
Помимо этого, в планах выйти за пределы LoRA на другие операторные интерфейсы, распространить метод на видео и агентные системы, а также проработать возможность точечно удалять поведение модели через управление состоянием генератора.
Кроме этого архиполезного исследования Tencent выложили связку из модели-генератора и базовой модели HY-Image-3.0-Instruct, поверх которой она и работает.
Поиграться этой красотой можно, если под рукой простаивает 8х40 GB или 4х80 GB VRAM.
@ai_machinelearning_big_data
#AI #ML #ImageEdit #HYWU #Tencent
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤3👍1