Приехали, Линус тоже стал вайб-кодером 😄
В README одного из его хобби-проектов нашли признание: визуализатор ему помог писать ИИ.
Сам Линус честно говорит:
в аналоговых фильтрах он разбирается куда лучше, чем в Python
https://github.com/torvalds/AudioNoise
В README одного из его хобби-проектов нашли признание: визуализатор ему помог писать ИИ.
Сам Линус честно говорит:
в аналоговых фильтрах он разбирается куда лучше, чем в Python
https://github.com/torvalds/AudioNoise
❤11👍4🔥4🤣2🖕1
🚀 Автоматизированная торговля криптовалютами с AI
PowerTrader_AI — это система автоматической торговли, использующая уникальный ИИ для прогнозирования цен на криптовалюту. Она применяет метод kNN для анализа исторических данных и формирования торговых сигналов на основе предсказанных ценовых уровней. Система включает в себя стратегию усреднения (DCA) и управление прибылью для оптимизации сделок.
🚀 Основные моменты:
- Полностью автоматизированная торговля на основе ИИ.
- Использует многовременные прогнозы для принятия решений.
- Включает стратегию DCA для управления рисками.
- Настраиваемые параметры для торговли на разных криптовалютах.
📌 GitHub: https://github.com/garagesteve1155/PowerTrader_AI
PowerTrader_AI — это система автоматической торговли, использующая уникальный ИИ для прогнозирования цен на криптовалюту. Она применяет метод kNN для анализа исторических данных и формирования торговых сигналов на основе предсказанных ценовых уровней. Система включает в себя стратегию усреднения (DCA) и управление прибылью для оптимизации сделок.
🚀 Основные моменты:
- Полностью автоматизированная торговля на основе ИИ.
- Использует многовременные прогнозы для принятия решений.
- Включает стратегию DCA для управления рисками.
- Настраиваемые параметры для торговли на разных криптовалютах.
📌 GitHub: https://github.com/garagesteve1155/PowerTrader_AI
❤4😁4👍1
Визуализация данных помогает разработчикам и аналитикам превращать таблицы цифр в наглядные графики, карты и панели мониторинга. В 2025 году Python остаётся доминирующим языком для анализа данных и визуализации: популярность языка подтверждают исследовательские индексы и рост сообщества. Экосистема Python предлагает десятки библиотек для построения графиков — от классических 2‑D диаграмм до интерактивных веб‑панелей. Ниже приведён обзор самых актуальных библиотек визуализации данных для Python на 2025 год и их отличительные особенности.
https://uproger.com/sravnenie-luchshih-bibliotek-vizualizaczii-dannyh-na-python-v-2025-godu/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2🥰2👍1🔥1
Forwarded from Just Xor
📘 Бесплатный онлайн-учебник по математике с практикой на Python.
Это обновлённая версия книги *Exploring Mathematics with Your Computer*,
где все примеры переписаны на Python и дополнены новыми главами.
Книга разбирает идеи математики через код и эксперименты, охватывая:
- основы алгоритмов и математического мышления
- теорию чисел
- вероятность и статистику
- комбинаторику
- численные методы
- фракталы и хаос
- геометрию и графику
- марковские цепи
- продолженные дроби
- кривые и многое другое
Каждая тема сопровождается пояснениями, упражнениями и примерами кода.
Подходит тем, кто уже знает базовый Python и хочет
через практику прокачать математику и алгоритмическое мышление.
📍 Ссылка на книгу: https://coe.psu.ac.th/ad/explore/
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥1
This media is not supported in your browser
VIEW IN TELEGRAM
⚡️ Как запустить Qwen у себя на ПК с Python
Совет: если хочешь развернуть Qwen локально без облака, проще всего поставить её через Transformers - модель скачивается один раз и дальше работает офлайн.
Подходит даже для слабых ПК, если брать маленькие версии (например, Qwen-2.5-1.5B-Instruct).
Совет: если хочешь развернуть Qwen локально без облака, проще всего поставить её через Transformers - модель скачивается один раз и дальше работает офлайн.
Подходит даже для слабых ПК, если брать маленькие версии (например, Qwen-2.5-1.5B-Instruct).
# Установка:
# pip install transformers accelerate torch
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
MODEL_NAME = "Qwen/Qwen2.5-1.5B-Instruct"
# Модель и токенайзер загрузятся один раз — потом работают офлайн
tokenizer = AutoTokenizer.from_pretrained(MODEL_NAME)
model = AutoModelForCausalLM.from_pretrained(
MODEL_NAME,
torch_dtype=torch.float16,
device_map="auto" # автоматически использует GPU, если есть
)
prompt = "Объясни простыми словами, чем контейнер отличается от виртуальной машины."
inputs = tokenizer(prompt, return_tensors="pt").to(model.device)
outputs = model.generate(
**inputs,
max_new_tokens=200,
do_sample=True,
temperature=0.7
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
❤7👍2👌1
This media is not supported in your browser
VIEW IN TELEGRAM
🚀 Токенизация в LLM - как “Hello” превращается в цифры.
Токенизация - это первый шаг перед тем, как LLM вообще начнет “думать”.
Модель не понимает текст напрямую.
Она понимает только числа.
Поэтому любой текст сначала разбивается на маленькие кусочки - токены:
- иногда это целые слова
- иногда части слов (su, per, man)
- иногда один символ
- иногда даже пробел - тоже токен
Пример:
Фраза "I love programming" разбивается не обязательно на слова, а на кусочки слов:
Обрати внимание:
- " love" начинается с пробела - потому что пробел тоже часть токена
- programming разделилось на 2 токена: " program" + "ming"
То есть Токенизация - это когда LLM режет текст на маленькие кусочки (токены) и переводит их в числа.
Важно:
Чем больше токенов - тем дороже запрос и тем быстрее съедается контекст.
Плохая токенизация = странные ошибки (особенно в коде, ссылках, редких словах).
Поэтому LLM отлично понимают частые слова, но могут путаться на редких именах, терминах и смешанных языках.
И лайфхак: если хочешь “дешевле” и “чище” ответы - пиши короче, без мусора, без повторов.
Контекст - это валюта.
https://www.youtube.com/shorts/A7DCcYLq38M
Токенизация - это первый шаг перед тем, как LLM вообще начнет “думать”.
Модель не понимает текст напрямую.
Она понимает только числа.
Поэтому любой текст сначала разбивается на маленькие кусочки - токены:
- иногда это целые слова
- иногда части слов (su, per, man)
- иногда один символ
- иногда даже пробел - тоже токен
Пример:
Фраза "I love programming" разбивается не обязательно на слова, а на кусочки слов:
[I] ,[ love] ,[ program] , [ming]Обрати внимание:
- " love" начинается с пробела - потому что пробел тоже часть токена
- programming разделилось на 2 токена: " program" + "ming"
То есть Токенизация - это когда LLM режет текст на маленькие кусочки (токены) и переводит их в числа.
Важно:
Чем больше токенов - тем дороже запрос и тем быстрее съедается контекст.
Плохая токенизация = странные ошибки (особенно в коде, ссылках, редких словах).
Поэтому LLM отлично понимают частые слова, но могут путаться на редких именах, терминах и смешанных языках.
И лайфхак: если хочешь “дешевле” и “чище” ответы - пиши короче, без мусора, без повторов.
Контекст - это валюта.
# Tokenization demo (Python)
# pip install tiktoken
import tiktoken
text = "I love programming in Python 🐍"
enc = tiktoken.get_encoding("cl100k_base")
tokens = enc.encode(text)
print("Text:", text)
print("Token IDs:", tokens)
print("Tokens count:", len(tokens))
# decode back
print("\nDecoded tokens:")
for t in tokens:
print(t, "->", repr(enc.decode([t])))
https://www.youtube.com/shorts/A7DCcYLq38M
❤5👍2🔥1
Forwarded from Machinelearning
RealOmni - это не просто каталог видео, где роборука хватает кубик на белом столе. Это мультимодальный подарок с траекториями, аннотациями и движениями суставов.
Картинка с Fisheye-камер, данные IMU (инерциалка), энкодеры и данные с тактильных датчиков с разрешением 1 мм.
Снимали в 3000 реальных домах, никаких стерильных лабораторий: складывание одежды, завязывание шнурков, разбор посуды и сортировка всякого хлама.
Почти все таски двурукие.
Медианная длина клипа ~ 210 секунд. То есть это не "схватил-положил", а полноценные процессы "достать, сложить, убрать в ящик".
В свежем обновлении добавили 35 тыс. клипов с фокусом на разгребание куч разнородных предметов. Это именно та задача, на которой сыпется большинство моделей.
Немного цифр о всем датасете
Весть проект запланирован объемом 95 ТБ и хронометражем 10,000 часов. Но если посчитать, то что уже залито (Stage 1 + Stage 2), то суммарно около 5.4 ТБ и ~1600 часов. Остальное обещают догрузить as soon as possible.
Данные собраны специфическим гриппером GenDAS, так что если у вас другой сенсорный массив (или его нет), transfer learning может стать болью. Ассеты заточены под железку GenRobot.
Это все еще телеоперация. То есть мы учим робота копировать движения человека-оператора и если он тупил или руки дрожали сетка это тоже выучит.
Тем не менее, это очень крутой релиз для тех, кто пилит домашних роботов. Данные по завязыванию шнурков и разбору предметов в open-source редкость.
@ai_machinelearning_big_data
#AI #ML #Robotics #Dataset #RealOmni #GenRoborAI
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4👍2🔥1
🔥 На stepik вышел курс, который учит Создавать настоящие AI-сервисы, а не просто запускать скрипты?
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
Этот практический курс по Python и FastAPI покажет, как собрать полноценное приложение с ИИ, базой данных, автогенерацией контента и Telegram-ботом.
Ты пройдёшь путь от первого HTTP-запроса до рабочего сервиса, который сам генерирует текст через ИИ, сохраняет данные, отправляет результаты по расписанию и отвечает пользователям.
Никакой теории ради теории - только практические шаги, из которых рождается реальный продукт.
🎁 48 часов действует скидка в 40% процентов
👉 Начать учиться на Stepik
❤3🔥2👍1🥱1
Forwarded from Machinelearning
🗣 Qwen3-TTS - мощный open-source релиз (voice design + клонирование голоса)
Qwen официально выпустили Qwen3-TTS и полностью открыли всю линейку моделей - Base / CustomVoice / VoiceDesign.
Что внутри:
- 5 моделей (0.6B и 1.8B классы)
- Free-form Voice Design - генерация/редаквтирование голоса по описанию
- Voice Cloning - клонирование голоса
- 10 языков
- 12Hz tokenizer - сильная компрессия аудио без сильной потери качества
- полная поддержка fine-tuning
- заявляют SOTA качество на ряде метрик
Раньше лучшие генераторы были в закрытых API, а теперь появляется полноценный open-source стек TTS, где можно:
- обучать под домен,
- делать кастомные голоса,
- и не зависеть от провайдера.
▪GitHub: https://github.com/QwenLM/Qwen3-TTS
▪Hugging Face: https://huggingface.co/collections/Qwen/qwen3-tts
▪Демо (HF): https://huggingface.co/spaces/Qwen/Qwen3-TTS
▪Блог: https://qwen.ai/blog?id=qwen3tts-0115
▪Paper: https://github.com/QwenLM/Qwen3-TTS/blob/main/assets/Qwen3_TTS.pdf
@ai_machinelearning_big_data
#AI #TTS #Qwen #OpenSource #SpeechAI
Qwen официально выпустили Qwen3-TTS и полностью открыли всю линейку моделей - Base / CustomVoice / VoiceDesign.
Что внутри:
- 5 моделей (0.6B и 1.8B классы)
- Free-form Voice Design - генерация/редаквтирование голоса по описанию
- Voice Cloning - клонирование голоса
- 10 языков
- 12Hz tokenizer - сильная компрессия аудио без сильной потери качества
- полная поддержка fine-tuning
- заявляют SOTA качество на ряде метрик
Раньше лучшие генераторы были в закрытых API, а теперь появляется полноценный open-source стек TTS, где можно:
- обучать под домен,
- делать кастомные голоса,
- и не зависеть от провайдера.
▪GitHub: https://github.com/QwenLM/Qwen3-TTS
▪Hugging Face: https://huggingface.co/collections/Qwen/qwen3-tts
▪Демо (HF): https://huggingface.co/spaces/Qwen/Qwen3-TTS
▪Блог: https://qwen.ai/blog?id=qwen3tts-0115
▪Paper: https://github.com/QwenLM/Qwen3-TTS/blob/main/assets/Qwen3_TTS.pdf
@ai_machinelearning_big_data
#AI #TTS #Qwen #OpenSource #SpeechAI
❤4👍3🔥1
Python-сообщество отлично научилось делать API-серверы.
FastAPI / DRF дают идеальный опыт разработчика:
- типы
- валидация
- понятные эндпоинты
- документация по OpenAPI
- минимум рутины
Но есть проблема.
Серверы стали удобными и “правильными”, а вот клиентская сторона до сих пор часто выглядит как кустарщина.
Что часто встречается в проектах на базе python:
- везде раскиданы httpx.get/post
- URL собираются руками
- параметры и headers копируются по коду
- ответы парсятся вручную
- ошибки обрабатываются как попало
- нет нормальных типов и автодополнения
И именно тут часто появляется 80% проблем.
API может быть идеально спроектирован, но пользоваться им неудобно.
Да, можно сгенерировать кода клиента.
Но чаще всего генератор выдаёт огромный неудобный код:
- странные имена методов
- перегруженные классы
- нечитаемый boilerplate
- всё равно приходится писать обёртки руками
В итоге клиенты либо не генерируют вообще, либо генерируют и потом ненавидят.
API-клиенты должны быть сделаны как фреймворк.
Как FastAPI, только наоборот.
То есть ты описываешь клиент красиво и декларативно:
- функция описывает intent (что мы делаем)
- типы описывают контракт
- библиотека берёт на себя HTTP-рутину
Вместо кода “на коленке”
httpx.get("https://api.site.com/users/123")Должно быть
get_user(123)И дальше библиотека сама:
- соберёт URL
- подставит параметры
- сериализует запрос
- выполнит HTTP
- распарсит ответ
- кинет нормальную ошибку
- даст типы и автодополнение в IDE
Именно эту идею автор статье и продвигает (проект Clientele)
Сделать API-клиенты удобными, чистыми и типобезопасными
так же, как мы привыкли делать серверы
Проблема не в HTTP.
Проблема в том, что API-клиенты в Python до сих пор не стали “первоклассным кодом”.
А должны стать.
Подробности: paulwrites.software/articles/python-api-clients
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍1