Data Science | Machinelearning [ru] – Telegram
Data Science | Machinelearning [ru]
20K subscribers
690 photos
46 videos
29 files
3.58K links
Все о Data Science, машинном обучении и искусственном интеллекте: от базовой теории до cutting-edge исследований и LLM.

Личный блог автора - @just_genych
По вопросам рекламы или разработки - @g_abashkin


РКН: https://vk.cc/cJPGXD
Download Telegram
Forwarded from xCode Journal
😭 «Меньше 200 тыс. в Москве — лютейшая нищета»

Разраб создал проект Salary Tiers, который разбивает зарплаты по городам и выдает жестокую правду о том, на каком ты уровне жизни.

Смотрим и плачем здесь

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
👎33😁14👍3👀1
Edge AI: видеокамеры с искусственным интеллектом

Введение в Edge AI
Edge AI — это технология, позволяющая обрабатывать данные непосредственно на устройствах, расположенных на периферии сети, таких как видеокамеры, без необходимости передачи информации в облако. Это обеспечивает более быструю обработку данных и снижает задержки, что критично для приложений реального времени.

Преимущества видеокамер с Edge AI
Внедрение искусственного интеллекта в видеокамеры позволяет анализировать видео в реальном времени, повышая эффективность систем видеонаблюдения. Это снижает нагрузку на центральные серверы и уменьшает затраты на передачу данных. Кроме того, такие камеры могут работать автономно, обеспечивая непрерывный мониторинг даже при отсутствии подключения к сети.

Применение в различных отраслях
Видеокамеры с Edge AI находят применение в различных сферах: от промышленности до здравоохранения. В промышленности они используются для контроля качества продукции и обеспечения безопасности на производственных площадках. В здравоохранении такие камеры помогают в мониторинге пациентов и обеспечении безопасности медицинских учреждений.

Технологические достижения
Современные видеокамеры с Edge AI оснащены мощными процессорами и специализированными нейронными сетями, что позволяет им выполнять сложные задачи машинного зрения непосредственно на устройстве. Это включает в себя распознавание лиц, обнаружение аномалий и анализ поведения в реальном времени.

Будущие перспективы
Ожидается, что к 2032 году рынок Edge AI достигнет 35,26 миллиарда долларов США, демонстрируя среднегодовой темп роста 12,35% с 2025 года. Это свидетельствует о растущем спросе на устройства с локальной обработкой данных и их интеграции в различные отрасли.

Факты
👉 К 2032 году рынок Edge AI достигнет 35,26 миллиарда долларов США с CAGR 12,35% с 2025 года
👉 Внедрение Edge AI в видеокамеры снижает задержки обработки данных и повышает эффективность систем видеонаблюдения

❗️Видеокамеры с Edge AI представляют собой значительный шаг вперед в области видеонаблюдения, обеспечивая быструю и эффективную обработку данных непосредственно на устройстве, что открывает новые возможности для различных отраслей.

Источники
Edge AI 2025: Тренды и кейсы внедрения искусственного интеллекта на периферии.
Edge AI в 2025 году: как локализованный интеллект открывает новые горизонты для бизнеса.
Видеонаблюдение с Edge AI: меньше затрат, больше возможностей.
6
Forwarded from xCode Journal
Media is too big
VIEW IN TELEGRAM
🦾 Превращаем любой репозиторий в интерактивный ГРАФ ЗНАНИЙ с GitNexus

GitNexus работает полностью в браузере — просто кидаешь ссылку на GitHub или загружаешь архив и получаешь наглядную карту: файлы, модули, зависимости и связи между ними. Плюс внутри есть ИИ-агент, который отвечает на все вопросы по проекту. Так что можно узнать, где используется функция, как связаны компоненты или за что отвечает конкретный модуль.

По сути, это быстрый способ разобраться в чужом (да и своем…) проекте.

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
9👍4🔥3
DeepSeek V3.2 в Yandex AI Studio: теперь агенты реально умеют рассуждать

В Yandex AI Studio появилась модель, которая предназначена для решения сложных пошаговых задач. Агенты на базе этой модели могут сравнивать тендеры, разбирать инциденты, гонять автотесты, поднимать репозиторий и деплоить приложения.

Технически — это полноценный chain-of-thought + tool use, где сессия хранит длинный контекст и повторные обращения. Платформа оптимизирует кеширование и вызов инструментов, так что стоимость сессий падает почти в 4 раза.

Платформа SourceCraft уже интегрировала модель в своего кодового ассистента. ИИ теперь не просто completion — он orchestration.
👎6👍52🔥1
MBZUAI и G42 представили K2 Think — революционную модель рассуждения с открытым исходным кодом

Введение
Мохаммед бин Заидский университет искусственного интеллекта (MBZUAI) совместно с технологической компанией G42 объявили о выпуске K2 Think — передовой модели рассуждения с открытым исходным кодом, предназначенной для решения сложных задач в области искусственного интеллекта. Узнайте больше в официальном анонсе MBZUAI.

Технические характеристики и производительность
K2 Think содержит 32 миллиарда параметров, что значительно меньше по сравнению с другими флагманскими моделями, такими как GPT-4 и DeepSeek-V3.1, которые имеют более 200 миллиардов параметров. Несмотря на меньший размер, K2 Think демонстрирует сопоставимую производительность в задачах математического и научного рассуждения. Подробнее читайте в новости The National.

Инновационные подходы
Модель основана на шести ключевых инновациях, включая обучение с подкреплением с проверяемыми наградами и агентное планирование, позволяющее разбивать сложные задачи на более простые этапы. Подробности доступны в официальном анонсе G42.

Производительность и доступность
K2 Think будет доступна на платформе Cerebras, оптимизированной для высокоскоростного вывода, достигая скорости обработки до 2000 токенов в секунду. Узнайте больше о производительности в пресс-релизе от Cerebras.

Открытость и прозрачность
В отличие от большинства моделей, K2 Think полностью открыта: доступны данные обучения, веса параметров и программный код для развертывания и оптимизации. Это обеспечивает прозрачность и воспроизводимость для исследовательского сообщества. Детали можно найти в официальном анонсе G42.

Значение для ОАЭ
Выпуск K2 Think подчеркивает стремление ОАЭ к лидерству в области искусственного интеллекта, демонстрируя способность страны разрабатывать передовые технологии и делиться ими с мировым сообществом. Подробнее в официальном анонсе G42.

Факты
👉 K2 Think содержит 32 миллиарда параметров и сопоставима по производительности с моделями, имеющими более 200 миллиардов параметров. Источник: новость The National.
👉 Модель достигает скорости обработки до 2000 токенов в секунду на платформе Cerebras. Подробности в пресс-релизе от Cerebras.

❗️K2 Think представляет собой значительный шаг вперед в области моделей рассуждения, сочетая эффективность, производительность и открытость, что способствует развитию глобального сообщества искусственного интеллекта.

Источники
MBZUAI и G42 представили K2 Think. Новости о запуске K2 Think от MBZUAI. Cerebras о производительности K2 Think.
7
Индия принимает AI Impact Summit 2026: ключевые темы и обсуждения

Введение
С 16 по 21 февраля 2026 года в Нью-Дели прошёл AI Impact Summit 2026, ставший первой глобальной встречей по искусственному интеллекту, организованной в стране Глобального Юга. Саммит собрал лидеров государств, руководителей технологических компаний и экспертов для обсуждения роли ИИ в инклюзивном росте и устойчивом развитии.

Основные темы саммита
На саммите были рассмотрены следующие ключевые темы:
👉 развитие человеческого капитала;
👉 инклюзия для социального расширения возможностей;
👉 безопасный и надёжный ИИ;
👉 устойчивость, инновации и эффективность;
👉 наука, демократизация ресурсов ИИ;
👉 использование ИИ для экономического роста и общественного блага. Эти темы отражают стремление Индии к ответственному и инклюзивному развитию ИИ.

Обсуждения по ключевым направлениям
В рамках саммита были проведены дискуссии по следующим направлениям:
👉 Доверие и управление: создание структур, позволяющих инновациям развиваться без потери общественного доверия, включая оценочные протоколы и механизмы управления рисками.
👉 Суверенитет: развитие национальных возможностей в области ИИ, включая вычислительные мощности и архитектуру данных.
👉 Человеческий капитал: трансформация рабочей силы, реформа высшего образования и повышение уровня грамотности в области ИИ.

Объявления и инициативы
В ходе саммита были сделаны значимые объявления:
👉 Компания Sarvam AI представила новые модели ИИ, включая языковые модели с 30 и 105 миллиардами параметров, а также устройства, такие как умные очки Kaze.
👉 Государственная инициатива BharatGen Param2 представила модель с 17 миллиардов параметров, поддерживающую 22 индийских языка.
👉 Министр Ашвини Вайшнав объявил о планах увеличить количество GPU в Индии более чем на 20 000 единиц в рамках портала IndiaAI Compute.

Международное сотрудничество
Саммит подчеркнул важность международного сотрудничества в области ИИ. Французский президент Эммануэль Макрон и генеральный секретарь ООН Антониу Гутерриш приняли участие в мероприятии, обсуждая глобальные инициативы и необходимость совместных усилий для обеспечения ответственного развития ИИ.

❗️AI Impact Summit 2026 в Нью-Дели стал важной вехой в глобальном диалоге об искусственном интеллекте, подчеркнув стремление Индии к ответственному и инклюзивному развитию ИИ и укреплению международного сотрудничества в этой области.

Источники:
Основные события AI Impact Summit 2026.
Обсуждения, формирующие будущее ИИ в Индии.
AI Impact Summit 2026 на Wikipedia.
Международное сотрудничество в области ИИ.
🐳31
WebDS: новый бенчмарк для веб-ориентированных задач Data Science

Введение в WebDS
В августе 2025 года была представлена новая система оценки для веб-ориентированных задач Data Science под названием WebDS. Этот бенчмарк включает 870 задач, охватывающих 29 различных веб-сайтов, от структурированных государственных порталов до неструктурированных новостных ресурсов. Задачи требуют выполнения сложных, многошаговых операций с использованием различных инструментов и данных в разнородных форматах, что отражает реалии современной аналитики данных.

Проблемы существующих бенчмарков
Ранее существующие бенчмарки для веб-ориентированных задач часто фокусировались на простых взаимодействиях, таких как заполнение форм или транзакции в электронной коммерции, и не требовали разнообразных инструментальных возможностей, необходимых для веб-ориентированной аналитики данных. Традиционные бенчмарки Data Science, в свою очередь, обычно концентрировались на статических, часто текстовых наборах данных и не оценивали полные рабочие процессы, включающие сбор, очистку, анализ данных и генерацию инсайтов.

Оценка современных моделей
Оценка современных моделей на WebDS показала значительные пробелы в их производительности. Например, агент Browser Use, успешно выполняющий 80% задач на Web Voyager, справился только с 15% задач на WebDS. Анализ выявил новые причины неудач, такие как слабая привязка к информации, повторяющееся поведение и стремление к упрощению задач, что подчеркивает необходимость дальнейших исследований и улучшений в области веб-ориентированной аналитики данных.

Факты
👉 В августе 2025 года представлен бенчмарк WebDS, включающий 870 задач на 29 различных веб-сайтах.
👉 Агент Browser Use успешно выполняет 80% задач на Web Voyager, но только 15% на WebDS.

Итог
❗️ WebDS предоставляет более реалистичную и сложную среду для тестирования, стимулируя развитие практических и эффективных моделей для веб-ориентированных задач Data Science.

Источники
WebDS: An End-to-End Benchmark for Web-based Data Science раскрывает подробности о новом бенчмарке.
1
Ошибки, которые делают почти все при обработке категориальных признаков

Введение
Обработка категориальных признаков — одна из ключевых задач в подготовке данных для моделей машинного обучения. Несмотря на кажущуюся простоту, данный этап часто становится источником ошибок, которые могут значительно влиять на качество моделей. Давайте рассмотрим некоторые из распространённых ошибок и способы их избежать.

Ошибка 1: Ошибка в выборе метода кодирования
Одна из частых ошибок при работе с категориальными признаками — неверный выбор метода кодирования. Многие начинающие инженеры используют One-Hot Encoding для всех категориальных признаков, что не всегда оправдано. Например, если мы имеем дело с признаками с высокой кардинальностью, One-Hot Encoding может значительно увеличить количество признаков, что плохо сказывается на скорости обучения и памяти.

Сравнение One-Hot Encoding и Target Encoding

import pandas as pd
from sklearn.preprocessing import OneHotEncoder

# Пример данных
data = pd.DataFrame({'city': ['Moscow', 'Berlin', 'Berlin', 'New York', 'Moscow']})

# One-Hot Encoding
encoder = OneHotEncoder(sparse=False)
ohe_df = pd.DataFrame(encoder.fit_transform(data[['city']]), columns=encoder.get_feature_names_out(['city']))
print(ohe_df)

# Target Encoding (простое среднее значение по городу)
mean_target_encoding = data.groupby('city').size() / len(data)
data['city_encoded'] = data['city'].map(mean_target_encoding)
print(data)



Ошибка 2: Отсутствие учёта порядка категорий
Игнорирование порядка категориальных признаков может стать причиной для искажения результатов. Например, при кодировании рейтинга (низкий, средний, высокий) важно сохранить порядок. Без учета порядка некоторые методы, такие как Label Encoding, могут привести к неправильной интерпретации модели.

Использование Label Encoding на упорядоченных данных

from sklearn.preprocessing import OrdinalEncoder

# Пример данных
ratings = pd.DataFrame({'rating': ['low', 'medium', 'high']})

# Ordinal Encoding
ordinal_encoder = OrdinalEncoder(categories=[['low', 'medium', 'high']])
ratings_encoded = ordinal_encoder.fit_transform(ratings)
print(ratings_encoded)


Ошибка 3: Игнорирование новых категорий в данных
При изменении структуры данных, например, при поступлении новых данных, легко упустить появление новых категорий, отсутствующих в обучающей выборке. Это может привести к ошибкам в прогнозировании и даже к падению сервиса в production. Использование специальных объектов (например, категориальных маппингов) или добавление логики обработки новых значений помогает избежать этой проблемы.

Пример использования категориальных маппингов с обработкой новых категорий

# Пример данных
train_data = pd.DataFrame({'city': ['Moscow', 'Berlin', 'New York']})
test_data = pd.DataFrame({'city': ['London', 'Berlin', 'Moscow']})

# Создание маппинга
city_mapping = {'Moscow': 0, 'Berlin': 1, 'New York': 2}

# Применение маппинга с обработкой новых категорий
train_data['city_encoded'] = train_data['city'].map(city_mapping)
test_data['city_encoded'] = test_data['city'].map(lambda x: city_mapping.get(x, -1))

print(test_data)


TG: Data Science | Machinelearning [ru]
5👀2
📍 Мой личный блог про мои проекты, опыт, ошибки, немного про деньги и жизнь в целом

➡️ Геныч.
Please open Telegram to view this post
VIEW IN TELEGRAM
😁2
Forwarded from xCode Journal
😭 Гендерный разрыв в IT никуда не делся

Исследование Selecty и hh․ru показало: >200 тыс. рублей в месяц получают 51,5% мужчин и только 34,8% женщин. В тестировании этот порог пробивают 60% парней и 45% девушек, а в бэкенде высокие доходы лишь у 26,5% разработчиц.

Почему так? Мужчины чаще забирают руководящие посты и сеньорские грейды.

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Неочевидные подводные камни при использовании ансамблей моделей

Введение в ансамбли моделей
Ансамбли моделей — это мощный инструмент в арсенале дата-сайентиста. Их использование может значительно улучшить качество моделей за счет объединения нескольких слабых обучателей. Однако, не все так просто, как может показаться на первый взгляд.

Проблема переобучения
Один из ключевых вопросов, с которыми можно столкнуться при работе с ансамблями, — это переобучение. Когда ансамбль состоит из чрезмерно сложных моделей, он может адаптироваться к шуму в данных, что негативно скажется на его генерализации.

👉 Базовый пример использования ансамблей:


from sklearn.ensemble import RandomForestClassifier
from sklearn.datasets import load_iris
from sklearn.model_selection import train_test_split

# Загрузка данных
X, y = load_iris(return_X_y=True)
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)

# Обучение модели
model = RandomForestClassifier(n_estimators=10)
model.fit(X_train, y_train)

# Оценка качества
accuracy = model.score(X_test, y_test)
print(f'Accuracy: {accuracy:.2f}')



👉 Проблема переобучения на ансамблях:


# Усложнение модели
model = RandomForestClassifier(n_estimators=100, max_depth=None)
model.fit(X_train, y_train)

# Проверка на тестовых данных
accuracy = model.score(X_test, y_test)
print(f'Overfitted Accuracy: {accuracy:.2f}')

# Проверка на обучающих данных
train_accuracy = model.score(X_train, y_train)
print(f'Train Accuracy: {train_accuracy:.2f}')



Влияние несбалансированных данных
Другой подводный камень заключается в том, что ансамбли могут быть чувствительны к несбалансированным данным, что может привести к тому, что ансамбль будет склоняться в пользу большинства.

👉 Влияние несбалансированных классов на ансамбли:


from imblearn.ensemble import BalancedRandomForestClassifier

# Балансировка данных напрямую в ансамбле
balanced_model = BalancedRandomForestClassifier(n_estimators=10)
balanced_model.fit(X_train, y_train)

balanced_accuracy = balanced_model.score(X_test, y_test)
print(f'Balanced Accuracy: {balanced_accuracy:.2f}')



Сложность интерпретации ансамблей
Еще одной сложностью является интерпретация результатов ансамблей. Они часто считаются черными ящиками, что осложняет объяснение их работы.

👉 Типичный анти-паттерн: попытка интерпретации без визуализации:


# Без применения инструментов интерпретации
# Попытка вручную разбираться в деревьях может быть неэффективной
# Альтернативы: SHAP, LIME
import shap
explainer = shap.TreeExplainer(model)
shap_values = explainer.shap_values(X_test)
shap.summary_plot(shap_values, X_test)



Заключение
Работа с ансамблями требует не только знаний о базовых принципах их работы, но и понимания возможных подводных камней. Следует всегда помнить о переобучении, учитывать баланс классов и применять соответствующие инструменты для интерпретации моделей. Только так можно максимально эффективно использовать ансамбли в реальных проектах.

TG: Data Science | Machinelearning [ru]
3👀1
Data Science | Machinelearning [ru] pinned «📍 Мой личный блог про мои проекты, опыт, ошибки, немного про деньги и жизнь в целом ➡️ Геныч.»
Forwarded from xCode Journal
This media is not supported in your browser
VIEW IN TELEGRAM
🖥 Anthropic выпустили Code Review

Систему, которую в компании запускают почти на каждом PR. За последний год объём кода на инженера в Anthropic вырос примерно на 200%. При такой скорости неудивительно, что ревью стало узким местом.

Теперь Code Review автоматически проверяет PR: несколько ИИ-агентов параллельно ищут баги, перепроверяют результаты и ранжируют проблемы по серьёзности. Причем чем более объемным и сложным будет PR — тем больше агентов туда пойдет работать.

✖️ xCode Journal
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥1