Data Science by ODS.ai 🦜 – Telegram
Data Science by ODS.ai 🦜
44.6K subscribers
827 photos
89 videos
7 files
1.89K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.

Вот что в нём разбирается:

1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.

2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.

3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.

Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.

https://arxiv.org/abs/2511.18538

@data_analysis_ml
🔥5👍41🎉1
🚀 соревнование по переводу на тюркские языки на LoResMT'2026

Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.

🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский

👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.

🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)

🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt

Будем рады всем участникам! 🌍🗣️
🔥2
Forwarded from Китай.AI
🤖 Китайская модель MiniMax M2 лидирует в тесте на «сообразительность» AI-агентов

Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.

Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.

🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?

Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:

Размышление → Действие (вызов инструмента) → Наблюдение за результатом → Корректировка плана

Представьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.

🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.

Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.

📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
Kimi K2 thinking — поддерживает «Thinking-in-Tools».
Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».

💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.

GitHub

#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
👍31
GigaAM-v3 на Хабре

➡️ Хабр

Спешим поделиться постом о создании GigaAM-v3!

В статье много технических деталей для специалистов:
🔘 Распределение данных по доменам
🔘 Эксперименты с масштабирование модели по параметрам
🔘 Сравнение токенизаторов
🔘 Анализ ошибок end-to-end моделей
🔘 LLM-as-a-judge для распознавания речи

По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀


👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍2🔥1🤯1🤡1
Forwarded from Код Дурова
This media is not supported in your browser
VIEW IN TELEGRAM
😻 Вы не поверите

Популярные ИИ-модели, которым выдавали депозит по 10 000 долларов, по результатам эксперимента прогорели на торговле акциями.

GPT-5.1 и Gemini 3 Pro потеряли немного, а вот у Grok 4, например, осталось меньше половины от депозита. В плюс вышла только «секретная модель»:

↖️ https://kod.ru/nof1-ai-stocks-trading
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1
Forwarded from Kaspersky
😈 Фальшивый ИИ-сайдбар — помощник с двойным дном

Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.

Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.

Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.

В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Forwarded from ИИ что дальше
Отраслевые LLM: хайп или тренд

Прямо сейчас я на Conversation AI. Лучшая, на мой взгляд, конференция по AI, которая концентрируется на специалистах, сообществе и бизнес-результатах.


О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.

👨 Данил Ивашечкин. Head of AI – Норникель

1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.

2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.

3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.

Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.

4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.

5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.

👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер

1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году

2. Рынок GenAI вырастет в 2.4 раза к 2030 году

3. 85% компаний уже внедряют GenAI

4. При этом в России внедрение GenAI только начинается

5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.

Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.

💎 Для чего нужны отраслевые модели

Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.

Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.

Продолжая этот пример. Отраслевая модель
это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.

Плюсы специфичных отраслевых моделей

1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.

2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.

🚧 Проблемы

1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.

2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.

🎯 Выводы

1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.

2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.

❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
10🤡3👍2
🚀 Google представила Titans + MIRAS - новую архитектуру, которая даёт ИИ долговременную память 🧠
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.

Что делает Titans важным:

• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.

Как работает память:

Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:

фильтровать шум
хранить не весь текст, а смысл
удерживать контекст больше 2 миллионов токенов
сохранять линейную скорость обработки

Практические результаты:

- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами

Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.

📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0

@vistehno
👍76🔥5
Большое сравнение производительности мобильных чипов

Китайцы собрали более 70 смартфонов с разными процессорами и протестировали их все, собрав в единую табличку.

Вышло довольно интересное сравнение!

За базу в 100 баллов принят Snapdragon 8+ gen 1.

За результат теста CPU взято соотношение 25% однопотока + 75% многопотока Geekbench 6.
GPU: 50% Wild Lige Extreme + 50% Aztec 1440P
Общий результат 65% CPU + 35% GPU

Итог таков:
За 10 лет производительность CPU увеличилась в 9 раз.
Производительность GPU в 22 раза!

Ещё из интересного:
Уже несколько лет подряд мобильные чипы от Apple не самые быстрые в текущем поколении.
Последние пару лет решения от MediaTek по графике чуть быстрее Snapdragon.

Источник

@HWvsSW
1🔥62👍1😢1🎉1🙏1
Forwarded from ODS Events
Всем привет!

Встречайте двадцать третий выпуск подкаста "Капитанский мостик". В этом эпизоде обсуждаются последние новости в области робототехники и автоматизации, а также рассматриваются вопросы безопасности смарт-контрактов и их уязвимости. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube

📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
1🔥1
Media is too big
VIEW IN TELEGRAM
Китайцы собрали своего терминатора

Гуманоид T800 от EngineAI пинает генерального директора Чжао Туняна.

Мой Компьютер
🔥2🤯1😱1😢1🙏1
Forwarded from Machinelearning
📌Адвент-календарь по ML и DL.

Towardsdatascience запустил декабрьский Адвент-календарь "Machine and Deep Learning", котором предлагает разобраться, что под капотом у ML-процессов.

Фреймворки, например scikit-learn, сделали нас ленивыми. Вызов model.fit стал настолько обыденным, что в эпоху Gen AI кажется, будто обучение модели -это просто подбор параметров.

ML-инженеры жонглируют моделями со сложностью, которая растет в геометрической прогрессии, но при этом они не всегда способны вручную пересчитать и объяснить результаты даже самых простых алгоритмов: линейной регрессии или классификатора.

Модели превратились в "черные ящики", и это огромная проблема, ведь знание, что стоит за каждой функцией, критически важно для понимания процесса.


Фишка в том, что весь материал разбирается в Excel. Звучит диковато, но в этом и есть гений. В отличие от кода, где операции скрыты за функциями, в Excel каждая формула, каждое число, каждый расчет - всё на виду. Никаких "черных ящиков".

Уже вышло 7 статей:

🟢День 1 : k-NN Regressor

🟢День 2 : k-NN Classifier

🟢День 4 : GNB, LDA и QDA

🟢День 5 : GMM (Gaussian Mixture Model)

🟢День 6 : Decision Tree Regressor

🟢День 7 : Decision Tree Classifier

Цикл поможет ответить на вопросы, которые часто остаются за кадром: как грамотно обрабатывать категориальные признаки, когда масштабирование не является правильным решением, и как измерять важность признаков, интерпретируя их напрямую с моделью, минуя модель-агностические пакеты LIME и SHAP.

Серия будет полезна студентам для осмысления формул, и менеджерам для понимания какой ML-метод необходим для бизнеса. А для разработчиков это шанс наконец-то понять теорию.

В общем, это маст-рид для тех, кто хочет перестать быть оператором библиотек и по-настоящему понять, как работает ML-движок.

🔜 Мониторить выход новых статей можно тут, обещают публикацию до конца декабря в формате "один день - одна статья".



@ai_machinelearning_big_data

#AI #ML #DL #Tutorial #Excel
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥41🥰1🎉1
🧠 Продвинутая типизация Python, о которой почти никто не знает

Статья показывает, что Python уже давно вышел за рамки простых List[int] и Optional[str].

Главные идеи:

✔️ TypeGuard и новый TypeIs позволяют писать функции, которые доказательно сужают типы - например, проверка превращает Any в конкретный тип для дальнейшего кода.

✔️ assert_never из typing помогает ловить случаи, когда ты забыл обработать один из вариантов, что особенно важно в match и сложных условных ветках.

✔️ Python 3.13+ добавляет улучшенный вывод типов и строгие проверки, чтобы типизированный код стал надёжнее.

✔️ Поддержка typed function overloading - теперь можно описывать разные сигнатуры для одной функции, и анализаторы понимают их корректно.

📌 Вывод из статьи - Python типизация уже стала инструментом для архитектуры и предотвращения ошибок, особенно в больших проектах. Но большинство разработчиков использует только её простейший слой.

Кому полезно:
• работаешь с крупными кодовыми базами
• пишешь библиотеки
• хочешь меньше скрытых багов и более предсказуемые refactor-ы

Источник: martynassubonis.substack.com/p/advanced-overlooked-python-typing
5👍2🔥1
☁️ МГТУ и «Росатом» открыли доступ к облачной квантовой платформе

Специалисты МГТУ им. Баумана, ВНИИА им. Духова и «Росатома» запустили облачную платформу Bauman Octillion. Она позволяет удаленно проводить эксперименты на реальных квантовых сопроцессорах.

🔜Пользователям предоставляется круглосуточный доступ к квантовому сопроцессору SnowDrop 4Q на базе четырех сверхпроводниковых кубитов. Точность выполнения однокубитных операций на нем составляет 99,89%, двухкубитных — 99,1%.

☝️С 10 по 20 декабря будет открыт тестовый доступ к более мощному устройству — SnowDrop 8Q с восемью кубитами и повышенной точностью. Это позволит ученым тестировать более сложные алгоритмы.

Подпишитесь на Электричку
Please open Telegram to view this post
VIEW IN TELEGRAM
6🔥1
Forwarded from Russian OSINT
🤖 Крах ИИ-стратегии ❗️ Microsoft и стремительный взлет ❗️Google Gemini

Microsoft столкнулась с критическим падением спроса на свои флагманские ИИ-решения и была вынуждена резко сократить внутренние планы продаж. Свежая аналитика FirstPageSage за декабрь 2025 года фиксирует квартальный рост аудитории Google Gemini на уровне 12% против стагнирующих 2% у продукта Copilot. Инсайдеры издания The Information сообщают, что менеджеры «изо всех сил пытаются» закрыть сделки на фоне очевидного технологического превосходства конкурентных больших языковых моделей.

Эксперты подчеркивают, что принятая генеральным директором Сатьей Наделлой стратегия «выпускай сейчас, чини потом» привела к появлению на рынке откровенно слабых продуктов с низкой отказоустойчивостью. В то время как конкуренты выстраивают полный стек собственных технологий, Microsoft рискует потерять статус инноватора и превратиться в обычного посредника на рынке вычислительных мощностей.

У корпорации есть всё еще солидные 14% рынка и огромный корпоративный сегмент, но если катастрофический тренд сохранится, то Copilot потеряет статус второй платформы мира в 2026, уступив место Google Gemini.

@Russian_OSINT
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥3😁32👍1
Forwarded from AI.Insaf
Недавно завершилось соревнование по памяти в LLM для диалогов – GigaMemory: global memory for LLM (хабр)

Основной метрикой выступала Accuracy.

1-е место (86,6%) Вместо классического RAG для каждого чанка текста модели отдельно задают вопрос: Релевантен ли этот текст заданному вопросу?. Модель должна ответить токеном Да или Нет. По logprobs этих токенов рассчитывается уровень уверенности. В итоге возвращается список чанков, где уверенность выше порога 0.5. На основе этой информации формируется первичный ответ, который затем используется для итогового решения.

2-е место (84,5%) Подход технически сложнее, но концептуально похож на решение победителя.

3-е место (74,5%) Классический RAG с энкодером bge-m3 – этого оказалось достаточно для призового места.

Решения звучат интересно, но кажется в топ 2 решениях, под каждый запрос все прошлые диалоги перечитываются заново, а не берутся из уже готовой краткой выжимки 🤔
👍1