Data Science by ODS.ai 🦜 – Telegram
Data Science by ODS.ai 🦜
44.5K subscribers
843 photos
92 videos
7 files
1.91K links
First Telegram Data Science channel. Covering all technical and popular staff about anything related to Data Science: AI, Big Data, Machine Learning, Statistics, general Math and the applications of former. To reach editors contact: @malev
Download Telegram
Forwarded from Python/ django
🖥 Малоизвестный факт о Python random.seed(), который может поломать ваш код

Документация создаёт впечатление, что любое целое число просто используется как seed (это “начальная точка” для генератора случайных чисел.).

Но Python перед использованием просто берёт абсолютное значение.

То есть:

➡️ seed(3) и seed(-3) - порождают один и тот же поток случайных чисел.

Это значит, что разные seed не всегда дают разные последовательности -

Python гарантирует только обратное: одинаковый seed → одинаковые числа.

Почему так?
В исходниках CPython есть строка, которая буквально делает:

seed = abs(seed)

И знак просто теряется, хотя алгоритм случайных чисел мог бы учитывать его.

🧠 Вывод:

Не используйте небольшие вариации seed (например 5 и -5) как способ получить разные потоки случайностей — это небезопасно.
Если вам нужны независимые RNG — создавайте их явно, а не полагаясь на “умные” seed.

[1] https://docs.python.org/3/library/random.html
[2] https://github.com/python/cpython/blob/main/Modules/_randommodule.c#L321C13-L321C30

@pythonl
Please open Telegram to view this post
VIEW IN TELEGRAM
👍6🔥21🥰1🙏1😈1
Forwarded from False Positive
Media is too big
VIEW IN TELEGRAM
28 ноября Андрей Яковлев разобрал статью от OpenAI  «Why Language Models Hallucinate?»

🎬Выкладываем запись встречи и делимся выводами:
🛑галлюцинации возникают из-за статистического обучения (модель учится «угадывать» токены);
🛑post-training не избавляют модель от галлюцинаций;
🛑бинарные метрики бенчмарков поощряют угадывание, из-за чего модели оптимизированы быть "хорошо сдающими экзамены", а не честными;
🛑решение — использование "честных" методов оценки и вознаграждения моделей.

#reading_group #recording #llm
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from Kirill Malev
AI platform for generating online courses just announced a 16M round by a16z

The product looks good but it wasn’t what clicked for me. I couldn’t help to notice the new trend of providing refined videos in the posts to share key updates. That’s something which just entered our life with the spread of AI.

Website: oboe.com
Source: https://x.com/nirzicherman/status/1998770866809712839

#AI #AI_adoption
1🔥1
Forwarded from База знаний AI
«Норникель» выпустил открытую языковую модель MetalGPT-1 и бенчмарк Alloy-Bench для металлургии

MetalGPT-1 обучена на 10 Гб текстов по металлургии и горнодобывающей промышленности. Это больше чем 1 млн документов, недоступных в открытых источниках. Данные прошли очистку и анонимизацию, чтобы предотвратить раскрытие коммерческой тайны. При обучении также использовалось около 500 тыс. вопросно-ответных и инструктивных пар на основе производственных и научных задач.

Модель содержит 32 млрд параметров. Она спроектирована для работы с профессиональной терминологией, аббревиатурами и сложными технологическими цепочками. «Норникель» создает на базе MetalGPT-1 персональных ИИ-ассистентов и автономных агентов, которые внедряются в операционные процессы компании.

Промышленный бенчмарк Alloy-Bench состоит из набора вопросно-ответных пар, которые относятся к различным процессам горно-металлургической отрасли. Как утверждают разработчики, MetalGPT-1 в тестах превосходит открытые универсальные модели.

👉🏻MetalGPT-1 и Alloy-Bench на Hugging Face

🔗Источник: https://nornickel.ru/news-and-media/press-releases-and-news/metalgpt-1-nornikel-vypustil-bolshuyu-yazykovuyu-model-dlya-metallurgii/
👍7😢1
Nvidia будет отслеживать геолокацию своих ИИ-чипов

Ресурс Reuters сообщил, что Nvidia разработала технологию, которая позволит определить страну, где фактически находится каждый её ИИ-чип. Речь идет о простом пинге: ускоритель будет отправлять запросы на служебные серверы Nvidia, и по времени отклика до каждого можно определить примерное местоположение. Этот функционал будет встроен в систему отслеживания состояния GPU-фермы клиента.

Изначально такая технология появится в новейших ускорителях Blackwell, которые имеют расширенные средства аттестации и защиты. В будущем она может появиться на более старых решениях Hopper и Ampere. А значит в теории Nvidia может устроить такую же слежку за видеокартами обычных пользователей и запрещать их работу в санкционных странах.

Мой Компьютер
⚡️ Новый пост Andrej Karpathy : автоматическая оценка десятилетних обсуждений Hacker News с позиции «задним числом»

Он взял все 930 материалов и обсуждений с главной страницы Hacker News за декабрь 2015 года и прогнал их через GPT 5.1 Thinking API, попросив модель определить самые дальновидные и самые ошибочные комментарии.

Примерно 3 часа ушло на написание кода и ещё час и ~$60 - на запуск.

Почему это важно:

1. Анализ «задним числом»- мощный инструмент для тренировки собственного навыка прогнозирования. Чтение таких выводов помогает лучше понимать, где именно люди предугадывали будущее, а где промахивались.
2. Стоит задуматься, как будет выглядеть мир, когда будущие LLM смогут делать такие исследования намного дешевле, быстрее и точнее. Любой ваш комментарий в интернете может стать объектом глубокого анализа - бесплатно и в огромном масштабе. Как автор писал ранее: «будьте хорошими, будущие LLM за вами наблюдают».

🎉 Топ-10 аккаунтов: pcwalton, tptacek, paulmd, cstross, greglindahl, moxie, hannob, 0xcde4c3db, Manishearth и johncolanduoni - GPT 5.1 Thinking признал их комментарии самыми точными и дальновидными в декабре 2015 года.

🔗 Полные материалы:

- Подробный разбор: karpathy.bearblog.dev/auto-grade-hn/
- Репозиторий проекта: github.com/karpathy/hn-time-capsule
- Готовые результаты: karpathy.ai/hncapsule/

@data_analysis_ml
5👍3🔥2😴1
всем привет, напоминаем, что до 31 декабря открыт прием заявок на Премию в области обработки естественного языка имени Владимира Иосифовича Левенштейна (на фото), автора знаменитого расстояния редактирования

хочу поделиться новостью, что компания Selectel выделила 100 000 бонусов лауреату премии (этого хватит на два месяца аренды GPU Nvidia A100 в облаке)

выдвигаться можно самостоятельно или выдвинуть кого-то из коллег; заявки принимаются тут
🤡2🔥1
Forwarded from Machinelearning
🌟 "ИИ-отцы" получили главную ежегодную награду журнала Time «Человек года».

Их объединённый портрет, вдохновлённый культовой фотографией «Обед на небоскрёбе», украсил обложку.

В числе тех, кого редакция назвала главными архитекторами новой технологической эры: Илон Маск, Марк Цукерберг, Лиза Су (AMD), Джeнсен Хуанг (Nvidia), Сэм Альтман (OpenAI), Демис Хассабис (DeepMind), Дарио Амодей (Anthropic) и Фэй-Фэй Ли (World Labs).

Как отмечает издание, в 2025 году потенциал ИИ был полностью реализован, а эта группа визионеров окончательно утвердила наступление эпохи мыслящих машин.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤡94🔥3👍1🥰1
Forwarded from ML Underhood
Сегодня вышел техрепорт Alice AI

Ниже — краткий обзор ключевых технических решений и результатов, а подробнее обо всех деталях, экспериментах и выводах можно почитать в полной версии отчёта на Хабре.

Alice AI LLM
На этапе претрейна улучшили качество данных: фильтрация и аугментация повысили фактологичность ответов (+4–7% на внутреннем бенчмарке). Также собрали специализированные данные по школьным предметам, что дало прирост на образовательных задачах — модель обошла конкурентов по истории, литературе, математике и русскому языку. Усилили навыки программирования и математики за счёт алгоритмических и кодовых данных (+4,5 п.п. на LiveCodeBench). В alignment-фазе перешли к единому RLHF-пайплайну с мультиаспектным ревордом (полезность, фактологичность и др.) вместо одного «суперсигнала».


Alice AI LLM Search
Пайплайн объединяет планировщик поисковых запросов, фильтрацию и ранжирование результатов и генерацию ответа, а также поддерживает мультимодальные источники — тексты, изображения, видео и геоданные — для более полных ответов. Для обучения использовали RLHF с мультиаспектными ревордами вместо одной метрики, что упростило оценку сложных ответов. В RL-тренировке перешли к онлайн-методу GRPO, сократили этапы обучения, повысили эффективность GPU и в итоге улучшили полезность и актуальность ответов.


Alice AI ART
Обучающий датасет проанализировали с помощью Alice AI VLM, извлекли структурированные JSON-описания изображений и выявили дисбалансы в данных. На основе этого датасет для файнтюна переработали и дополнили недостающими категориями запросов, чтобы лучше соответствовать реальным пользовательским сценариям. Архитектура модели сделана двухступенчатой: на первом этапе формируется общая композиция изображения, на втором — прорабатываются высокочастотные детали. Дополнительно обучили отдельный «рефразер» — компактную LLM, которая преобразует сырые пользовательские промпты в детализированное описание сцены, сохраняя исходный смысл перед генерацией.


Alice AI VLM
Объём данных претрейна увеличили с 400 до 600 млрд токенов и расширили контекст до 32 тыс. Обновили OCR-датасет, улучшив качество чтения текста с изображений, включая рукописный, и описание визуального контента. VLM тесно интегрирован с текстовой LLM и обучается с теми же RLHF-подходами. Дополнительно в систему добавлен специализированный VLM-«решатель» для задач, требующих глубокой визуально-математической экспертизы.


Инфраструктура инференса
Инференс оптимизировали, повторно использовав KV-кэш для одинаковых частей промпта. Также помогла полная FP8-квантизация весов, активаций и KV-кэша. За счёт этого объём KV-кэша сократился почти вдвое. Дополнительно внедрили спекулятивное декодирование EAGLE-3, повысив пропускную способность генерации.
В результате новый инференс-стек обеспечивает около 5,8× ускорение по сравнению с BF16 и примерно 1,3× относительно лучших открытых решений, что позволило достичь целевых показателей скорости.


ML Underhood
🎉21
⚡️ GigaChat 3 Lightning в GGUF: максимум скорости для локального запуска

Мы подготовили три официальные сборки модели. Теперь вы можете выбрать оптимальный баланс между скоростью и качеством под ваше железо:
🔘bf16 - Максимальное качество и стабильность.
🔘q8_0 - Золотая середина: отличное качество при меньшем потреблении памяти.
🔘q6_k - Оптимально для ноутбуков и домашних ПК: высокая скорость и экономия памяти без заметного снижения качества генерации.


💻 Function Calling

Мы расширяем поддержку функционала в популярных инструментах:
🔘vLLM: Официально появится в следующем релизе >0.12.0. Уже сейчас работает в dev-сборке (от коммита 21bb323) с флагом --tool-call-parser gigachat3.
🔘SGLang: Подготовили временное решение, доступное в отдельной ветке.
🔘llama.cpp: Отправили PR с полноценной реализацией. В текущей версии вызов функций работает с ограничениями — инструкция доступна в описании модели на HuggingFace.

Мы продолжаем работу над интеграцией GigaChat 3 Lightning в экосистему open-source инструментов. Следите за обновлениями — впереди ещё больше возможностей для локального запуска и кастомизации.

🧭 Делитесь опытом использования и задавайте вопросы — ваш фидбэк помогает делать модель лучше!

➡️ HuggingFace ⬅️
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍1
Forwarded from Machinelearning
📌Как превратить систему Grace-Hopper в настольный компьютер.

Занимательная история Дэвида Ноэля о том, как он купил ИИ-оборудование корпоративного класса, разработанное для серверных стоек с жидкостным охлаждением, которое затем переоборудовал под воздушное охлаждение, потом снова переоборудовал под водяное, пережил множество ситуаций, близких к катастрофе, и, в итоге получил настольный компьютер, способный запускать модели с 235 миллиардами параметров дома.

Это рассказ о сомнительных решениях и нестандартном подходе к решению проблем. И немного о том, что происходит, когда пытаешься превратить оборудование для ЦОДа в домашний сетап.

Если вы когда-либо задавались вопросом, что нужно для запуска действительно крупных моделей локально, или если вы просто хотите посмотреть, как кто-то разбирает оборудование стоимостью 80 000 долларов, полагаясь лишь на надежду и изопропанол, то эта статья не оставит вас равнодушным.

🔜 Читать рассказ полностью

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21