Forwarded from Data Secrets
Из xAI за одну ночь уволили 500 человек
Все они работали разметчиками данных. 500 специалистов – это, если что, примерно треть всего подразделения аннотаций данных. А подразделение аннотаций, в свою очередь, является самым большим в xAI.
Увольнения прошли не слишком гладко и красиво: сотрудникам отправили внезапные письма по электронной почте с уведомлением об увольнении и в тот же день отозвали все доступы. На xAI уже сыпятся жалобы, но в это мы углубляться не будем.
Интересно другое: в тот же день (это была пятница) xAI со своего аккаунта в X выложили пост такого содержания:
Да, мы ничего не перепутали. Они уволили 500 ИИ-тренеров и тут же объявили, что хотят набрать несколько тысяч человек в эту же команду.
Видимо, увольнения не были вопросом низкой эффективности сотрудников, скорее – это стратегия. Судя по всему, уволили только аннотаторов «общего назначения», то есть тех, кто не является большим специалистом в какой-то области, а скорее занимался универсальной более тривиальной разметкой.
Такую разметку явно хотят автоматизировать, а человеческие ресурсы использовать только для нетривиальных задач в сложных областях. И в этом есть смысл.
Интересно, эта новость к какой категории относится, «ИИ забирает нашу работу» или «ИИ создает новые рабочие места»?
Все они работали разметчиками данных. 500 специалистов – это, если что, примерно треть всего подразделения аннотаций данных. А подразделение аннотаций, в свою очередь, является самым большим в xAI.
Увольнения прошли не слишком гладко и красиво: сотрудникам отправили внезапные письма по электронной почте с уведомлением об увольнении и в тот же день отозвали все доступы. На xAI уже сыпятся жалобы, но в это мы углубляться не будем.
Интересно другое: в тот же день (это была пятница) xAI со своего аккаунта в X выложили пост такого содержания:
ИИ-тренеры в xAI приносят огромную пользу. Мы увеличиваем нашу команду ИИ-тренеров в 10 раз!
Мы нанимаем специалистов в таких областях, как STEM, финансы, медицина, безопасность и др. Присоединяйтесь к нам и помогите нам создать искусственный интеллект, ищущий истину!
Да, мы ничего не перепутали. Они уволили 500 ИИ-тренеров и тут же объявили, что хотят набрать несколько тысяч человек в эту же команду.
Видимо, увольнения не были вопросом низкой эффективности сотрудников, скорее – это стратегия. Судя по всему, уволили только аннотаторов «общего назначения», то есть тех, кто не является большим специалистом в какой-то области, а скорее занимался универсальной более тривиальной разметкой.
Такую разметку явно хотят автоматизировать, а человеческие ресурсы использовать только для нетривиальных задач в сложных областях. И в этом есть смысл.
Интересно, эта новость к какой категории относится, «ИИ забирает нашу работу» или «ИИ создает новые рабочие места»?
Forwarded from Oleg K
Гайз, привет!
Уже совсем скоро Smartdata'25, а это значит что там будут свежие результаты опроса State-of-Data, ну а это значит что я призываю всех и каждого не просто принять участие самим, но и распространять информацию об этом.
➡️ Сам опрос тут
пройди сам, приведи троих коллег из соседних компаний :)
зы результаты прошлого года в презентации тут , видос тут
зыы лендос с результатами '24 + сырье в виде arrow(хехе) уже вот-вот на подлете
зыыы доклад с результатами '25 откроем для всех сразу же после конфы
Уже совсем скоро Smartdata'25, а это значит что там будут свежие результаты опроса State-of-Data, ну а это значит что я призываю всех и каждого не просто принять участие самим, но и распространять информацию об этом.
➡️ Сам опрос тут
пройди сам, приведи троих коллег из соседних компаний :)
зыы лендос с результатами '24 + сырье в виде arrow(хехе) уже вот-вот на подлете
зыыы доклад с результатами '25 откроем для всех сразу же после конфы
Google Docs
State of Data 2025: Russian Edition
ℹ️ Приглашаем на второй ежегодный опрос о технологиях и подходах в сфере данных!
Результаты первого опроса в формате презентации доступны тут, а в формате видео тут.
Большое спасибо всем кто принимал участие год назад 🙏
В этом году опрос особенно важен —…
Результаты первого опроса в формате презентации доступны тут, а в формате видео тут.
Большое спасибо всем кто принимал участие год назад 🙏
В этом году опрос особенно важен —…
❤🔥6
Forwarded from Сиолошная
OpenAI выпустили новую GPT-5 😑
...заточенную на программистов, GPT-5 Codex. Эта модель заменит o3 в Codex в веб-клиенте (наконец-то) и уже доступна в локальном Codex CLI / плагине для вашей IDE. Если вы ещё не пробовали — обязательно попробуйте! Это бесплатно, если вы подписаны на любой тир ChatGPT. В комментариях многие отмечали, что им нравится больше, чем Claude Code, и модель работает лучше.
GPT-5 Codex дотренировали на новых сложных реальных задач, создании проектов с нуля, добавлении функций и тестов, отладке, проведении масштабных рефакторингов и ревью кода.
По стандартному бенчмарку SWE-bench Verified разница не особо заметна, 74.5% против старых 72.8%. Однако на внутреннем бенчмарке OpenAI на задачах рефакторинга модель стала гораздо лучше: прыжок с 33.9% до 51.3%!
Но и это не всё: модель стала писать меньше бесполезных или ошибочных комментариев, лучше ловить баги в коде, и... думать меньше, когда это не надо. OpenAI взяли запросы от сотрудников внутри компании и сравнили количество токенов в ответах двух моделей.
Там, где ответы были короткими, они стали ещё короче, а там, где цепочки рассуждений и сгенерированный код были длиннее — стало больше. Со слов OpenAI, во время они наблюдали, как GPT‑5-Codex работал автономно более 7 часов подряд над большими и сложными задачами, выполняя итерации по внедрению, исправляя ошибки тестирования и в конечном итоге обеспечивая успешное решение задачи.
Codex CLI и Codex Web получили кучу обновлений за последний месяц, но про них писать не буду.
В API модель появится скоро, очень ждём, пока замеряют качество и на других бенчмарках. В системной карточке модели указали лишь один — по решению многоступенчатых задачек по кибер-взлому (с соревнований CTF). Модель наконец-то статистически значимо обгоняет o3! Жаль, не замерили другие бенчмарки (вроде PaperBench).
...заточенную на программистов, GPT-5 Codex. Эта модель заменит o3 в Codex в веб-клиенте (наконец-то) и уже доступна в локальном Codex CLI / плагине для вашей IDE. Если вы ещё не пробовали — обязательно попробуйте! Это бесплатно, если вы подписаны на любой тир ChatGPT. В комментариях многие отмечали, что им нравится больше, чем Claude Code, и модель работает лучше.
GPT-5 Codex дотренировали на новых сложных реальных задач, создании проектов с нуля, добавлении функций и тестов, отладке, проведении масштабных рефакторингов и ревью кода.
По стандартному бенчмарку SWE-bench Verified разница не особо заметна, 74.5% против старых 72.8%. Однако на внутреннем бенчмарке OpenAI на задачах рефакторинга модель стала гораздо лучше: прыжок с 33.9% до 51.3%!
Но и это не всё: модель стала писать меньше бесполезных или ошибочных комментариев, лучше ловить баги в коде, и... думать меньше, когда это не надо. OpenAI взяли запросы от сотрудников внутри компании и сравнили количество токенов в ответах двух моделей.
Там, где ответы были короткими, они стали ещё короче, а там, где цепочки рассуждений и сгенерированный код были длиннее — стало больше. Со слов OpenAI, во время они наблюдали, как GPT‑5-Codex работал автономно более 7 часов подряд над большими и сложными задачами, выполняя итерации по внедрению, исправляя ошибки тестирования и в конечном итоге обеспечивая успешное решение задачи.
Codex CLI и Codex Web получили кучу обновлений за последний месяц, но про них писать не буду.
В API модель появится скоро, очень ждём, пока замеряют качество и на других бенчмарках. В системной карточке модели указали лишь один — по решению многоступенчатых задачек по кибер-взлому (с соревнований CTF). Модель наконец-то статистически значимо обгоняет o3! Жаль, не замерили другие бенчмарки (вроде PaperBench).
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5😁1
JetBrains подвели итоги по трём лидерам Python-бэкенда:
#dev #api #django #flask #fastapi
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥5😁1 1
Какой фреймворк выбираешь ты для своих новых проектов в 2025 ❓
Anonymous Poll
16%
Django
15%
Flask
67%
FastAPI
20%
Другой
Decart выкатили забавную штуку - “Open Source Nano Banana for Video”. Открыли веса Lucy Edit (5B, Wan2.2) - текстовые правки видео: смена одежды/аксессуаров, персонажи, сцены, при этом движение и лицо сохраняются. Веса на Hugging Face, есть API, ComfyUI-ноды готовятся. Лицензия некоммерческая.
#ai #texttovideo #nanobanana
#ai #texttovideo #nanobanana
🧵 Thread • FixupX
Decart (@DecartAI)
We are building “Open Source Nano Banana for Video” - here is open source demo v0.1
We are open sourcing Lucy Edit, the first foundation model for text-guided video editing!
Get the model on @huggingface 🤗, API on @FAL, and nodes on @ComfyUI 🧵
We are open sourcing Lucy Edit, the first foundation model for text-guided video editing!
Get the model on @huggingface 🤗, API on @FAL, and nodes on @ComfyUI 🧵
Forwarded from 🔋 Труба данных (Simon Osipov)
Данные от самого OpenAI, для чего используют ChatGPT.
Мы в пузырике, в общей доле запросов к модели, программирование - всего 4%
@ohmydataengineer - канал "🕯 Труба Данных"
Мы в пузырике, в общей доле запросов к модели, программирование - всего 4%
@ohmydataengineer - канал "
Please open Telegram to view this post
VIEW IN TELEGRAM
Выкатили альфу Django 6.0 - релиз в декабре 2025.
Пять главных фич:
1️⃣ Встроенный Content Security Policy (CSP)
Теперь без сторонних пакетов:
2️⃣ Template Partials
DTL получил частичные шаблоны:
3️⃣ Background Tasks
Встроенные фоновые задания
Новый декоратор
4️⃣ Современный email API Python
Под капотом -
5️⃣ AsyncPaginator
Асинхронные версии Paginator/Page для проектов на ASGI и активного async-стека - проще делать масштабируемую постраничную выборку без блокировок.
⭐️ Бонусы: поддержка Python 3.12–3.13 (минимум 3.12), новые аггрегаты и улучшения ORM, мелкие апдейты админки и миграций.
Пять главных фич:
Теперь без сторонних пакетов:
ContentSecurityPolicyMiddleware, контекст-процессор для nonce, настройки SECURE_CSP/SECURE_CSP_REPORT_ONLY. Проще закрыть XSS и централизованно управлять политиками загрузки ресурсов. DTL получил частичные шаблоны:
{% partialdef %} и {% partial %} + адресация template.html#partial. Это делает переиспользование мелких фрагментов очевидным и без разбиения на кучу файлов. Встроенные фоновые задания
Новый декоратор
@task, очередь через конфигурируемые backend’ы и явное разделение: Django управляет созданием/постановкой задач, а выполнение - отдельным воркером/процессом. Отлично для e-mailов, обработок и интеграций. Под капотом -
email.message.EmailMessage вместо старых MIME-классов (Compat32). Чище Unicode-работа и единый интерфейс для формирования и сериализации писем. Асинхронные версии Paginator/Page для проектов на ASGI и активного async-стека - проще делать масштабируемую постраничную выборку без блокировок.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤🔥4👏2 2 1
DE
Выкатили альфу Django 6.0 - релиз в декабре 2025. Пять главных фич: 1️⃣ Встроенный Content Security Policy (CSP) Теперь без сторонних пакетов: ContentSecurityPolicyMiddleware, контекст-процессор для nonce, настройки SECURE_CSP/SECURE_CSP_REPORT_ONLY. Проще…
Django 6.1 планируется в августе 2026, с поддержкой Python 3.14.
❤🔥4 2💯1
Media is too big
VIEW IN TELEGRAM
Кожаные опять пытаются показать превосходство над железякаи. Unitree G1 в режиме "антигравитация" не сдаётся.
#robotics
#robotics
Сегодня в условии задачи вижу строку:
и думаю: "Ну точно опечатка, наверняка хотели написать мегабайта, какие-то мебибайты смешные".
Оказалось - вовсе не опечатка.
✏️ Мебибайт (MiB) - это не мегабайт (MB).
🔘 1 MiB = 1 048 576 байт (2²⁰)
🔘 1 MB = 1 000 000 байт (10⁶)
Соответственно, 1024 MiB = 1 GiB = 1 073 741 824 байта.
Просто в олимпиадных системах любят точность и всегда указывают именно мебибайты.
А я вот до сих пор привык думать в "мегабайтах".
Ограничение по памяти: 1024 мебибайта
и думаю: "Ну точно опечатка, наверняка хотели написать мегабайта, какие-то мебибайты смешные".
Оказалось - вовсе не опечатка.
Соответственно, 1024 MiB = 1 GiB = 1 073 741 824 байта.
Просто в олимпиадных системах любят точность и всегда указывают именно мебибайты.
А я вот до сих пор привык думать в "мегабайтах".
Please open Telegram to view this post
VIEW IN TELEGRAM
Как ты думаешь, что значит "GiB"? 🙃
Anonymous Quiz
15%
Гигабайт ❗️
17%
Гегибайт 😎
10%
Грибибайт 🍄
58%
Гибибайт 🙂
😁7