This media is not supported in your browser
VIEW IN TELEGRAM
Мринанк Шарма, руководитель Safeguards Research Team в Anthropic в прощальном письме объяснил, что его этические принципы все сильнее расходятся с направлением, в котором развивается индустрия ИИ - корпоративная среда создает давление и вынуждает специалистов откладывать по‑настоящему важные вещи в сторону.
Шарма работал в Anthropic с 2023 года и курировал проекты по защите моделей - от конституционных фильтров до систем предотвращения джейлбрейка. Теперь он планирует получить степень по литературе и сосредоточиться на поэзии параллельно с наукой.
Mrinank Sharma в сети Х
Отказ от названия «io» для линейки устройств подтвержден судебными документами, поданными в рамках спора о нарушении товарного знака со стартапом iyO. По словам вице-президента Питера Велиндера, OpenAI пересмотрела стратегию нейминга и решила полностью отказаться от проблемного бренда в маркетинговых и коммерческих материалах.
Вместе с ребрендингом изменился и график релиза. Теперь OpenAI заявляет, что поставки первого устройства начнутся не раньше конца февраля 2027 года, хотя ранее анонсы указывали на вторую половину 2026-го.
Вопреки слухам и фейковым рекламным роликам, в суде подтвердили: это будет не носимый девайс или наушники, а стационарный настольный ассистент без экрана.
wired.com
Новый режим Expressive Mode позволяет ботам динамически управлять интонацией и эмоциональной окраской речи. Теперь агент может адаптироваться под собеседника в реальном времени: говорить мягче и спокойнее в напряжённой ситуации или, наоборот, добавить уверенности и темпа, когда нужно донести информацию максимально ясно.
Апдейт базируется на двух компонентах. Первый - новая TTS-модель Eleven v3 Conversational, оптимизированная для диалогов: она удерживает контекст беседы и избегает характерного роботизированного звучания. Второй компонент — переработанная система смены очереди говорящего.
Используя данные транскрибации, ИИ теперь точнее определяет уместные моменты для вступления в разговор и пауз, решая давнюю проблему голосовых ботов, которые часто перебивают на полуслове. Поддержка нового режима заявлена для 70+ языков.
elevenlabs.io
Аналитическая платформа представила Model Recommender - сервис выбора модели под конкретные задачи. Рекомендательный движок позволяет указать собственные ограничения и получить персональный список подходящих моделей.
Алгоритм учитывает десятки параметров: скорость инференса через API, наличие мультимодальности, тип лицензии и многое другое. В сервисе можно вручную расставить приоритеты: повысить вес метрик качества генерации кода, устойчивости к галлюцинациям или эффективности в агентных задачах.
Artificial Analysis в сети Х
По расчетам создателя Doom, при пропускной способности 256 Тбит/с внутри 200 км контура в каждый момент времени циркулировало бы примерно 32 ГБ данных, которые можно рассматривать как область памяти.
Кармак напомнил о старом принципе, где данные существовали в форме непрерывно передаваемых сигналов. В современном исполнении эта концепция могла бы стать энергоэффективной заменой DRAM - свет в кабеле потребляет меньше энергии, чем поддержание заряда в ячейках.
На практике реализовать такую систему физически сложно: 200 км оптоволокна это много даже для дата‑центра. Более реальной альтернативой Джон называет прямое соединение массивов флэш‑памяти с вычислительными чипами без контроллеров и шин, что тоже могло бы сократить задержки при работе больших моделей.
tomshardware.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤60🔥21👍18🥰2🤔2🤣2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
✉️ Вам приглашение на 35-летний юбилей Python 🐍🎉
Python уже совсем взрослый — и мы отмечаем это уютной конференцией вместе с комьюнити: докладами, интерактивами и праздничной атмосферой.
📍 Встречаемся в пятницу, 20 февраля, в 15:30 — в московском офисе Сбера и онлайн.
В программе:
🔹 Доклады от топовых спикеров — обсудим будущее Python, ИИ в кодинге, мутационное тестирование и многое другое.
🔸 Интерактивные зоны и праздничная атмосфера — кодинг-активности, нетворкинг и, конечно, торт 🎂
Проведём этот день вместе — в офисе или онлайн.
Ждём вас 20 февраля в 15:30!
Регистрация по ссылке. 👈
Python уже совсем взрослый — и мы отмечаем это уютной конференцией вместе с комьюнити: докладами, интерактивами и праздничной атмосферой.
📍 Встречаемся в пятницу, 20 февраля, в 15:30 — в московском офисе Сбера и онлайн.
В программе:
🔹 Доклады от топовых спикеров — обсудим будущее Python, ИИ в кодинге, мутационное тестирование и многое другое.
🔸 Интерактивные зоны и праздничная атмосфера — кодинг-активности, нетворкинг и, конечно, торт 🎂
Проведём этот день вместе — в офисе или онлайн.
Ждём вас 20 февраля в 15:30!
Регистрация по ссылке. 👈
❤29👍9🥰3👏2🤬2🤣2🎉1🫡1
This media is not supported in your browser
VIEW IN TELEGRAM
Пользователи Windows теперь могут использовать все возможности Cowork: прямой доступ к файлам, выполнение многошаговых задач, поддержку плагинов и всех коннекторов MCP. Ранее этот функционал был эксклюзивом для яблочной платформы.
Попутно Anthropic представила гибкую систему инструкций. Вы можете задать глобальные предпочтения: тон, формат ответов или описание своей роли, они будут применяться ко всем чатам.
Также появились инструкции уровня папок: они активируются автоматически, когда вы работаете в конкретной директории. Обновлять эти настройки можно прямо в ходе диалога, не копаясь в меню.
Инструмент все еще в стадии research preview и открыт для всех пользователей платных тарифов. Для доступа достаточно скачать свежую версию клиента с сайта.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤30👍12🔥7🦄3🥰1😁1
Zhipu AI выкатила в своем он-лайн сервисе chat.z.ai новую языковую модель GLM-5.
Официальных спецификаций на данный момент нету, но по слухам, масштаб и эффективность нового флагмана удвоены, а контекстное окно достигает 200 тыс. токенов.
Первые пользователи отмечают неплохие способности модели в написании кода и логическом выводе.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤65👍41🔥21🦄5✍1
Не прошло и суток с момента релиза, а Zhipu AI выложила веса GLM-5 и любезно поделилась проведенными бенчмарками.
Архитектура пятого поколения построена на MoE: 744 млрд. общих параметров при активных 40 млрд. Модель учили на 28,5 трлн. токенов и она получила контекстное окно в 200 тыс. токенов.
GLM-5 ориентирован на 5 доменов: кодинг, рассуждение, агентные сценарии, генеративное творчество и работа с длинным контекстом.
Для эффективной обработки длинных последовательностей интегрирован механизм Dynamically Sparse Attention от DeepSeek, он позволяет избежать квадратичного роста копьюта без потери качества.
По бенчмаркам GLM-5 занимает 1 место среди open-source моделей: 77,8% на SWE-bench Verified, лидирует на Vending Bench 2, BrowseComp и MCP-Atlas, а в задачах агентного кодирования и рассуждений вплотную подбирается к Claude Opus 4.5 и GPT-5.2.
Вместе с моделью, авторы предлагают Z Code — собственную агентную IDE с поддержкой параллельной работы нескольких агентов над одной задачей.
Локальный деплой поддерживается vLLM и SGLang, а также non-NVIDIA чипами: Huawei Ascend, Moore Threads, Cambricon (через квантование и оптимизацию ядер).
Если вам негде поднять модель локально, она доступна через платформу chat.z.ai, API и на OpenRouter.
Квантованные версии пока сделали только Unsloth, традиционно - полный набор от 1-bit до BF16.
@ai_machinelearning_big_data
#AI #ML #LLM #GLM5 #ZAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥116👍18😍9🦄5❤3👌1
Media is too big
VIEW IN TELEGRAM
Anthropic объявила об обновлении бесплатного тарифа. Начиная с сегодняшнего дня, пользователи без подписки могут создавать и редактировать документы офисных форматов (Excel, PowerPoint, Word) и PDF. За генерацию файлов отвечает Sonnet 4.5.
Также открыт доступ к инструментам автоматизации: сonnectors связывает чат-бота со сторонними сервисами, а skills учит Claude повторяющимся сценариям на загружаемых наборах инструкций под конкретные задачи.
Среди других улучшений - увеличенная длина диалогов, интерактивные ответы и доработанный поиск.
ClaudeAI в сети Х
OpenAI выпустила апдейт для модели GPT-5.2 Instant. Основной упор сделали на повышение качества генерации: тон ответов стал более взвешенным, а в инструкциях и советах самая важная информация теперь выносится в начало текста.
Instant - это модель без ризонинга. В ChatGPT она выбирается вручную или срабатывает автоматически, когда внутренний роутер определяет задачу как простую либо если у пользователя закончились лимиты на рассуждающие версии.
Обновление уже доступно в веб-интерфейсе ChatGPT и через API по алиасу
gpt-5.2-chat-latest.openai.com
Платформа Prime Intellect Lab - это комплексное решение для пост-трейна, объединяющее создание сред, обучение, оценку и инференс в единый цикл. Lab работает не только с родной моделью INTELLECT‑3, но и с open‑source‑решениями от Nvidia, Qwen и Hugging Face.
Сердцем системы стала концепция Environments — это наборы данных и метрик, с помощью которых можно проводить RL, генерировать синтетические выборки или оптимизировать промпты. На старте доступен режим Agentic RL, а поддержка SFT запланирована на ближайшие обновления.
Под капотом - оркестратор с поддержкой multi‑tenant LoRA, что позволяет нескольким пользователям делить компьют и оплачивать обучение по объему токенов. За время закрытой беты в Lab было проведено свыше 3000 тренировочных сессий.
primeintellect.ai
Команда Poetiq отчиталась о достижении новых SOTA-результатов на сложнейших тестах HLE и SimpleQA. Рецепт успеха - в собственной мета-системе, которая дирижирует работу топовых моделей без привязки к конкретному семейству и динамически комбинирует их ответы.
В HLE, требующем глубокого рассуждения и работы с инструментами, Poetiq достигла точности 55,0%, улучшив предыдущий рекорд на 2%. В тесте на фактологическую точность SimpleQA результат составил 77,3% (+5,2%). Кстати, говорят, что включение Claude Opus 4.6 сильно бустанула итог.
Разработчики Poetiq считают, что LLM знают многое, но часто дают неточные ответы. Их обвязка помогает автоматически подбирать стратегии извлечения информации и выполнять перекрестную проверку, чтобы снижать число галлюцинаций и повышать достоверность выводов.
poetiq.ai
Джимми Ба, один из 12 учредителей ИИ-стартапа Илона Маска, объявил об уходе из компании. Ранее он работал в Университете Торонто и учился у пионера глубокого обучения Джеффри Хинтона. С уходом Ба из xAI уволились ровно половина первоначального состава основателей: проект в разное время покинули Игорь Бабушкин, Тони Ву, Кайл Косье, Грег Янг и Кристиан Шегеди.
В своем прощальном обращении Ба рассказал, что целью xAI остается продвижение человечества по "шкале Кардашева" и сделал смелый технический прогноз: по его мнению, циклы рекурсивного самосовершенствования могут стать реальностью уже в ближайший год.
Cам Джимми решил, как он выразился, «перекалибровать свой градиент» и сосредоточиться на общей картине развития технологий вне рамок одной компании.
Jimmy Ba в сети Х
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤25👍20🔥10🤔2
Новые модели всё меньше похожи на “чат-ботов” и всё больше - на инструменты для серьёзного анализа.
Deep Think - пример такого перехода от теории к реальным сложным задачам.
Что показывает модель:
- State-of-the-art на ARC-AGI-2 - одном из самых сложных тестов на абстрактное мышление
- Новый результат на Humanity’s Last Exam - задачи высшей сложности по математике, науке и инженерии
- 3455 Elo на Codeforces - уровень сильных спортивных программистов
- Результаты золотого уровня на письменных этапах Олимпиад-2025 по физике и химии
Модель может:
- разбирать сложные технические задачи
- помогать в исследованиях
- анализировать инженерные решения
- работать как партнёр для глубокого анализа
https://blog.google/innovation-and-ai/models-and-research/gemini-models/gemini-3-deep-think/
@ai_machinelearning_big_data
#Gemini #google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤39👍20🔥14🤣6🙏1