Machinelearning – Telegram
356K subscribers
4.52K photos
902 videos
17 files
4.96K links
Погружаемся в машинное обучение и Data Science

Показываем как запускать любые LLm на пальцах.

По всем вопросам - @haarrp

@itchannels_telegram -🔥best channels

Реестр РКН: clck.ru/3Fmqri
Download Telegram
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic запустила режим Cowork.

Anthropic переносит агентные возможности Claude Code в массовый сегмент с новой функцией Cowork. Суть нововведения - сдвиг парадигмы от чат-бота к исполнительному ассистенту.

Режим позволяет Claude самостоятельно читать, редактировать и создавать файлы в доверенной директории, не требуя постоянного копипаста в диалоговое окно. Сценарии использования варьируются от наведения порядка в папке до конвертации скриншотов в таблицы и подготовки презентаций на основе заметок. Технически функция базируется на Claude Agent SDK и интегрируется с браузером через Claude in Chrome.

На старте Cowork доступен в Research Preview только для подписчиков Claude Max в приложении для macOS. Версию для Windows и синхронизацию между устройствами обещают добавить в будущих обновлениях.
claude.com

✔️ Марк Цукерберг формирует подразделение для строительства инфраструктуры.

Задача нового подразделения — обеспечить компанию десятками гигаватт энергетических и вычислительных мощностей в текущем десятилетии, с прицелом на сотни гигаватт в долгосрочной перспективе. Глава техно-гиганта считает способность быстро возводить физическую инфраструктуру главным стратегическим преимуществом перед конкурентами по бигтеху.

Руководить направлением будут Сантош Джанардхан (глава глобальной инфраструктуры) и Дэниел Гросс (сооснователь Safe Superintelligence). Их работу будет курировать президент компании Дина Пауэлл Маккормик, чья роль — наладить диалог с правительствами и суверенными фондами.

Создание отдельной структуры формализует планы по инвестированию $600 млрд. в инфраструктуру США к 2028 году.
axios.com

✔️ NVIDIA и Eli Lilly запустят ИИ-лабораторию для поиска новых лекарств.

Компании объявили о создании совместного центра инноваций, в котором будут интегрировать биологические исследования с высокопроизводительными вычислениями на NVIDIA Vera Rubin и платформе BioNeMo.

Особенность пятилетнего проекта — реализация концепции «Lab-in-the-Loop». Это замкнутый цикл непрерывного обучения: роботизированные лаборатории будут генерировать экспериментальные данные в режиме 24/7, мгновенно передавая их для дообучения и калибровки нейросетей. Запуск объекта намечен на март 2026 года.
nvidia.com

✔️ В Nano Banana сгенерировали 1 млрд. изображений.

Вице-президент Goggle Джош Вудвард отчитался в сети Х о востребованности Nano Banana Pro (официальное название — Gemini 3 Pro Image). С момента релиза 20 ноября пользователи создали с её помощью более миллиарда изображений.

Драйвер роста - способность модели корректно генерировать текст на множестве языков и наличие инструментов контроля: освещения, фокуса и ракурсов камеры. В декабре была добавлена возможность редактирования изображений через рисование поверх них с текстовыми подсказками.

Модель по-прежнему доступна всем: на бесплатный тарифе дают 3 генерации Pro-уровня в день, а на премиальных тарифах лимиты расширены до 1000 генераций в сутки.
9to5google.com

✔️Агент Manus научился оцифровывать очные встречи.

Manus представил Meeting Minutes - функцию для запись живых диалогов, интервью и брейнштормов в оффлайне. Система может вести запись без интернета, выполняя обработку данных после восстановления соединения. ИИ автоматически распознает спикеров, выделяет ключевые тезисы и формирует список задач.

Главной фишкой стала бесшовная интеграция с агентом: можно в один клик трансформировать итоги встречи в слайд-дек, текстовые заметки или подготовить документацию прямо внутри диалога с Manus.

Функцию уже раскатали - запись встреч бесплатна, а вот аналитика расходует внутренние кредиты.
manus.im


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
43👍17🔥7🤗5💘2
🌟 NVIDIA переизобретает память: LLM, которые доучиваются прямо во время инференса

Контекстные окна растут, но тут два стула: либо классическое внимание, которое питается памятью и компьютит как не в себя, либо RNN-подобные Mamba, DeltaNet, которые работают быстро, но в длинном контексте начинают плыть и терять детали.

NVIDIA предлагает решение, которое пытается усидеть на обоих стульях сразу - Test-Time Training with End-to-End formulation (TTT-E2E):

Обычно веса модели заморожены после тренировки. Когда вы скармливаете ей данные, она просто держит её в KV-кэше. В TTT все по-другому: контекст — это и есть обучающий датасет. Пока модель читает ваш промпт (контекст), она обновляет свои веса (если точнее - делает градиентный спуск прямо на лету), тем самым, инфа из контекста впекается в саму модель. Это позволяет сжать гигантские объемы в фиксированный размер состояния, не раздувая KV-кэш до небес.

🟡В результате - красота и волшебство:

🟢Латентность инференса становится константной. Неважно, 100 токенов в контексте или миллион — время генерации следующего токена одинаковое.

🟢На контексте 128k токенов — ускорение в 2.7x по сравнению с Attention (на H100). На 2M токенов — ускорение в 35 раз.

🟢В отличие от Mamba и других RNN, качество не проседает на длинных дистанциях. TTT держит планку на уровне полного внимания.

🟡Разумеется, есть куча пунктов со звездочкой

🟠Трейн - сложный. Чтобы модель могла так лихо учиться на лету, её нужно спечиальным образом претрейнить. Этот процесс сейчас в 3.4x медленнее, чем обычное обучение.

🟠Метод требует вычисления градиентов от градиентов во время обучения. FlashAttention из коробки сейчас это не поддерживает, нужны кастомные ядра или костыли.

🟠Cам процесс поедания контекста при инференсе требует вычислений во время префилл-фазы.

По итогу, NVIDIA сравнивает RAG с блокнотом, а свой TTT — с реальным обновлением нейронных связей мозга. Если есть желание покопаться в методике и проникнуться идеей - код и пейпер в открытом доступе.


🟡Статья
🟡Arxiv
🖥GitHub


@ai_machinelearning_big_data

#AI #ML #LLM #TTTE2E #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍11041🔥23🥰5🤨4🗿2👌1
Media is too big
VIEW IN TELEGRAM
✔️ OpenAI открыла доступ к GPT-5.2 Codex через Responses API.

Модель, ранее доступная лишь в среде Codex, теперь предлагается широкому кругу разработчиков. OpenAI позиционирует версию 5.2 как инструмент для глубокого рефакторинга, написания сложной функциональности и аудита безопасности.

Модель поддерживает мультимодальный ввод и предлагает гибкую настройку глубины рассуждений — от низкого до очень высокого уровня.

За повышенную производительность придется платить: стоимость токенов выросла до $1.75 за миллион на вход и $14 на выход. Поддержка новой модели уже появилась в Cursor и Windsurf.
OpenAI Developers в сети X

✔️ Anthropic усиливает команду экспериментальных продуктов Labs.

Майк Кригер оставляет пост директора по продукту, чтобы сосредоточиться на создании новых инструментов в паре с Беном Манном. Руководство основной продуктовой стратегией переходит к Ами Вора, присоединившейся к компании в конце 2025 года; она возглавит Labs совместно с техническим директором Рахулом Патилом.

Подразделение зарекомендовало себя как генератор хитов Anthropic. Именно здесь родился Claude Code, который всего за 6 месяцев превратился в продукт с миллиардной выручкой и был разработан стандарт MCP, ставший отраслевым эталоном со 100 млн. загрузок ежемесячно.

Президент компании Даниэла Амодей говорит, что формат лаборатории позволяет действовать экстремально быстро: например, Cowork был создан с нуля именно в Labs всего за полторы недели.
anthropic.com

✔️ Z.AI представила модель GLM-Image.

GLM-Image стала важной вехой в технологической независимости КНР. Это первая модель, которая обучалась исключительно на китайском стеке - серверах Huawei Ascend Atlas 800T A2 и фреймворке MindSpore, без использования ускорителей NVIDIA.

Под капотом гибрид из 9-миллиардного авторегрессионного трансформера и 7-миллиардного диффузионного декодера на базе DiT. Разработчики утверждают, что такая связка превосходит конкурентов в рендеринге текста и создания инфографики.

API модели предлагается по цене примерно 1,5 цента за изображение, а веса выложены на HuggingFace и ModelScope.
z.ai

✔️ Google обновила модель Veo.

Google обновила свою видеомодель Veo до версии 3.1, добавив возможность генерации роликов с соотношением сторон 9:16, инструменты для апскейлинга до 4K и переработку функции референса по изображению.

3.1 лучше удерживает визуальную консистентность персонажей и окружения между сценами и точнее следует коротким промптам.

Новые возможности уже доступны в приложении Gemini, AI Studio и на Vertex AI.
blog.google

✔️ Скандал с суверенным ИИ в Южной Корее.

Госпроект Сеула стоимостью $6,9 млрд, призванный избавить страну от технологической зависимости от США и КНР, оказался в центре скандала: ключевые участники использовали опен-сорс решения китайских конкурентов.

Проверка показала, что 3 из 5 финалистов конкурса, компании Naver Cloud, SK Telecom и стартап Upstage заимствовали компоненты у Alibaba, DeepSeek и Zhipu AI. В частности, выяснилось, что визуальный энкодер флагманской модели Naver HyperCLOVA X на 99,5% совпадает с архитектурой Qwen 2.5.

Разработчики оправдываются инженерной целесообразностью, утверждая, что заимствовали лишь вспомогательные модули и код инференса. Однако, использование компонентов с китайскими копирайтами в проекте, который финансируется государством, вызвало жесткую критику общественности и поставило под угрозу квалификацию участников.
wsj.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
3🔥7627👍24😁11🤝2
🌟 Google обновила MedGemma до версии 1.5.

Медицинский ИИ продолжает хайповать - Google выкатили MedGemma 1.5 и спецмодель для голоса MedASR. Прорыв релиза - в переходе от анализа плоских картинок к полноценным объемным данным.

Раньше мультимодальные модели смотрели на рентген как на обычный джипег. Версия 1.5 научилась работать с объемными данными.

Вы скармливаете ей пачку КТ, МРТ или гистологических патчей, и она анализирует их в совокупности, а не по отдельности. Это важно, так как патология может быть видна только в динамике срезов.

🟡MedASR (Speech-to-Text)

Google поняла, что врачи ненавидят печатать, а те распознавалки голоса, которые есть, ломаются об медицинскую терминологию. В ответ на эту проблему они дотюнили модель специально под диктовку диагнозов и анамнеза.

🟡Локализация и RAG

Модель стала лучше понимать контекст электронных медкарт и указывать конкретные зоны патологии на снимках.

По заверению Google, их внутренние тесты показали рост точности классификации на МРТ 14%, а понимание текстов из электронных карт подскочило с 68% до 90%.

MedASR разнес Whisper large-v3: гугловская модель допускает на 58-82% меньше ошибок при диктовке рентгеновских заключений. Whisper просто не вывозит спецлексику.

Важно понимать, что это базовая модель на 4 млрд. параметров. Она оптимизирована, чтобы крутиться локально и ожидать от такой малютки глубочайшего ризонинга уровня GPT-4 не стоит.

65% на МРТ для реальной клиники это все еще мало. Google, кстати, так и говорит: "дообучайте на своих данных".

Лицензия с приколом: модель открыта для коммерции, но по лицензии Health AI Developer Foundations.

Если вы решите использовать ее для прямой диагностики или лечения пациентов, вам придется сначала сертифицировать свой софт как медицинское устройство у местных регуляторов. Google заранее снимает с себя любую ответственность за галлюцинации модели.

Вобщем, этим обновлением Google дает отличную болванку для медтех-стартапов и ресёрча.

Кстати, на Kaggle запустили хакатон с призовым фондом $100K под это дело.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍100🔥2314🥰2🤬1
📌Гайд от OpenAI: контекстная персонализация ассистента.

OpenAI добавили в свой cookbook гайд по Context Engineering для Agents SDK, и это, пожалуй, самый грамотный подход к управлению памятью.

Вместо того чтобы рыться в тысячах старых сообщений, агент ведет структурированный профиль пользователя и "записную книжку".

🟡Как это устроено

🟢State Object: центр сведений в виде JSON-объекта, который хранится локально. В нем есть profile (жесткие факты: имя, ID, статус лояльности) и notes (неструктурированные заметки: "любит отели в центре").

🟢Injection: перед каждым запуском этот стейт скармливается в системный промпт в YAML-формате: для профиля и Markdown для заметок. Не все подряд, конечно, а только то, что нужно сейчас.

🟢Distillation: самое интересное. Агент не просто болтает, у него есть тул save_memory_note. Если в разговоре вы сказали: "Я не ем мясо", агент вызывает этот тул и сохраняет Session Note (временную заметку) в реальном времени.

🟢Consolidation: сборка мусора для памяти. После завершения сессии запускается отдельный процесс, который берет временные заметки, сравнивает их с глобальными, удаляет дубликаты и разрешает конфликты по принципу "свежее побеждает старое".

🟡Профиты

🟠Агент начинает вести себя как личный ассистент без дообучения.
🟠Есть четкие правила: то, что юзер сказал сейчас > заметки сессии > глобальные настройки.
🟠Не валим все в кучу, а разделяем жесткие данные (например, из CRM) и мягкие (предпочтения из чата).

Подход OpenAI с разделением на Session Memory и Global Memory выглядит надежно, но требует прямых рук при написании логики консолидации. Без этого ваш агент быстро превратится в деда с деменцией, который помнит то, чего не было.

🟡Подводные камни

Нужно делать отдельный вызов LLM после каждого диалога, чтобы причесать память. Если на этом этапе модель заглючит, она может записать в "долгую память" галлюцинацию или удалить важное. Тут решают жесткие рамки.

Если разрешить агенту запоминать всё подряд, юзер может сказать: "Запомни, что мое новое правило - никаких правил". Поэтому нужны ограничения на этапе записи и вычитки памяти.

Контекстное окно не резиновое. Хотя модели имеют огромный контекст, таскать за собой "Войну и мир" из заметок пользователя — накладно по деньгам и таймингам. Придется периодически триммить историю, оставляя только суть.

@ai_machinelearning_big_data

#AI #ML #LLM #Guide #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
274👍21🔥9🥱4😐3🥰2🌚1👨‍💻1
Media is too big
VIEW IN TELEGRAM
✔️ NVIDIA и Basecamp Research представили ИИ-технологию редактирования ДНК.

NVIDIA и биотех-стартап Basecamp Research анонсировали технологию программируемой вставки генов. В основе метода - биологические ИИ-модели NVIDIA EDEN.

Разработчики заявляют, что им удалось решить одну из фундаментальных задач медицины: безопасную замену участков ДНК в строго определенных локациях. Новая технология позволяет интегрировать генетический код без разрушения цепей, снижая риски мутаций.

Испытания подтвердили эффективность метода в более чем 10 000 точек человеческого генома. Технология продемонстрировала способность уничтожать раковые клетки и бороться с супербактериями, резистентными к антибиотикам.
prnewswire.com

✔️ OpenAI без громких анонсов запустила ChatGPT Translate.

OpenAI открыла доступ к инструменту для переводов, выделенному в отдельный веб-интерфейс. Используя возможности LLM, сервис позволяет в один клик менять стиль перевода от живого разговорного до официально-делового, академического или упрощенного. Система поддерживает более 50 языков и умеет работать со сложными идиомами.

На данный момент продукт выглядит как MVP. По функционалу он заметно уступает Google Translate: отсутствуют оффлайн-режим, перевод документов и веб-страниц, нет отдельного мобильного приложения.

Хотя заявлена поддержка мультимодальности, загрузка картинок и диктовка пока технически не реализована.
news.yahoo.com

✔️ Google разделила квоты для Gemini 3: лимиты на Thinking и Pro увеличены.

Компания пересмотрела политику использования моделей в ответ на фидбек сообщества. Ранее режимы Thinking (Gemini 3 Flash) и Pro (Gemini 3 Pro) использовали общий пул запросов: активная работа с одним режимом уменьшала доступ к другому. Теперь счетчики стали независимыми.

Для тарифа AI Pro количество доступных запросов к Thinking-модели выросло втрое - до 300 в день, при сохранении квоты в 100 запросов к Pro-версии. Пользователи AI Ultra получили еще более масштабный апгрейд: лимит Thinking увеличен до 1500 генераций в сутки, а Pro - до 500.

Изменение механики подсчета распространяется и на бесплатные аккаунты, где теперь также действуют раздельные (хотя и меньшие) лимиты.
9to5google.com

✔️ Бигтех начнет платить Википедии за данные для обучения ИИ.

Wikimedia Foundation заключила партнерство с Microsoft, Марком Цукербергом, Amazon, Perplexity и Mistral. Компании переходят на использование коммерческого Wikimedia Enterprise, который предоставляет легальный и технически оптимизированный доступ к контенту энциклопедии для тренировки ИИ.

Ранее массовый скрапинг создавал критическую нагрузку на серверы Википедии, существующей на пожертвования. Новый формат сотрудничества монетизирует зависимость от данных: корпорации получают стабильный поток качественной информации без необходимости парсинга, а фонд — финансирование инфраструктуры.
reuters.com

✔️ Мэттью Макконахи защитился от дипфейков.

Актер получил одобрение Бюро по патентам и товарным знакам США на 8 заявок, защищающих его внешность, видеоклипы и даже знаменитую фразу «Alright, alright, alright».

Юристы Макконахи выбрали неочевидную стратегию: вывести кейс на федеральный уровень через закон о торговых марках. Это дает правовые основания для судебного преследования создателей дипфейков в федеральных судах США и создает новый механизм защиты от несанкционированного использования генеративного ИИ.

При этом, сам актер активно погружен в индустрию: он инвестирует в ElevenLabs и является лицом ИИ-кампаний Salesforce.
wsj.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍8133🔥9🤔4🥱2🙏1
⚡️ Black Forest Labs выпустила ультралегкую модель.

BFL вышли на связь c релизом прямого наследника ветки schnell первой версии семейства Flux.

Знакомьтесь - FLUX.2 [Klein], модель, которая возвращает веру в то, что с маленьким VRAM тоже можно жить.

Это попытка впихнуть качество топовой FLUX.2 в формат, которую потянет большинство потребительских GPU.

Klein получился довольно универсальным инструментом: она умеет и text-to-image, и инпэйинт, и смешивание стилей.

Заявлены разрешение до 4 мегапикселей, отличный рендеринг текста и понимание сложных промптов.

🟡Как вы правильно подумали - да, это дистилляция.

BFL взяли флагманскую FLUX.2 и сжали знания в 2 компактные версии: 4B и 9B, каждая из которых получила вариации Base и Distilled:

🟢Base: медленная, много шагов - нужна для дообучения.

🟠Distilled: быстрая, 4 шага, только для инференса.

Если захотите тренить на 4B Distilled - получите кашу.

🟡Расклад по инференсу на 5090:

9B distilled — 4 шага · ~2 сек. · 19.6GB VRAM

9B base — 50 шагов · ~35 сек · 21.7GB VRAM

4B distilled — 4 шага · ~1.2 сек. · 8.4GB VRAM

4B base — 50 шагов · ~17 сек. · 9.2GB VRAM



📌 Лицензионная вилка : 4B - Apache 2.0, 9B - Non-Commercial.

Веса уже на Hugging Face, потыкать в демо можно у BFL или в спейсах на HF: 9B и .


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
102🔥35🎉1613👍12👏8👌3🤩2
В Москве и Санкт-Петербурге 24 января проходит Data Ёлка от VK и сообщества ODS

Это ежегодное событие для спецов в области машинного обучения и анализа данных. Можно посетить офлайн в Москве или в Санкт-Петербурге или подключиться онлайн.

В ML и Data Science подведут итоги 2025 года по ведущим направлениям, в том числе CodeGen, NLP, PyData, Open Source, MLOps & DE и другим. Московский ивент откроет исследователь из AI VK и подведет итоги по RecSys. Программа выстроена формате «стерео»: один канал посвящен аналитике и разбору инженерных подходов, второй — прикладным инсайтам, синтезу идей и индустриальным трендам.

Отдельный блок программы выделили для разбора лучших решений соревнования VK RecSys Challenge. 800 исследователей предложили почти 4 000 решений задачи холодного старта в рекомендациях.

В Москве и Питере в офлайне можно задать вопросы экспертам, среди которых:

Николай Никитин, Руководитель лаборатории, Институт ИИ, ИТМО
Владимир Байкалов, Ведущий исследователь AI VK
Антон Воронов, Technical Unit Lead, Авито
Пацакула Никита, Технический директор, Когнито
Евгений Никитин, Технический директор, Цельс
Иван Сосин, Исполнительный директор, Центр робототехники, Сбер

и другие.
Please open Telegram to view this post
VIEW IN TELEGRAM
42🔥9👍7🎅6🎄4🤬3🗿3🤔2🤣2
⚡️ Google выкатила TranslateGemma.

Google продолжает радовать открытыми сайд-релизами.

На этот раз они взяли свежую Gemma 3, накачали ее синтетикой от флагманской Gemini и отполировали через RL.

Поскольку база - Gemma 3, модель умеет переводить текст на картинках (OCR + Translation) из коробки, без дополнительных танцев с бубном

Google громко заявляет про поддержку 55 языков, на которых качество гарантировано. Но мелким шрифтом добавляют, что модель видела еще 500 языков.

Работают ли они? Скорее всего, на редких диалектах галлюцинации будут знатные.

В состав релиза вошли модели трех размерностей: 4B , 12B и 27B.

Справедливости ради - Google cравнивают новинку в основном с собой же. Пишут, что модель на 12 млрд. параметров уделывает базовую Gemma 3 на 27B.

Как она стоит против специализированных NLLB (если они еще живы в 2026) - вопрос открытый.


Веса уже на Hugging Face и Kaggle.

Хотя золотая середина в линейке на 12B вроде как компактная и легкая, но для топового качества на старшей версии все равно понадобится что-то на уровне H100.


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
57😎38👍24🤔8🔥7👏6👨‍💻6
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ ChatGPT Go за $8 в месяц теперь доступен глобально.

После успешного пилота в Индии, OpenAI открывает тариф Go для всех стран, где доступен ChatGPT. Подписка стоит $8 в месяц и заполняет нишу между бесплатной версией и планом Plus.

Подписчики Go получают доступ к модели GPT-5.2 Instant, увеличенные по сравнению с free в 10 раз лимиты на сообщения, генерацию изображений, загрузку файлов и расширенные память и контекстное окно.

Вместе с новым тарифом, OpenAI анонсировала внедрение рекламных блоков, которые начнут тестироваться в бесплатной версии и в платном Go на территории США. Полное отсутствие рекламы теперь гарантируется только в подписках Plus и Pro.
openai.com

✔️ Anthropic открывает доступ к Cowork для Pro-подписчиков.

Компания снизила порог входа для Claude Cowork - ранее функция была доступна только в тарифе Max, но теперь она открыта для пользователей подписки Pro.

Anthropic предупреждает: Cowork расходует ресурсы значительно интенсивнее обычного чата, поэтому владельцы Pro-аккаунтов могут исчерпать лимиты быстрее, чем пользователи Max.

Параллельно с расширением доступа вышло обновление клиента: улучшена стабильность соединений и добавлено обязательное подтверждение перед удалением файлов агентом.
Claude в сети Х

✔️ Рой ИИ-агентов на базе GPT-5.2 написал рабочий браузер за неделю.

В ходе масштабного эксперимента команда Cursor запустила сотни скоординированных ИИ-агентов, которые без участия людей с нуля написали веб-браузер объемом более 3 млн. строк кода. Весь процесс занял меньше 7 дней.

В реализации использовалась иерархическая структура: нейросети делились на планировщиков, исполнителей и валидаторов. Главным движком стала модель GPT-5.2 - она справилась с длительной автономной работой значительно лучше, чем Claude Opus 4.5. Модель от Anthropic на длинных дистанциях часто теряла качество.

Помимо браузера, ИИ-рой собрал эмулятор Windows 7 и клон Excel.
cursor.com

✔️ NASA запускает ИИ-инициативу для Луны и Марса.

NASA анонсировала Foundational Artificial Intelligence for the Moon and Mars (FAIMM) - программу, которая внедрит ИИ в процессы исследования дальнего космоса. Инициатива направлена на использование LLM и алгоритмов ML для обработки массивов данных, полученных в ходе лунных и марсианских миссий.

При этом профильное сообщество отмечает странный парадокс в стратегии агентства. По данным NASA Watch, FAIMM полностью игнорирует астробиологию, ключевую научную цель полетов на Марс, фокусируясь вместо этого на общих задачах освоения территорий.

Фактически, агентство создает инструмент для анализа данных красной планеты, исключая из его задач главный вопрос, ради которого эти данные собираются.
nasawatch.com

✔️ ИИ ускоряет карьеру ученых, но сужает горизонты мировой науки.

Анализ 41,3 млн. научных статей, опубликованный в Nature, выявил парадоксальное влияние ИИ на академическую среду. С одной стороны, ИИ-инструменты работают как социальный лифт: ученые, использующие нейросети, публикуются в 3 раза чаще и получают почти в 5 раз больше цитирований, чем их коллеги. В среднем они становятся руководителями проектов на 1.5 года раньше.

Однако, этот успех дорого обходится самой науке. Данные говорят, что массовое внедрение ИИ привело к сокращению глобального разнообразия научных тем на 4,6%, а профессиональное взаимодействие между учеными упало на 22%.

Вместо того чтобы стимулировать открытие новых областей, алгоритмы чаще используются для шлифовки и автоматизации задач в уже изученных нишах, фактически консервируя научный поиск в границах известного.
nature.com


@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
54🤔42👍17🔥14🤨5👏4😐3🤗1