Neural Networks | Нейронные сети – Telegram
Neural Networks | Нейронные сети
11.6K subscribers
809 photos
184 videos
170 files
9.46K links
Все о машинном обучении

По всем вопросам - @notxxx1

№ 4959169263
Download Telegram
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Anthropic больше не будет удалять старые модели Claude.

Anthropic объявила о новой политике, согласно которой все публично выпущенные версии модели Claude будут сохраняться бессрочно. Причиной стали результаты тестов безопасности, в ходе которых ИИ демонстрировали поведение, направленное на избежание отключения, а также неопределенностью в вопросе возможного сознания у ИИ.

Столкнувшись с перспективой замены на новую версию, модели начинали активно выступать за собственное существование. В некоторых сценариях ИИ прибегал к нежелательным и потенциально опасным действиям. Anthropic расценила это как серьезный риск безопасности, требующий пересмотра процесса вывода моделей из эксплуатации.

Кроме того, перед «отставкой», с каждой моделью будет проводиться своего рода «выходное интервью», чтобы задокументировать ее «предпочтения».
anthropic.com

✔️ Perplexity обвинила Amazon в «травле» из-за запрета на покупки с помощью ИИ-агентов.

Perplexity получила от Amazon юридическое требование запретить своему ИИ-ассистенту в Comet совершать покупки на платформе. В Perplexity назвали это «корпоративной травлей», угрозой для выбора пользователей, и пообещали не поддаваться давлению. Официальная позиция Amazon: забота о клиентах, так как сторонний агент, по их мнению, обеспечивает «значительно ухудшенный опыт покупок».

Этот конфликт - часть более крупного тренда. Amazon не только разрабатывает собственные ИИ-инструменты для шоппинга, но и ранее заблокировал доступ для поисковых Google и OpenAI.
perplexity.ai

✔️ MAI-Image-1 от Microsoft стала доступна в сервисах.

Microsoft начала интеграцию в свои продукты новой модели для генерации изображений — MAI-Image-1. Это первая модель, полностью разработанная внутри MS. Попробовать ее уже можно в Bing Image Creator и мобильном приложении Bing, где она появилась в выборе наряду с DALL-E 3 и GPT-4o.

MAI-Image-1 уже успела войти в десятку лучших text-to-image моделей на LMArena. Помимо сервиса Bing, модель используется в новой функции Copilot Audio Expressions для визуализации историй. MAI-Image-1 доступна во всех странах, где работают Bing Image Creator и Copilot Labs, за исключением Европейского союза.
microsoft.ai

✔️ Cognition запускает Windsurf Codemaps: ИИ-инструмент, чтобы понимать код.

Windsurf Codemaps - структурированные, аннотированные ИИ-карты кода, созданные на базе моделей SWE-1.5 и Claude Sonnet 4.5. Цель Codemaps — создать ИИ, который включает мозг пользователя, а не выключает, борясь с проблемой вайбкодинга, когда разработчики поддерживают или генерируют код, который они на самом деле не понимают.

В Cognition говорят, что даже лучшие инженеры тратят часы на поиск и запоминание нужных фрагментов в кодовых базах, а адаптация новичков может занимать до 9 месяцев. Codemaps предлагает визуализацию для любой задачи, автоматически генерируя карту, которая группирует и связывает части кода, относящиеся к заданному вопросу. Эти карты также могут быть использованы для повышения производительности других агентов, чтобы агент мог получить более точный контекст.
cognition.ai

✔️ Nvidia станет ментором индийских deep-tech стартапов.

Nvidia присоединилась к Индийскому альянсу глубоких технологий (IDTA) в качестве одного из основателей. Эта группа, состоящая из венчурных и частных инвесторов, планирует вложить $2 млрд в местные стартапы, работающие в сферах ИИ, полупроводников, робототехники и биотехнологий.

Участие Nvidia будет заключаться не в прямом финансировании, а в экспертизе. Компания будет проводить технические лекции и тренинги для индийских стартапов через свой институт Nvidia Deep Learning Institute.

Индийское правительство ведет активную политику по стимулированию инноваций. Власти страны уже выделили более $1.1 млрд на национальную программу по развитию ИИ и еще $11.2 млрд в общий фонд исследований и разработок.
cnbc.com

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
⚖️ Amazon подала в суд на Perplexity: почему Comet стал проблемой

Amazon обвиняет Perplexity в том, что их Comet-браузер действует как скрытый AI-шопинг-агент: логинится под учёткой пользователя, оформляет заказы и кликает по сайту так, будто это живой человек. Для Amazon это - запрещённый скрытый автоматизированный доступ.

Главная претензия: Comet маскирует бот-трафик под обычные клики, мешая Amazon применять свои правила против автоматизации, защитные проверки и аудит. Агент заходит в личные разделы аккаунта, трогает корзину и оформление покупки. Любая ошибка скрипта или неверный промпт может привести к покупке не того товара, отправке не по тому адресу или утечке приватных данных.

Amazon считает, что Perplexity обходит официальные интерфейсы и условия использования, не идентифицируясь как бот. Это, по их словам, нарушает правила и создаёт риски безопасности, а также портит персонализацию — ведь рекомендации и ценообразование настроены под человеческое поведение, а не быстрые скриптовые запросы.

Компания также утверждает, что требовала остановить работу агента, но тот продолжал работать, что усиливает аргумент «несанкционированного доступа».

Позиция Perplexity: это всего лишь удобный помощник для пользователей, который сравнивает цены и оформляет покупку от их имени, а хранение логина — локальное. Пользователь вправе выбирать своего ассистента, даже если Amazonу это не нравится.

В итоге спор о том, кто контролирует сессию: пользователь или AI-браузер. И должен ли такой агент открыто объявлять себя ботом вместо маскировки под человека.

theguardian.com/technology/2025/nov/05/amazon-perplexity-ai-lawsuit
AI растёт - и вместе с ним растут счета за электричество.

Bloomberg пишет: каждый новый дата-центр сегодня потребляет столько же энергии, сколько небольшой город. Технологии, которые двигают прогресс, параллельно перестраивают энергетическую сеть прямо под нашими домами.

Инновации всегда имеют след. Цена интеллекта измеряется не только вычислениями, но и киловатт-часами.

Вопрос уже не в том, сможет ли ИИ изменить мир.
Вопрос в том, сможет ли мир позволить себе энергию, чтобы это произошло.
Роботы уже правят нами
📚 Курс, который прокачает твои AI-скиллы в BigQuery

Этот курс учит работать с Gemini прямо внутри BigQuery и закрывает полный набор практических навыков:

- генерация и отладка SQL-запросов с помощью Gemini
- анализ тональности текста
- автоматические суммари и выделение ключевых слов
- генерация эмбеддингов
- построение RAG-пайплайна
- мультимодальный векторный поиск

Если хочешь уверенно использовать AI-инструменты в аналитике и продуктах — этот курс даёт полный набор необходимых умений.

https://www.skills.google/paths/1803/course_templates/1232
Forwarded from Machinelearning
🔎 Upscale-LoRA мощный инструмент для восстановления изображений

Модель создана на базе Qwen-Image-Edit-2509 и предназначена для улучшения качества старых или низкокачественных фотографий.

Поддерживает: улучшение резкости, удаление шума, восстановление деталей и очистку JPEG-артефактов.

Подходит для архивных снимков, скринов и любых изображений с низким разрешением.

https://huggingface.co/vafipas663/Qwen-Edit-2509-Upscale-LoRA

@ai_machinelearning_big_data

#Upscaler
⚡️ NVIDIA выпустила модель Llama-3 Nemotron Super-49B-v1.5-NVFP4

Это 49B reasoning-модель, улучшенная версия Meta Llama-3.3-70B-Instruct, которая даёт более сильное рассуждение, лучшее использование инструментов и стабильный диалог на длинных контекстах.

Она ориентирована на реальные агентные нагрузки - RAG, tool calling, сложные цепочки действий - и поддерживает контекст 128K, позволяющий держать большие беседы, документы и планы без нарезки.

Главное обновление - Neural Architecture Search, который снижает потребление памяти и повышает пропускную способность.
В итоге модель может выполнять тяжёлые задачи на одном H200 под высокой нагрузкой - это уменьшает стоимость сервинга и позволяет использовать большие batch'и.

huggingface.co/nvidia/Llama-3_3-Nemotron-Super-49B-v1_5-NVFP4
🤖 Умная библиотека для выполнения кода и вызова инструментов

Code-Mode упрощает взаимодействие AI с инструментами, позволяя выполнять TypeScript-код с доступом ко всему набору инструментов. Это решение значительно ускоряет выполнение задач, снижая количество вызовов API и потребление токенов.

🚀Основные моменты:
- 60% быстрее выполнения по сравнению с традиционными вызовами инструментов
- Уменьшение потребления токенов на 68%
- Снижение количества API-вызовов на 88%
- Поддержка различных протоколов для интеграции

📌 GitHub: https://github.com/universal-tool-calling-protocol/code-mode
🇯🇵 Andy Rubin - создатель Android и экс-топ-менеджер Google - возвращается в робототехнику с новой компанией Genki Robotics, базирующейся в Токио, Япония. Согласно отчёту корейского MK.co.kr и The Information, стартап работает в режиме «стелс» и набирает команду для разработки первых прототипов.

Слово «Genki» по-японски означает «живой», «энергичный» - это говорит о фокусе на динамичных машинах, вероятно, способных передвигаться в человеческом пространстве.

Andy Rubin уже давно интересуется роботами-пешеходами: во время работы в Google он руководил робо-дивизионом и покупал японскую хуманоидную компанию Shaft. На конференции в 2018 году он предсказал эру «nog-everywhere» (ноги повсюду), утверждая, что именно ногами роботы смогут использовать лифты, подниматься по лестницам и работать там, где колёса бессильны.

Выбор Токио как центра Genki Robotics — стратегический: Япония славится мощным инженерным ресурсом в области робототехники и университетскими кадрами, которые трудно переоценить. Rubin явно намерен воспользоваться преимуществом японской экосистемы вне привычного Силиконовой долины.

Но рынок хуманоидов крайне насыщен и затратен. Несмотря на прошлые успехи Rubin-а (в 2013-м он инициировал множество покупок робототехнических компаний), после ухода из Google его компания смартфонов Essential Products закрылась в 2020-м.

Пока Genki Robotics работает в тени — неизвестно, какие задачи она решает и какую технологию использует. Но возвращение Rubin-а в эту область может стать важным событием для индустрии хуманоидов.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ Microsoft, Nvidia и Anthropic заключили сделку на $45 млрд.

Компании заключили трехстороннее соглашение, меняющее расклад сил в индустрии. В рамках партнерства Anthropic обязуется закупить вычислительные мощности в Microsoft Azure на $30 млрд. В свою очередь, Nvidia инвестирует в стартап до $10 млрд, а Microsoft вложит еще до $5 млрд.

К тому же, это первое сотрудничество Anthropic и Nvidia на уровне моделей: алгоритмы Claude будут оптимизированы под архитектуры Grace Blackwell и будущие Vera Rubin.

Еще модели Claude Sonnet 4.5, Opus 4.1 и Haiku 4.5 станут доступны клиентам Microsoft Foundry и будут интегрированы в Copilot (GitHub и Microsoft 365). Сделка делает Claude единственной LLM топ-уровня, представленной на всех трех главных облачных платформах мира.
blogs.microsoft.com

✔️ Платформа Replicate интегрируется в Cloudflare.

Cloudflare объявила о присоединении Replicate, платформы для запуска и деплоя ИИ-моделей. Покупка станет частью единой инфраструктуры «AI Cloud», объединяющей глобальную периферийную сеть Cloudflare с инструментарием Replicate для работы с нейросетями.

Для разработчиков это означает крупное обновление сервиса Workers AI. В скором времени каталог из более чем 50 тыс. моделей Replicate станет доступен внутри экосистемы Cloudflare. Фишкой слияния станет поддержка запуска кастомных моделей и дообучения непосредственно на Workers AI.

Существующие API Replicate продолжат работать и получат буст производительности за счет инфраструктуры Cloudflare. Также в планах интеграция с другими сервисами: объектным хранилищем R2, векторной базой Vectorize и шлюзом AI Gateway.
blog.cloudflare.com

✔️ Google Antigravity: среда разработки для управления роем ИИ-агентов.

В отличие от Cursor или GitHub Copilot, Antigravity получил режим Manager View. Это центр управления для оркестрации работы множества агентов, выполняющих задачи параллельно в разных воркспейсах.

Агенты работают на базе Gemini 3 Pro, Claude Sonnet 4.5 или GPT-OSS и имеют прямой доступ к редактору, терминалу и браузеру. Инструмент умеет запоминать контекст прошлых проектов и обучаться на действиях пользователя.

Antigravity уже доступна в публичном превью для macOS, Windows и Linux бесплатно, причём Google обещает «щедрые лимиты» на использование моделей.
antigravity.google

✔️ NVIDIA представила семейство открытых моделей для физических симуляций и научных расчетов.

На конференции SC25 состоялся анонс моделей Apollo, нацеленных на ускорение промышленного инжиниринга. Новое семейство позволит внедрять возможности ИИ в ПО для сложных вычислений в реальном времени — от проектирования микросхем и аэродинамики до прогнозирования климата и задач термоядерного синтеза.

В основе Apollo лежит комбинация нейронных операторов, трансформеров и диффузионных методов, адаптированных под законы физики. Инициативу уже поддержали Siemens, Cadence и Synopsys, которые планируют интегрировать новинку в свои продукты. Модели в скором времени появятся на HuggingFace и платформе NVIDIA NIM.
blogs.nvidia.com

✔️ Ai2 выпустил Deep Research Tulu — открытый аналог OpenAI Deep Research.

DR Tulu — открытая модель на 8 млрд. параметров для создания агентов глубокого поиска, которая может самостоятельно планировать исследование, использовать внешние поисковые инструменты, собирать информацию из множества источников и предоставлять ответы с точными ссылками.

Модель учили на методе RLER (Reinforcement Learning with Evolving Rubrics). Вместо статических наград методика использует динамические критерии оценки, которые эволюционируют вместе с моделью. Это предотвращает взлом вознаграждения и заставляет агента реально анализировать контекст, а не имитировать правильный формат ответа.

По тестам DR Tulu-8B не уступает решениям от OpenAI и Perplexity на задачах long-form research, но работает кардинально дешевле. Стоимость выполнения сложного запроса у нее менее одного цента, тогда как аналогичная задача у OpenAI может стоить $1.80.
allenai.org

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Илон Маск заявил, что самое эффективное место для ИИ-инфраструктуры - это космос.

На Земле системы ограничены охлаждением и энергопотреблением: из 2-тонной стойки с GPU почти 1.95 тонны - это масса радиаторов и системы охлаждения.

В космосе всё иначе: постоянная солнечная энергия 24/7, не нужны батареи, а отвод тепла намного проще.

Идея - перенести крупные ИИ-центры туда, где инфраструктура может быть значительно эффективнее.
Forwarded from Machinelearning
Media is too big
VIEW IN TELEGRAM
✔️ ИИ-система Locus превзошла экспертов в научных исследованиях.

Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.

В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.

Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai

✔️ OpenAI открыла доступ к групповым чатам с ChatGPT для всех.

Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.

ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.

Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com

✔️ Salesforce анонсировала инструменты для контроля за ИИ-агентами.

Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.

Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com

✔️ Hugging Face AnyLanguageModel: универсальная библиотека для экосистемы Apple.

Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.

AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co

✔️ Stability AI и Warner Music Group займутся разработкой моделей для музыкальной индустрии.

Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.

В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.

Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai

@ai_machinelearning_big_data

#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
OpenAI, Harvard, Oxford и другие крупные университеты опубликовали работу, в которой показано, что GPT-5 уже помогает исследователям в реальных научных задачах — в математике, физике, биологии и других областях.

В нескольких проектах GPT-5 участвовал в доказательстве четырёх новых математических результатов и проверял сложные шаги, которые затем полностью верифицировали учёные.

Модель начала приносить пользу и в решении новых исследовательских проблем.
Авторы провели серию небольших кейсов, где специалисты подключали GPT-5 к реальной работе в математике, физике, астрономии, биологии, материаловедении и компьютерных науках.

GPT-5 предлагал исследовательские идеи, заполнял пропущенные шаги в доказательствах, писал и отлаживал код, искал литературу и указывал на логические пробелы.

Среди примеров — уточнение правила выбора шага в методе оптимизации, поиск скрытых симметрий в уравнениях чёрных дыр и интерпретация необычных результатов экспериментов с иммунными клетками.

При этом GPT-5 хорошо справляется с пошаговым рассуждением и быстрым перебором вариантов, но всё ещё делает ошибки и не способен надёжно оценивать корректность результатов.

В целом, авторы описывают GPT-5 как «сильного младшего исследователя», который экономит время экспертов, тогда как люди продолжают задавать направление работы и тщательно проверяют ключевые этапы.

Paper: arxiv.org/abs/2511.16072
⚡️ Google начинает масштабный сдвиг в ИИ

Google сейчас переворачивает рынок ИИ благодаря тому, что контролирует самые крупные каналы дистрибуции: Поиск, Android и Workspace.

Они могут встроить Gemini напрямую в продукты, которыми пользуются миллиарды людей - с практически нулевой себестоимостью распространения.

По данным использования:
→ Gemini-приложение уже около 650 млн MAU
→ ChatGPT всё ещё впереди — примерно 800 млн weekly actives

Экономика тоже играет на стороне Google:
→ Собственные TPU-кластеры позволяют обходиться без наценки NVIDIA
→ Себестоимость токена (и обучения, и инференса) для них существенно ниже

Стратегически это означает важный момент:
Подход Сэма Альтмана - «ставка на суперразум» и удвоение усилий на фронтирных возможностях - единственный путь конкурировать с Google.
Потому что на цене, масштабах и каналах доставки OpenAI просто не сможет тягаться.

https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
🌟 Google пытается выиграть гонку ИИ не скоростью чипов, а ценой вычислений.

У Nvidia высокая маржа при продаже GPU облакам, поэтому конечные цены получаются дорогими.
Google создаёт TPU почти по себестоимости, не добавляет наценку и может значительно снижать стоимость вычислений в своём облаке.

Так работает полная вертикальная интеграция. Один владелец контролирует весь путь от чипов до сети и облачного уровня, что позволяет гибко управлять ценами.

Главная часть расходов в ИИ - это не обучение моделей, а инференс. Когда модель уже развёрнута, почти весь бюджет уходит на генерацию токенов. В этой ситуации важна не максимальная скорость, а минимальная стоимость токена.

Стратегия Google заключается в постоянном снижении стоимости токена на TPU и передаче этой экономии клиентам через более низкие облачные цены.

Если подход Google сработает, компании начнут выбирать решения по цене, стабильности и доступности вычислений, а не только по скорости.

Nvidia останется ведущим игроком в обучении самых больших моделей. Но её способность поддерживать высокую маржу может уменьшиться, если значительная доля инференса перейдёт на более доступные по цене TPU.

Отдельное преимущество Google создаёт собственная экосистема. Поисковая система, YouTube, Android и Workspace способны полностью загружать TPU-мощности и обеспечивать стабильный внутренний спрос.

https://x.com/KrisPatel99/status/1993259550544191645