Машинное обучение digest – Telegram
Машинное обучение digest
40 subscribers
1.29K photos
181 videos
645 links
Download Telegram
⚡️ Nano Banana Pro в LMArena.

Еще одно место, где можно бесплатно попробовать топовую модель.

LMArena добавила в список моделей Nano Banana Pro, у них она называется gemini-3-pro-image-review(nano-banana-pro) .

Выбор модели доступен в режимах Direct Chat (генерация на одной выбранной модели) и Side-by-Side (генерация на 2-х выбранных моделях для сравнения результата).

Поддерживается как text-to-image, так и загрузка рефересных картинок.

Единственный минус - нет выбора разрешения (1К, 2K или 4K) и соотношения сторон.

Про лимиты на количество запусков информации нет, запускайте, пока запускается.

🔜 Пробуем лучшую модель тут

@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
Джеффри Хинтон сообщил Берни Сандерсу, что ИИ может привести к массовой безработице и социальной нестабильности.

Он предупреждает: стремительное развитие ИИ способно не просто изменить работу, а заменить огромные её сегменты. Это может усилить неравенство, когда выгоду получат немногие, а многие потеряют стабильную и значимую занятость.

Если общество не подготовится заранее, такая динамика может дестабилизировать страну и вызвать серьёзные социальные потрясения.

https://www.businessinsider.com/godfather-ai-geoffrey-hinton-warns-not-ready-for-whats-coming-2025-11
🌟 LLM Council: на ваши запросы отвечает совет из языковых моделей.

Андрей Карпаты опять выходит на связь опубликовал очередной vibecode проект.

Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».

LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.

Более подробно процесс выглядит так:

🟢Этап 1: Сбор мнений. 
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.

🟢Этап 2: Рецензирование. 
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.

🟢Этап 3: Итоговый ответ. 
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.


⚠️ Для использования нужен API-ключ OpenRouter. На платформе есть бесплатные модели


🖥Github


@ai_machinelearning_big_data

#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👑 Gemini 3 Pro теперь лидирует в IQ-тестах, набрав внушительные 130 баллов, опережая все прочие LLM!

По шкале IQ такой результат помещает её в число примерно 2% людей с наивысшим интеллектом среди всех, кто когда-либо проходил подобные тесты.

А в тесте норвежского отделения Mensa модель показала эквивалент 142 баллов IQ, что соответствует уровню лишь 0,3% самых интеллектуальных людей на планете.

@ai_machinelearning_big_data

#Gemini #google
This media is not supported in your browser
VIEW IN TELEGRAM
📡 Amazon Leo: новый конкурент Starlink

Amazon представил первый рабочий образец своей новой спутниковой антенны - Amazon Leo Ultra - и открыл *ограниченный доступ* для корпоративных клиентов.

— до 1 Гбит/с на скачивание
— до 400 Мбит/с на загрузку
— работает на собственном чипе Leo Silicon

Проект Kuiper теперь называется Amazon Leo. Компания строит сеть из 3000+ спутников на низкой орбите для быстрого широкополосного интернета.

Антенна использует **фазированную решётку** - она электронно направляет луч и отслеживает спутники без моторов, сохраняя связь даже при вибрациях и дожде.

Но Amazon сильно отстаёт от Starlink:
— Starlink уже имеет 9000+ спутников,
— у Amazon — менее 200, хотя запуски продолжаются.

Важно: высокая скорость на бумаге работает только при плотной сети, хорошем спектре и мощной наземной инфраструктуре.

Amazon делает серьёзный шаг, но догнать Starlink будет очень сложно.

https://www.aboutamazon.com/news/amazon-leo/amazon-leo-satellite-internet-ultra-pro

@ai_machinelearning_big_data


#AmazonLeo #ProjectKuiper #SatelliteInternet #LEO #Amazon
⚡️ OpenAI, Anthropic и Google только что получили доступ к петабайтам закрытых экспериментальных данных. Эти данные десятилетиями копили 17 Национальных лабораторий США.

И речь уже не про «улучшение чатботов». Новая государственная программа США — Genesis Mission - официально строит автономных научных агентов.

Они называют это «закрытым научным контуром» (Closed-Loop discovery), и это меняет саму физику изобретений. Не человек использует инструменты — система работает полностью автономно.

Схема, описанная в дорожной карте DOE, выглядит как научная фантастика:

• AI проектирует: смотрит на массивы данных и формирует гипотезу вроде «если смешать эти сплавы при 4000°C - получится сверхпроводник».

• Он отправляет инструкции в роботизированную лабораторию (которую строит DOE), чтобы физически смешать материалы.

• Робот мгновенно возвращает результаты. Если эксперимент провален - AI корректирует формулу.

• Такой цикл прогоняется тысячами итераций, без пауз, 24/7.

Genesis Mission - это попытка впервые в истории построить систему, где наука создаёт саму себя. Без человека в центре.
✔️ Anthropic проанализировала 100 000 реальных диалогов с Claude - и цифры впечатляют.

Задачи, которые у людей занимают около 90 минут и стоят примерно $55 труда, Claude выполняет на 80% быстрее человека.

У большинства пользователей экономия времени - в диапазоне 50–95%.

Вот самые впечатляющие цифры экономии времени:

• Преподаватели и методисты - до 96% быстрее при подготовке программ и учебных материалов
• Библиотекари - до 93%, когда нужно составлять подборки, списки источников и справки
• Научные ассистенты - 91%
• Секретари и администраторы - 87%, подготовка писем, документов, отчётов
• Преподаватели аграрных наук - 83%, создание методичек и рекомендаций
• Финансовые аналитики - 80%, интерпретация данных, рисков, экономических трендов
• Консультанты по образованию и карьере -75%, подготовка справочных материалов и рекомендаций

Это одно из самых масштабных эмпирических измерений влияния генеративного ИИ - и оно показывает, что выгода есть, но зависит от контекста и задач.

Полное исследование: https://www.anthropic.com/research/estimating-productivity-gains

@ai_machinelearning_big_data

#AI #Anthropic
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
🔥 Главное из нового интервью Ильи Суцквера (25 ноября 2025, Dwarkesh Podcast)

Самые интересные цитаты:

1. Масштабирование кончилось
> «Current scaling approaches will go some distance and then peter out»

2. Суперинтеллект уже на горизонте
> «Superintelligence in 5 to 20 years. You know what’s crazy? That all of this is real»

3. Главная проблема генерализация
> «A teenager learns to drive in 10 hours. Our best models still can’t after billions of examples»

4. RL стал самым дорогим и самым бесполезным этапом
> «Reinforcement learning already takes more compute than pre-training and gives almost nothing in return»

5. Дальше только исследования
> «We are squarely in the age of research, but this time with powerful computers»

6. У ИИ пока нет настоящих «эмоций»
> «Value functions are basically emotions. Without them alignment will stay fragile»

7. Цитата, которую уже растащили все сми
> «The gap between benchmark scores and real-world performance is getting embarrassing»

8. Про свою компанию SSI
> «We have no products, no distractions. Just safe superintelligence»

Главный вопрос он ставит так:
Какой супер-интеллект мы создадим -
«15-летнего гениального подростка, который жадно учится или «что-то уже полностью готовое и законченное. »



Полное интервью: https://www.youtube.com/watch?v=aR20FWCCjAs
🖥 OpenAI завершила работу над первыми прототипами собственного устройства с искусственным интеллектом созданного совместно с Джони Айвом

Согласно данным CNBC компания собирается выпустить готовый продукт в течение примерно двух лет.
Замысел состоит в создании спокойного всегда активного помощника который станет чем то средним между пользователем и шумным миром смартфонов.

Роль Айва в этом проекте огромна .
Ему нужно превратить большие языковые модели OpenAI в вещь которую человек действительно захочет носить или держать при себе.

Именно Айв придумывает форму материалы и способ взаимодействия так же как он однажды определил эстетику и характер эпохи iPhone

Сэм Альтман постоянно говорит о необходимости нового опыта .

Устройство должно брать на себя долгие процессы помнить контекст фильтровать лишние уведомления и позволять общаться с помощником который знает историю действий человека.
Идея состоит в том что человек перестает прыгать по десяткам приложений и просто разговаривает с агентом который понимает его ситуацию.

Есть и более тревожный но важный аспект.

Разработчики говорят что устройство может знать практически все что человек когда либо читал говорил или обдумывал.

Это намекает на глубокую интеграцию со всеми сообщениями документами голосовыми журналами и возможно постоянным аудио потоком который индексируется единым модельным ядром.

На уровне экосистемы OpenAI объединяет эту идею пользовательского устройства с производственной инфраструктурой Foxconn.
Foxconn помогает проектировать и создавать стойки сетевое оборудование системы охлаждения и питания на американских объектах.
Тем самым OpenAI получает и умное устройство у пользователя и тяжелую серверную инфраструктуру под своим контролем.

Такое сочетание уже создает давление на Apple
iPhone и Siri по прежнему опираются на старую модель ассистентов и ограничены прежними концепциями.

В то время как OpenAI пытается создать новый основной объект персональных вычислений где сама языковая модель является центром всех взаимодействий.

cnbc.com/2025/11/24/openai-hardware-jony-ive-sam-altman-emerson-collective.html

@ai_machinelearning_big_data

#chatgpt #opanai
Please open Telegram to view this post
VIEW IN TELEGRAM
📊 Google стала главным двигателем роста S&P 500 в 2025 году

Alphabet в одиночку дала 19.4% всего роста S&P 500, это около $1.3 трлн рыночной капитализации.

Nvidia добавила 16.0% еще $1.05 трлн, индекс теперь почти напрямую следует за AI гигантами.

Broadcom и Microsoft внесли 7.8% и 5.7%, а остальные компании из топ 10 еще 10.6%.

Итог: топ 10 компаний показывают 59.4% всего роста рынка тогда как остальные 490 лишь 40.6%.

S&P 500 все меньше отражает состояние экономики и все больше коррелирует с узким сегментом крупнейших AI корпораций.

https://x.com/KobeissiLetter/status/1993359777062436902

@ai_machinelearning_big_data
⚡️ Математический roadmap для ML специалистов: от линала до теорвера

Это подробный гайд по математическому фундаменту, необходимому для понимания работы алгоритмов «под капотом». Материал полезен тем, кто хочет углубиться в теорию дальше вызова .fit() в scikit-learn.

Ключевые поинты:

* Структура: Roadmap базируется на трех дисциплинах:
1. Linear Algebra: Язык описания данных и моделей (векторы, матрицы, тензоры).
2. Calculus: Инструментарий для обучения и оптимизации (производные, градиенты).
3. Probability Theory: Фреймворк для оценки неопределенности.

Подход: Автор делает упор на интуицию, а не на заучивание формул.

Гайд связывает абстрактную математику с конкретными ML-задачами - от понимания того, как работает Backpropagation и SGD, до причин взрыва градиентов и выбора функции потерь.

🔗 Читать полную версию: https://thepalindrome.org/p/the-roadmap-of-mathematics-for-machine-learning
🔗 Мат база на русском: https://stepik.org/course/226596/info
Please open Telegram to view this post
VIEW IN TELEGRAM
⚡️ Anthropic оценила влияние ассистентов на темпы роста производительности

Anthropic проанализировала 100 тыс. анонимизированных диалогов с Claude, чтобы оценить, как модели влияют на фактическое время выполнения задач.

Ключевые результаты:
- Оценка даёт потенциальный рост производительности в 1.8% ежегодно - примерно вдвое выше недавних темпов в США.
- Метод основан не на лабораторных тестах, а на сравнении: сколько заняла бы задача у специалиста vs как быстро её закончили в чате.
- Медианная экономия времени - 80% на задачу.
- Максимальные выигрыши — у высокооплачиваемых ролей: разработчики, юристы, менеджеры.
- Сложные задачи, которые обычно занимают ~2 часа, сокращаются сильнее всего.
- Работы с низкой оплатой (логистика, обслуживание, приготовление еды) дают минимальное ускорение.
- Валидация через реальные JIRA-тasks показала корреляцию оценки длительности 0.44, что близко к 0.50 у разработчиков-людей.

Ограничения:
- Измеряется только время в чате.
- Не учитывается "integration tax" — проверка, исправление и перенос результата в рабочие pipeline'ы.
- Реальный эффект на производительность может быть заметно ниже.

📎 Исследование: https://www.anthropic.com/research/estimating-productivity-gains
🚀 DeepSeek Вернулись

Компания выпустила DeepSeek Math V2 - мощную модель для самопроверяемых математических рассуждений.

Модель способна не просто решать задачи, а самостоятельно проверять корректность своих доказательств.

Это шаг от генерации ответа к глубокому, надёжному и логически выверенному выводу.

📊 Результаты:
- уровень золотой медали на IMO 2025
- почти идеальные результаты на CMO 2024
- 118 из 120 баллов на Putnam 2024

🔍 Главное отличие от предыдущих моделей:
ИИ учится *мыслить строго*, пошагово формируя доказательство и сам проверяет логическую связность каждого шага.

Модель остаётся компактной и может работать даже на одной GPU, без мощной инфраструктуры. Подходит как для автоматизированного решения задач, так и для обучения, генерации разборов и проверки решений.

https://huggingface.co/deepseek-ai/DeepSeek-Math-V2

@ai_machinelearning_big_data

#AI #DeepSeek #Math #LLM #MachineLearning #OpenSource #
✔️ INTELLECT-3 - новая мощная открытая модель от Prime Intellect

Prime Intellect выкатили INTELLECT-3 - 106B Mixture-of-Experts модель, обученнfz на GLM-4.5 Air Base с двумя этапами: SFT и масштабным RL-дообучением.

Это первая модель такого масштаба, где асинхронный RL - не эксперимент, а основа обучения. В результате модель демонстрирует сильный перформанс в математике, коде и reasoning.

Фокус модели - долгие цепочки действий и агентные задачи, а не просто генерация текста.

Главное:
- Модель показывает топ-результаты для своего размера в математике, коде и reasoning.
- Обучение шло на 512×H200 в течение ~2 месяцев.
- Использован собственный стек: PRIME-RL, Verifiers, Environments Hub и sandbox-инфра.
- Всё открыто: код, среды, инструменты.

🟠Technical Report: https://storage.googleapis.com/intellect-3-paper/INTELLECT_3_Technical_Report.pdf
🟠Hugging Face: https://huggingface.co/PrimeIntellect/INTELLECT-3
🟠PRIME-RL: https://github.com/PrimeIntellect-ai/prime-rl
🟠Verifiers: https://github.com/PrimeIntellect-ai/verifiers
🟠Environments Hub: https://hub.primeintellect.ai

@ai_machinelearning_big_data


#ai #intellect3 #primeintellect #glm45
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Машинное обучение главные новости.

✔️ Метаданные пользователей OpenAI API утекли через сервис Mixpanel.

OpenAI раскрыла детали инцидента безопасности, произошедшего на стороне подрядчика — платформы аналитики Mixpanel. Злоумышленники получили доступ к системам вендора и экспортировали метаданные пользователей, работающих с API. В утечку попали имена, адреса электронной почты, User ID, ID организаций, сведения об используемых браузерах и ОС, а также примерная геолокация.

OpenAI говорит, что критически важные данные остались в безопасности: пароли, сами API-ключи, платежная информация и промпты не скомпрометированы. Пользователей ChatGPT инцидент также не затронул. В ответ на нарушение периметра безопасности OpenAI отключила Mixpanel от своих продуктов и полностью прекратила сотрудничество.
openai.com

✔️ Китайский бигтех переносит обучение ИИ за границу.

Alibaba и ByteDance начали массово переводить обучение LLM в Юго-Восточную Азию. Цель миграции в Сингапур и Малайзию — получить легальный доступ к ускорителям Nvidia, прямые поставки которых в КНР заблокированы. Арена мощностей у зарубежных ЦОД формально не нарушает санкционный режим. Этот обходной путь стал безопасным после того, как администрация США отменила «правило распространения».

Исключением остается DeepSeek, который продолжает тренировать модели внутри Китая, используя запасы карт Nvidia и сотрудничая с инженерами Huawei. В индустрии формируется гибридная архитектура: обучение выносится на зарубежные кластеры, а инференс все чаще переводится на локальные китайские чипы.
ft.com

✔️ Alibaba представила умные очки Quark.

Китайский техногигант запустил продажи смарт-очков Quark. Устройство, внешне неотличимое от стандартной оправы, работает под управлением модели Qwen. Стартовая цена гаджета составляет около $268.

Инженеры сделали ставку на автономность и интеграцию с экосистемой: девайс оснащен сменными аккумуляторами, двойной оптикой и системой профессиональной съемки. Очки глубоко связаны с сервисами компании — пользователи могут использовать визуальный ассистент для мгновенного перевода, оплаты через Alipay и распознавания товаров для поиска цен на Taobao.
reuters.com

✔️ Apple создает альтернативу диффузионным нейросетям.

Apple опубликовала работу, предлагающую новый подход к генерации видео, способный потеснить диффузионные модели. Система STARFlow-V построена на архитектуре потоковой нормализации и обучается как единая модель для работы с текстом, картинками и видео.

В отличие от диффузии, требующей множества итераций для денойза, STARFlow-V использует однократное обратимое отображение и строгую причинно-следственную логику. Глобальный блок модели работает авторегрессионно: генерация каждого нового латента зависит исключительно от предыдущих данных.

Для оптимизации скорости вычислений применяется параллельные обновления Якоби, что дает качество уровня SOTA при более высокой стабильности генерации.
starflow-v.github.io

✔️ AdvancedIF: жёсткий бенчмарк проверки LLM на следование сложным инструкциям.

Лаборатория Марка Цукерберга разработала AdvancedIF - инструмент для выявления реальных пределов LLM в выполнении директив. Бенчмарк фокусируется на сценариях с высокой когнитивной нагрузкой: набор данных включает более 1600 промптов, каждый из которых содержит 6 одновременных условий: от требований к формату и стилю до негативных ограничений и перекрестных логических зависимостей.

Помимо разовых запросов, AdvancedIF тестирует управляемость моделей через системные промпты и способность удерживать контекст в сложных диалогах. В качестве арбитра используется o3-mini, которая сверяет ответы модели с критериями, разработанными экспертами-людьми. Инструментарий поддерживает пакетную обработку, а сам датасет можно найти на Hugging Face.
github.com
Please open Telegram to view this post
VIEW IN TELEGRAM