This media is not supported in your browser
VIEW IN TELEGRAM
💡Внедрение ИИ полностью меняет разработку кода — Т-Технологии представили свою экосистему AI for SDLC
Главное:
• уже 30% всего кода в компании генерирует ИИ. Это не пилот и не эксперимент — это рабочий масштаб
• команда запустила новый сценарий агентского режима — end-to-end генерацию кода. Агент сам понимает задачу, проходит весь цикл, работает со структурой репозитория, создает файлы, запускает утилиты и снимает рутину с инженера
• прогнозируется сокращение time-to-market на 20–40%, а новые модели будут специально обучены под агентские сценарии
• на AIJ объявили, что открывается ранний доступ к агентскому режиму разработчиков
Внутри экосистемы:
•единая AI-архитектура, которая покрывает все этапы SDLC — от анализа и разработки до тестирования, внедрения и SR
•набор специализированных ИИ-решений: от AI Search и генерации SQL до анализа изменений MR, генерации тестов и мониторинга аномалий
•полноценная интеграция в VS Code
Благодаря такому внедрению ИИ в процессы, разработчик теперь фокусируется на важных этапах, а рутинную работу выполняют агенты.
@ai_machinelearning_big_data
#news #ai #ml
Главное:
• уже 30% всего кода в компании генерирует ИИ. Это не пилот и не эксперимент — это рабочий масштаб
• команда запустила новый сценарий агентского режима — end-to-end генерацию кода. Агент сам понимает задачу, проходит весь цикл, работает со структурой репозитория, создает файлы, запускает утилиты и снимает рутину с инженера
• прогнозируется сокращение time-to-market на 20–40%, а новые модели будут специально обучены под агентские сценарии
• на AIJ объявили, что открывается ранний доступ к агентскому режиму разработчиков
Внутри экосистемы:
•единая AI-архитектура, которая покрывает все этапы SDLC — от анализа и разработки до тестирования, внедрения и SR
•набор специализированных ИИ-решений: от AI Search и генерации SQL до анализа изменений MR, генерации тестов и мониторинга аномалий
•полноценная интеграция в VS Code
Благодаря такому внедрению ИИ в процессы, разработчик теперь фокусируется на важных этапах, а рутинную работу выполняют агенты.
@ai_machinelearning_big_data
#news #ai #ml
1🤣37🔥19❤15👏9👍4👌4🥰3🗿3🙈2
Главное, что действительно интересно:
• GPT-5 больше не просто пересказывает исследования
Модель выводит новые математические формулы, находит новые сложные теоремы и улучшает их.
• GPT-5 работает с физиками над симметриями чёрных дыр - и делает это правильно
Структуры SL(2,R) в искривлённом пространстве-времени - это не автокомплит. Это настоящая работа с абстракциями.
• GPT-5 находит редкие научные источники, которые человек бы не увидел
Старые доказательства, спрятанные в малоизвестных журналах, модель откапывает буквально за минуты.
• GPT-5 предлагает новые биологические механизмы на основе “сырых” данных
И самое удивительное - эти механизмы совпадают с результатами экспериментов, которые ещё не были опубликованы.
• GPT-5 формирует предложения экспериментов, которые тянут на уровень соавтора
Это уже не просто инструмент учёного. Это новая часть научного процесса.
Что всё это означает:
• Стоимость научного открытия стремительно падает
• Узкие экспертные bottleneck’и распадаются
• Команды “человек + ИИ” скоро смогут работать быстрее целых научных направлений
• Мы переходим от “ИИ помогает” → к “ИИ реально ускоряет науку”
Впервые ИИ способен сжимать весь научный цикл - от идеи до результата - и делать это внятно, проверяемо и воспроизводимо.
Если вы спрашиваете, как выглядит начало технологической Сингулярности -
скорее всего, это очень похоже именно на то, что показано в этой работе.
Подробности: https://openai.com/index/accelerating-science-gpt-5/
@ai_machinelearning_big_data
#openai #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
👍80😁43❤23🔥10❤🔥3🦄3🥰2👏1🤨1🤓1
Forwarded from Анализ данных (Data analysis)
Media is too big
VIEW IN TELEGRAM
Построенная на архитектуре DiT, модель поднимает планку по качеству и доступности.
Что важно:
⚡️ Всего 8.3B параметров - модель можно запускать даже на потребительских GPU с 14GB VRAM
🖥️ Качество: генерирует 5–10 секунд видео в 480p/720p, а через суперразрешение —ё- до 1080p с киношной детализацией
SOTA-качество с очень низкими требованиями к железу.
@data_analysis_ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍41❤15🔥3🥰2🦄2☃1
🚀 Облачный провайдер Cloud.ru запустил среду для работы с искусственным интеллектом Evolution AI Factory в коммерческую эксплуатацию
Теперь все сервисы предоставляются по доступным тарифам с гарантированным уровнем сервиса (SLA), круглосуточной поддержкой и возможностью масштабирования нагрузки.
🔥 Главное
• Средняя цена на доступ к открытым большим языковым моделям составит 35 рублей за входной и 70 за выходной миллион токенов.
• Пользователям Evolution AI Factory доступно 20+ опенсорс-моделей, включая GigaChat, Qwen, ChatGPT.
• AI Factory состоит из шести взаимосвязанных сервисов, необходимых для полного цикла работы с AI. Это сервис ML Inference, который позволяет быстро развернуть и модели из каталога Hugging Face или собственные модели. Также: Evolution Notebooks для работы и экспериментов с машинным обучением, запуска и тестирования ML-гипотез, ML Finetunung — для дообучения моделей под задачи бизнеса, RAG для повышения точности ответов моделей, Foundation Models с популярными LLM и AI Agents для создания агентов.
С запуском Evolution AI Factory компании получают не просто доступ к современным AI-инструментам, а возможность быстрее и понятнее превращать свои идеи в рабочие решения.
Теперь все сервисы предоставляются по доступным тарифам с гарантированным уровнем сервиса (SLA), круглосуточной поддержкой и возможностью масштабирования нагрузки.
🔥 Главное
• Средняя цена на доступ к открытым большим языковым моделям составит 35 рублей за входной и 70 за выходной миллион токенов.
• Пользователям Evolution AI Factory доступно 20+ опенсорс-моделей, включая GigaChat, Qwen, ChatGPT.
• AI Factory состоит из шести взаимосвязанных сервисов, необходимых для полного цикла работы с AI. Это сервис ML Inference, который позволяет быстро развернуть и модели из каталога Hugging Face или собственные модели. Также: Evolution Notebooks для работы и экспериментов с машинным обучением, запуска и тестирования ML-гипотез, ML Finetunung — для дообучения моделей под задачи бизнеса, RAG для повышения точности ответов моделей, Foundation Models с популярными LLM и AI Agents для создания агентов.
С запуском Evolution AI Factory компании получают не просто доступ к современным AI-инструментам, а возможность быстрее и понятнее превращать свои идеи в рабочие решения.
❤28👍21🤣11🦄7🥰4
Forwarded from Machine learning Interview
🤖 AITradeGame - Симулятор торговли с ИИ
AITradeGame - это открытый симулятор торговли, который позволяет пользователям тестировать стратегии с использованием ИИ. Доступны как локальная версия с полной конфиденциальностью, так и онлайн-версия с интерактивными функциями и таблицами лидеров.
🚀Основные моменты:
- Поддержка различных ИИ моделей, включая OpenAI и Claude.
- Локальное хранилище данных без облачного отслеживания.
- Интерактивные таблицы лидеров для соревнований с другими пользователями.
- Удобный интерфейс и возможность настройки торговых параметров.
📌 GitHub: https://github.com/chadyi/AITradeGame
AITradeGame - это открытый симулятор торговли, который позволяет пользователям тестировать стратегии с использованием ИИ. Доступны как локальная версия с полной конфиденциальностью, так и онлайн-версия с интерактивными функциями и таблицами лидеров.
🚀Основные моменты:
- Поддержка различных ИИ моделей, включая OpenAI и Claude.
- Локальное хранилище данных без облачного отслеживания.
- Интерактивные таблицы лидеров для соревнований с другими пользователями.
- Удобный интерфейс и возможность настройки торговых параметров.
📌 GitHub: https://github.com/chadyi/AITradeGame
🔥32❤13👍11👀6
Media is too big
VIEW IN TELEGRAM
GPT-5 Pro смогла решить задачу о симметрии чёрной дыры, с которой не справились даже те, кто придумал эту задачу.
После короткого «разогрева» модель вывела правильную структуру симметрий - и физик, наблюдавший за процессом, был в шоке.
Он понял, что ИИ показывает уровень понимания, который раньше даже трудно было представить:
модель не угадывала, не перебирала случайно, а пришла к решению так, как это сделал бы специалист по теории гравитации.
Когда ИИ решает задачу, над которой мучаются эксперты - это не просто прогресс в моделях.
Это момент, когда становится ясно: научные границы начинают реально сдвигаться.
@ai_machinelearning_big_data
#chatgpt #ai
После короткого «разогрева» модель вывела правильную структуру симметрий - и физик, наблюдавший за процессом, был в шоке.
Он понял, что ИИ показывает уровень понимания, который раньше даже трудно было представить:
модель не угадывала, не перебирала случайно, а пришла к решению так, как это сделал бы специалист по теории гравитации.
Когда ИИ решает задачу, над которой мучаются эксперты - это не просто прогресс в моделях.
Это момент, когда становится ясно: научные границы начинают реально сдвигаться.
@ai_machinelearning_big_data
#chatgpt #ai
❤108🔥54👍24🥱14😁7🦄2🆒1
⚡️Сбер представил новую систему синтеза речи для ГигаЧата — в одной модели используются сразу несколько разных уникальных голосов под разные задачи
Обновление позволяет генерировать речь в различных манерах — от естественного Freespeech для общения до подкастного формата, интонаций операторов и традиционного дикторского стиля. Звучание стало более органичным и приближенным к человеческому.
Что умеет новый синтез:
- для разных кейсов применения синтеза сделаны отдельные голоса
воспроизводит паузы, смысловые акценты и эмоциональную окраску
- построен на собственной разработке: GigaChat 3b как основа, специализированный токенизатор и адаптер к LLM
- умеет озвучивать тексты бесконечной длины с учетом контекста, а также клонировать голоса
- внутренние замеры демонстрируют прогресс в качестве и натуральности звука
Зачем это нужно:
- помогает создавать более органичные голосовые интерфейсы
- оптимален для разговорных ассистентов, озвучки подкастов или аудиокниг, а также в автоматизированных колл-центрах
Основные преимущества:
- есть возможность выбора голоса, которые подходят под разные задачи
- управление стилистикой и эмоциями на естественном языке
- самый живой синтез речи, ни у Алисы, ни у OpenAI ничего похожего нет
Новый синтез уже доступен в Voice Mode Гигачата.
@ai_machinelearning_big_data
#ai #ml #speech #llm
Обновление позволяет генерировать речь в различных манерах — от естественного Freespeech для общения до подкастного формата, интонаций операторов и традиционного дикторского стиля. Звучание стало более органичным и приближенным к человеческому.
Что умеет новый синтез:
- для разных кейсов применения синтеза сделаны отдельные голоса
воспроизводит паузы, смысловые акценты и эмоциональную окраску
- построен на собственной разработке: GigaChat 3b как основа, специализированный токенизатор и адаптер к LLM
- умеет озвучивать тексты бесконечной длины с учетом контекста, а также клонировать голоса
- внутренние замеры демонстрируют прогресс в качестве и натуральности звука
Зачем это нужно:
- помогает создавать более органичные голосовые интерфейсы
- оптимален для разговорных ассистентов, озвучки подкастов или аудиокниг, а также в автоматизированных колл-центрах
Основные преимущества:
- есть возможность выбора голоса, которые подходят под разные задачи
- управление стилистикой и эмоциями на естественном языке
- самый живой синтез речи, ни у Алисы, ни у OpenAI ничего похожего нет
Новый синтез уже доступен в Voice Mode Гигачата.
@ai_machinelearning_big_data
#ai #ml #speech #llm
Хабр
Наш новый LLM-based синтез речи
Всем привет! Я Гриша Стерлинг, лид команды TTS в Сбере. Мы сделали новый синтез речи, он на голову выше старого, особенно по естественности и человечности. Мы так и называем его – «новый синтез», или...
❤47👍22😁15🔥9🥱4🦄4❤🔥1🗿1
This media is not supported in your browser
VIEW IN TELEGRAM
Илон Маск на форуме U.S.– Saudi Investment Forum заявил, что через 10–20 лет работа может стать делом выбора.
По его мнению, тотальная автоматизация и распространение роботов приведут к миру, где дефицита больше нет, а деньги перестанут играть ключевую роль.
Понятно, что вопрос стоит не в том, наступит ли эпоха полной автоматизации, а в том, сколько времени на это уйдёт.
https://fortune.com/2025/11/20/elon-musk-tesla-ai-work-optional-money-irrelevant/
@ai_machinelearning_big_data
#ai #future #elonmusk
Please open Telegram to view this post
VIEW IN TELEGRAM
🤣159❤54👍25🔥18🤔11🙉5🙏4🦄4✍2🕊2
Media is too big
VIEW IN TELEGRAM
Лаборатория Intology представила новую итерацию своего ИИ-ученого — систему Locus. Главным достижением стал результат на бенчмарке RE-Bench, где Locus обошел команду людей-экспертов, набрав 1.30 балла против человеческих 1.27.
В отличие от агентов, которые упираются в потолок производительности уже через пару часов работы, Locus способен поддерживать прогресс на протяжении нескольких дней. Система использует параллелизацию для одновременного запуска тысяч экспериментов, что позволяет ей решать задачи, требующие глубокого погружения и долгосрочного планирования.
Помимо исследований, Locus показала высокие результаты в оптимизации. В тесте KernelBench она добилась ускорения операций LayerNorm до 100 раз, применив сложные техники асинхронного копирования вместо простого перебора.
intology.ai
Компания развернула функцию коллективных обсуждений на всех тарифных планах, от Free до Pro. В новой функции пользователи могут создавать треды вместимостью до 20 человек, где нейросеть выступает полноценным участником разговора. Доступ открывается через инвайт-ссылки.
ChatGPT анализирует ход разговора и вступает в диалог либо при прямом упоминании, либо когда алгоритм сочтет вмешательство уместным. Тарификация за генерацию ответов ложится на того пользователя, чей запрос или действие активировали модель в данный момент.
Групповые чаты, по словам OpenAI, полностью изолированы. Бот не сохраняет данные в свою память и игнорирует персональные настройки участников, чтобы избежать утечки личного контекста в общий чат.
openai.com
Компания расширила функциональность платформы Agentforce 360, добавив средства мониторинга и отладки для ИИ-систем. Техническая база обновления включает продвинутую модель трейсинга сессий. Система теперь логирует полный контекст работы агента: пользовательские вводы, внутренние цепочки рассуждений, вызовы LLM и проверки безопасности.
Дополнительный слой управления обеспечивает MuleSoft Agent Fabric — хаб для оркестрации и аудита всех активных агентов в инфраструктуре. Это позволяет разработчикам получать метрики в реальном времени, анализировать паттерны и устранять ошибки до того, как они повлияют на продакшен.
salesforce.com
Инструмент, представленный ИИ-хабом, позиционируется как замена стандартного фреймворка Apple Foundation Models. Пакет унифицирует взаимодействие с нейросетями, позволяя разработчикам использовать единый API для работы с разными бэкендами. Библиотека поддерживает как нативный запуск локальных моделей (через Core ML, MLX, llama.cpp и Ollama), так и подключение к облачным провайдерам.
AnyLanguageModel решает проблему конфликта зависимостей за счет использования traits из Swift 6.1. Это дает строгую модульность: если проекту нужен только MLX-движок, библиотека не будет тянуть в сборку лишний код для других форматов. Сейчас решение находится в ранней стадии, но в планах заявлена поддержка вызова инструментов и протокола MCP.
huggingface.co
Stability AI и мейджор-лейбл объявили о партнерстве, цель которого — создание профессиональных инструментов для генерации аудио, безопасных с юридической точки зрения.
В отличие от существующих решений, новые модели будут обучаться исключительно на лицензионном контенте, что позволит артистам и продюсерам использовать результаты генерации в коммерческих треках без риска нарушения авторских прав.
Компании планируют привлекать к разработке самих музыкантов, чтобы софт решал реальные задачи, а не просто создавал случайные мелодии.
stability.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍54❤29🔥6🦄3🥰2🙈2
Всё сводится к трём ключевым идеям:
1) Использовать Transformer Engine подменяет стандартные блоки на оптимизированные версии: меньше памяти, быстрее матричные операции, поддержка FP8/FP4. Это сразу увеличивает скорость обучения и инференса.
2) Масштабировать обучение до миллиардов параметров
Через FSDP и гибридные режимы параллелизма можно разнести модель по нескольким GPU или узлам. И главное, конфигурация уже готова, не нужно собирать всё вручную.
3) Экономить память за счёт sequence packing
Обычно биологические последовательности сильно различаются в длине, и половина батча забита паддингами. Packing позволяет «сжимать» батч, убирая пустые токены, итог: выше скорость, меньше VRAM.
Писать CUDA-ядра вручную никто не хочет. BioNeMo Recipes позволяют использовать привычный стек PyTorch + HuggingFace, но при этом получать производительность уровня «больших» фреймворков.
https://developer.nvidia.com/blog/scale-biology-transformer-models-with-pytorch-and-nvidia-bionemo-recipes/
@ai_machinelearning_big_data
#NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👌36❤20👍15🔥4🦄3❤🔥1👏1
Еще одно место, где можно бесплатно попробовать топовую модель.
LMArena добавила в список моделей Nano Banana Pro, у них она называется
gemini-3-pro-image-review(nano-banana-pro) .Выбор модели доступен в режимах Direct Chat (генерация на одной выбранной модели) и Side-by-Side (генерация на 2-х выбранных моделях для сравнения результата).
Поддерживается как text-to-image, так и загрузка рефересных картинок.
Единственный минус - нет выбора разрешения (1К, 2K или 4K) и соотношения сторон.
Про лимиты на количество запусков информации нет, запускайте, пока запускается.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍50❤22🥰7🦄6
Miles - фреймворк для RL-обучения от команды LMSYS ORG, ориентированный на энтерпрайз-уровень.
Если вы следите за опенсорс разработками, вы наверняка слышали о предшественнике этой системы, проекте slime. Это легкий инструмент, который используют во многих современных пайплайнов пост-трейна. На нем, кстати, запускали GLM-4.6.
Slime доказал, что легковесный дизайн работает, и Miles делает следующий шаг - масштабное обучение архитектур MoE и поддержка тяжелых промышленных нагрузок.
Miles предлагает то, что называют "True On-Policy". Раньше между тренировкой и инференсом часто возникало расхождение. Теперь же, благодаря инфраструктурному подходу, LMSYS добилась нулевой дивергенции. Это стало возможным благодаря использованию Flash Attention 3, библиотеки DeepGEMM и ядер от Thinking Machines Lab, работающих в связке с
torch.compile.Вторая особенность - в использовании спекулятивного декодирования. Обычно в RL черновая модель замораживается, что мешает ей следовать политике целевой модели. LMSYS добавили онлайн-обучение черновой модели.
Результаты на тестах положительные: ускорение генерации более чем на 25%, особенно на поздних стадиях обучения.
Для энтерпрайза память - это деньги. В Miles включили механизмы, предотвращающие падение системы при некритичных ошибках OOM и исправили чрезмерное потребление памяти в FSDP.
В дорожной карте проекта обещают поддержку мультимодального обучения, совместимость со SGLang v2 и расширенное спекулятивное декодирование.
@ai_machinelearning_big_data
#AI #ML #RL #Miles #LMSYS
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍94❤🔥12❤11🔥9🦄4💋1💘1
Андрей Карпаты
Его идея в том, что вместо того, чтобы задавать вопрос одной LLM, вы можете объединить их в «Совет моделей».
LLM Council - это простое локальное веб-приложение, с интерфейсом как у ChatGPT, но с той разницей, что запрос отправляется через Openrouter нескольким LLM. Полученные ответы перекрестно оцениваются и ранжируются, и, наконец, «модель-председатель совета» формирует окончательный ответ.
Более подробно процесс выглядит так:
Запрос отправляется всем моделям по отдельности, и их ответы собираются. Ответы каждой модели отображаются в отдельной вкладке, чтобы можно было их посмотреть вручную.
Каждая модель получает ответы других моделей. При этом идентификаторы анонимизированы, чтобы исключить «игру в любимчиков» при оценке чужих результатов. На этом этапе ответы ранжируются их по точности и глубине анализа.
Модель-председатель принимает все ответы моделей и компилирует их в единый окончательный ответ.
⚠️ Для использования нужен API-ключ OpenRouter.
@ai_machinelearning_big_data
#AI #ML #LLMCouncil #Github
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤70🔥34👍27🤣18🦄6🤨1
🚀 Яков и Партнёры вместе с Yandex B2B Tech выпустили отчёт о применении облачных технологий в бизнесе.
▶️ Облако реально увеличивает прибыль: почти половина компаний отмечает эффект свыше 3% EBITDA, а в цифровых отраслях — более 5%.
▶️ Расходы на облако растут: у половины организаций они уже превышают 5% ИТ-бюджета, а более 30% планируют их увеличить.
▶️ Российский рынок облаков пока умерен по инвестициям в сравнении с мировыми игроками, поэтому потенциал роста огромен.
▶️ Главный критерий выбора провайдера — качество технологий и сервисов, а не цена. Это признак зрелого рынка.
▶️ Гибридная модель становится стандартом: свыше 70% компаний используют одновременно public cloud и on-premises, PaaS и SaaS проникли к 65–66%.
▶️ PaaS — главный драйвер внедрения ИИ. Компании с развитым облаком быстрее запускают AI-проекты благодаря масштабируемым ресурсам.
Облако — критическая база для цифровой трансформации и ИИ. Бизнес всё осознаннее выбирает провайдера, рассматривая облако как фундамент стратегических технологий.
Облако — критическая база для цифровой трансформации и ИИ. Бизнес всё осознаннее выбирает провайдера, рассматривая облако как фундамент стратегических технологий.
Please open Telegram to view this post
VIEW IN TELEGRAM
yakovpartners.ru
Яков и Партнёры - Внедрение облачных технологий значимо увеличивает прибыль компаний
При этом существует высокая положительная корреляция между активным использованием облачных технологий и внедрением ИИ
❤23🤣10👍9🔥5🤬4☃2
The Information опубликовала внутреннее письмо Сэма Альтмана, и его тон сильно отличается от привычного оптимизма OpenAI.
CEO прямо предупреждает команду: впереди могут быть серьёзные вызовы.
1. Google сделал резкий рывок
Альтман признаёт, что Google заметно ускорился в области ИИ.
Теперь OpenAI - не компания с комфортным отрывом от конкурентов, а участник гонки, которому снова нужно догонять.
2. Рост OpenAI может существенно замедлиться
По данным источников, к 2026 году рост выручки может уменьшится в разы.
Для компании, которая только что росла взрывными темпами, это серьёзный сигнал.
3. Внутри OPENAI ощущается напряжение
Атмосферу описывают как *«rough vibes»*: меньше уверенности в своих силах, больше осторожности.
Команда впервые за долгое время чувствует давление и неопределённость.
Фаза бурного роста заканчивается, начинается период конкуренции и стратегической выносливости.
OpenAI остаётся сильнейшим игроком, но теперь марафон важнее спринта.
https://www.theinformation.com/articles/openai-ceo-braces-possible-economic-headwinds-catching-resurgent-google
@ai_machinelearning_big_data
#AI #OpenAI #Google #TechNews
Please open Telegram to view this post
VIEW IN TELEGRAM
👍71❤24🤣17🔥7🗿6😁2🦄2😢1