Generative Ai – Telegram
Generative Ai
3.63K subscribers
289 photos
117 videos
7 files
830 links
Анонсы интересных библиотек и принтов в сфере AI, Ml, CV для тех кто занимается DataScience, Generative Ai, LLM, LangChain, ChatGPT

По рекламе писать @miralinka,
Created by @life2film
Download Telegram
Forwarded from Machinelearning
🚀 Mistral AI представила Devstral — новый open-source LLM для автономных кодинг-агентов

Mistral AI представил Devstral — свою модель, специально разработанную для решения реальных задач в области кодинга.

Созданная в сотрудничестве с All Hands AI, Devstral демонстрирует выдающиеся результаты на бенчмарке SWE-Bench Verified, превзойдя все существующие open-source модели с результатом 46,8%.

💡Лицензирвоание: Apache 2.0 — свободное коммерческое использование.

https://huggingface.co/mistralai/Devstral-Small-2505

@ai_machinelearning_big_data

#Devstral #MistralAI #Кодинг #ИИ #OpenSource
2👍1🔥1
Forwarded from Machinelearning
This media is not supported in your browser
VIEW IN TELEGRAM
✔️ Google представила Gemma 3n — лёгкую и быструю AI-модель для работы на девайсах

Google выпустила Gemma 3n — это новая версия модели, которая запускается локально на мобильных устройствах.

Gemma 3n может работа локально на устройстве с 2 ГБ оперативной памяти!

➡️ Особенности:

• Работает в 1.5 раза быстрее, чем предыдущая Gemma 3 4B
• Поддерживает работу без интернета — всё локально и безопасно
• Умеет понимать текст, речь и изображения
• Можно использовать даже на устройствах с 2–3 ГБ RAM
• Поддерживает мгожетсво языков,

💡 Gemma 3n использует гибкую архитектуру (MatFormer), которая может "переключаться" между лёгким и полным режимом (2B и 4B параметров) — модель подстраивается под задачу, не перегружая устройство.

🔧 Как начать пользоваться:

• Через Google AI Studio — работает прямо в браузере
• Или через SDK Google AI Edge — интеграция на Android, Chromebook и другие устройства

📊 Где это применимо:

• Голосовые ассистенты
• Приложения с ИИ, которые работают без интернета
• Переводчики, чат-боты, анализ изображений на телефоне

➡️Релиз: https://developers.googleblog.com/en/introducing-gemma-3n/
➡️ Документация: https://ai.google.dev/gemma/docs/gemma-3n#parameters

#Gemma #Google #mobile #МультимодальныйИИ #МобильныйИИ #edgedevices
Please open Telegram to view this post
VIEW IN TELEGRAM
14👍3🔥2
Forwarded from Life2film
This media is not supported in your browser
VIEW IN TELEGRAM
Да мы все внутри матрицы.
Я добрался и буду сейчас мучать Veo3. Сделал ресерч (в комментах).

Вот с русским сходу очень хорошо работает.

Промпт -
Nighttime on an empty neon-lit city street after a light rain.
A young man in a dark trench coat stands under a flickering streetlight, looking around in confusion.
The camera is a steady handheld medium shot, slowly zooming in on his face. He looks at his hands, then stares at the sky with wide eyes.
He says in Russian: "Это всё нереально… мы просто чей-то промпт?"
Audio: distant thunder rumble, soft rain patter, and a low ominous hum. Cinematic lighting with a greenish tint, subtle glitch effect around the edges of the frame as if the world is glitching.


Кстати в https://editor.superduperai.co/ добавил тоже Veo3 но цены себестоимость около 3.75$ за ролик 8 сек.

Так-что, я сделаю на днях удобную страничку, и примеров промтов под тренды соберу, расскажу.
1
Forwarded from Machinelearning
🌟MiniMax-M1: открытя reasoning‑LLM с контекстом 1M

MiniMax-M1 — первая в мире open-weight гибридная reasoning‑LLM c 1M контекстом (8× DeepSeek R1) и гибридной архитектурой MoE + lightning attention.
• 456 млрд параметров (45,9 млрд активируются на токен), сверхэффективная генерация — 25% FLOPs DeepSeek R1 на 100K токенов
• Обучение через RL с новым алгоритмом CISPO, решающим реальные задачи от математики до кодинга
• На обучение было потрачено $534K, две версии — 40K/80K “thinking budget”
• Обходит DeepSeek R1 и Qwen3-235B на бенчмарках по математике и кодингу,
• Топ результат на задачах для software engineering и reasoning

Бенчмарки:
AIME 2024: 86.0 (M1-80K) vs 85.7 (Qwen3) vs 79.8 (DeepSeek R1)

SWE-bench Verified: 56.0 vs 34.4 (Qwen3)

OpenAI-MRCR (128k): 73.4 vs 27.7 (Qwen3)

TAU-bench (airline): 62.0 vs 34.7 (Qwen3)

LongBench-v2: 61.5 vs 50.1 (Qwen3)


Hugging Face: https://huggingface.co/collections/MiniMaxAI/minimax-m1-68502ad9634ec0eeac8cf094
GitHub: https://github.com/MiniMax-AI/MiniMax-M1
Tech Report: https://github.com/MiniMax-AI/MiniMax-M1/blob/main/MiniMax_M1_tech_report.pdf


@ai_machinelearning_big_data

#llm #reasoningmodels #minimaxm1
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🔥2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
(Сделайте потише динамики)

Google выкатил MagentaRT модельку для генерации музыки в реальном времени – я поигрался и прям залип; запускается она сейчас не очень удобно, но будет очень классно когда кто-то обернет это в простой интерфейс

Как в видео, модель может играть бесконечно, сама меняя рисунок композиции – ждем новый уровень музыки для лифтов / магазинов / кафе

Модель | Google Colab для запуска | Анонс
🔥2
Яндекс Погода научилась прогнозировать грозы и показывать молнии в реальном времени

У ML-команды Яндекса вышел новый разбор: рассказали, как решали задачу прогноза гроз с опорой на данные о молниях и выкатывали обновление в продакшен. Сейчас Погода предупреждает о грозе с шагом в 10 минут и показывает молнии на карте в реальном времени.

Что интересного сделали:

1. Дообучили рабочую модель без деградации качества
Когда добавляли новую модальность — прогноз гроз по архивным данным с грозопеленгаторов — заморозили веса блока осадков и обучали только новые компоненты. Это позволило сохранить точность осадков и не испортить ранее выстроенные зависимости.

2. Переосмыслили работу с редкими событиями для обучения
Вместо использования точек с координатами ударов молний модель предсказывает вероятность грозовой активности в ячейках сетки с шагом по времени в 10 минут. Это сглаживает хаотичность обучающих данных и повышает устойчивость модели.

3. Обновили архитектуру: PredRNN++ → Temporal Attention Unit
Отказались от авторегрессинной архитектуры в пользу трансформера с вниманием по времени. В итоге улучшилась точность прогноза и ускорился inference.

4. Настроили лоссы для сегментации границ
Для выделения областей с вероятностью возникновения гроз использовали комбинацию BCE, Dice и Contour Loss. Последняя функция улучшает качество предсказаний по границам туч

5. Объединил мультимодальные источники
Тут объединили данные с радаров, спутников и грозопеленгаторов с предварительной калибровкой и выравниванием → система стала устойчивее к шуму и пропускам в отдельных каналах.

Подводя итог: кейс будет интересен специалистам из ИБ, медицины, финтеха, RecSys и компьютерного зрения и всем, кто работает с редкими событиями, мультимодальными данными и дообучением моделей — есть что перенять по части инженерных решений. Покопать статью
3🤔1
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Gemini CLI — официальный агент для Gemini от Google

Использовать можно бесплатно просто залогинившись с аккаунтом Google — дают до 60 запросов в минуту к Gemini 2.5 Pro и до тысячи в день. Такой щедрости не проявляет ни Codex ни Claude Code. Есть поддержка MCP, которая позволяет подключать туда сторонние тулы. Гугл даже запилил MCP серверы для взаимодействия с Veo/Imagen/Lyria.

Доступен код по лицензии Apache 2.0, так что с ним можно делать всё что угодно. А вот в апстрим залить что-либо будет сильно сложнее — у гугла очень специфическая политика по поводу сторонних контрибьюторов.

npm install -g @google/gemini-cli


Блогпост
Исходники

@ai_newz
1👎21🔥1
Forwarded from Life2film
Посмотрел новое видео от Андрея Карпатого и решил поделиться саммари:

Три эпохи программирования:
* Software 1.0 — традиционный код, который мы пишем руками
* Software 2.0 — нейронные сети и их веса
* Software 3.0 — LLM, программируемые промптами на естественном языке

LLM = новые операционные системы
Карпатый проводит мощную аналогию: мы сейчас в "1960-х годах компьютеров" для ИИ. Дорогие вычисления заставляют держать LLM в облаке, а мы все — тонкие клиенты, работающие по принципу time-sharing.

Революция "Vibe Coding"
Теперь каждый может программировать! Не нужно 5-10 лет изучать языки программирования. Карпатый за день создал iOS приложение, не зная Swift. Естественный язык стал языком программирования.

Partial Autonomy Apps — будущее
Успешные ИИ-приложения имеют:
* Автоматическое управление контекстом
* Оркестрацию нескольких моделей
* Специализированный GUI для аудита
* Слайдер автономии (пользователь контролирует уровень ИИ)

Принципы работы с ИИ:
* ИИ генерирует → человек верифицирует
* Работать небольшими порциями
* Ускорять верификацию через визуальные интерфейсы
* Держать ИИ "на поводке" — не давать слишком много автономии

Почему это важно:
* Программное обеспечение не менялось 70 лет, а теперь меняется дважды за несколько лет
* Огромное количество кода нужно переписать
* Беспрецедентные возможности для новых разработчиков
* Мы в начале "десятилетия агентов"

💡 Главный вывод:
В отличие от всех предыдущих технологий (электричество, интернет), ИИ сначала дошел до потребителей, а не к корпорациям. У каждого из нас есть "магический компьютер", который помогает варить яйца, а не решать военные задачи.

Мы живем в уникальное время фундаментального сдвига в программировании. Время действовать!

https://youtu.be/LCEmiRjPEtQ?si=TSnghOHX_erK45jJ
5🔥4
Forwarded from Machinelearning
🔥 GPT-OSS — открытые модели для продвинутого reasoning и агентных задач от OpenAI

🧠 Представлено два варианта:
GPT-OSS-120B — 117B параметров, запускается на одной H100 (80GB)
GPT-OSS-20B — 21B параметров, работает на 16GB GPU

💡 Оба варианта — MoE-модели (Mixture of Experts) с 4-битной квантизацией (MXFP4)

✔️ Особенности:
• Архитектура Token-choice MoE с SwiGLU
• Контекст до 128K токенов с RoPE
• Модель заточена на CoT (chain-of-thought)
• Поддержка instruction-following и tool-use
• Совместима с transformers, vLLM, llama.cpp, ollama
• Используется тот же токенизатор, что и в GPT-4o

Младшая модель может запускаться даже на локальном железе!

🏴‍☠️Лицензирование: Apache 2.0

https://github.com/huggingface/transformers/releases/tag/v4.55.0

🚀 Попробовать можно тут: https://www.gpt-oss.com/

💥 Официальный релиз: http://openai.com/open-models

@ai_machinelearning_big_data


#openai #opensource #chatgpt
Please open Telegram to view this post
VIEW IN TELEGRAM
3👍3🥰1
GPT-5: все что вам нужно знать

Основные изменения:
GPT-5 превосходит предыдущие модели по точности, скорости и глубине анализа.
Один запрос создает готовое решение: сайт, приложение, игру.
Расширенное контекстное мышление: справляется с длинными задачами и задает уточняющие вопросы.
Снижены «галлюцинации», повышая надежность.
Бесплатный доступ для всех, для Pro - без лимитов.

Ключевые особенности:
Объединяет все предыдущие версии, работает быстрее и точнее.
Пишет сайты, приложения и игры по одному запросу.
Переключается между быстрым и «думающим» режимами.
Улучшена в кодинге, знает новые API.
Самая мощная модель по метрикам LM Arena.

Версии:
GPT-5 — флагманская версия для сложных логических и многоэтапных задач
GPT-5-mini — облегченная версия с балансом производительности и стоимости
GPT-5-nano — сверхбыстрая версия для задач с низкой задержкой (только через API)
GPT-5-chat — специализированная версия для корпоративных диалоговых систем

Мультимодальность и безопасность:
Интеграция с изображениями, аудио и видео.
Лучшее распознавание визуальных структур.
Встроенные guardrails снижают риск jailbreak'ов.

API и настройка:
Поддержка длительной памяти до 256K токенов.
Настройка через custom GPTs и function calling 2.0.
Выход на CPU и edge-устройствах ожидается в 2026.

Cursor
Copilot

API
Попробовать

Кто уже наложил руки - делитесь впечатлениями

#news #assistant
👍5👎1😁1
Forwarded from XOR
Для GPT-5 выпустили официальный гайд по промптам

Внутри cookbook openai теперь есть готовые примеры, инструкции и советы по использованию модели. А здесь лежит системный промпт GPT-5.

Изучаем, забираем себе полезные фишечки, пользуемся 👍

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Фей-Фей Ли хвастается world model своего стартапа — World Labs

Для генерации всего мира понадобилась всего лишь одна картинка, причём по видео видно что консистентность на высоте — модель не забывает детали локации как только пользователь отвернулся, ну и длина генерации не ограничена.

@ai_newz
👍3👎2
Forwarded from XOR
Сеньор-инженер из Google выпустил 400-страничный (!) гайд по архитектурным паттернам для AI-агентов — Agentic Design Patterns.

Внутри как правильно строить промпты, параллелить задачи, Также есть практические примеры с кодом, разбор MCP и многое другое.

Забираем 🫡

@xor_journal
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7🔥1
Forwarded from Data Secrets
Sakana AI сделали опенсорсный аналог AlphaEvolve – ShinkaEvolve

Это фреймворк для оптимизации и разработки сложных алгоритмов и архитектур. И, так как Sakana везде пытаются применять идеи эволюции (см этот пост со списком их статей), здесь без этого тоже не обошлось. «Shinka» (進化) с японского и есть "эволюция".

Работает это как нечто среднее между обычным генетическим алгоритмом и LLM-ным поиском по дереву:

1. Система получает на вход Seed-программу и верификатор, который считает метрики качества (фитнес). На каждом шаге свежие полученные скрипты добавляются в единый архив (это наш "банк" родителей).

2. LLM тут выступает мутационным оператором: на каждом шаге из банка берутся один или два родителя, и модель предлагает какие-то изменения в их коде в одном из определенных режимов: diff-патч поверх родителя, полная перезапись, кроссовер (смешивание идей из двух программ). Кстати, LLM выбирается не всегда одна и та же: есть специальный многорукий бандит, который смотрит, кто чаще приносит улучшения на данном типе задач при приемлемой цене, и подстраивает приоритеты.

3. Полученных кандидатов прогоняют через верификатор, но сначала они проходят дополнительный фильтр novelty-rejection. Считаются эмбеддинги программы, проверяется похожесть на архив. Слишком похожие идеи отбраковываются ещё до рассчета метрик, это резко экономит время и деньги.


Оставшихся прогоняем через оценщика и лучших добавляем в архив. А дальше – все с начала. Кстати, в архиве есть «острова» (несколько независимых популяций). Если система совсем встает в тупик и разнообразие решений начинает падать – можно осуществить между ними миграцию. Интересный инженерный ход.

Тестировали в четырех разничных областях. Результаты занятные:

1. На задаче математической оптимизации всего за 150 сэмплов система вывела новое решение для задачи Circle Packing, превосходящее аналогичные подходы.

2. При проектировании ИИ-агента за ~75 поколений фреймворк "изобрел" трехчастную архитектуру, которая побила бейзлайн на AIME.

3. На задачках из спортивного программирования система добавила много полезных оптимизаций, и в итоге дотянула до уровня серебрянного медалиста.

4. И еще проверяли, насколько хорошо ShinkaEvolve сможет обучить другую LLM. Это самое интересное: примерно 30 поколений система билась с лоссом для MoE, и внезапно вывела функцию потерь, которая по эффективности превзошла многие популярные решения.

И главное: в отличие от AlphaEvolve воспользоваться фреймворком можно прямо сейчас и бесплатно. Код вот тут. Просто переписываете evaluate.py под вашу задачу, кладете initial.py и запускаете shinka_launch variant=experiment_name. Подробная инструкция тут.
5👎1
Forwarded from эйай ньюз
Claude Sonnet 4.5

GPT-5 Codex уже побыла лучшей моделью для кодинга уже целых две недели, так что пришло время для нового лидера. Клода ещё больше прокачали в кодинге и агентных тасках, где видно достаточно сильный прирост по бенчам. Цену сохранили прежнюю, Anthropic всё ещё упорно отказывается сбрасывать цены, в отличие от всех конкурентов.

По заявлениям Anthropic, новый Sonnet может автономно работать над задачей до 30 часов, предыдущий рекорд — 7 часов. Я не уверен как именно это измеряют, поэтому конкретно к этой части отношусь скептично.

Вместе с моделью обновили Claude Code до версии 2.0. Теперь Claude Code делает чекпоинты кодбазы перед каждым изменением, так что их можно легко откатить. Кроме этого обновили интерфейс и сделали расширение для VS Code. И наконец-то добавили возможность видеть оставшиеся лимиты использования моделей.

@ai_newz
Forwarded from эйай ньюз
Sora 2: Новая SOTA и AI-TikTok

Sora 2 вышла и, похоже, это новая SOTA. Хотя чем дальше развиваются видеомодели, тем меньше становятся различия между ними. Как и в прошлый раз, Sora вышла с опозданием — после Veo 3 и Kling 2.5 она уже не вызывает такого вау-эффекта. Интересно, что будет на практике и как у неё с пониманием промпта.

Чтобы привнести хоть какую-то инновацию, OpenAI выкатили отдельное приложение для Sora — по сути, свой генеративный TikTok. Кто такое будет смотреть, не совсем понятно, хотя ленты и так уже наполовину генеративные. Вместе с этим челы переизобрели Elements, которые уже почти год являются стандартом индустрии. Но здесь обещают большую консистентность и, что действительно ново, — генерацию голоса. Теперь можно создать полноценного AI-аватара, который ходит по кадру, а не просто говорящую голову. На стриме сказали, что работает с животными и предметами, правда, там же ещё сказали, что в целях безопасности нужно будет пройти серию испытаний. Интересно, как очередной продукт с WB будет зачитывать аудиокод.

Качество генераций в черри-пиках, конечно, бомбическое: физика на уровне, картинка крайне реалистичная — полноценный ответ Veo 3. Но во время теста с аватаром Сэма на стриме лицо всё ещё выглядело жутковато. Зловещую долину пока не перешагнули. Возможно, дело в мешках под глазами Сэма, который, видимо, не спит и пилит AGI.

Судя по промо-роликам, в датасете было очень много видео, снятых на телефон. Может, поэтому и решили сделать AI-соцсеть? Видео выглядят более реалистично, но как у них с киношностью — большой вопрос.

Хигсфилд уже открыли вейтлист пишут, что Sora генерит видео в 1080p (там же правда, видео от комьюнити для презентации, но почему-то от wan 2.2). Если это идёт вкупе с хорошей физикой и коллизиями, и есть шанс, что Sora слушается промпта так же хорошо, как Veo, то это, конечно, разнос. Однако упор OpenAI в продуктовость настораживает, для них это нехарактерно.

Скачать Sora App можно будет уже сегодня, но только на iOS в США и Канаде. Схема доступа: сначала вейтлист, затем можно пригласить 4 друзей.

@ai_newz
1👎1