#Собес
🤔 Чем PyTorch отличается от других фреймворков глубокого обучения, таких как TensorFlow?
PyTorch и TensorFlow отличаются архитектурой вычислений: PyTorch использует динамическую вычислительную графику, что позволяет изменять граф во время выполнения, в то время как TensorFlow использует статичный граф, который требует предварительного определения. Это делает PyTorch более интуитивным и удобным для отладки, но TensorFlow может обеспечивать лучшую производительность благодаря оптимизации вычислений. Также PyTorch более дружелюбен к Python- разработчикам, поскольку поддерживает структуру управления Python, в то время как TensorFlow абстрагирует многие детали.
👉 Новости 👉 Платформа
PyTorch и TensorFlow отличаются архитектурой вычислений: PyTorch использует динамическую вычислительную графику, что позволяет изменять граф во время выполнения, в то время как TensorFlow использует статичный граф, который требует предварительного определения. Это делает PyTorch более интуитивным и удобным для отладки, но TensorFlow может обеспечивать лучшую производительность благодаря оптимизации вычислений. Также PyTorch более дружелюбен к Python- разработчикам, поскольку поддерживает структуру управления Python, в то время как TensorFlow абстрагирует многие детали.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#новости
🤑 Alibaba планирует инвестировать 52 млрд долларов в ИИ т и облачную инфраструктуру в следующие 3 года.
ИИ гонка становища все жарче , а инвестиции стремительно растут.
🟠 Проект «Звездные врата»: 500 млрд долларов на создание AGI/ASI (из которого кстати недавно отвалился Microsoft)
🟠 Apple: ИИ-инфраструктура стоимостью 500 млрд долларов
🟠 Инфраструктура искусственного интеллекта стоимостью 200 млрд долларов США в ЕС
🟠 Alibaba: инфраструктура искусственного интеллекта и облака стоимостью 52 млрд долларов
👉 Новости 👉 Платформа
ИИ гонка становища все жарче , а инвестиции стремительно растут.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Media is too big
VIEW IN TELEGRAM
#новости
😊 Helix - локальный AI на роботе
Из-за этой модели Figure разорвала сделку с OpenAI, заявив что им удалось совершить прорыв. Все действия роботов на видео - результат работы модельки, работающей полностью на роботе. Модель управляет верхней половиной тела, позволяет двум роботам работать вместе и поднимать любые мелкие предметы.
Состоит Helix из двух компонентов - отвечающей за планирование System 2, основанная на неназванной опенсорсной 7B VLM и работающая на скорости 7-9 Hz. Исполняет планы System 1 - encoder-decoder на 80 миллионов параметров, работающая на скорости в 200 Hz, что позволяет точнее двигаться и быстрее реагировать. System 1 и System 2 работают на отдельных GPU, чтобы не мешать друг другу.
Натренировали это всего на 500 часах данных, что доступно множеству стартапов. Это крайне ранняя стадия и нас ждёт очень быстрое масштабирование.
Блогпост
👉 Новости 👉 Платформа
Из-за этой модели Figure разорвала сделку с OpenAI, заявив что им удалось совершить прорыв. Все действия роботов на видео - результат работы модельки, работающей полностью на роботе. Модель управляет верхней половиной тела, позволяет двум роботам работать вместе и поднимать любые мелкие предметы.
Состоит Helix из двух компонентов - отвечающей за планирование System 2, основанная на неназванной опенсорсной 7B VLM и работающая на скорости 7-9 Hz. Исполняет планы System 1 - encoder-decoder на 80 миллионов параметров, работающая на скорости в 200 Hz, что позволяет точнее двигаться и быстрее реагировать. System 1 и System 2 работают на отдельных GPU, чтобы не мешать друг другу.
Натренировали это всего на 500 часах данных, что доступно множеству стартапов. Это крайне ранняя стадия и нас ждёт очень быстрое масштабирование.
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес
🤔 Объясните, чем TensorFlow отличается от других платформ машинного обучения
TensorFlow отличается гибкостью и масштабируемостью. Он поддерживает широкий спектр нейронных сетей и алгоритмов, что делает его универсальным для различных задач. Благодаря модели вычислительных графов TensorFlow можно эффективно обрабатывать вычисления параллельно, что улучшает производительность на крупных системах. Также TensorFlow предоставляет инструменты для отладки и оптимизации моделей, такие как TensorBoard, и поддерживает развертывание на мобильных устройствах и вебе.
👉 Новости 👉 Платформа
TensorFlow отличается гибкостью и масштабируемостью. Он поддерживает широкий спектр нейронных сетей и алгоритмов, что делает его универсальным для различных задач. Благодаря модели вычислительных графов TensorFlow можно эффективно обрабатывать вычисления параллельно, что улучшает производительность на крупных системах. Также TensorFlow предоставляет инструменты для отладки и оптимизации моделей, такие как TensorBoard, и поддерживает развертывание на мобильных устройствах и вебе.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#новости
😊 Alibaba Wan 2.1 - новая SOTA опенсорс видео модель
Скорее всего это та самая загадочная модель, которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нет нескольких сильных конкурентов, вроде Veo 2 от гугла. Больше бенчей никаких нет, так что ждём полноценного техрепорта и тем временем вайбчекаем модель по генерациям). По ним, например, видно что модель очень хорошо генерирует текст, как на английском, так и на китайском, с чем другие модели справляются куда хуже.
Идёт в двух размерах — 1.3B и 14B и в нескольких разных вариантах для разных разрешений (поддерживаются 480p и 720p). Маленькой 1.3B модели нужно всего 8,2 гигабайта VRAM для запуска, а на генерацию видео уходит всего 4 минуты на 4090.
Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. Но модели совсем не оптимизированные (замеры по памяти делали с fp32 моделями), так что есть много простора для оптимизации. Посмотрите на тот же Hunyuan, который при ~таком же количестве параметров неплохо запускается на консьюмерских видяхах. Умельцы за пару недель ещё оптимизируют эти модели, чтобы запускалось на каждом холодильнике.
Код
wanxai.com
👉 Новости 👉 Платформа
Скорее всего это та самая загадочная модель, которая уже месяц доступна в Qwen Chat. На лидерборде VBench она занимает первое место, но там нет нескольких сильных конкурентов, вроде Veo 2 от гугла. Больше бенчей никаких нет, так что ждём полноценного техрепорта и тем временем вайбчекаем модель по генерациям). По ним, например, видно что модель очень хорошо генерирует текст, как на английском, так и на китайском, с чем другие модели справляются куда хуже.
Идёт в двух размерах — 1.3B и 14B и в нескольких разных вариантах для разных разрешений (поддерживаются 480p и 720p). Маленькой 1.3B модели нужно всего 8,2 гигабайта VRAM для запуска, а на генерацию видео уходит всего 4 минуты на 4090.
Большая моделька потребляет заметно больше — вплоть до 77 гигабайт. Но модели совсем не оптимизированные (замеры по памяти делали с fp32 моделями), так что есть много простора для оптимизации. Посмотрите на тот же Hunyuan, который при ~таком же количестве параметров неплохо запускается на консьюмерских видяхах. Умельцы за пару недель ещё оптимизируют эти модели, чтобы запускалось на каждом холодильнике.
Код
wanxai.com
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес
🤔 Как использование графов потока данных в TensorFlow помогает в разработке моделей машинного обучения?
Графы данных в TensorFlow позволяют эффективно выполнять вычисления, улучшать параллельность и обеспечивать переносимость. Графы представляют вычисления как узлы, соединенные ребрами, что позволяет TensorFlow распределять вычисления по нескольким процессорам и GPU, повышая эффективность. Кроме того, абстракция графов упрощает создание моделей без необходимости учитывать аппаратные особенности.
👉 Новости 👉 Платформа
Графы данных в TensorFlow позволяют эффективно выполнять вычисления, улучшать параллельность и обеспечивать переносимость. Графы представляют вычисления как узлы, соединенные ребрами, что позволяет TensorFlow распределять вычисления по нескольким процессорам и GPU, повышая эффективность. Кроме того, абстракция графов упрощает создание моделей без необходимости учитывать аппаратные особенности.
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😵💫 Наконец-то и Яндекс выложили модель в опенсорс
На растерзание энтузиастам отдали YandexGPT 5 Lite на 8B параметров, это базовая модель до пост-трейна. Перфоманс по бенчам чуть лучше, чем у LLaMA и Qwen тех же размеров, и значительно лучше в русском языке.
Интересно, что если Lite обучали с нуля, то Pro обучали гибридно - инициализировали веса с чекпоинта Qwen 2.5 32B Base, а поверх него уже запустили полноценный претрейн пайплайн на своих данных. Это не просто файнтюн, потому что включает в себя все этапы тренировки модели и использует сильно больше токенов. ИМХО это хороший способ сэкономить ресурсы и ускорить обучение, если архитектура как-то кардинально не меняется.
Тренили Lite на датасете в 15 триллионов токенов (прямо как Llama 3), он включал в себя 30% русского и 70% английского. При этом из них только 15% — код, 10% — математика, поэтому в этих задачах она проигрывает тому же Qwen. В базовой модели, которую выложили в опенсорс, нет никакой цензуры.
А вот старшая модель PRO уже доступна в чатике с Алисой. Так что виртуальный ассистент теперь совсем умный) Почти 4o, lol. Пишут, что PRO сильна в кодинге. И хоть среди англоязычных разрабов все топят за Клод в работе с кодом, последняя моделька Яндекса, по моему опыту, тоже неплохо справляется, особенно с русскоязычными промтами. PRO доступна через API, и к ней даже можно прикрутить RAG.
В блог-посте на Хабре расписаны детали про тренировку модели.
👉 Новости 👉 Платформа
На растерзание энтузиастам отдали YandexGPT 5 Lite на 8B параметров, это базовая модель до пост-трейна. Перфоманс по бенчам чуть лучше, чем у LLaMA и Qwen тех же размеров, и значительно лучше в русском языке.
Интересно, что если Lite обучали с нуля, то Pro обучали гибридно - инициализировали веса с чекпоинта Qwen 2.5 32B Base, а поверх него уже запустили полноценный претрейн пайплайн на своих данных. Это не просто файнтюн, потому что включает в себя все этапы тренировки модели и использует сильно больше токенов. ИМХО это хороший способ сэкономить ресурсы и ускорить обучение, если архитектура как-то кардинально не меняется.
Тренили Lite на датасете в 15 триллионов токенов (прямо как Llama 3), он включал в себя 30% русского и 70% английского. При этом из них только 15% — код, 10% — математика, поэтому в этих задачах она проигрывает тому же Qwen. В базовой модели, которую выложили в опенсорс, нет никакой цензуры.
А вот старшая модель PRO уже доступна в чатике с Алисой. Так что виртуальный ассистент теперь совсем умный) Почти 4o, lol. Пишут, что PRO сильна в кодинге. И хоть среди англоязычных разрабов все топят за Клод в работе с кодом, последняя моделька Яндекса, по моему опыту, тоже неплохо справляется, особенно с русскоязычными промтами. PRO доступна через API, и к ней даже можно прикрутить RAG.
В блог-посте на Хабре расписаны детали про тренировку модели.
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
🛞 Alexa наконец-то станет умной
Теперь внутри Alexa будут полноценные агентные LLM (Claude и Amazon Nova), которые смогут взаимодействовать с десятками тысяч интеграций Alexa. Кто не в курсе, там есть всё — от управления умным домом, до заказов еды и покупки билетов. Слухи о такой интеграции ходили давно, но заставить работать такое количество тулов в одном месте до них ещё никому не удавалось, поэтому времени ушло порядочно.
Это будет интегрировано с новой памятью, а-ля ChatGPT, где Alexa будет запоминать инфу вроде диетических предпочтений, фактов о вас и так далее. Помимо этого она всё ещё будет иметь доступ ко всем персональным данным к которым имела доступ старая Alexa, типа истории покупок. Для более удобного взаимодействия Amazon сделали новое мобильное приложение и добавили возможность взаимодействовать с Alexa через сайт.
Продвинутые фичи Alexa будут доступны всем подписчикам Amazon Prime в следующие несколько месяцев. Чисто теоретически существует ещё и отдельная подписка Alexa+, за $20 в месяц, но существует она явно чтобы больше людей подписалось на Prime, который стоит на 5 долларов дешевле.
👉 Новости 👉 Платформа
Теперь внутри Alexa будут полноценные агентные LLM (Claude и Amazon Nova), которые смогут взаимодействовать с десятками тысяч интеграций Alexa. Кто не в курсе, там есть всё — от управления умным домом, до заказов еды и покупки билетов. Слухи о такой интеграции ходили давно, но заставить работать такое количество тулов в одном месте до них ещё никому не удавалось, поэтому времени ушло порядочно.
Это будет интегрировано с новой памятью, а-ля ChatGPT, где Alexa будет запоминать инфу вроде диетических предпочтений, фактов о вас и так далее. Помимо этого она всё ещё будет иметь доступ ко всем персональным данным к которым имела доступ старая Alexa, типа истории покупок. Для более удобного взаимодействия Amazon сделали новое мобильное приложение и добавили возможность взаимодействовать с Alexa через сайт.
Продвинутые фичи Alexa будут доступны всем подписчикам Amazon Prime в следующие несколько месяцев. Чисто теоретически существует ещё и отдельная подписка Alexa+, за $20 в месяц, но существует она явно чтобы больше людей подписалось на Prime, который стоит на 5 долларов дешевле.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#новости
🫡 Игра через Grok
Пользователь X создал эту онлайн игру, используя только возможности Cursor и Grok 3!
Попробовать здесь
Пользователь X создал эту онлайн игру, используя только возможности Cursor и Grok 3!
Попробовать здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес
🤔 Какие случаи использования имеет API tf.data в TensorFlow?
API tf. data в TensorFlow используется для создания сложных конвейеров обработки данных. Он позволяет эффективно работать с большими объемами данных, поддерживает различные форматы и трансформации. Благодаря поддержке параллельной обработки и предвыборки данных, tf. data ускоряет обучение моделей и позволяет гибко управлять процессом.
👉 Новости 👉 Платформа
API tf. data в TensorFlow используется для создания сложных конвейеров обработки данных. Он позволяет эффективно работать с большими объемами данных, поддерживает различные форматы и трансформации. Благодаря поддержке параллельной обработки и предвыборки данных, tf. data ускоряет обучение моделей и позволяет гибко управлять процессом.
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
❤2
#статьи
😊 YandexGPT vs Perplexity: кто лучше кодит?
Сегодня искусственный интеллект активно применяется в разработке, но какая нейросеть действительно поможет фронтенд-разработчику? Tproger протестировал YandexGPT и Perplexity, чтобы выяснить, кто лучше справится с задачами по генерации, тестированию и анализу кода.
Тестили в следующем: от ответов на вопросы до создания и оптимизации формы для входа.
Читать статью
👉 Новости 👉 База вопросов
Сегодня искусственный интеллект активно применяется в разработке, но какая нейросеть действительно поможет фронтенд-разработчику? Tproger протестировал YandexGPT и Perplexity, чтобы выяснить, кто лучше справится с задачами по генерации, тестированию и анализу кода.
Тестили в следующем: от ответов на вопросы до создания и оптимизации формы для входа.
Читать статью
Please open Telegram to view this post
VIEW IN TELEGRAM
Tproger
YandexGPT или Perplexity: какая нейросеть напишет код, за который не стыдно?
В этой статье мы протестируем YandexGPT и Perplexity и выясним, какая из них станет лучшим напарником для фронтенд-разработчика. Пусть рутинные задачи уйдут в руки искусственного интеллекта, а фронт сосредоточится на главном — и будет спокойно красить свои…
#новости
😐 Amazon готовится выпустить конкурента GPT-o
Amazon разрабатывает новую модель ризонинга - Nova, которая должна составить конкуренцию OpenAI и Anthropic. Релиз Nova запланирован в июне этого года и будет отличаться высокой производительностью и экономической эффективностью.
Amazon ставит перед собой цель войти в топ-5 лучших ИИ-моделей по результатам внешних оценок, с фокусом в задачах, связанных с разработкой программного обеспечения и математическим мышлением. Разработкой занимается команда AGI под руководством Rohit Prasad.
businessinsider.com
👉 Новости 👉 База вопросов
Amazon разрабатывает новую модель ризонинга - Nova, которая должна составить конкуренцию OpenAI и Anthropic. Релиз Nova запланирован в июне этого года и будет отличаться высокой производительностью и экономической эффективностью.
Amazon ставит перед собой цель войти в топ-5 лучших ИИ-моделей по результатам внешних оценок, с фокусом в задачах, связанных с разработкой программного обеспечения и математическим мышлением. Разработкой занимается команда AGI под руководством Rohit Prasad.
businessinsider.com
Please open Telegram to view this post
VIEW IN TELEGRAM
Business Insider
Amazon is working on a new 'reasoning' AI model that competes with OpenAI and Anthropic
The move will put the cloud-computing giant in closer competition with OpenAI and Anthropic.
#Собес
🤔 Что такое eager execution в TensorFlow и какие у него преимущества?
Eager execution в TensorFlow - это режим выполнения, при котором операции выполняются немедленно по мере их вызова в Python. Это упрощает отладку, делает интерфейс более интуитивным и позволяет использовать стандартный контроль потока Python вместо графового контроля, что особенно полезно при создании динамических моделей.
👉 Новости 👉 Платформа
Eager execution в TensorFlow - это режим выполнения, при котором операции выполняются немедленно по мере их вызова в Python. Это упрощает отладку, делает интерфейс более интуитивным и позволяет использовать стандартный контроль потока Python вместо графового контроля, что особенно полезно при создании динамических моделей.
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😐 QwQ 32B
Новый опенсорс от команды Qwen из Alibaba (не путать с QwQ-Preview, это совсем другая модель). LLM заметно обходит дистилы из R1 и даже полноценную R1 на ряде бенчей. Я немного пообщался с ней на Hyperbolic, выглядит как лучший ризонер, из тех что можно реально запустить дома.
Это не самая умная модель Qwen — недавно они ещё запустили Preview QwQ Max, попробовать можно на qwen.ai. Веса финальной модели обещают выложить под Apache 2.0 (вместе с Qwen 2.5 Max).
Блогпост
👉 Новости 👉 База вопросов
Новый опенсорс от команды Qwen из Alibaba (не путать с QwQ-Preview, это совсем другая модель). LLM заметно обходит дистилы из R1 и даже полноценную R1 на ряде бенчей. Я немного пообщался с ней на Hyperbolic, выглядит как лучший ризонер, из тех что можно реально запустить дома.
Это не самая умная модель Qwen — недавно они ещё запустили Preview QwQ Max, попробовать можно на qwen.ai. Веса финальной модели обещают выложить под Apache 2.0 (вместе с Qwen 2.5 Max).
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#новости
😊 Operator от Opera: AI-агенты в браузере.
Opera анонсировала браузер Operator, который сам выполняет задачи пользователя в интернете. Он содержит встроенный ИИ-агент, способный покупать товары, искать информацию и выполнять другие действия по запросу пользователя. Operator также способен управлять подписками и онлайн-аккаунтами - он найдет все активные подписки и предложит отменить ненужные. Operator может автоматически оплачивать счета и загружать банковские выписки.
В отличие от обычных браузеров, Operator анализирует DOM Tree и структуру страницы, чтобы быстро и эффективно выполнять задачи. Пользователь может видеть весь процесс и контролировать его.
Operator скоро станет доступен в рамках программы Opera Feature Drop.
blogs.opera.com
👉 Новости 👉 База вопросов
Opera анонсировала браузер Operator, который сам выполняет задачи пользователя в интернете. Он содержит встроенный ИИ-агент, способный покупать товары, искать информацию и выполнять другие действия по запросу пользователя. Operator также способен управлять подписками и онлайн-аккаунтами - он найдет все активные подписки и предложит отменить ненужные. Operator может автоматически оплачивать счета и загружать банковские выписки.
В отличие от обычных браузеров, Operator анализирует DOM Tree и структуру страницы, чтобы быстро и эффективно выполнять задачи. Пользователь может видеть весь процесс и контролировать его.
Operator скоро станет доступен в рамках программы Opera Feature Drop.
blogs.opera.com
Please open Telegram to view this post
VIEW IN TELEGRAM
Opera News
Meet Opera’s AI Browser Operator
We're introducing an AI agent into the browser making us the first major browser with AI-based agentic browsing.
#статьи
😊 PyTorch: новые инструменты для для экономии памяти при обучении моделей.
PyTorch представил усовершенствованные методы Activation Checkpointing (AC), цель которых - снижение потребления памяти при обучении.
Традиционный подход в
Новая техника – Selective Activation Checkpoint (SAC). В отличие от обычного AC, который затрагивает всю выбранную область, SAC дает гранулярный контроль над тем, какие операции следует пересчитывать, а какие – сохранять. Это достигается за счет использования
Для
Читать подробную статью
👉 Новости 👉 База вопросов
PyTorch представил усовершенствованные методы Activation Checkpointing (AC), цель которых - снижение потребления памяти при обучении.
Традиционный подход в
eager mode сохраняет промежуточные активации для обратного прохода, что зачастую приводит к значительному расходу ресурсов. AC позволяет не сохранять эти тензоры, а вычислять их заново при необходимости, тем самым жертвуя вычислительным временем ради экономии памяти.Новая техника – Selective Activation Checkpoint (SAC). В отличие от обычного AC, который затрагивает всю выбранную область, SAC дает гранулярный контроль над тем, какие операции следует пересчитывать, а какие – сохранять. Это достигается за счет использования
policy_fn, определяющей, нужно ли сохранять результаты конкретной операции. SAC будет полезен для избегания перевычисления ресурсоемких операций, например, матричных умножений.Для
torch.compile стала доступна Memory Budget API. Эта функция автоматически применяет SAC с оптимальной политикой, исходя из заданного пользователем бюджета памяти (от 0 до 1). Бюджет 0 соответствует обычному AC, а 1 – поведению torch.compile по умолчанию. Читать подробную статью
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1