⚙️ Полный гид по GPU-экосистеме — без воды и маркетинга
Если ты путаешься в CUDA, OpenCL, SYCL и HIP — этот гайд от ENCCS расставит всё по полочкам. Это не просто обзор, а чёткое объяснение, **как устроен мир GPU-программирования сегодня**.
🧠 Что ты узнаешь:
🔹 Как и почему GPU радикально отличается от CPU
🔹 Из чего состоит стек GPU-технологий:
— CUDA и его аналоги (HIP, SYCL, OpenCL)
— Директивы: OpenMP, OpenACC
🔹 Какие языки и стандарты поддерживают какую архитектуру
🔹 NVIDIA, AMD, Intel — кто что умеет и чем отличается
🔹 Модели памяти, исполнения, и что влияет на производительность
📌 Гайд подходит для:
• Разработчиков HPC и научных расчётов
• Инженеров ML/AI, желающих копнуть глубже
• Всех, кто хочет разобраться в низкоуровневом GPU-стеке без маркетингового тумана
📖 Читать:
[🔗 enccs.github.io/gpu-programming/2-gpu-ecosystem/](https://enccs.github.io/gpu-programming/2-gpu-ecosystem/)
🔥 Один из самых понятных и системных разборов GPU-мира на сегодня.
#GPU #CUDA #OpenCL #HIP #SYCL #HPC #AI #HighPerformanceComputing
@javatg
Если ты путаешься в CUDA, OpenCL, SYCL и HIP — этот гайд от ENCCS расставит всё по полочкам. Это не просто обзор, а чёткое объяснение, **как устроен мир GPU-программирования сегодня**.
🧠 Что ты узнаешь:
🔹 Как и почему GPU радикально отличается от CPU
🔹 Из чего состоит стек GPU-технологий:
— CUDA и его аналоги (HIP, SYCL, OpenCL)
— Директивы: OpenMP, OpenACC
🔹 Какие языки и стандарты поддерживают какую архитектуру
🔹 NVIDIA, AMD, Intel — кто что умеет и чем отличается
🔹 Модели памяти, исполнения, и что влияет на производительность
📌 Гайд подходит для:
• Разработчиков HPC и научных расчётов
• Инженеров ML/AI, желающих копнуть глубже
• Всех, кто хочет разобраться в низкоуровневом GPU-стеке без маркетингового тумана
📖 Читать:
[🔗 enccs.github.io/gpu-programming/2-gpu-ecosystem/](https://enccs.github.io/gpu-programming/2-gpu-ecosystem/)
🔥 Один из самых понятных и системных разборов GPU-мира на сегодня.
#GPU #CUDA #OpenCL #HIP #SYCL #HPC #AI #HighPerformanceComputing
@javatg
This media is not supported in your browser
VIEW IN TELEGRAM
🎥 Odyssey показали нечто, что выглядит как сон, записанный на VHS и оживлённый в реальном времени.
Это интерактивное AI-видео генерируется с задержкой всего 40 мс и позволяет «переключать каналы» между альтернативными мирами и пространствами.
🧠По сути это интрактивная модель мира, способная генерировать визуально согласованные сцены длительностью более 5 минут.
🎮 Управление:
— Перемещение с помощью клавиш WASD
— Навигация по латентному пространству мышью через "компас"
— Поддерживаются геймпады, смартфоны, а в будущем — и голосовое управление
И если приглядеться — становится ясно: голографическая реальность ближе, чем мы думали.
🚀 Хочешь погонять H100 на полную мощность и стримить видео до 30 fps?
Они уже открыли демо — заходи и смотри, взаимодействуй.
⚠️ Да, пока нестабильно — модель глючит, местами ломает сцены.
Но: 5+ минут связного видеопотока, в реальном времени, без движка и с нуля — это не просто впечатляет, это один из возможных путей к симуляторам реальности.
🧠 Мы смотрим не на эффектный трик, а на раннюю версию технологии, которая однажды станет основой «живых миров».
Попробовать: https://experience.odyssey.world
#AI #VHSdream #WorldSimulator #FutureOfVideo #Odyssey
Это интерактивное AI-видео генерируется с задержкой всего 40 мс и позволяет «переключать каналы» между альтернативными мирами и пространствами.
🧠По сути это интрактивная модель мира, способная генерировать визуально согласованные сцены длительностью более 5 минут.
🎮 Управление:
— Перемещение с помощью клавиш WASD
— Навигация по латентному пространству мышью через "компас"
— Поддерживаются геймпады, смартфоны, а в будущем — и голосовое управление
И если приглядеться — становится ясно: голографическая реальность ближе, чем мы думали.
🚀 Хочешь погонять H100 на полную мощность и стримить видео до 30 fps?
Они уже открыли демо — заходи и смотри, взаимодействуй.
⚠️ Да, пока нестабильно — модель глючит, местами ломает сцены.
Но: 5+ минут связного видеопотока, в реальном времени, без движка и с нуля — это не просто впечатляет, это один из возможных путей к симуляторам реальности.
🧠 Мы смотрим не на эффектный трик, а на раннюю версию технологии, которая однажды станет основой «живых миров».
Попробовать: https://experience.odyssey.world
#AI #VHSdream #WorldSimulator #FutureOfVideo #Odyssey
Прокачай навыки общения с ИИ с мощной базой знаний от экспертов Anthropic — всё, что нужно для уверенного промпт-инжиниринга и уменьшения ошибок при работе с нейросетями.
🔍 Что внутри:
• Подробный разбор структуры промптов: от скелета до ключевых формулировок
• Частые ошибки при взаимодействии с ИИ — и как их избежать
• Реальные кейсы на основе Claude
• Примеры качественных запросов + десятки готовых промптов
• Всё это — абсолютно БЕСПЛАТНО
⚡ Начни понимать ИИ не просто лучше — мастерски:
Github
@ai_machinelearning_big_data
🔍 Что внутри:
• Подробный разбор структуры промптов: от скелета до ключевых формулировок
• Частые ошибки при взаимодействии с ИИ — и как их избежать
• Реальные кейсы на основе Claude
• Примеры качественных запросов + десятки готовых промптов
• Всё это — абсолютно БЕСПЛАТНО
⚡ Начни понимать ИИ не просто лучше — мастерски:
Github
@ai_machinelearning_big_data
Это обусловлено высоким спросом со стороны бизнеса на ИИ, в сфере генерации кода.
🆚 OpenAI, главный конкурент Anthropic, по данным источников, ожидает $12+ млрд выручки к концу 2025 года, по сравнению с $3,7 млрд в прошлом году. Однако эта сумма включает весь доход, а не только годовую прогнозируемую выручку (ARR), как у Anthropic. Reuters не удалось определить ARR OpenAI.
Anthropic продолжают развивать линейку Claude и усиливает позицию как B2B-ориентированный аналог OpenAI.
#Anthropic #ai #news
Please open Telegram to view this post
VIEW IN TELEGRAM
🚗 Autonomous Vehicle Control: Пошаговое руководство для новичков
Если ты хочешь разобраться, как управляются автономные автомобили — не теоретически, а прямо на практике — этот репозиторий для тебя.
📘 Проект AutonomousVehicleControlBeginnersGuide — это учебный гайд с кодом, который показывает, как с нуля реализовать основные алгоритмы управления автономной машиной. Всё — на Python и с визуализацией.
🔧 Что ты найдёшь в репозитории:
- 🧭 Продольное управление (Longitudinal control):
- Простейшие регуляторы: P, PI, PID
- Контроль скорости и ускорения
- 🎯 Поперечное управление (Lateral control):
- Pure Pursuit
- Stanley Controller
- MPC (Model Predictive Control)
- 📈 Пояснения, графики и отрисовка траекторий
- 👨💻 Легкий для запуска код — просто запускаешь
💡 Отлично подходит для:
- Студентов и энтузиастов в области робототехники
- Начинающих инженеров по автономным системам
- Всех, кто хочет понять, как “рулят” беспилотники
📦 Язык: Python
🎯 Не требует ROS, симуляторов или LiDAR — всё делается локально.
🔗 GitHub:
https://github.com/ShisatoYano/AutonomousVehicleControlBeginnersGuide
🚀 Это твой старт в мир автономного вождения — простой, наглядный и понятный.
Если ты хочешь разобраться, как управляются автономные автомобили — не теоретически, а прямо на практике — этот репозиторий для тебя.
📘 Проект AutonomousVehicleControlBeginnersGuide — это учебный гайд с кодом, который показывает, как с нуля реализовать основные алгоритмы управления автономной машиной. Всё — на Python и с визуализацией.
🔧 Что ты найдёшь в репозитории:
- 🧭 Продольное управление (Longitudinal control):
- Простейшие регуляторы: P, PI, PID
- Контроль скорости и ускорения
- 🎯 Поперечное управление (Lateral control):
- Pure Pursuit
- Stanley Controller
- MPC (Model Predictive Control)
- 📈 Пояснения, графики и отрисовка траекторий
- 👨💻 Легкий для запуска код — просто запускаешь
.py и смотришь результат💡 Отлично подходит для:
- Студентов и энтузиастов в области робототехники
- Начинающих инженеров по автономным системам
- Всех, кто хочет понять, как “рулят” беспилотники
📦 Язык: Python
🎯 Не требует ROS, симуляторов или LiDAR — всё делается локально.
🔗 GitHub:
https://github.com/ShisatoYano/AutonomousVehicleControlBeginnersGuide
🚀 Это твой старт в мир автономного вождения — простой, наглядный и понятный.
Media is too big
VIEW IN TELEGRAM
Intel и японский холдинг SoftBank запустили проект Saimemory, чтобы разработать замену памяти HBM на основе стековой DRAM. Технология обещает сократить энергопотребление на 50% по сравнению с HBM. Прототип планируют завершить к 2027 году, а массовое производство — до конца десятилетия.
Сейчас HBM, используемая в ИИ-чипах, дефицитна из-за сложности производства и высокого спроса. Samsung, SK Hynix и Micron остаются монополистами, но Saimemory намерена потеснить их, особенно в Японии. В отличие от конкурентов, которые увеличивают объем чипов, новый проект делает ставку на энергоэффективность.
asia.nikkei.com
Палисейд Рисерч провела 2 масштабных турнира по защите информации, где ИИ-агенты соревновались с людьми. В формате CTF (Capture The Flag) AI и команды экспертов решали задачи от криптографии до поиска уязвимостей. Результаты: 4 ИИ-команды из 7 справились с 19 из 20 задач в первом этапе, обойдя большинство человеческих участников.
Во втором этапе, где задания требовали взаимодействия с внешними системами, лучший ИИ (CAI) решил 20 задач и вошел в топ-10% всех участников. Для задач, на решение которых лучшим человеческим командам требовалось около 78 минут, агенты ИИ имели 50-процентный показатель успеха. Другими словами, ИИ был способен решать задачи, которые представляли собой реальную проблему даже для экспертов.
Palisade Research в сети Х (ex-Twitter)
Universal, Warner и Sony начали активную фазу переговоров с Udio и Suno о лицензировании их огромных музыкальных каталогов. Цель - дать этим нейросетям законный доступ к трекам, чтобы те могли обучаться и создавать контент, не нарушая авторских прав.
Стороны пытаются создать работающую схему, как именно музыканты будут получать деньги, когда их стиль или работы используют для генерации ИИ-музыки. Сейчас это больной вопрос для индустрии.
Эти же переговоры, по логике, должны наконец-то решить и текущие судебные споры. Лейблы уже подали иски на Udio и Suno за якобы незаконное использование их музыки без разрешения. Если договорятся, тяжбы, скорее всего, снимут.
bloomberg.com
Стартап представил Subnet 9 в рамках блокчейн-сети Bittensor платформу для децентрализованного обучения ИИ, основанную на концепции «Swarm-тренировки». Вместо централизованной обработки данных на серверных фермах крупных компаний, проект позволяет любому пользователю с GPU, даже бюджетным, участвовать в тренировке моделей. Технология IOTA разбивает модель на слои, которые распределяются между участниками сети. Каждый «майнер» обрабатывает свой участок, а результаты синхронизируются при помощи алгоритмов сжатия данных и устойчивости к сбоям.
Главные проблемы децентрализации: медленный интернет и непостоянные участники решаются за счет компрессии трафика до 128 раз и системы честных выплат, оценивающих вклад каждого.
forbes.com
В середине мая хирурги временно ввели устройство Connexus в мозг пациента с эпилепсией во время операции в Университете Мичигана. Имплантат, размером меньше монеты, оснащен 420 микропинами, которые записывают сигналы отдельных нейронов. Устройство преобразует мысленные импульсы в текст или синтезированную речь — как у Neuralink. В отличие от поверхностных имплантов Precision Neuroscience или «сосудистого» подхода Synchron, Paradromics фиксирует активность конкретных нейронов.
Тест длился 10 минут: специалисты подтвердили, что электроды уловили мозговые импульсы. Следующий этап — клинические исследования с постоянной установкой импланта и увеличение скорости «перевода» мыслей в речь с текущих 60–80 слов в минуту до 130, как у естественной речи. Компания надеется в будущем использовать до 4 устройств одновременно.
wired.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Те, кто работает с синтезом речи, знают, что авторегрессионные трансформерные модели, хоть и хороши для генерации речи из текста с нуля, но создают кучу проблем, когда нужно редактирование. Стандартные методы, в виде полной перегенерации предложения, обходятся дорого по ресурсам и часто приводят к изменению интонации или ритма.
Замена отдельного слова обычно оставляет неприятные «склейки» на границах, а перегенерация с середины фразы может испортить уже существующую часть. Все это бьет по естественности и связности звучания.
PlayAI выпустила PlayDiffusion 1.0 – диффузионную модель для редактирования речи, которая умеет изменять нужные участки аудио, сохраняя при этом общую гладкость и характеристики голоса. Причем модель пригодна как для реальной речи, так и для аудио, сгенерированного другими TTS-моделями.
В PlayDiffusion аудиопоток кодируется в дискретное пространство, превращаясь в более компактную последовательность токенов. Затем, тот сегмент, который требует модификации маскируется.
После этого задействуется сама диффузионная модель. Она, опираясь на обновленный текстовый контент, «восстанавливает» замаскированную область, убирая шум. На выходе последовательность токенов снова преобразуется в полноценный звук с помощью декодера BigVGAN.
Чтобы добиться таких результатов, PlayAI взяли за основу текстовую трансформерную архитектуру и внесли несколько ключевых модификаций:
Интересно, что если замаскировать вообще всю аудиодорожку, PlayDiffusion может работать как TTS. В отличие от авторегрессионных моделей, которые генерируют каждый токен последовательно, опираясь на предыдущие, диффузионные модели генерят все токены одновременно, а затем уточняют их за фиксированное число шагов.
Например, для генерации 20 секунд аудио кодеком на 50 Гц авторегрессионной модели потребуется 1000 шагов. PlayDiffusion же способен выдать все 1000 токенов сразу и уточнить их всего за 20 итераций – это до 50 раз эффективнее по количеству шагов генерации.
@ai_machinelearning_big_data
#AI #ML #TTS #Inpainting #PlayDiffusion #PlayAI
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
Microsoft анонсировала Bing Video Creator, который превращает текстовые описания в короткие видео. Он основан на технологии Sora и доступен бесплатно через мобильное приложение Bing, а позже появится на десктопе и в Copilot Search. Пользователям нужно просто ввести запрос и ИИ сгенерирует 5-секундный ролик в вертикальном формате. (16:9 добавят позже).
За один запрос генерируется 3 видео, с выбором между быстрой и стандартной генерацией (первые 10 быстрых — бесплатно, далее за баллы Microsoft Rewards). Созданные видео будут храниться до 90 дней. Готовые ролики можно скачивать, делиться в соцсетях или по ссылке. Сервис стартует глобально, кроме Китая и России.
blogs.bing.com
Стартап H представил три ИИ-агента: Runner, Surfer и Tester. Runner автоматизирует задачи: написание писем, и взаимодействует с приложениями. Бета-версия доступна бесплатно, но с ограничениями. Surfer — бесплатный инструмент для автономного серфинга в интернете. Tester (бета, платный) создан для тестирования сайтов: проверяет функционал меню, языковые настройки и валюту.
Стартап основан бывшими сотрудниками Google DeepMind год назад с инвестициями в €202 млн от Bernard Arnault, Amazon и Eric Schmidt.
H Company в сети X (ex-Twitter)
MIT и Stanford создали SketchAgent, систему, которая превращает текстовые запросы в наброски, имитируя человеческий процесс рисования. Вместо обучения на базах данных, модель использует «язык рисования»: скетч разбивается на последовательность штрихов с пояснениями. Это позволяет генерировать эскизы предварительной тренировки.
Пока система не справляется с логотипами или сложными фигурами, а иногда интерпретирует планы рисования ошибочно. Ресерчеры планируют улучшить модель через синтетические данные и упростить интерфейс. В будущем инструмент может стать помощником в образовании или дизайне.
news.mit.edu
Firecrawl прислушался к просьбам сообщества, которое давно просило функцию автоматизации с поиском. Теперь вместо двух этапов (сначала поиск, затем парсинг), все делается за раз. /search позиционируется как более простой и универсальный инструмент для работы с веб-данными. Использовать его можно через API, сторонние приложения или интерактивный Playground.
Сервис предлагает гибкую настройку: можно указать язык, регион, временной диапазон или формат вывода. Интеграция уже доступна в Zapier, n8n, MCP и других платформах, а в документации описаны примеры использования.
Команда также сообщила, что альфа-версии /llmstxt и /deep-research перестанут обновляться с 30 июня 2025 года, но останутся рабочими.
firecrawl.dev
Тайваньская фабрика вот-вот начнет выпуск 2-нм чипов, установив рекордный ценник — до $30 тыс. за пластину (а улучшенные версии подорожают до $45 тыс.). Это делает технологии доступными лишь для топовых клиентов AMD, Apple и MediaTek уже вложились: процессоры A20/A20 Pro для iPhone 18, M6 для Mac, новых серверов EPYC и флагманских смартфонов Mediatek 2025 года будут на этой архитектуре.
По данным поставщиков, мощности TSMC растут. К концу года выпуск достигнет 30 тыс. пластин в месяц. Эксперты отмечают: лидерство фабрики держится не на одном оборудовании, но еще и на опыте. Накопленные знания о производственных тонкостях трудно повторить.
ctee.com.tw
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Мультимодальная модель от NVIDIA уверенно занимает первое место на OCRBench v2, показав лучшую точность парсинга документов среди всех моделей.
📄 Что это такое:
Llama Nemotron Nano VL — лёгкая vision-language модель для интеллектуальной обработки документов (IDP), которая:
• разбирает PDF
• вытаскивает таблицы
• парсит графики и диаграммы
• работает на одной GPU
– Вопрос-ответ по документам
– Извлечение таблиц
– Анализ графиков
– Понимание диаграмм и дешбордов
📊 OCRBench v2 — крупнейший двухъязычный бенчмарк для визуального анализа текста, и именно NVIDIA Nano VL показывает лучший результат.
#Nemotron #NVIDIA
Please open Telegram to view this post
VIEW IN TELEGRAM
GUI-Actor — методика на базе VLM, которая вместо традиционной генерации координат текстом при визуальной обработке интерфейса использует внимание внутри модели.
Чтобы уйти от координатного подхода, в GUI-Actor используется специальный токен
<ACTOR>, который "учится" связываться с визуальными патчами, соответствующими целевой области экрана. За один проход модель может запомнить сразу несколько кандидатов на действие.Например, все кнопки "Сохранить" в сложном интерфейсе. Это очень похоже на человеческое восприятие: видеть сам элемент, а не его позиции по осям Х и Y.
Выбрать наиболее подходящий вариант из элементов-кандидатов помогает "верификатор". Это отдельная модель, оценивающая кандидатов от
<ACTOR> и отбирающая самый подходящий для действия. Она не только улучшает точность, но и универсальна: ее можно подключить к другим моделям.Обучение требует минимум ресурсов. Можно заморозить основную VLM (Qwen2-VL-7B) и дообучить только новый action head и токены. Это всего ~100М параметров для 7B-модели.
Комбинация из такого быстрого обучения + верификатор почти догоняет полноценно обученные аналоги, сохраняя общие способности базовой модели. Никакого "катастрофического забывания" - агент учится кликать интерфейсы, не разучиваясь описывать картинки.
Результаты тестов на сложном бенчмарке ScreenSpot-Pro с высоким разрешением и незнакомыми интерфейсами (CAD, научный софт) GUI-Actor-7B с Qwen2-VL показал 40.7 балла, а с Qwen2.5-VL — 44.6, обойдя даже UI-TARS-72B (38.1).
На других тестах (ScreenSpot, ScreenSpot-v2) он тоже лидирует, особенно в иконках и текстовых элементах, демонстрируя крутую адаптацию к разным разрешениям и версткам.
В планах - выпуск еще двух моделей на основе Qwen2.5-VL (3B и 7B), демо GUI-Actor, код для модели-верификатора и датасеты для обучения.
@ai_machinelearning_big_data
#AI #ML #VLM #GUIActor #Microsoft
Please open Telegram to view this post
VIEW IN TELEGRAM
Reddit подаёт в суд на Anthropic за незаконное использование данных
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
Reddit обвиняет Anthropic в массовом парсинге сайта и коммерческом использовании данных.
Согласно иску:
🔹 Anthropic парсили Reddit более 100 000 раз, несмотря на заверения, об остановке сбора данных
🔹 Anthropic использовали пользовательский контент в коммерческих целях без лицензии
🔹 Reddit утверждает: это прямое нарушение соглашения и "поведение не в духе компании, называющей себя белым рыцарем AI-индустрии"
📣 Цитата из иска:
> “Reddit — одно из последних по-настоящему человеческих мест в интернете. И то, как поступает Anthropic, недопустимо.”
😬 На фоне миллиардных сделок с Google и OpenAI, это может стать прецедентом: что такое "честное использование" данных для ИИ?
Судебная битва за контент только начинается.
https://www.wsj.com/tech/ai/reddit-lawsuit-anthropic-ai-3b9624dd
@ai_machinelearning_big_data
#reddit #Anthropic #ai #claude
Новая версия уже доступна для тестирования и показывает заметные улучшения в:
🧠 кодинге
📊 логическом выводе
🔬 задачах по науке и математике
Pro-версия показывает прирост на 24 пункта Elo, удерживая лидерство на lmarena_ai с результатом 1470.
💬 Также улучшены стиль и структура ответов — Google учла фидбек пользователей.
Gemini обошёл Opus 4 в тестах на веб-разработку (WebDev Arena).
💰 Цены
— до 200 000 токенов: $1.25 вход / $10 выход (за 1M токенов)
— свыше 200 000 токенов: $2.50 вход / $15 выход (за 1M токенов)
🔧Модель достпна уже сейчас в:
- AI Studio
- Vertex AI
- Gemini app
https://blog.google/products/gemini/gemini-2-5-pro-latest-preview/
@ai_machinelearning_big_data
#Gemini #Google
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Anthropic отключила Windsurf от прямого использования моделей Claude 3.5 и 3.7 Sonnet, объяснив это слухами о возможной покупке стартапа OpenAI.
По словам сооснователя Anthropic Джареда Каплана, компания хочет сосредоточиться на долгосрочных партнерствах, так как сейчас сталкивается с нехваткой вычислительных мощностей.
Windsurf, получавший доступ к Claude для разработки своих продуктов, теперь вынужден переходить на сторонние платформы, что может временно нарушить стабильность сервиса для пользователей.
В то же время Anthropic анонсировал сотрудничество с Cursor. Каплан подчеркнул, что фокус компании смещается с чат-ботов на «агентные» решения вроде Claude Code, которые, по его мнению, окажутся более полезными в будущем.
Источник: Techcrunch
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
🎮 Учимся Python прямо в бою — в Steam бесплатно раздают CodeStrike!
Это не просто игра — это шпионский экшен, где ты решаешь всё кодом.
В CodeStrike ты — элитный агент, действующий в мире, захваченном ИИ и алчными корпорациями.
💻 Что тебя ждёт:
• Пишешь Python-код
• Ломаешь системы, обходишь ловушки, взрываешь и взламываешь
• Программируешь поведение героя в реальном времени
• Участвуешь в гонках, сражениях и выживании — только с помощью кода
Это как если бы *Metal Gear* встретился с *LeetCode* — но весело.
🐍 Прокачай Python, даже не замечая, как учишься.
⚡ Вкатиться можно здесь: https://store.steampowered.com/app/3444170/CodeStrike__Python_Practice_Adventure_Game/
@pythonl
Это не просто игра — это шпионский экшен, где ты решаешь всё кодом.
В CodeStrike ты — элитный агент, действующий в мире, захваченном ИИ и алчными корпорациями.
💻 Что тебя ждёт:
• Пишешь Python-код
• Ломаешь системы, обходишь ловушки, взрываешь и взламываешь
• Программируешь поведение героя в реальном времени
• Участвуешь в гонках, сражениях и выживании — только с помощью кода
Это как если бы *Metal Gear* встретился с *LeetCode* — но весело.
🐍 Прокачай Python, даже не замечая, как учишься.
⚡ Вкатиться можно здесь: https://store.steampowered.com/app/3444170/CodeStrike__Python_Practice_Adventure_Game/
@pythonl