Их объединённый портрет, вдохновлённый культовой фотографией «Обед на небоскрёбе», украсил обложку.
В числе тех, кого редакция назвала главными архитекторами новой технологической эры: Илон Маск, Марк Цукерберг, Лиза Су (AMD), Джeнсен Хуанг (Nvidia), Сэм Альтман (OpenAI), Демис Хассабис (DeepMind), Дарио Амодей (Anthropic) и Фэй-Фэй Ли (World Labs).
Как отмечает издание, в 2025 году потенциал ИИ был полностью реализован, а эта группа визионеров окончательно утвердила наступление эпохи мыслящих машин.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥43❤17👍16🤬7😁5🍾2🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Кризис DRAM меняет рынок и подход к обучению современного ИИ.
✔️ Рынок захлестнул дефицит оперативной памяти и других накопителей: ИИ-гиганты выкупили огромные объёмы DRAM, HBM и NAND. Nvidia, по слухам, прекращает поставлять дистрибьюторам видеопамять в комплекте с GPU — теперь её нужно закупать отдельно. На текущий момент цены на SSD и оперативную память выросли на 50-100% по сравнению с началом года. Производители ноутбуков и смартфонов фиксируют задержки поставок, а комплект DDR5 на 64 ГБ уже стоит дороже PS5. 🤯
✔️ Мы спросили Гигачат, как кризис повлияет на развитие нейросетей и обучение моделей. ИИ-помощник формулирует так: "Дефицит памяти — это временный дисбаланс между взрывным ростом ИИ-индустрии и производственными мощностями, которые просто не успели масштабироваться под такой спрос. Высокая стоимость памяти заставляет компании переосмыслить подходы к обучению: вместо наращивания "железа напролом" фокус смещается на эффективные архитектуры и методы.". Подробнее — в видео.
@ai_machinelearning_big_data
#ai #llm #ml #ramcrisis #infrastructure
@ai_machinelearning_big_data
#ai #llm #ml #ramcrisis #infrastructure
Please open Telegram to view this post
VIEW IN TELEGRAM
🗿69❤17😁12🤣10👍8🔥3🥱3🤬2🤗1🦄1
Ряд значительных улучшений, по сравнению с GPT-5.1, особенно в визуальном понимании и сложных рассуждениях.
Приросты в бенчмарках говорят сами за себя:
• SWE-Bench Pro: 50.8% → 55.6%
• GPQA Diamond: 88.1% → 92.4%
• AIME 2025: 94.0% → 100%
• ARC-AGI-2: 17.6% → 52.9%
GPT-5.1 останется доступной платным пользователям ещё три месяца в статусе legacy.
Цены API: $1,75/1M input, $14/1M output (Thinking). Это дороже чем GPT-5.1 ($1,25/$10), но дешевле Gemini 3 Pro.
https://openai.com/index/introducing-gpt-5-2/
@ai_machinelearning_big_data
#chatgpt #OpenAI
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥103👍41❤26😁6🦄2☃1🤗1
Media is too big
VIEW IN TELEGRAM
ARC Prize зафиксировали рекорд GPT-5.2 Pro (X-High). Модель достигла точности 90,5% при стоимости вычислений $11,64 за задачу. Тесты ARC-AGI - это уникальные задачи, требующие навыков обобщения и логики, что исключает возможность запоминания паттернов из обучающей выборки.
Несмотря на успех, экономика процесса пока отстает от идеала. Стоимость решения одной задачи все еще в 58 раз превышает целевой показатель бенчмарка ($0,20), а до человеческого уровня (100% точности) сохраняется разрыв. На более сложном наборе ARC-AGI-2 модель показала результат 54,2%.
ARC Prize в сети Х
Спецификация Really Simple Licensing (RSL), позволяющая издателям диктовать условия лицензирования для ИИ-краулеров, получила статус официального стандарта. Технически, это расширение файла
robots.txt, которое дает возможность указывать правила компенсации за парсинг контента.RSL получил поддержку со стороны гигантов: стандарт внедрили Cloudflare, Akamai и Fastly. Это превращает RSL из простой декларации в рабочий механизм — провайдеры смогут блокировать на уровне CDN тех ботов, которые игнорируют условия лицензии.
Еще одна важная особенность версии 1.0 — гранулярный контроль видимости. Теперь ресурсы могут запретить использование своих материалов в генеративных ответах, сохраняя при этом позиции в классической поисковой выдаче.
rslstandard.org
Компании объявили о соглашении, которое меняет правила игры в сфере авторского права в ИИ. Начиная со следующего года, Sora сможет официально использовать образы Микки Мауса, Йоды и других героев студии. В рамках сделки Disney получает долю в OpenAI размером в $1 млрд, а ее инженеры - приоритетный доступ к API ChatGPT для внутренних разработок.
Для Disney, известной своей жесткой позицией по защите авторских прав это стратегический разворот. Вместо безуспешных попыток полностью запретить генерацию своих персонажей, корпорация решила возглавить процесс и монетизировать его.
Стороны обещают внедрить жесткие фильтры безопасности, а на Disney+ появится раздел с фанатскими видео, созданными в Sora.
openai.com
DeepMind представила апдейт для моделей синтеза речи Gemini Flash TTS и Pro TTS, заменяющий майские версии этого года. Разделение по задачам осталось прежним: Flash для real-time приложений, а Pro - для максимального качества.
Теперь модели жестче придерживаются системных промптов, задающих тон, настроение и ролевую модель спикера. Добавили контекстно-зависимое управление темпом: алгоритм автоматически замедляет речь на плотной информации и ускоряется там, где это уместно, либо строго следует явно заданным таймингам.
Также инженеры стабилизировали работу мульти-спикерных диалогов: голоса собеседников больше не «плывут» и остаются четко различимыми.
blog.google
Компания опубликовала исследование об эволюции взаимодействия с ИИ-ассистентом за последний год. Данные показывают смену аудитории: если в январе среди запросов доминировало программирование, то к концу года вектор сместился в сторону социальных тем. Это подтверждает выход технологии в мейнстрим - пользователи всё чаще видят в ИИ не просто умный поиск, а полноценного советчика.
Отчет также подсвечивает зависимость запросов от контекста. Мобильные устройства закрепили за собой роль карманных консультантов по здоровью и психологии. Время суток тоже влияет на содержание: глубокой ночью растет доля философских и экзистенциальных бесед.
Для разработчиков эти метрики важны: следующее поколение ассистентов должно уметь адаптироваться не только под текст запроса, но и под устройство и время обращения.
microsoft.ai
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
👍60❤22🔥7🦄2
MWS Cloud запускает сервис MWS GPU on-premises — сервис для тех, кому не подходит облако.
Серверы с графическими ускорителями устанавливаются на площадке предприятия или в дата-центре MWS Cloud.
Команда поможет подобрать конфигурацию под ваши задачи, установит оборудование и возьмёт на себя поддержку. Можно выбрать готовое решение из более чем 20 конфигураций или собрать индивидуальное. Всего доступно 7 видов GPU. Покупка или аренда — на ваше усмотрение.
Сервис особенно актуален для промышленных компаний с существующими on-premises системами и медицинских организаций, использующих ИИ для диагностики.
Все конфигурации и условия — на странице сервиса.
Серверы с графическими ускорителями устанавливаются на площадке предприятия или в дата-центре MWS Cloud.
Команда поможет подобрать конфигурацию под ваши задачи, установит оборудование и возьмёт на себя поддержку. Можно выбрать готовое решение из более чем 20 конфигураций или собрать индивидуальное. Всего доступно 7 видов GPU. Покупка или аренда — на ваше усмотрение.
Сервис особенно актуален для промышленных компаний с существующими on-premises системами и медицинских организаций, использующих ИИ для диагностики.
Все конфигурации и условия — на странице сервиса.
🔥16👍12❤7😁2🦄2🗿1💘1
PyRoki (Python Robot Kinematics) - это модульный, расширяемый и кроссплатформенный инструментарий, заточенный под задачи кинематической оптимизации и реализованный полностью на Python.
Фишка библиотеки - в предоставлении дифференцируемой модели прямой кинематики робота, которая строится на основе URDF-файлов, тем самым избавляя инженера от необходимости вручную прописывать кинематические цепи: система не только парсит описание робота, но и автоматически генерирует примитивы коллизий.
С точки зрения математического аппарата, PyRoki интегрируется с решателем Levenberg-Marquardt (через jaxls). Это дает возможность проводить оптимизацию на многообразиях, а также обрабатывать жесткие ограничения с помощью решателя на основе модифицированной функции Лагранжа.
Библиотека предлагает готовые реализации cost-функций: поза рабочего органа, коллизии с самим собой или объектами мира и метрики манипулируемости.
Если стандартного набора недостаточно, архитектура позволяет задавать свои функции затрат, используя как автоматическое дифференцирование, так и аналитические якобианы.
Благодаря базе JAX, библиотека кроссплатформенна: ее работа возможна на CPU, GPU и TPU.
Компиляция триггерится при первом запуске, а также каждый раз, когда меняются формы входных данных: например, количество целей или препятствий.
Чтобы избежать расходов на перекомпиляцию, рекомендуется использовать предварительный паддинг массивов, что позволяет векторизовать вычисления для входов с различными шейпами.
Также стоит учитывать, что в библиотеке отсутствуют планировщики, основанные на сэмплировании (графы, деревья), поэтому задачи глобального планирования пути придется решать внешними средствами.
На данный момент PyRoki работает исключительно с кинематическими деревьями; замкнутые механизмы или параллельные манипуляторы не поддерживаются.
Список доступных типов джоинтов ограничен 4 позициями: вращательные, непрерывные, призматические и фиксированные. Любые другие типы соединений, встреченные в URDF, будут автоматически интерпретироваться системой как фиксированные.
Для геометрии коллизий набор примитивов также фиксирован: поддерживаются сферы, капсулы, полупространства и карты высот.
Если ваша модель использует сложные меши, коллизии для них будут аппроксимироваться капсулами.
В вопросах производительности, особенно в сценариях с интенсивными проверками коллизий, PyRoki, вероятно, уступает CuRobo, хотя, как говорится в документации - сравнительные тесты скорости и точности авторами пока не проводились.
@ai_machinelearning_big_data
#AI #ML #Robotics #Pyroki #Python
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍27🔥13❤11👏1👌1🤗1🦄1
Ускорит ли ИИ технологический и научный прогресс?
В гостях подкаста «Деньги любят техно» побывал Арутюн Аветисян, директор Института системного программирования РАН, академик, доктор физико‑математических наук.
Интересно послушать и посмотреть всем, кто задумывается о том:
— как строится карьера учёного в современной реальности;
— какие качества выделяют перспективного исследователя;
— что превращает гипотезу в реальный прорыв;
— способен ли ИИ ускорить технологический прогресс;
— какие вызовы несёт дальнейшая цифровизация и роботизация;
— как строить продуктивное взаимодействие между наукой, бизнесом и open‑source‑сообществом.
Ведущий — Денис Суржко, заместитель руководителя департамента анализа данных и моделирования ВТБ.
Эпизод точно будет полезен дата‑сайентистам и исследователям, которые задумываются о карьерных перспективах и хотят развиваться в своих сферах.
#Podcast #AI #ML #DataScience
Посмотреть 👈
Послушать 👈
В гостях подкаста «Деньги любят техно» побывал Арутюн Аветисян, директор Института системного программирования РАН, академик, доктор физико‑математических наук.
Интересно послушать и посмотреть всем, кто задумывается о том:
— как строится карьера учёного в современной реальности;
— какие качества выделяют перспективного исследователя;
— что превращает гипотезу в реальный прорыв;
— способен ли ИИ ускорить технологический прогресс;
— какие вызовы несёт дальнейшая цифровизация и роботизация;
— как строить продуктивное взаимодействие между наукой, бизнесом и open‑source‑сообществом.
Ведущий — Денис Суржко, заместитель руководителя департамента анализа данных и моделирования ВТБ.
Эпизод точно будет полезен дата‑сайентистам и исследователям, которые задумываются о карьерных перспективах и хотят развиваться в своих сферах.
#Podcast #AI #ML #DataScience
Посмотреть 👈
Послушать 👈
❤10🙈10👍6🥰4🤗4🥱3🙏2🦄1🙊1
ОMC25 - крупнейший набор данных по молекулярным кристаллам, рассчитанный методом теории функционала плотности (DFT) в пакете VASP.
В основе датасета лежат структуры, полученные из траекторий релаксации молекулярных кристаллов. Сами исходные кристаллы были сгенерированы с помощью инструмента Genarris 3.0, который, в свою очередь, использовал молекулы из известного набора OE62. Это обеспечивает преемственность данных и четкую привязку к проверенным химическим структурам, но масштаб здесь совершенно иной.
Тренировочная часть содержит почти 25 млн. фреймов. Это данные по 207 тыс. кристаллов, которые, в свою очередь, произошли от 44 тыс. уникальных молекул.
Валидационная часть меньше, но тоже весовая: около 1,4 миллиона кадров. Данные упакованы в формате ase-db как объекты LMDBDatabase, что является стандартом в задачах машинного обучения для химии.
Исходные кристаллы были созданы программой Genarris 3.0. Она, в свою очередь, использовала молекулы из популярного набора OE62. Так что у данных есть четкая привязка к проверенным химическим структурам.
Работа с данными сета происходит через библиотеку
fairchem. Каждая структура хранится как объект ASE Atoms, что привычно для инженеров, работающих с атомистическим моделированием. Ключевые метки для обучения моделей включают полную энергию DFT, силы, действующие на атомы, и тензор напряжений . Это "каноническая троица" для обучения межатомных потенциалов. Помимо физических величин, в атрибуте
atoms.info зашиты критически важные метаданные.Помимо самого набора, авторы выложили базовый чекпоинт eSEN-S, обученный на всём OMC25.
@ai_machinelearning_big_data
#AI #ML #Dataset #FAIR #Chemistry
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤68👍19🔥8🦄1
Занимательная история Дэвида Ноэля о том, как он купил ИИ-оборудование корпоративного класса, разработанное для серверных стоек с жидкостным охлаждением, которое затем переоборудовал под воздушное охлаждение, потом снова переоборудовал под водяное, пережил множество ситуаций, близких к катастрофе, и, в итоге получил настольный компьютер, способный запускать модели с 235 миллиардами параметров дома.
Это рассказ о сомнительных решениях и нестандартном подходе к решению проблем. И немного о том, что происходит, когда пытаешься превратить оборудование для ЦОДа в домашний сетап.
Если вы когда-либо задавались вопросом, что нужно для запуска действительно крупных моделей локально, или если вы просто хотите посмотреть, как кто-то разбирает оборудование стоимостью 80 000 долларов, полагаясь лишь на надежду и изопропанол, то эта статья не оставит вас равнодушным.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤48👍23🔥10🦄6🆒2
Media is too big
VIEW IN TELEGRAM
Деловое издание отметило ключевую роль Хуанга в трансформации полупроводниковой индустрии и глобальном распространении ИИ. NVIDIA оказалась в центре беспрецедентной инвестиционной программы частного сектора, что позволило ей первой в мире преодолеть рубеж рыночной капитализации в $5 трлн. и стать самой дорогой компанией на планете.
FT утверждает, что 2025 год войдет в историю как время, когда дата-центры окончательно закрепились в статусе критически важной инфраструктуры. Наращивание вычислительных мощностей для ИИ превратилась в драйвер экономики, обеспечив значительную долю роста ВВП США.
ft.com
NVIDIA Research предлагает смену парадигмы Computer-Aided Engineering (CAE) на AI-Aided Engineering. Вместо прямых вычислений предлагается использовать ИИ-модели, обученные на физических законах и данных симуляций. Такие модели работают как быстрая замена классическим расчётам. Например, прогноз погоды можно сделать за минуты вместо дней.
Основной технический вектор исследований направлен на отказ от дискретизированных мешей. NVIDIA разрабатывает архитектуры, которые смогут работать напрямую с CAD-геометрией. Это сохранит физическую точность расчетов, значительно упростив подготовку данных.
В итоге AIAE-модели хотят интегрировать в платформу Omniverse для создания интерактивных цифровых двойников, где инженеры смогут мгновенно видеть результат при изменении параметров.
research.nvidia.com
Агент специализируется на длительных задачах по сбору и синтезу контекста, используя модель Gemini 3 Pro . Он самостоятельно формирует запросы, анализирует контент, выявляет пробелы в полученных данных и проводит повторный поиск до формирования качественного отчета.
Эффективность решения подтверждается рекордными 46.4% на бенчмарке HLE и 66.1% на собственном DeepSearchQA. В ближайших обновлениях обещают поддержку MCP, который позволит подключать агента к кастомным источникам данных, и нативную генерацию аналитических графиков.
blog.google
Семейство пополнилось моделями Olmo 3.1 Think и Instruct на 32 млрд. параметров. Версия Think получила расширенное RL, в результате чего модель прибавила 5 пунктов в AIME и 20 в IFBench, обойдя предыдущую версию и закрепив за собой статус лидера среди полностью открытых ризонинг-моделей. Вариант Instruct, в свою очередь, оптимизирован для диалогов, работы с инструментами и удержания длительного контекста.
Параллельно Ai2 обновила и младшие модели Olmo RL-Zero 7B, специализирующиеся на математике и коде, повысив стабильность их обучения. Институт продолжает придерживаться принципов открытости: сообществу доступны не только веса, но и полные датасеты, трейн-код и логи.
Ai2 в сети Х
Новинка понимает законы физики, геометрию и причинно-следственные связи, предсказывая изменения среды кадр за кадром. Архитектура модели пока разделена на 3 направления, которые в будущем планируется объединить.
GWM-Worlds создает интерактивные виртуальные миры по текстовому или визуальному запросу в 720p при 24 fps. GWM-Robotics генерирует синтетические данные для обучения роботов, позволяя моделировать редкие сценарии и препятствия, а GWM-Avatars фокусируется на реалистичной симуляции человеческого поведения. Компания уже готовит SDK для доступа к инструментам робототехники и ведет переговоры с промышленными партнерами.
runwayml.com
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤61👍19🔥12💯2❤🔥1🤗1🗿1🦄1
Представьте себе биологическую нейросеть, физический объем которой, если собрать все её ткани вместе, не превысит размер обычной клубники.
Именно такую компактную, но критически важную структуру описывает нейробиолог Эв Федоренко из MIT, посвятившая 15 лет изучению того, как наш мозг обрабатывает речь.
Её выводы звучат для инженеров и дата-сайентистов очень знакомо: внутри человеческой головы функционирует система, которая ведет себя подозрительно похоже на современные большие языковые модели. Это своего рода «бездумный» языковой процессор, который занимается маппингом слов и смыслов, но сам при этом абсолютно не умеет мыслить.
Лаборатория Федоренко провела фМРТ-сканирование 1400 человек, чтобы построить детальную вероятностную карту мозговой активности.
Архитектура этой «языковой сети» оказалась удивительно стабильной и воспроизводимой: у большинства взрослых людей она локализуется в 3 конкретных зонах левой лобной доли и на протяженном участке вдоль средней височной извилины.
Федоренко называет эту структуру функциональным блоком, сравнимым с органом, вроде пищеварительной системы, или зоной распознавания лиц.
Самое интересное начинается, если посмотреть на функционал. Федоренко описывает эту сеть как парсер или набор указателей. Её задача сугубо утилитарна — работать интерфейсом между входными сигналами (звук, текст, жесты) и абстрактными представлениями смысла, хранящимися в совершенно других отделах мозга.
Сама языковая сеть не обладает ни эпизодической памятью, ни социальным интеллектом, ни способностью к рассуждению. Весь процесс раздумий происходит за её пределами.
Это объясняет феномен афазии: при повреждении этого «интерфейса» человек сохраняет сложное когнитивное мышление, но оказывается заперт внутри себя, потеряв доступ к словарю и грамматическим правилам.
Исследования показывают, что человеческая языковая сеть имеет крайне узкое контекстное окно: она способна эффективно обрабатывать чанки длиной максимум в 8–10 слов.
По сути, это довольно поверхностная система. Она реагирует на грамматически верную бессмыслицу Ноама Хомского «Colorless green ideas sleep furiously» так же активно, как и на осмысленные предложения. Ей важна структура и статистическая вероятность стыковки слов, а не истинность или глубокий смысл высказывания.
Это роднит её с ранними языковыми моделями: сеть просто выучила правила, по которым слова собираются в цепочки.
Данные Федоренко заставляют пересмотреть и классические представления об анатомии, ведь многие учебники до сих пор ссылаются на устаревшие концепции.
Например, зона Брока, которую десятилетиями считали центром речи, на деле оказалась областью моторного планирования. Она лишь готовит мышцы рта к артикуляции и активируется даже при произнесении полной бессмыслицы, работая как ведомый регион для получения команд.
Настоящая же языковая сеть мозга - это отдельный, специализированный вычислительный кластер, который, подобно ChatGPT, блестяще имитирует связность речи, даже если за ней не стоит никакой реальной мысли.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤124👍40💯22🤣21🔥10🤓5🙉4🥰3🦄3💅1
XiYan-SQL - это open-source решение, позволяющее генерировать, анализировать и выполнять SQL-запросы с использованием больших языковых моделей. Инструмент ориентирован на ускорение исследования данных и автоматизацию рутинных операций, связанных с запросами к базе.
Ключевые возможности:
- Генерация SQL из естественного языка -пользователь формулирует задачу обычными словами, а система преобразует её в корректный SQL-запрос.
- Интерактивная работа с базой данных - запросы можно оперативно уточнять, редактировать и выполнять, получая быстрый цикл обратной связи.
- Поддержка нескольких СУБД - PostgreSQL, MySQL, SQLite и другие.
- 🛠️ Минимальная конфигурация - подходит для анализа данных, прототипирования и облегчения доступа к базе без сложной инфраструктуры.
🔗 Репозиторий: github.com/XGenerationLab/XiYan-SQL
@ai_machinelearning_big_data
#sql #llm #ai #opensource #database #datatools #postgresql
Please open Telegram to view this post
VIEW IN TELEGRAM
👍49❤24🔥13❤🔥6🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Он разговаривает с Gemini Live прямо за рулём - обсуждает энергопотребление дата-центров, стоимость инфраструктуры и другие рабочие темы.
Это классический Google-style: тестировать собственный продукт в реальной жизни. Напоминает историю про Билла Гейтса, который снял радио из машины, чтобы постоянно думать о Microsoft.
Такой уровень одержимости - редкость. И, честно, именно он отличает по-настоящему больших фаундеров.
Интересная деталь: Сергей говорит, что версия Gemini, которой он пользуется в машине, заметно лучше того, что доступно публично сейчас.
@ai_machinelearning_big_data
#Gemini #google #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤107👍31🔥15🤣15😁12🥱12🤓5🙊2👏1🤨1💋1
Закрытая питч-сессия фонда «Восход» для ИИ-стартапов
Фонд «Восход» активно ищет новые проекты для инвестиций в области ИИ и проводит закрытую питч-сессию, чтобы отсмотреть как можно больше РФ-компаний этого профиля.
📅Отбор состоится 15 января 2026 года онлайн
Приоритетные направления
Посмотрят все заявки в рамках темы, но фокус будет на следующих нишах:
📌Вертикальные ИИ-решения
📌Инфраструктура и инструменты для разработки ИИ
📌Инструменты для работы с данными для ИИ
📌Корпоративные ИИ-приложения и копайлоты
📌Другое
Подробную разбивку тем в каждой из ниш можно изучить в канале «Восхода».
Требования к проектам:
- необходимо наличие MVP и воронки клиентов (стадии late seed, A и старше);
- инкорпорирование в РФ;
- сформированная опытная команда.
Инвестиции
Фонд вкладывает от нескольких десятков миллионов рублей до 1 млрд руб в один проект. Проекты, которые заинтересуют фонд, будут включены в пайплайн для дальнейшей работы. Другие получат сразу обратную связь.
🔥Приглашенный эксперт отбора – глава направления ИИ в Т-банке Виктор Тарнавский.
О фонде
«Восход» инвестирует в российские быстрорастущие технологические компании на стадиях от seed до pre-IPO. Якорный инвестор — группа «Интеррос», объем фонда — 18 млрд руб. В портфеле 40 компаний.
❗️Чтобы принять участие, присылайте питч-деки в pdf до 30 декабря 19.00 на info_vld@voskhod.vc с пометкой "Проект на AI"
Реклама: АО «Аркадия» ИНН: 7808004270 erid:2Vtzqv87ERQ
Фонд «Восход» активно ищет новые проекты для инвестиций в области ИИ и проводит закрытую питч-сессию, чтобы отсмотреть как можно больше РФ-компаний этого профиля.
📅Отбор состоится 15 января 2026 года онлайн
Приоритетные направления
Посмотрят все заявки в рамках темы, но фокус будет на следующих нишах:
📌Вертикальные ИИ-решения
📌Инфраструктура и инструменты для разработки ИИ
📌Инструменты для работы с данными для ИИ
📌Корпоративные ИИ-приложения и копайлоты
📌Другое
Подробную разбивку тем в каждой из ниш можно изучить в канале «Восхода».
Требования к проектам:
- необходимо наличие MVP и воронки клиентов (стадии late seed, A и старше);
- инкорпорирование в РФ;
- сформированная опытная команда.
Инвестиции
Фонд вкладывает от нескольких десятков миллионов рублей до 1 млрд руб в один проект. Проекты, которые заинтересуют фонд, будут включены в пайплайн для дальнейшей работы. Другие получат сразу обратную связь.
🔥Приглашенный эксперт отбора – глава направления ИИ в Т-банке Виктор Тарнавский.
О фонде
«Восход» инвестирует в российские быстрорастущие технологические компании на стадиях от seed до pre-IPO. Якорный инвестор — группа «Интеррос», объем фонда — 18 млрд руб. В портфеле 40 компаний.
❗️Чтобы принять участие, присылайте питч-деки в pdf до 30 декабря 19.00 на info_vld@voskhod.vc с пометкой "Проект на AI"
Реклама: АО «Аркадия» ИНН: 7808004270 erid:2Vtzqv87ERQ
👍10❤6🤓5🤣3🗿3🔥2🦄1
⚡️ FAANG software engineer рассказал, как на самом деле выглядит «vibe coding» в FAANG
Спойлер: это не просто сидеть и писать код с ИИ. Большая часть работы происходит до того, как ты вообще откроешь редактор.
Как это выглядит на практике:
1. Technical Design Doc
Всё начинается с дизайн-документа. Это proposal, где ты доказываешь, что идея имеет смысл. Нужно согласие стейкхолдеров, команд и архитекторов. Здесь делается львиная доля работы.
2. Design Review
Дизайн-док проходит жёсткий разбор у senior-инженеров. Документ буквально «разрывают». И это нормально - боль просто переносят в начало, чтобы потом не чинить продакшн.
3. Детализация подсистем
После одобрения дизайн-дока команды несколько недель дописывают документацию по каждому подсервису и компоненту.
4. Backlog и спринты
Dev, PM и TPM вместе дробят систему на конкретные задачи и выстраивают порядок их реализации.
5. Разработка (вот тут появляется vibe coding)
Только теперь начинается кодинг. Используется TDD:
- сначала ИИ-агент пишет тесты
- затем тот же агент помогает реализовать фичу
ИИ здесь не замена инженеру, а мощный ускоритель.
6. Code Review
Перед мержем нужно одобрение двух разработчиков. ИИ всё чаще помогает и на этапе ревью.
7. Staging и production
Сначала тесты и проверка в staging. Если всё ок - деплой в прод.
Главный вывод:
В FAANG «vibe coding» работает только потому, что вокруг него стоит жёсткая инженерная дисциплина, дизайн-доки и процессы.
ИИ ускоряет выполнение задач, но не отменяет системное мышление и архитектуру.
reddit.com/r/vibecoding/comments/1myakhd/how_we_vibe_code_at_a_faang/
Спойлер: это не просто сидеть и писать код с ИИ. Большая часть работы происходит до того, как ты вообще откроешь редактор.
Как это выглядит на практике:
1. Technical Design Doc
Всё начинается с дизайн-документа. Это proposal, где ты доказываешь, что идея имеет смысл. Нужно согласие стейкхолдеров, команд и архитекторов. Здесь делается львиная доля работы.
2. Design Review
Дизайн-док проходит жёсткий разбор у senior-инженеров. Документ буквально «разрывают». И это нормально - боль просто переносят в начало, чтобы потом не чинить продакшн.
3. Детализация подсистем
После одобрения дизайн-дока команды несколько недель дописывают документацию по каждому подсервису и компоненту.
4. Backlog и спринты
Dev, PM и TPM вместе дробят систему на конкретные задачи и выстраивают порядок их реализации.
5. Разработка (вот тут появляется vibe coding)
Только теперь начинается кодинг. Используется TDD:
- сначала ИИ-агент пишет тесты
- затем тот же агент помогает реализовать фичу
ИИ здесь не замена инженеру, а мощный ускоритель.
6. Code Review
Перед мержем нужно одобрение двух разработчиков. ИИ всё чаще помогает и на этапе ревью.
7. Staging и production
Сначала тесты и проверка в staging. Если всё ок - деплой в прод.
Главный вывод:
В FAANG «vibe coding» работает только потому, что вокруг него стоит жёсткая инженерная дисциплина, дизайн-доки и процессы.
ИИ ускоряет выполнение задач, но не отменяет системное мышление и архитектуру.
reddit.com/r/vibecoding/comments/1myakhd/how_we_vibe_code_at_a_faang/
❤82🔥37👍19🥱8🥰5🌭1🦄1
This media is not supported in your browser
VIEW IN TELEGRAM
Впервые Tetris сыграли буквально в небе - фигуры собирались из тысяч дронов и менялись в реальном времени в ответ на действия игроков.
В воздух поднимались более 2 800 дронов одновременно, а всего в шоу участвовало около 4 000. Они формировали знакомые тетромино, линии и анимации, превращая классическую игру в гигантскую живую инсталляцию.
В турнире приняли участие игроки из 60 стран. Победителем стал 19-летний студент из Турции Фехми Аталар. Он набрал 168 566 очков и стал первым в истории официальным чемпионом мира по Tetris.
Шоу было приурочено к 40-летию игры и установило рекорд как крупнейшая уличная инсталляция Tetris. Отличный пример того, как культовая игра может получить вторую жизнь благодаря технологиям.
@ai_machinelearning_big_data
#RedBullTetrisWorldFinal #RedBullTetrisChampion
Please open Telegram to view this post
VIEW IN TELEGRAM
👍59❤19🔥16🥰9🙉3👾2🎉1🦄1
Американское издание Marktechpost выкатило доклад ML Global Impact Report 2025, который охватывает исследования из более чем 125 стран мира. В число самых популярных ML-инструментов в исследованиях вошла российская технология CatBoost.
CatBoost, который изначально создавался для Поиска Яндекса, сегодня используется в каждой 30-й статье с применением ML учеными из 51 страны, включая США, Китай, Саудовскую Аравию и другие. В частности, на США приходится 13% статей с использованием CatBoost, среди авторов работ — исследователи из Harvard University, Massachusetts Institute of Technology и Stanford University.
В числе основных отраслей применения — медицина и прикладные науки:
- прогнозирование рецидивов рака печени
- обнаружение рака молочной железы
- ранняя диагностика болезни Альцгеймера
- оценка риска преждевременных родов
- индекс качества воды
- расчет спроса на зарядку электромобилей
- борьба с ботами в социальных сетях.
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍115🔥39❤14🥱8🤣5😁3🏆1
Ключевые характеристики:
- MoE-архитектура: 30B параметров всего, ~3.5B активных
- Контекст до 1 миллиона токенов
- Гибридная архитектура:
- 23 слоя Mamba-2 + MoE
- 6 attention-слоёв
- Баланс между скоростью и качеством рассуждений
Требования:
- необходимо около 24 ГБ видеопамяти для локального запуска
Модель хорошо подходит для длинных диалогов, анализа документов и reasoning-задач
Интересный пример того, как MoE и Mamba начинают реально снижать требования к железу, сохраняя масштаб контекста и качество.
Для обучения Super и Ultra используется NVFP4 и новая архитектура Latent Mixture of Experts. Она позволяет задействовать в четыре раза больше экспертов при той же стоимости инференса. По сути, модель становится «умнее» за счёт более гибкого выбора экспертов, а не за счёт постоянной активации всех параметров.
Дополнительно применяется Multi-Token Prediction, что ускоряет обучение и улучшает качество рассуждений на длинных последовательностях. Это особенно важно для agentic и multi-agent сценариев, где модели работают с длинным контекстом и сложными цепочками решений.
NVIDIA публикует не только веса, но и данные для предобучения и постобучения, а также технические детали, которые объясняют, почему эти модели одновременно быстрые и сильные.
Такой уровень открытости - редкость для моделей этого масштаба и хороший сигнал для индустрии.@ai_machinelearning_big_data
#AI #LLM #NVIDIA #Nemotron3 #OpenSource #MachineLearning
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥36❤16👍13🦄1