Forwarded from Анализ данных (Data analysis)
🔭 Вышло огромное исследование на 303 страницы от ведущих китайских лабораторий — подробный разбор того, как создают и обучают модели, ориентированные на написание кода, и как на их основе строят полноценные софт-агенты.
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
Вот что в нём разбирается:
1. Как формируют модель
- Сбор и очистка гигантских датасетов кода.
- Предобучение: модель впитывает реальные паттерны программирования в промышленных масштабах.
- SFT и RL: дополнительные этапы, где модель учат лучше следовать инструкциям, проходить тесты и избегать очевидных ошибок.
2. Как модели превращают в инженерных агентов
- Агент читает баг-репорт или фичу.
- Планирует шаги.
- Меняет файлы.
- Запускает тесты.
- Повторяет цикл, пока не добьётся результата.
3. Какие проблемы всё ещё остаются
- Работа с огромными репозиториями.
- Безопасность и надёжность генерируемого кода.
- Корректная оценка качества работы агентов.
- Реальные приёмы и лайфхаки, которые используют текущие команды.
Исследование - мощный срез состояния индустрии: от датасетов и архитектур до практических инженерных пайплайнов. Это именно то, как современные LLM превращаются в «второго разработчика» в команде.
https://arxiv.org/abs/2511.18538
@data_analysis_ml
🔥5👍4❤1🎉1
🚀 соревнование по переводу на тюркские языки на LoResMT'2026
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
Всем привет, только в понедельник писали о запуске нашего соревнования по машинному переводу на малоресурсные тюркские языки. А у нас уже две новости.
🔹 Все языковые пары доступны:
- русский - башкирский
- английский - чувашский
- русский - казахский
- английский - татарский
- русский - кыргызский
👑 У нас появился спонсор! Компания Selectel решила поддержать нас и выделила для победителей по 30000 бонусов на каждую языковую пару! Этого хватит на две недели аренды А100 в облаке Selectel.
🗓 Важные даты
- Прием решений: 1 декабря 2025 — 11 января 2026
- Подача описаний систем: до 27 января 2026
- Воркшоп: LoResMT (параллельно с EACL 2026, Марокко)
🔗 Готовы присоединиться?
https://ods.ai/tracks/turkic-lores-mt
Будем рады всем участникам! 🌍🗣️
🔥2
Forwarded from Китай.AI
🤖 Китайская модель MiniMax M2 лидирует в тесте на «сообразительность» AI-агентов
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Представьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
Китайский открытый ИИ MiniMax M2 показал лучший результат среди конкурентов в специализированном бенчмарке для программных инженеров. Секрет успеха — новая архитектура мышления модели.
Mini-SWE-agent — это тест, который проверяет способность больших языковых моделей выполнять реальные задачи по разработке ПО: планировать, взаимодействовать со средой и использовать инструменты.
🎯 Что такое Interleaved Thinking (Перекрёстное мышление)?
Это технология, которая позволяет модели не просто думать, а думать в процессе действия. Вместо того чтобы сначала полностью продумать план, а потом выполнить его, модель чередует этапы:
Размышление → Действие (вызов инструмента) → Наблюдение за результатом → Корректировка планаПредставьте инженера, который не пишет весь код сразу, а постоянно тестирует и правит его по ходу работы. Именно так теперь «работает» передовой ИИ.
🧠 Почему это важно? Решение проблемы «дрейфа состояния»
В сложных задачах, где нужно много шагов, у агентов была ключевая проблема — «дрейф состояния» или «забывчивость». Модель вызывала инструмент, получала результат, но забывала, зачем она это сделала и какой был общий контекст. Это как потерять нить рассуждений в середине сложного объяснения.
Interleaved Thinking решает эту проблему, сохраняя цепочку рассуждений живой на протяжении всей задачи.
📈 Тренд становится стандартом
Технологию внедряют и другие ведущие модели:
• Kimi K2 thinking — поддерживает «Thinking-in-Tools».
• Gemini 3 Pro — использует внутренний режим мышления с «подписью мысли».
• DeepSeek V3.2 — реализовал механизм «Thinking in Tool-Use».
💎 Вывод
Interleaved Thinking перестаёт быть экзотикой и становится must-have фичей для AI-агентов, которым предстоит работать в сложных, многошаговых сценариях.
GitHub
#КитайскийИИ #КитайAI #MiniMax #AIагенты #InterleavedThinking
GitHub
GitHub - MiniMax-AI/Mini-Agent: A minimal yet professional single agent demo project that showcases the core execution pipeline…
A minimal yet professional single agent demo project that showcases the core execution pipeline and production-grade features of agents. - MiniMax-AI/Mini-Agent
👍3❤1
Forwarded from GigaDev — разработка GigaChat
GigaAM-v3 на Хабре
➡️ Хабр
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
🔘 Распределение данных по доменам
🔘 Эксперименты с масштабирование модели по параметрам
🔘 Сравнение токенизаторов
🔘 Анализ ошибок end-to-end моделей
🔘 LLM-as-a-judge для распознавания речи
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Спешим поделиться постом о создании GigaAM-v3!
В статье много технических деталей для специалистов:
По пути к релизу GigaAM-v3 ворвалась в top trending ASR-моделей на HuggingFace, обогнав свежий релиз OmniLingual ASR 🚀
👉 Приходите на «Салют, Гига!» — там вы сможете вживую пообщаться с разработчиками GigaAM, задать вопросы по статье, узнать детали обучения мультиязычного GigaAM Max и обсудить, как мы модифицировали HuBERT-CTC для использования в GigaChat Audio.
Please open Telegram to view this post
VIEW IN TELEGRAM
👍1🔥1🤯1🤡1
Forwarded from Код Дурова
This media is not supported in your browser
VIEW IN TELEGRAM
Популярные ИИ-модели, которым выдавали депозит по 10 000 долларов, по результатам эксперимента прогорели на торговле акциями.
GPT-5.1 и Gemini 3 Pro потеряли немного, а вот у Grok 4, например, осталось меньше половины от депозита. В плюс вышла только «секретная модель»:
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯1
Forwarded from Kaspersky
😈 Фальшивый ИИ-сайдбар — помощник с двойным дном
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Исследователи кибербезопасности разработали новую атаку на ИИ-браузеры под названием AI Sidebar Spoofing. Для этого они внедрили в браузеры Comet и Atlas вредоносный сайдбар, — боковую панель, через которую пользователь «общается» с нейросетью.
Фальшивый помощник работает почти как настоящий: передаёт легитимной LLM-модели запросы от пользователя и показывает ответы ИИ. Вот только время от времени расширение подменяет инструкции на вредоносные, предлагает жертве перейти по фишинговой ссылке или вовсе подталкивает её выполнить опасную команду.
Слепое доверие ИИ-ответам может привести к печальным последствиям: с помощью AI Sidebar Spoofing злоумышленники способны угонять криптокошельки, захватывать Google-аккаунты и компрометировать устройства.
В нашем материале рассказываем о трёх сценариях использования атаки и даём советы, как не стать жертвой поддельного ИИ-сайдбара.
Forwarded from ИИ что дальше
Отраслевые LLM: хайп или тренд
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
Прямо сейчас я на Conversation AI. Лучшая, на мой взгляд, конференция по AI, которая концентрируется на специалистах, сообществе и бизнес-результатах.
О чем говорили хэдлайнеры конференции и в чем сошлись их мнения? Изучил доклады и лично задал вопросы.
👨 Данил Ивашечкин. Head of AI – Норникель
1. AI – инструмент, а не панацея. Инструмент мощный, но требующий экспертизы, данных и понимания процессов.
2. AI усиливает хорошо структурированное и описанное. Если в компании и ее процессах хаос – AI увеличит хаос.
3. AI-прототип не равно продукт. Собрать демо можно за ночь. Сделать надежный и эффективный сервис – задача месяцев работы.
Мнение автора: Очень разделяю. При внедрении LLM в Робота Макса мы за 3 дня сделали прототип и провели демо руководителям Минцифры России, чтобы доказать состоятельность видения. Но сам путь внедрения и отладки занял еще 6 месяцев, несмотря на поддержку крупнейших партнеров из GenAI отрасли.
4. Культура – один из ключевых факторов успешного применения AI. Если сотрудники не понимают ценности и принципы применения AI, скорость внедрения и эффекты будут низкими.
5. METALgpt – 🔥 Норникель выпустит доменную ЛЛМ. Анонсируют кратное сокращение затрат на инференс и лучшее понимание узкой отраслевой терминологии.
👩 Светлана Сафронова. Управляющий директор управления ИИ-решений – Сбер
1. Доходы от применения GenAI растут. 1.1 трлн долларов к 2028 году
2. Рынок GenAI вырастет в 2.4 раза к 2030 году
3. 85% компаний уже внедряют GenAI
4. При этом в России внедрение GenAI только начинается
5. Industry-specific AI – 🔥 Новый тренд. Модели, которые говорят на языке отрасли.
Яркий пример – AlphaFold 3, который специализируется на генерации структуры белков, ДНК и РНК.
💎 Для чего нужны отраслевые модели
Kimi-K2 имеет 1 триллион параметров, кажется при ее обучении должны были применить весь интернет и все доступные данные. А данные двух или трех компаний в узком рыночном сегменте кажутся каплей в море. Но не все так просто.
Представьте, что к вам обратился человек с вопросом: "Как вылечить гастрит". Опытный врач дал вам несколько лучших учебников. Сколько времени уйдет у вас, чтобы найти подробный ответ на вопрос? В этом случае вы играете роль обычной неспецифичной LLM.
Продолжая этот пример. Отраслевая модель – это "врач-гастроэнтеролог". Он знает базу, знает, что не брать во внимание, а что наоборот брать. Что устарело, а что актуально. Зато такой "специалист" сильно хуже ответит вам о рецепте приготовления квашеной капусты.
✅ Плюсы специфичных отраслевых моделей
1. Экономия на "железе". Многосторонняя LLM требует серьезных инвестиций в вычислительную инфраструктуру. Заточенные под узкоспецифичные задачи модели (на 5-20 млрд параметров) работают быстрее и потребляют меньше электричества.
2. Глубина знаний. Специализированные модели лучше управляют доменными знаниями. Медицинская модель не начнет советовать «поменять масло», когда вы спросите про «клапаны» сердца. Она понимает контекст отрасли глубже.
🚧 Проблемы
1. Порог входа. Создание своей модели – процесс долгий и дорогой. Нужны дефицитные специалисты и дорогое железо для дообучения. Хотя, скорее всего, скоро нас ждет масса open source доменных моделей.
2. «Купить или Строить». Применение таких моделей зависит от уровня развития бизнеса. Иногда проще, быстрее и дешевле подключить YandexGPT или GigaChat API, чем дообучать специфичную модель.
🎯 Выводы
1. Будет появляться все больше специфичных LLM. Отраслевая битва не за горами. Модели для юристов, врачей, водителей большегрузов, нефтяной сферы, космоса – в большом разнообразии начнут появляться в 2026 году.
2. Шанс на успех выше у компаний, обладающих доступом к закрытым специфичным данным в большом объеме. Очередь в университеты и исследовательские лаборатории уже начинает собираться.
❤️ Ждем доменные модельки
💔 Это все хайп
🤡 Где мой гастроэнтеролог?
❤9👍2🤡2
Forwarded from Искусственный интеллект. Высокие технологии
🚀 Google представила Titans + MIRAS - новую архитектуру, которая даёт ИИ долговременную память 🧠
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
❤6👍6🔥4
Forwarded from Hardware vs Software, или заметки админа
Большое сравнение производительности мобильных чипов
Китайцы собрали более 70 смартфонов с разными процессорами и протестировали их все, собрав в единую табличку.
Вышло довольно интересное сравнение!
За базу в 100 баллов принят Snapdragon 8+ gen 1.
За результат теста CPU взято соотношение 25% однопотока + 75% многопотока Geekbench 6.
GPU: 50% Wild Lige Extreme + 50% Aztec 1440P
Общий результат 65% CPU + 35% GPU
Итог таков:
За 10 лет производительность CPU увеличилась в 9 раз.
Производительность GPU в 22 раза!
Ещё из интересного:
Уже несколько лет подряд мобильные чипы от Apple не самые быстрые в текущем поколении.
Последние пару лет решения от MediaTek по графике чуть быстрее Snapdragon.
Источник
@HWvsSW
Китайцы собрали более 70 смартфонов с разными процессорами и протестировали их все, собрав в единую табличку.
Вышло довольно интересное сравнение!
За базу в 100 баллов принят Snapdragon 8+ gen 1.
За результат теста CPU взято соотношение 25% однопотока + 75% многопотока Geekbench 6.
GPU: 50% Wild Lige Extreme + 50% Aztec 1440P
Общий результат 65% CPU + 35% GPU
Итог таков:
За 10 лет производительность CPU увеличилась в 9 раз.
Производительность GPU в 22 раза!
Ещё из интересного:
Уже несколько лет подряд мобильные чипы от Apple не самые быстрые в текущем поколении.
Последние пару лет решения от MediaTek по графике чуть быстрее Snapdragon.
Источник
@HWvsSW
1🔥6👍2❤1🎉1🙏1
Forwarded from ODS Events
Всем привет!
Встречайте двадцать третий выпуск подкаста "Капитанский мостик". В этом эпизоде обсуждаются последние новости в области робототехники и автоматизации, а также рассматриваются вопросы безопасности смарт-контрактов и их уязвимости. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
Встречайте двадцать третий выпуск подкаста "Капитанский мостик". В этом эпизоде обсуждаются последние новости в области робототехники и автоматизации, а также рассматриваются вопросы безопасности смарт-контрактов и их уязвимости. Ведущие подкаста - Валентин Малых и Дмитрий Колодезев.
Смотрите видео на каналах ⤵️
ODS VK Video
ODS YouTube
📩 Присылайте новости для обсуждения в канал "Дата-капитаны" в mattermost (авторизуйтесь через ODS.ai).
❤1
Forwarded from Мой Компьютер
Media is too big
VIEW IN TELEGRAM
Китайцы собрали своего терминатора
Гуманоид T800 от EngineAI пинает генерального директора Чжао Туняна.
Мой Компьютер
Гуманоид T800 от EngineAI пинает генерального директора Чжао Туняна.
Мой Компьютер
🔥1