Все о блокчейн/мозге/space/WEB 3.0 в России и мире – Telegram
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
19.6K subscribers
2.15K photos
387 videos
131 files
8.02K links
Канал создан 5.08.2016г. Сферы интересов: блокчейн, мозг(BCI), биотех, space tech, цифровая экономика, WEB 3.0

Основатель @AniAslanyan

English channel https://news.1rj.ru/str/alwebbci

Регистрация в перечне РКН https://knd.gov.ru/license?id=67374142772bb11
Download Telegram
AIRI представили Wikontic — способ строить графы знаний в 10–20 раз дешевле и без логических ошибок

Индустрия столкнулась с проблемой, что LLM пишут красиво, но часто выдумывают факты. Графы знаний решают это, превращая текст в структурированные и проверяемые триплеты.

Большинство существующих методов (GraphRAG, AriGraph и др.) создают огромные, шумные графы: много дубликатов, неправильные типы сущностей, бессмысленные связи.

Wikontic делает иначе:
1. Берёт любой англоязычный текст общего домена.
2. Извлекает триплеты + квалификаторы с помощью обычных открытых LLM (Llama-3.1-70B, Mixtral, GPT-4o и т.д.).
3. Принудительно проверяет каждый триплет на соответствие онтологии Wikidata.
4. Объединяет одинаковые сущности в один канонический Q-код Wikidata.

Для бизнеса это значит:
- надёжные ответы чат-ботов и агентов,
- экономия на вызовы больших моделей,
- лёгкая проверка и аудит каждого ответа.
514🔥13🥰5🤔1🐳1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
А теперь про NeurIPS 2025 В этом году здесь рекордное количество участников 26 000 со всего мира. Рост на 64%, что говорит о диком хайпе вокруг ИИ. Сюда приехали лучшие ученые, инженеры, компании, венчурные и инвест фонды со всего мира. Это лучшее место…
Лауреат премии Тьюринга Саттон вчера на NeurIPS разнес зал и показал карту, как дойти до AGI и объяснил, почему мы сейчас в жутком локальном минимуме

Коротко по пунктам, что он сказал и некоторые слайды его в комментариях у нас:

1. Современный ИИ — это замороженные артефакты человеческой культуры. Мы копируем людей, а не строим интеллект. Это тупик.

2. Горький урок всё ещё никто не понял. Урок не про больше параметров, а про то, что любые человеческие алгоритмы и архитектуры в долгосрочной перспективе проигрывают чистому обучению через опыт. Backprop он прямо назвал проблемным. Вспоминаем его статью.

3. Путь к суперинтеллекту — это агент, который:
- учится непрерывно всю жизнь
- сам изобретает всё более мощные абстракции и признаки
- сам ставит себе подзадачи
- сам строит модель мира и планирует
- и всё это без единой строчки человеческого кода для архитектуры и фичей

4. Это он назвал OAK (Options + Knowledge). На слайде — 8 шагов, которые крутятся параллельно в реальном времени. Семь из них уже ± решаемы. Один большой красный вопрос — как автоматически генерировать новые state features. Именно здесь сейчас стопор.

5. Цитата дословно:
«Super intelligence will come from the agent’s own experience, not from human datasets».

6. Он сказал, что индустрия ИИ во многом потеряла ориентиры из-за коммерции. Нужно возвращаться к continual learning, average-reward RL, meta-learning step-sizes, self-discovered knowledge.
17👍41💯129🤔1
Русский-3-й язык мира в ИИ.Конец монополий и взлёт Китая — отчёт фонда a16z и OpenRouter

Это один из значимых анализов по реальному использованию LLM в 2025 году – эмпирический анализ 100 трлн токенов на основе метаданных платформы OpenRouter.

1. Монополий на ИИ-модели больше нет, рынок фрагментирован.
Ни одна модель не удерживает больше 20-25% рынка открытого кода.
Крупнейшие игроки по объему токенов:
DeepSeek — 14,37 трлн (но доминирование разрушено)
Qwen — 5,59 трлн
Meta LLaMA — 3,96 трлн
Mistral AI — 2,92 трлн
Minimax — 1,26 трлн
Открытые модели выросли с почти 0 до ~30% всех токенов за 2 года. Рынок стал по-настоящему мультимодельным.

2. Китай — новый глобальный экспортёр ИИ-инфраструктуры. Об этом мы писали ранее. Их открытые модели в отдельные недели доходили до 30% мирового использования (в среднем 13% за год).
Доля Азии в глобальных расходах на ИИ выросла с 13% до 31% за два года. Это уже экспорт открытых весов и дешёвой мощности по всему миру.

3. Русский язык — в тройке лидеров мира (2,47%) всех токенов после английского (82,87%) и китайского (4,95%).
Третье место — это очень высокий показатель для неанглоязычного сообщества. Но отчёт не углубляется по задачам/моделям для русского.

4. Как люди реально используют ИИ в 2025:
- Программирование — больше 50% всех токенов к концу года
- Ролевые игры, интерактивные истории, творчество — второй по величине сегмент
- Перевод, образование, здоровье — значительно меньше
Получается, что ИИ используют не только (и даже не столько) для «продуктивности», сколько для кодинга и развлечений.

5. Модели с рассуждением — уже стандарт. Более 50% всех токенов обрабатываются моделями, которые «думают» перед ответом и используют инструменты. Средний контекст вырос в 3–4 раза (в программировании часто 20–100K+ токенов).

6. Цена почти не влияет на спрос. Снижение цены на 10% даёт рост использования всего на 0,5–0,7%. Люди платят не за дешевизну, а за то, что модель идеально решает их конкретную задачу.

7. Эффект «хрустальной туфельки». Если модель с первого раза идеально подошла под задачу пользователя — он остаётся с ней навсегда. Когорты Gemini 2.5 Pro (июнь 2025) и Claude 4 Sonnet (май 2025) сохраняют ~40% активных пользователей через 5–6 месяцев. Поздние когорты тех же моделей — в разы хуже. Первая любовь решает всё.

8. Ниши уже сформировались:
- Anthropic Claude — 60–80% всего программирования
- DeepSeek — 60%+ ролевых игр и казуальных диалогов
- xAI Grok Code Fast, Qwen 3 Coder — быстро отъедают долю в коде
- Gemini Flash — рабочая лошадка для массового объёма
Универсального лидера больше не будет.
15🔥10❤‍🔥5👍3
Не отрекаются любя… ставленник Маска, претендент на должность СЕО NASA, Айзекман, опроверг слухи о том, что он является близким другом Маска.

Айзекман говорит: «Забавно, что в мире, где у каждого есть телефон с камерой, у нас нет ни одной общей фотографии за ужином, в баре, в самолёте или на яхте. Потому что их просто не существует».

Напомним, что в июне Трамп передумал назначать Айзекмана, тогда же у него был конфликт с Маском.

Сейчас Трамп снова дружит с Маском и второй раз решил номинировать Айзекмана на должность главы NASA.
Но тут Айзекман решил откреститься от «отца», то есть Илона Маска. Если все же Айзекмана назначат, что будет с космическим бизнесом Маска? Ведь он лоббировал Айзекмана для себя.

Если вы не в курсе, то вот интересная деталь - Айзекман стал для Маска первым бизнес клиентом, который полетел в космос. Айзекман из той же группы людей, которая называется «мафия PayPal».
😢5👍43🔥2🥰1
Google выпустил статью об агенте, способному к самообучению и в этой статье указан Демис Хассабис

Google DeepMind опубликовали статью о SIMA 2 — воплощенном ИИ-агенте для виртуальных миров. Это новая архитектура, решающая критическую проблему адаптации больших языковых моделей для embodied AI.

В основе SIMA 2 лежит Gemini Flash-Lite, обученная на смешанных данных: геймплей + Gemini reasoning. Ключевая инновация — агент сохраняет базовые способности foundation model при специализации на воплощенные задачи.

Методология обучения - 2-х уровневая система данных:

1. Human data: траектории из 10+ игровых сред, собранные через "Setter-Solver" методологию — один участник управляет аватаром, второй дает инструкции. Это создает каузальную связь язык→действие.

2. Bridge data: Gemini Pro генерирует внутренний reasoning и диалог для синхронизации с визуальным вводом. Агент учится не просто действовать, но и объяснять свои действия.

Ключевая инновация - Self-Improvement. DeepMind реализовали замкнутый цикл самообучения. Компоненты:
Gemini-based Task Setter — генерирует задачи из текущего состояния среды
Gemini-based Reward Model — оценивает траектории по 100-балльной рубрике
RL training на self-generated experience
ASKA эксперимент:
- С каждой итерацией performance улучшается
- В некоторых задачах превосходит human reference trajectories.
Агент автономно осваивает навыки типа "extinguish campfire"

Genie 3 эксперимент:
Train: urban environments, Test: natural environments
Self-improvement на urban tasks → +25 points на большинстве задач.

Агент учится в любом типе среды, используя neural network как universal world model.

Эта система может автономно генерировать опыт, оценивать его и улучшаться в бесконечно разнообразных окружениях.
DeepMind позиционирует это как шаг к general-purpose interactive agents.
5🔥7❤‍🔥4👏3👍1🤔1
Есть только 1 причина остановки развития ИИ и это то, что все прогрессивные умы, которые над ним работают, застряли в длинных очередях за эспрессо на #NeurIPS2025 😁

В этом году огромная территория, которую вообще невозможно обойти осмысленно всю. А людей ещё больше.
😁10👍6🤩32🔥2
Рекорд 2025 года - Claude Code. 1-й продукт в истории ПО, который быстрее всех достиг $1 млрд ARR за 6 месяцев

Раньше достижение $1 млрд ARR занимало годы, например, Microsoft Azure — 3 года, а многие SaaS-продукты — 5–10 лет. ChatGPT установил планку в 9 месяцев, но Claude Code сократил ещё больше.

Это показывает экспоненциальный рост ИИ и переход к агентному ИИ. Мы писали ранее, как меняются бизнес-модели ПО с ИИ, отмечали важность скорости.

Claude Code — ИИ-агент, который генерирует, тестирует и выполняет код. Компании платят за результаты, а не за инструменты, что позволяет монетизировать быстрее. Это сдвиг от продажи инструментов к продаже цифрового труда.

Интересно, кто побьет рекорд Claude Code?
👍13🔥72🥰1🤔1
Мало кто знает, но в этом году #NeurIPS2025 был хорош серфингом в хорошей компании из исследователей Google DeepMind, Anthropic, OpenAI, а устроили это ребята химики. Не зря говорят про химию в отношениях:)

Для первого посещения конференции #NeurIPS2025 для нашей команды @blockchainrf мы постарались быть максимально эффективными и везде 🤪
5❤‍🔥10👍10🔥2
Итоги уходящей недели, то, что имеет значение в России и мире

Очерки
нашей команды @blockchainrf с самой лучшей конференции #NeurIPS :

Фокус конференции в этом году, а также одна из статей.

Лауреат премии Тьюринга Ричард Саттон объяснил, почему индустрия застряла в локальном минимуме. И живое фото Саттона с поклонниками.

ИИ-модели, агенты, методологии

Meta предложила путь к безопасному superintelligence
концепция co-improvement: ИИ развивается вместе с людьми, решая проблему выравнивания совместно

a16z и OpenRouter выпустили свежий отчёт по реальному использованию LLM в 2025 году

Anthropic запустила Interviewer для масштабного проведения интервью

Shopify выпустил Tangle — первая open source платформа для экспериментов с content-based кэшированием и визуальным редактором

Стартап Harmonic доказал проблему Эрдёша №124, а математики оценили это

AIRI представили Wikontic — построение графов знаний в 10–20 раз дешевле

OpenAI в аварийном режиме готовит новую модель, которая выйдет как экстренный ответ на Gemini 3

DeepSeek запустили две модели для агентов

Google представили open-source фреймворк для оценки универсального понимания звука в мультимодальном ИИ

Mistral выпустили семейство моделей Mistral 3

Berkeley и UIUC научили BERT общаться через диффузию

SemiAnalysis
выяснили, что OpenAI за 1,5 года не создали новых фронтирных моделей

Google DeepMind перешла на новый подход к пониманию работы ИИ-систем

OpenAI нашла метод, который обучает ИИ сообщать, когда он нарушает инструкции или идёт в обход

Выпущена статья SIMA 2 от Google DeepMind — воплощённый ИИ-агент для виртуальных миров с новой архитектурой адаптации LLM

LatentMAS позволяет агентам общаться без каналов коммуникаций

Anthropic протестировала агентов на блокчейн-смарт-контрактах

LabOS - 1-й Co-Scientist с ИИ и XRсистема использует мультимодальное восприятие и самообучающихся агентов для помощи в реальном времени

Корпоративные движения и оценки

IT-компании РФ
заплатят 3% вузам в 2026 от сэкономленных на льготах средств

Anthropic
готовится к IPO на $300–400 млрд — разбор

Claude Codeпервый продукт в истории ПО, достигший $1 млрд ARR за 6 месяцев

Альтман собирает деньги на покупку / партнёрства с космической компанией

ИИ оборудование, софт для железа

Новое аналоговое ИИ-оборудование может раскрыть потенциал без громоздких конвертеров

Nvidia представила CUDA 13.1крупнейшее расширение платформы с момента запуска в 2006 году

Две экс-сотрудницы Google создали стартап по разработке чипов с интеграцией ИИ

Квантовые вычисления, биотех и нейроинтерфейсы

CEO Google: квантовые вычисления
сегодня на уровне ИИ в 2020

Тренды интеграции ИИ в нейроинтерфейсы от легенды индустрии Михаила Лебедева

Стартап Альтмана по долголетию хочет привлечь $1 млрд

Криптовалюты и блокчейн

ЦБ РФ признал необходимость стейблкоинов, а Bank of America разрешил криптовалюту в портфелях https://news.1rj.ru/str/blockchainRF/12456

10 крупнейших банков Европы создают евро-стейблкоин — при поддержке ЕЦБ, чтобы вытеснить американские USDT и USDC https://news.1rj.ru/str/blockchainRF/12461

Великобритания первой закрепила статус криптовалюты в законе https://news.1rj.ru/str/alwebbci/3833

Ларри Финк сообщил, что фонды скупают биткоин на падениях https://news.1rj.ru/str/blockchainRF/12468

*запрещенная компания в РФ.
👍85🔥2🤔1
План Маска по космическому ИИ: сначала солнечные ЦОДы в космосе, а после лунные фабрики спутников

Илон Маск предложил свой подход к масштабированию ИИ-вычислений, используя спутники в космосе как ключевой фактор.

Он заявил, что менее чем через 3 года самым дешёвым способом вычислений ИИ станут спутники с локальными ИИ-вычислителями в низколатентной, солнцесинхронной орбите, где всегда есть солнечный свет для питания. Только результаты будут передаваться обратно на Землю, что минимизирует трафик. Ранее, Маск обещал ЦОДЫ в космосе через 4-5 лет.

Через 4 года это станет самым быстрым способом масштабирования, поскольку на Земле уже трудно найти доступные источники электроэнергии. По его расчётам, запуск 1 мегатонны спутников в год (каждый с мощностью 100 кВт) добавит 100 ГВт ИИ-мощности ежегодно — без затрат на эксплуатацию и обслуживание. Эти спутники подключатся к constellation Starlink через высокоскоростные лазеры.

Далее Маск говорит о следующем уровне — строительство фабрик спутников на Луне с использованием электромагнитной рельсовой пушки для запуска спутников на орбиту без ракет. Это позволит масштабировать до >100 ТВт ИИ-мощности в год и сделать значительный шаг к цивилизации Кардашёва II.
12👍9🔥3🤔1
Дэмис Хассабис обещает в 2026г. надежных ИИ-агентов. Вот, что он выделил из направлений, где будет прогресс у ИИ

1. В 2025 году много обсуждали агентов, но они не могут еще полностью и надежно выполнять целые задачи. К следующему году у нас будут агенты, которые очень близки к этому уровню.

Цель — универсальный ассистент на всех устройствах (очки, умные часы, ПК), который интегрируется в жизнь: от рекомендаций книг/фильмов до помощи в ремонте, например, Gemini Live наведи камеру на проблему — ИИ подскажет.

2. Модели мира: от симуляций к интерактивности. Развитие моделей типа Genie 3 — это интерактивные видео-модели, где ИИ генерирует видео и позволяет гулять внутри как в игре или симуляции. Это мейнстрим в 2026: ИИ будет предсказывать физику реального мира, помогая в планировании, играх и науке.

3. Мультимодальность: синергия модальностей и видео+язык. Gemini изначально мультимодальный, и в ближайший год фокус на полной конвергенции: модели будут принимать/генерировать все типы данных, что усилит рассуждения и креативность.

Ключевой тренд - слияние видео и языковых моделей. ИИ сможет анализировать видео шаг за шагом, понимать нарратив, генерировать истории или симуляции.
6🏆6👍3🔥3🤔1
Крупнейшая инвесткомпания мира займётся стейкингом Ethereum

BlackRock, управляющий активами на $11 трлн, подал заявку в SEC на запуск ETF, который будет давать инвесторам доход от стейкинга Ethereum прямо через биржевой фонд.

Это значит, что миллиарды $ институциональных денег, не вовлеченных в криптовалюты, станут часть индустрии и смогут легально получать доход от стейкинга Ethereum.

BlackRock хочет быть лидером в крипто-ETF, как в традиционных активах, тут подробнее.

Вместо того, чтобы добавлять стейкинг в уже существующий ETF, BlackRock решили запустить отдельный новый фонд — будет первый ETF, который:
- держит ETH,
- сам стейкает эти монеты через проверенных операторов,
- выплачивает инвесторам доход от стейкинга (минус комиссия BlackRock).

Аналитики отмечают потенциал роста ETH на 50% в ближайшие месяцы за счет институционального притока, особенно с апгрейдом Fusaka.
Но волатильность сохраняется.
👍64🔥2🤔2
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Google vs Stripe: начало конкуренции на рынке платежей через ИИ-агенты. Ни один банк не стоит рядом Вчера платежный гигант Stripe объявил о запуске нового платежного стандарта Agentic Commerce Protocol (ACP), который был разработан с OpenAI для коммерции…
Сегодня в вэб-версии ChatGPT появится возможность делать покупки прямо внутри чата. Скоро будет и в мобильном приложении

Вот как это будет выглядеть, смотрите на фото.

Этот новый опыт электронной коммерции на ИИ основан на протоколе агентской коммерции (ACP), который Stripe запустили вместе с OpenAI в сентябре.
10🔥8👍42
Мы откладывали это на завтра, но расскажем сегодня
👀162🔥2🥰2
4-х месячный стартап решил самую сложную Олимпиаду по математике Putnam, Джефф Дин из Google уже в восторге

4-месячный стартап Axiom сообщил, что их ИИ AxiomProver решил 9 из 12 задач в языке Lean. Команда обещает завтра выложить код, доказательства.

Axiom строит ИИ-математика, способного на рассуждения, генерацию доказательств, проверку своей работы. Коммерческие последствия огромны - верификация, логистика, трейдинг, научные исследования и любые домены, где важны корректность и оптимизация.

Что именно сделал их ИИ:

- Задачи формализовали люди (это был внутренний «Prove-a-ton» — хакатон по переводу задач в Lean)
- Дальше AxiomProver работал полностью автономно
- 8 задач решены за первые 58 минут после экзамена, 9-я — к полудню следующего дня
- Всё в Lean 4 + Mathlib, каждое доказательство проверено компилятором на 100 %

Что говорят сами математики:

1. Это первый случай, когда ИИ даёт полностью верифицируемые доказательства на уровне топ-5 мира

2. Формальные доказательства пока дорогие, но цена одного пруфа может превышать зарплату аспиранта

3. Через 5–10 лет такие системы будут обычным инструментом, как сейчас Wolfram Alpha, только для доказательств.

Основателем стартапа является 24-летняя Карина Хонг,окончившая MIT и получившая 2 диплома математика и физика за 3 года, также она лауреат Morgan Prize, Rhodes Scholar, бросила PhD/JD в Стэнфорде.

Недавно к ней присоединился Кен Оно — один из самых влиятельных ныне живущих специалистов по теории чисел и эллиптическим кривым (бывший вице-президент AMS, ментор десятков Putnam Fellows).

Команда — 17 человек, среди них аспиранты и постдоки из MIT, Cambridge, Imperial, Humboldt; часть раньше работала в Meta AI for Math(запрещенная в РФ).

Стартап привлек уже $64 млн от Menlo Ventures.

Этот кейс интересен тем, что уровень сложности экзаменов выше, чем IMO, которым хвастались Google, OpenAI, Harmonic.
19🔥18👍10🤬1
Мифы об экономике OpenAI рушатся: OpenAI снизила ожидания по доходам от ИИ-агентов на $26 млрд за ближайшие 5 лет

Взамен OpenAI планирует больше полагаться на рост подписок на ChatGPT, который остается основным источником дохода.

Сказки о бесконечном экономросте OpenAI начинают трещать по швам, и все это происходит благодаря конкуренции.

Ранее, в апреле–июне 2025 года, OpenAI прогнозировала, что ИИ-агенты и другие новые продукты принесут значительный рост. Компания ожидала, что к 2029 году общий доход достигнет $125 млрд, а к 2030-му — $174 млрд, с долей агентов около 24%. Это основывалось на оптимистичных сценариях быстрого внедрения агентов в бизнес и потребительские приложения.

Финансовая реальность компании такая:

- В 2024-м OpenAI потеряла $5 млрд при доходе $4 млрд. В 2025-м убытки уже $9–14 млрд, а доходы — $12–20 млрд (в основном от подписок Plus/Pro).

- скорость сжигания денег — $8–17 млрд в год на GPU и дата-центры. Только на обработку запросов ChatGPT уходит $700 тыс. долларов в день!

- К 2030-му кумулятивные расходы на инфраструктуру — $792 млрд, а обязательства по вычислениям — $1,4 трлн (спасибо контрактам с Microsoft и Amazon). HSBC прогнозирует дефицит в $207 млрд — без новых инвестиций не обойтись.
🤣9🦄6🆒32🔥1🥰1
Одним из итогов #NeurIPS2025 стало сильное выступление AIRI

Ребята победили в 2-х престижных соревнованиях MindGames Arena и CURE-Bench.

Если вы не в курсе, то рассказываем: MindGames Arena - соревнование, где агенты играют в социальные игры - переговоры, доверие, манипуляции. Это продолжение знаменитой серии Concordia, которую год назад запустили Google DeepMind.

Команда In2AI, которая состояла из AIRI + Coframe + Иннополис, взяла 1-е место в самом сложном треке Generalization (новые игры, которых модель никогда не видела). Их модель на 8 млрд параметров обыграла оппонентов, включая агентов на GPT-5, Gemini 2.5 Pro и Grok 4, и сделала это сразу в двух дивизионах: эффективные и открытый.

По сути, они показали, что в социальном интеллекте грамотный RL важнее размера.

А вторая история - медицинские рекомендации без интернета. Команда VIM, которая состояла из AIRI + iMak AI Lab, вошла в топ-8 на CURE-Bench - первый большой челлендж от Гарварда и MIT, где проверяли именно терапевтический ИИ.

Ребята выбрали самый сложный трек - Internal Model Reasoning, где нельзя использовать внешние базы, API, поисковики. Kaggle.

В итоге их модель показала высокую согласованность с врачебной практикой, когда нельзя гуглить и подглядывать в справочники.

Это показывает, что медицинский ИИ ≠ обязательно LLM + RAG + PubMed.
Команда показала, что можно обойтись без этого и всё равно выдавать клинически осмысленные рекомендации, которые проходят тройную проверку.

Это важно для нашего реального мира, где в больнице интернета может не быть, базы могут быть недоступны, а решение нужно прямо сейчас.
За согласованность прогнозов и отсутствие выдуманных фактов в рассуждениях команда получила Excellence Award.
1319👏12🥰2😱2🤔1
Новое от Anthropic - как можно «вырезать» из большой нейросети опасные знания, при этом почти не навредить её обычным способностям.

Новая технология называется Selective Gradient Masking (SGTM). Код, статья все тут.

Простыми словами это вот как:


1. Во время дообучения модели говорят модели:
«Вот опасные тексты — запоминай их только в этих специальных ячейках памяти (оранжевые).
А всё полезное — только в обычных ячейках (синие)».

2. Модель послушно разделяет знания: плохое в одну сторону, хорошее в другую.

3. В конце просто берут и обнуляют «оранжевые» ячейки. Всё. Опасные знания физически исчезли из модели, их нельзя «вытащить» даже если очень постараться.

Главное — это работает даже, когда часть опасных текстов не нашли и не пометили, а это в реальной жизни почти всегда так.

Другие проекты по безопасности тут.

Результаты интересные:
- после «вырезания» модель почти не теряет общие знания,
- чтобы вернуть удалённые способности обратно, нужно в 7 раз больше усилий, чем раньше,
- лишние вычисления при обучении — всего +5–6%.
🤔7❤‍🔥43🔥3🤬2👎1🥰1
Ещё от Anthropic: навыки важнее ИИ-агентов

Недавно команда Anthropic на AI Engineering Code Summit представила доклад "Skills > Agents" (фокус на "Agent Skills" как альтернативе множеству агентов).

Они аргументируют, что вместо строительства кучи специализированных ИИ-агентов лучше инвестировать в модульные навыки, которые делают общего агента, как Claude универсальным и полезным для реальных задач. Кстати, Skills были представлены в октябре ещё.

Они представили классный график, объясняющий почему навыки важнее агентов в развитии ИИ, особенно в контексте их инструмента Claude Code.

На этом графике видна визуализация прогресса в обучении и развитии ИИ.

День 1 — Нет навыков. Здесь ИИ или человек на уровне базового интеллекта — умение думать, анализировать, но без практических инструментов.

Это как умный студент, который знает теорию, но не может применить её на деле. Полезность минимальна.

День 5 — Несколько навыков. Уже рост. Появляются первые навыки, и уровень поднимается до «способного». ИИ начинает справляться с простыми задачами, но всё ещё ограничен. Это переходный этап — от теории к базовой практике.

День 30 — Много навыков. Полный расцвет. Кривая уходит вверх, и теперь мы в зоне полезного. С накоплением навыков ИИ становится не просто умным, а эффективным. Навыки умножают интеллект, делая систему гибкой и применимой в реальных сценариях.
🔥95🥰2🆒2👍1🤔1
Anthropic, OpenAI, Google и Microsoft договорились о едином стандарте разработки ИИ-агентов

Они готовятся объявить о создании новой организации Agentic AI Foundation. Основная цель этой структуры - создание открытых стандартов для ИИ-агентов.

Они хотят, чтобы агенты от разных компаний, включая их собственные могли работать друг с другом.

Они будут фокусироваться на открытых протоколах, созданных Anthropic - MCP от для доступа агентов к данным и инструментам, и Google - Agent-to-Agent.
108👍7🔥3🤔1
Media is too big
VIEW IN TELEGRAM
Миллиардер Виктор Вексельберг о своем отношении к ИИ и новым материалам

Российский миллиардер скептически относится к сегодняшнему развитию ИИ, он это даже не считает интеллектом, но принимает, что влияние ИИ будет огромным.

Более благожелателен Виктор Феликсович и инвестирует в проекты по созданию новых материалов.

Также он сказал, что он смотрит и на то, чтобы построить ЦОД для ИИ, но ему больше всего интересны технологии накопления энергии.

Все это он сказал сейчас на встрече в Российском еврейском конгрессе в рамках
проекта Impact Heroes.
🤣21👍17🤬63🔥3🦄2