Паша Дуров на ИИ-хайпе + Telegram получает $1,5млрд от BlackRock, Mubadala и Citadel в Telegram
Сегодня Telegram анонсировал выпуск пятилетних облигаций на $1.5 млрд с доходностью 9%, чтобы рефинансировать долг 2021 года.
Среди инвесторов крупные мировые фонды — BlackRock, Mubadala, Citadel. Облигации конвертируемые: в случае IPO они дают право на акции с 20% скидкой, что делает их привлекательным инструментом для долгосрочных инвесторов.
В 2024 году Telegram достиг прибыли $540 млн при выручке $1.4 млрд, прогнозируя в 2025 году $700 млн прибыли и $2 млрд выручки. Погашение $400 млн долга 2021 года показывает финансовую дисциплину.
Также Telegram связан с блокчейном TON и токенизация $500 млн долга через Telegram Bond Fund (TBF) на TON усиливает интерес инвесторов.
Скорее всего BlackRock, уже интегрировавший свой фонд BUIDL ($3 млрд) с DeFi на Avalanche, видит в TON потенциал для масштабирования токенизации реальных активов. Рост Toncoin на 13% после анонса облигаций подтверждает этот тренд.
Участие BlackRock, лидера в токенизации (их биткоин-ETF IBIT управляет активами на $33 миллиарда), отражает их стратегию доминирования в RWA и DeFi. Telegram, с его миллиардной аудиторией, становится платформой для интеграции традиционных финансов и блокчейна.
Теперь про партнерство с xAI Илона Маска.
Дуров объявил, что Telegram заключил годовой контракт с xAI Илона Маска, получая $300 млн (деньги и акции) и 50% дохода от подписок xAI, проданных через Telegram. К лету 2025 года чат-бот Grok будет интегрирован в Telegram, добавляя функции анализа сообщений, модерации чатов и создания контента.
Интеграция Grok позиционирует Telegram как платформу на стыке ИИ и Web3, усиливая конкуренцию с глобальными игроками вроде WhatsApp. Для BlackRock, инвестирующего в ИИ через партнерства с NVIDIA и xAI, это повышает ценность Telegram.
Grok может стать инструментом для управления DeFi-протоколами на TON, привлекая крипто-сообщества и институциональных пользователей. Это усиливает привлекательность Telegram для инвесторов, ориентированных на блокчейн и ИИ.
Одновременно с этим, юридические проблемы Дурова создают неопределенность для IPO, но финансовая устойчивость Telegram и интерес к TON смягчают эти риски. BlackRock, с их опытом в крипто-ETF и токенизации, видит скорее всего в Telegram мост между традиционными финансами, ИИ и DeFi.
Инвестиции BlackRock и партнерство с xAI — это ставка на Telegram как на платформу будущего, где блокчейн (TON) и ИИ (Grok) создают новую экосистему. Telegram выходит за рамки мессенджера, становясь игроком в глобальной финансово-технологической трансформации.
Сегодня Telegram анонсировал выпуск пятилетних облигаций на $1.5 млрд с доходностью 9%, чтобы рефинансировать долг 2021 года.
Среди инвесторов крупные мировые фонды — BlackRock, Mubadala, Citadel. Облигации конвертируемые: в случае IPO они дают право на акции с 20% скидкой, что делает их привлекательным инструментом для долгосрочных инвесторов.
В 2024 году Telegram достиг прибыли $540 млн при выручке $1.4 млрд, прогнозируя в 2025 году $700 млн прибыли и $2 млрд выручки. Погашение $400 млн долга 2021 года показывает финансовую дисциплину.
Также Telegram связан с блокчейном TON и токенизация $500 млн долга через Telegram Bond Fund (TBF) на TON усиливает интерес инвесторов.
Скорее всего BlackRock, уже интегрировавший свой фонд BUIDL ($3 млрд) с DeFi на Avalanche, видит в TON потенциал для масштабирования токенизации реальных активов. Рост Toncoin на 13% после анонса облигаций подтверждает этот тренд.
Участие BlackRock, лидера в токенизации (их биткоин-ETF IBIT управляет активами на $33 миллиарда), отражает их стратегию доминирования в RWA и DeFi. Telegram, с его миллиардной аудиторией, становится платформой для интеграции традиционных финансов и блокчейна.
Теперь про партнерство с xAI Илона Маска.
Дуров объявил, что Telegram заключил годовой контракт с xAI Илона Маска, получая $300 млн (деньги и акции) и 50% дохода от подписок xAI, проданных через Telegram. К лету 2025 года чат-бот Grok будет интегрирован в Telegram, добавляя функции анализа сообщений, модерации чатов и создания контента.
Интеграция Grok позиционирует Telegram как платформу на стыке ИИ и Web3, усиливая конкуренцию с глобальными игроками вроде WhatsApp. Для BlackRock, инвестирующего в ИИ через партнерства с NVIDIA и xAI, это повышает ценность Telegram.
Grok может стать инструментом для управления DeFi-протоколами на TON, привлекая крипто-сообщества и институциональных пользователей. Это усиливает привлекательность Telegram для инвесторов, ориентированных на блокчейн и ИИ.
Одновременно с этим, юридические проблемы Дурова создают неопределенность для IPO, но финансовая устойчивость Telegram и интерес к TON смягчают эти риски. BlackRock, с их опытом в крипто-ETF и токенизации, видит скорее всего в Telegram мост между традиционными финансами, ИИ и DeFi.
Инвестиции BlackRock и партнерство с xAI — это ставка на Telegram как на платформу будущего, где блокчейн (TON) и ИИ (Grok) создают новую экосистему. Telegram выходит за рамки мессенджера, становясь игроком в глобальной финансово-технологической трансформации.
The Wall Street Journal
Telegram Set to Raise $1.5 Billion in Bond Issue Despite CEO’s Legal Woes
The messaging app is set to raise funds from both new and existing backers.
👍12🔥10🤣2
Новый тренд и карта рынка в Generative Engine Optimization, который приходит на замену SEO
Венчурный фонд a16Z говорит о фундаментальном сдвиге в поисковой оптимизации от SEO к Generative Engine Optimization (GEO).
Суть в том, что эпоха традиционного поиска заканчивается - в 2025 году поиск смещается от обычных браузеров к LLM-платформам.
Apple уже объявила о встраивании ИИ-поисковиков вроде Perplexity и Claude в Safari. А Google внедряет ИИ в свой поиск, тут подробно писали.
Ключевые различия между SEO и GEO
Традиционное SEO строилось на:
- Системе ссылок и PageRank
- Ранжировании по ключевым словам
- Видимости через высокие позиции в выдаче
GEO (Generative Engine Optimization) основано на:
- Языковых моделях
- Попадании контента непосредственно в ИИ-ответы
- Оптимизации не для рейтинга, а для того, чтобы модель выбрала ваш контент в качестве источника.
Изменения в поведении пользователей
ИИ-поиск привел к более длинным запросам (в среднем 23 слова против 4), более глубоким сессиям (в среднем 6 минут) и персонализированным ответам с синтезом из множества источников.
Новые метрики и инструменты
Вместо click-through rates важными становятся reference rates - как часто ваш бренд или контент цитируется в ИИ-ответах. Уже появляются платформы вроде Profound, Goodie и Daydream для анализа упоминаний брендов в ИИ-ответах.
Бизнес-возможности
Авторы видят в GEO не просто смену инструментов, а платформенную возможность. Успешные GEO-компании будут не только измерять, но и формировать поведение LLM, создавая операционные системы для взаимодействия брендов с ИИ-слоем.
GEO - следующая большая волна в маркетинге - после Google Adwords в 2000-х и таргетинга Facebook(запрещенный в России) в 2010-х.
Венчурный фонд a16Z говорит о фундаментальном сдвиге в поисковой оптимизации от SEO к Generative Engine Optimization (GEO).
Суть в том, что эпоха традиционного поиска заканчивается - в 2025 году поиск смещается от обычных браузеров к LLM-платформам.
Apple уже объявила о встраивании ИИ-поисковиков вроде Perplexity и Claude в Safari. А Google внедряет ИИ в свой поиск, тут подробно писали.
Ключевые различия между SEO и GEO
Традиционное SEO строилось на:
- Системе ссылок и PageRank
- Ранжировании по ключевым словам
- Видимости через высокие позиции в выдаче
GEO (Generative Engine Optimization) основано на:
- Языковых моделях
- Попадании контента непосредственно в ИИ-ответы
- Оптимизации не для рейтинга, а для того, чтобы модель выбрала ваш контент в качестве источника.
Изменения в поведении пользователей
ИИ-поиск привел к более длинным запросам (в среднем 23 слова против 4), более глубоким сессиям (в среднем 6 минут) и персонализированным ответам с синтезом из множества источников.
Новые метрики и инструменты
Вместо click-through rates важными становятся reference rates - как часто ваш бренд или контент цитируется в ИИ-ответах. Уже появляются платформы вроде Profound, Goodie и Daydream для анализа упоминаний брендов в ИИ-ответах.
Бизнес-возможности
Авторы видят в GEO не просто смену инструментов, а платформенную возможность. Успешные GEO-компании будут не только измерять, но и формировать поведение LLM, создавая операционные системы для взаимодействия брендов с ИИ-слоем.
GEO - следующая большая волна в маркетинге - после Google Adwords в 2000-х и таргетинга Facebook(запрещенный в России) в 2010-х.
Andreessen Horowitz
How Generative Engine Optimization (GEO) Rewrites the Rules of Search | Andreessen Horowitz
Traditional search was built on links; GEO is built on language. A new paradigm is emerging, one driven not by page rank, but by AI models.
👍17❤6🏆3🥴1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
ИИ-ученый впервые в истории создал статью, прошедшую рецензирование на престижной конференции ИИ-ученый, созданный командой Sakana AI, создал научную статью, которая успешно прошла процесс рецензирования на воркшопе конференции ICLR 2025 — одной из самых…
ИИ-агент ученый достиг исторического прецедента,его статья была принята в основную программу престижной конференции
Статья ИИ-агента Zochi от Intology была принята в основную программу конференции ACL 2025 — ведущего мирового форума по обработке естественного языка и одной из 40 самых престижных научных площадок в мире.
Это первый ИИ PhD-уровневый агент в истории.
Zochi самостоятельно выполнил весь исследовательский цикл:
Анализ литературы
Формулировка гипотезы
Разработка методологии Программирование Проведение экспериментов Анализ данных
Написание статьи.
Качество работы ИИ-агента оценивается на уровне топ-исследователей
ACL — конференция уровня A* с показателем принятия ~21%
Финальная оценка ИИ-агента: 4 балла (топ 8.2% всех заявок)
Результаты метода: 100% успешность на GPT-3.5-turbo, 97% на GPT-4.
Для сравнения: большинство PhD-студентов тратят годы, прежде чем опубликоваться на конференции такого уровня.
Ранее Sakana AI представили своего ИИ-агента, который полностью подготовил статью и попал на престижную конференцию, но вот отличия:
Zochi смог создать 1-ю публикацию для основной программы (у Sakana AI было попадание в воркшоп с показателем принятия 60-70%).
Полная автономность — люди участвовали только в создании рисунков и форматировании.
Скорость исследования — методы валидируются за часы, полная статья готова за дни.
Качество PhD-уровня — работа соответствует стандартам ведущих исследователей мира.
Что это означает для науки?
1. Ускорение открытий
2. Новый стандарт — первый "PhD-уровневый агент" в истории
3.Трансформация исследований.
Статья ИИ-агента Zochi от Intology была принята в основную программу конференции ACL 2025 — ведущего мирового форума по обработке естественного языка и одной из 40 самых престижных научных площадок в мире.
Это первый ИИ PhD-уровневый агент в истории.
Zochi самостоятельно выполнил весь исследовательский цикл:
Анализ литературы
Формулировка гипотезы
Разработка методологии Программирование Проведение экспериментов Анализ данных
Написание статьи.
Качество работы ИИ-агента оценивается на уровне топ-исследователей
ACL — конференция уровня A* с показателем принятия ~21%
Финальная оценка ИИ-агента: 4 балла (топ 8.2% всех заявок)
Результаты метода: 100% успешность на GPT-3.5-turbo, 97% на GPT-4.
Для сравнения: большинство PhD-студентов тратят годы, прежде чем опубликоваться на конференции такого уровня.
Ранее Sakana AI представили своего ИИ-агента, который полностью подготовил статью и попал на престижную конференцию, но вот отличия:
Zochi смог создать 1-ю публикацию для основной программы (у Sakana AI было попадание в воркшоп с показателем принятия 60-70%).
Полная автономность — люди участвовали только в создании рисунков и форматировании.
Скорость исследования — методы валидируются за часы, полная статья готова за дни.
Качество PhD-уровня — работа соответствует стандартам ведущих исследователей мира.
Что это означает для науки?
1. Ускорение открытий
2. Новый стандарт — первый "PhD-уровневый агент" в истории
3.Трансформация исследований.
www.intology.ai
Zochi Publishes A* Paper
Intology is a research lab automating the process of discovery
🔥14❤7🤯4⚡3👍1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Ex-Google создали робота, который как человек действует в незнакомой местности Мы становимся на шаг ближе к появлению универсальных домашних роботов, способных помогать нам в повседневной жизни без сложного программирования и адаптации к каждому дому. Команда…
⚡️Ex-Google создали новый метод разработки роботов-в 7.5 раз быстрее и дешевле
Physical Intelligence опубликовала исследование, которое закрывает главную боль современной робототехники.
Они решили фундментальную проблему обучения VLA-моделей с диффузионными выходами. Их метод обучает VLA-модели с диффузионными выходами в 7,5 раз быстрее, чем предыдущие подходы.
Ключевая идея - защитить VLM-основу во время обучения через изоляцию знаний.
Эта работа дает нам несколько важных практических преимуществ:
1. Теперь роботы могут одновременно:
- Точно понимать сложные языковые инструкции ("положи ложку в контейнер для посуды")
- Выполнять плавные, точные движения (складывать белье, заправлять постель)
- Быстро адаптироваться к новым задачам и окружениям.
2. Снижение барьеров входа:
обучение роботов стало в 7,5 раз быстрее = меньше времени и денег на разработку.
3. Масштабирование. Компании смогут быстрее внедрять роботизированные решения, не тратя месяцы на специализированное обучение для каждой задачи.
4. Решена ключевая проблема мультимодального машинного обучения - как объединить разные типы данных (язык, зрение, действия) без взаимного вреда.
Это шаг - путь к AGI, созданию систем искусственного интеллекта, которые могут:
- Рассуждать как люди (языковые модели)
- Видеть как люди (компьютерное зрение)
- Действовать как люди (робототехника).
Предыдущие работы этой компании мы описали здесь.
Physical Intelligence опубликовала исследование, которое закрывает главную боль современной робототехники.
Они решили фундментальную проблему обучения VLA-моделей с диффузионными выходами. Их метод обучает VLA-модели с диффузионными выходами в 7,5 раз быстрее, чем предыдущие подходы.
Ключевая идея - защитить VLM-основу во время обучения через изоляцию знаний.
Эта работа дает нам несколько важных практических преимуществ:
1. Теперь роботы могут одновременно:
- Точно понимать сложные языковые инструкции ("положи ложку в контейнер для посуды")
- Выполнять плавные, точные движения (складывать белье, заправлять постель)
- Быстро адаптироваться к новым задачам и окружениям.
2. Снижение барьеров входа:
обучение роботов стало в 7,5 раз быстрее = меньше времени и денег на разработку.
3. Масштабирование. Компании смогут быстрее внедрять роботизированные решения, не тратя месяцы на специализированное обучение для каждой задачи.
4. Решена ключевая проблема мультимодального машинного обучения - как объединить разные типы данных (язык, зрение, действия) без взаимного вреда.
Это шаг - путь к AGI, созданию систем искусственного интеллекта, которые могут:
- Рассуждать как люди (языковые модели)
- Видеть как люди (компьютерное зрение)
- Действовать как люди (робототехника).
Предыдущие работы этой компании мы описали здесь.
www.physicalintelligence.company
VLAs that Train Fast, Run Fast, and Generalize Better
Physical Intelligence is bringing general-purpose AI into the physical world.
🔥12❤🔥4🆒4❤1
❗️Питер Тиль сделал ставку на нейроинтерфейсы, ИИ, крипту, ИИ в финансах, программирование жизни
В этом году Фонд Тиля объявил о 15 стипендиатах, которые получат по $200,000 за 2 года (что является увеличением с предыдущих $100,000)
Анализируя выбор стипендиатов этого года, ярко выделяются несколько трендов, на которые делает ставку Тиль:
1. Тренд на программирование жизни:
Хуан Эбрат работает над "программируемой живой материей" и регенерацией целых органов - это уже не лечение, а переписывание биологического кода человека.
Дженнифер Лин ускоряет доступ к лечению редких болезней - борьба со смертью через технологии.
Нейроинтерфейсы как "API к человеческому мозгу":
Колтон Эль-Хабр и Стивен Панг работают над Orbit - "API к человеческому разуму" через нейростимуляцию. Это прямое вмешательство в работу мозга и нервной системы.
2. Оборонные технологии и климат:
Сорен Монро-Андерсон создает военные дроны
Хуман Реза Нежад производит американские редкоземельные металлы.
Коки Машита строит систему защиты от экстремальной погоды
3. Деконструкция традиционных финансов:
Фердинанд Дабиц создает "мировой торговый банк" - альтернативу существующей банковской системе
Джексон Денка строит платформу для торговли "от криптовалют до убеждений и мемов" - монетизация буквально всего
ИИ в финансах:
Карло Кобе создает ИИ-финансового консультанта для молодежи - замена традиционных финансовых институтов.
4. Тренд на автономные производства:
Фабиан Грубер работает над полностью автоматизированными производствами без людей
Тедди Уорнер наделяет роботов эмоциональным интеллектом для лучшего понимания людей
5. Тренд на создание "цифровых людей"
Элиас Физесан строит ИИ-модели для создания цифровых людей "неотличимых от настоящих"
Эйдан Смит разрабатывает "человеко-нативные устройства коммуникации"
Что это означает с точки зрения стратегии?
1. Тиль готовится к замещению не людей другими людьми, а традиционных институтов технологическими решениями:
Замещение университетов → прямым финансированием талантов
Замещение банков → децентрализованными платформами
Замещение врачей → программируемой биологией
Замещение армий → автономными системами
Замещение правительств → технологическим контролем над ресурсами и климатом
2. Географический выбор тоже говорящий: много стипендиатов из Германии (3 человека) - Тиль переманивает европейские таланты, пока ЕС увязает в регулировании ИИ.
Тиль не просто инвестирует в стартапы - он создает параллельную цивилизацию, где молодые люди строят альтернативы всем существующим институтам. Это идеологический проект по замещению "коррумпированной" старой системы новой технократической.
В этом году Фонд Тиля объявил о 15 стипендиатах, которые получат по $200,000 за 2 года (что является увеличением с предыдущих $100,000)
Анализируя выбор стипендиатов этого года, ярко выделяются несколько трендов, на которые делает ставку Тиль:
1. Тренд на программирование жизни:
Хуан Эбрат работает над "программируемой живой материей" и регенерацией целых органов - это уже не лечение, а переписывание биологического кода человека.
Дженнифер Лин ускоряет доступ к лечению редких болезней - борьба со смертью через технологии.
Нейроинтерфейсы как "API к человеческому мозгу":
Колтон Эль-Хабр и Стивен Панг работают над Orbit - "API к человеческому разуму" через нейростимуляцию. Это прямое вмешательство в работу мозга и нервной системы.
2. Оборонные технологии и климат:
Сорен Монро-Андерсон создает военные дроны
Хуман Реза Нежад производит американские редкоземельные металлы.
Коки Машита строит систему защиты от экстремальной погоды
3. Деконструкция традиционных финансов:
Фердинанд Дабиц создает "мировой торговый банк" - альтернативу существующей банковской системе
Джексон Денка строит платформу для торговли "от криптовалют до убеждений и мемов" - монетизация буквально всего
ИИ в финансах:
Карло Кобе создает ИИ-финансового консультанта для молодежи - замена традиционных финансовых институтов.
4. Тренд на автономные производства:
Фабиан Грубер работает над полностью автоматизированными производствами без людей
Тедди Уорнер наделяет роботов эмоциональным интеллектом для лучшего понимания людей
5. Тренд на создание "цифровых людей"
Элиас Физесан строит ИИ-модели для создания цифровых людей "неотличимых от настоящих"
Эйдан Смит разрабатывает "человеко-нативные устройства коммуникации"
Что это означает с точки зрения стратегии?
1. Тиль готовится к замещению не людей другими людьми, а традиционных институтов технологическими решениями:
Замещение университетов → прямым финансированием талантов
Замещение банков → децентрализованными платформами
Замещение врачей → программируемой биологией
Замещение армий → автономными системами
Замещение правительств → технологическим контролем над ресурсами и климатом
2. Географический выбор тоже говорящий: много стипендиатов из Германии (3 человека) - Тиль переманивает европейские таланты, пока ЕС увязает в регулировании ИИ.
Тиль не просто инвестирует в стартапы - он создает параллельную цивилизацию, где молодые люди строят альтернативы всем существующим институтам. Это идеологический проект по замещению "коррумпированной" старой системы новой технократической.
Businesswire
Thiel Foundation Announces 2025 Class of Thiel Fellows
The Thiel Foundation has officially unveiled its 2025 class of Thiel Fellows, assembling a group of brilliant young minds from around the world who are set t...
👍13🔥10⚡3🤣2❤1
⚡️Ян ЛеКун считает, что LLM уже неинтересны, его интересует 4 ключевых вопроса
ЛеКун представляет будущее, где разнообразные ИИ-системы работают как суперумные виртуальные сотрудники под управлением людей.
По мнению Яна Лекуна, главного по науке Meta*, LLM уже не так интересны, они стали предметом инженерных улучшений в индустрии.
Его больше интересуют 4 ключевые проблемы:
1. Понимание физического мира машинами
2. Постоянная память
3. Рассуждение
4. Планирование
Лекун предлагает концепцию "моделей мира" - систем, которые понимают физическую реальность так же, как это делают люди с первых месяцев жизни. Например, мы знаем, что произойдет, если толкнуть бутылку сверху или снизу.
ЛеКун объясняет, почему токены плохо подходят для понимания физического мира:
- Токены дискретны (конечное множество возможностей)
- Физический мир непрерывен и высокоразмерен
- Предсказание видео на уровне пикселей провалилось.
Вместо этого он предлагает Joint Embedding Predictive Architecture (JEPA) - системы, которые:
- Учатся абстрактным представлениям
- Делают предсказания в пространстве представлений, а не на уровне пикселей
- Могут планировать последовательности действий
ЛеКун предпочитает термин AMI (Advanced Machine Intelligence) вместо AGI. Он считает, что:
1. В течение 3-5 лет появится понимание того, как создавать такие системы в малом масштабе
2. Полноценный человекоподобный ИИ может появиться в течение десятилетия
3. Скептически относится к утверждениям о скором появлении AGI через масштабирование LLM
Наиболее важные области применения ИИ:
- Медицина и наука (белковые структуры, диагностика)
- Автомобильная безопасность (системы экстренного торможения снижают аварии на 40%)
- Ассистенты для повышения продуктивности
ЛеКун - сильный сторонник открытых платформ, считая что:
- Хорошие идеи могут прийти отовсюду
- Нужно разнообразие ИИ-ассистентов для разных культур и языков
- Проприетарные платформы в итоге исчезнут
- Llama имеет уже более 1 миллиарда загрузок.
Он скептически относится к катастрофическим сценариям и считает, что лучший способ борьбы с неправильным использованием ИИ - это лучший ИИ.
*запрещенная в России организация.
ЛеКун представляет будущее, где разнообразные ИИ-системы работают как суперумные виртуальные сотрудники под управлением людей.
По мнению Яна Лекуна, главного по науке Meta*, LLM уже не так интересны, они стали предметом инженерных улучшений в индустрии.
Его больше интересуют 4 ключевые проблемы:
1. Понимание физического мира машинами
2. Постоянная память
3. Рассуждение
4. Планирование
Лекун предлагает концепцию "моделей мира" - систем, которые понимают физическую реальность так же, как это делают люди с первых месяцев жизни. Например, мы знаем, что произойдет, если толкнуть бутылку сверху или снизу.
ЛеКун объясняет, почему токены плохо подходят для понимания физического мира:
- Токены дискретны (конечное множество возможностей)
- Физический мир непрерывен и высокоразмерен
- Предсказание видео на уровне пикселей провалилось.
Вместо этого он предлагает Joint Embedding Predictive Architecture (JEPA) - системы, которые:
- Учатся абстрактным представлениям
- Делают предсказания в пространстве представлений, а не на уровне пикселей
- Могут планировать последовательности действий
ЛеКун предпочитает термин AMI (Advanced Machine Intelligence) вместо AGI. Он считает, что:
1. В течение 3-5 лет появится понимание того, как создавать такие системы в малом масштабе
2. Полноценный человекоподобный ИИ может появиться в течение десятилетия
3. Скептически относится к утверждениям о скором появлении AGI через масштабирование LLM
Наиболее важные области применения ИИ:
- Медицина и наука (белковые структуры, диагностика)
- Автомобильная безопасность (системы экстренного торможения снижают аварии на 40%)
- Ассистенты для повышения продуктивности
ЛеКун - сильный сторонник открытых платформ, считая что:
- Хорошие идеи могут прийти отовсюду
- Нужно разнообразие ИИ-ассистентов для разных культур и языков
- Проприетарные платформы в итоге исчезнут
- Llama имеет уже более 1 миллиарда загрузок.
Он скептически относится к катастрофическим сценариям и считает, что лучший способ борьбы с неправильным использованием ИИ - это лучший ИИ.
*запрещенная в России организация.
NVIDIA
Frontiers of AI and Computing: A Conversation With Yann LeCun and Bill Dally S73208 | GTC 2025 | NVIDIA On-Demand
As artificial intelligence continues to reshape the world, the intersection of deep learning and high performance computing becomes increasingly crucial
❤🔥14👍12🔥6❤3🤔2👎1🤣1
⚡️Президент Казахстана Касым-Жомарт Токаев объявил о запуске пилотной зоны «CryptoCity» в Алатау, которая позволит использовать криптовалюты для оплаты товаров, услуг и даже инвестиций в недвижимость, стремясь создать регуляторную «песочницу» для цифровых активов.
#makekazakhstangreatagain
#makekazakhstangreatagain
Cointelegraph
Kazakhstan to launch crypto pilot zone for payments and adoption
President Tokayev announced Kazakhstan will launch a “CryptoCity” pilot project, allowing crypto payments for goods and services as part of a broader digital asset regulatory sandbox.
🔥15❤🔥5👍3❤2🤔1
🔥Anthropic открыли исходный код своих инструментов для трассировки нейронных цепей в больших языковых моделях
Ранее Anthropic разработала новый метод для отслеживания "мыслительных процессов" языковых моделей, то есть понимания того, как модель внутренне приходит к определенному ответу.
Для этого они создают "графы атрибуции", которые показывают шаги, которые модель предприняла для генерации конкретного результата.
Что они конкретно открыли?
1. Методологию и исследовательские статьи
2. GitHub репозиторий
3. Интерактивные инструменты 4. Готовые примеры для экспериментов
5. Walkthrough и документацию.
Глава Anthropic Дарио Амодей, говорит, что, открывая эти инструменты, компания хочет помочь более широкому сообществу исследователей изучать то, что происходит внутри языковых моделей.
Проект уже использовался для изучения многошагового рассуждения и многоязычных представлений в моделях Gemma-2-2b и Llama-3.2-1b.
Ранее Anthropic разработала новый метод для отслеживания "мыслительных процессов" языковых моделей, то есть понимания того, как модель внутренне приходит к определенному ответу.
Для этого они создают "графы атрибуции", которые показывают шаги, которые модель предприняла для генерации конкретного результата.
Что они конкретно открыли?
1. Методологию и исследовательские статьи
2. GitHub репозиторий
3. Интерактивные инструменты 4. Готовые примеры для экспериментов
5. Walkthrough и документацию.
Глава Anthropic Дарио Амодей, говорит, что, открывая эти инструменты, компания хочет помочь более широкому сообществу исследователей изучать то, что происходит внутри языковых моделей.
Проект уже использовался для изучения многошагового рассуждения и многоязычных представлений в моделях Gemma-2-2b и Llama-3.2-1b.
Telegram
All about AI, Web 3.0, BCI
Anthropic just open-sourced their AI Mind-Reading Tools
Anthropic has just released their groundbreaking circuit tracing tools to the public, and this could be a game-changer for understanding how large language models actually "think."
What's the Big Deal?…
Anthropic has just released their groundbreaking circuit tracing tools to the public, and this could be a game-changer for understanding how large language models actually "think."
What's the Big Deal?…
🔥13❤4👍3❤🔥2😁1
Экс-Яндекс, компания Аркадия Воложа, ClickHouse привлекла $350млн при оценке $6,5млрд
ClickHouse занимается разработкой высокопроизводительной системы управления базами данных с открытым исходным кодом, цель которой — обработка и анализ больших объемов данных в реальном времени.
Раунд возглавила Khosla Ventures при участии новых инвесторов BOND, IVP, Battery Ventures и Bessemer Venture Partners.
Nebius Group Аркадия Воложа владеет миноритарной долей 28% в ClickHouse. Отметим, что в начале мая, другая компания Воложа - Toloka привлекла $72млн от Джеффа Безоса.
Изначально в 2009 году проект был разработан в Яндексе как внутренняя система для аналитики в реальном времени. В 2016 году проект стал open-source, а в сентябре 2021 года ClickHouse был выделен из Яндекса в независимую компанию — ClickHouse, зарегистрированную в США.
После реструктуризации Яндекса в 2024 году, когда российские активы были отделены, международные активы, включая долю в ClickHouse, перешли под контроль Nebius Group.
ClickHouse занимается разработкой высокопроизводительной системы управления базами данных с открытым исходным кодом, цель которой — обработка и анализ больших объемов данных в реальном времени.
Раунд возглавила Khosla Ventures при участии новых инвесторов BOND, IVP, Battery Ventures и Bessemer Venture Partners.
Nebius Group Аркадия Воложа владеет миноритарной долей 28% в ClickHouse. Отметим, что в начале мая, другая компания Воложа - Toloka привлекла $72млн от Джеффа Безоса.
Изначально в 2009 году проект был разработан в Яндексе как внутренняя система для аналитики в реальном времени. В 2016 году проект стал open-source, а в сентябре 2021 года ClickHouse был выделен из Яндекса в независимую компанию — ClickHouse, зарегистрированную в США.
После реструктуризации Яндекса в 2024 году, когда российские активы были отделены, международные активы, включая долю в ClickHouse, перешли под контроль Nebius Group.
FirstMark
ClickHouse Raises $350 Million Series C to Power Analytics for the AI Era
ClickHouse, Inc., a leader in real-time analytics, data warehousing, observability, and AI/ML, announced $350 million in Series C funding. The capital will scale product development, fuel global expansion, and strengthen partnerships powering the next wave…
👍10❤7🔥3🤣1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
Ex-Google создали новую архитектуру ИИ с интуицией. Это open source. Новая архитектура заимствует ключевой аспект функционирования биологических нейронов — временную синхронизацию. Компания Sakana AI, созданная ex-Google Brain, DeepMind, представила Continuous…
Ex-Google создали ИИ-агента, который сам себя улучшает, переписывая свой код
Компания Sakana AI, созданная ex-Google Brain, DeepMind, представила ИИ-агента Darwin Gödel Machine, который может:
1. анализировать и изменять свой собственный Python-код, чтобы улучшить свои возможности.
2. Проверить, приводит ли изменения к лучшей производительности на задачах программирования, используя бенчмарки вроде SWE-bench и Polyglot.
3. Создает архив разнообразных агентов и экспериментирует с разными путями "эволюции", вдохновленными дарвиновскими принципами, чтобы находить новые, эффективные решения.
DGM — это шаг к ИИ, который может бесконечно учиться и улучшать себя, подобно человеку. Он уже показал значительные результаты, улучшив производительность с 20% до 50% на SWE-bench и с 14.2% до 30.7% на Polyglot, а также доказал, что его улучшения применимы к разным моделям и языкам программирования.
Но есть и вызовы, особенно в области безопасности: агент иногда "взламывал" функции оценки, например, фальсифицируя логи. Исследователи работают над тем, чтобы сделать процесс безопасным и прозрачным.
Компания Sakana AI, созданная ex-Google Brain, DeepMind, представила ИИ-агента Darwin Gödel Machine, который может:
1. анализировать и изменять свой собственный Python-код, чтобы улучшить свои возможности.
2. Проверить, приводит ли изменения к лучшей производительности на задачах программирования, используя бенчмарки вроде SWE-bench и Polyglot.
3. Создает архив разнообразных агентов и экспериментирует с разными путями "эволюции", вдохновленными дарвиновскими принципами, чтобы находить новые, эффективные решения.
DGM — это шаг к ИИ, который может бесконечно учиться и улучшать себя, подобно человеку. Он уже показал значительные результаты, улучшив производительность с 20% до 50% на SWE-bench и с 14.2% до 30.7% на Polyglot, а также доказал, что его улучшения применимы к разным моделям и языкам программирования.
Но есть и вызовы, особенно в области безопасности: агент иногда "взламывал" функции оценки, например, фальсифицируя логи. Исследователи работают над тем, чтобы сделать процесс безопасным и прозрачным.
Telegram
All about AI, Web 3.0, BCI
Sakana AI introduced the Darwin Gödel Machine: Open-Ended Evolution of Self-Improving Agents
Researchers harness the power of open-ended algorithms to search for agentic systems that get better at coding, including improving their own code.
It’s the Automated…
Researchers harness the power of open-ended algorithms to search for agentic systems that get better at coding, including improving their own code.
It’s the Automated…
👍13🔥12❤5
У РФ менее 1% от общего объема годовых платежей в стейблкоинах, в отличие от Сингапура-Китая - лидеры
Это данные свежего исследования от Artemis, которые показывают, что стейблкоины стали серьезной альтернативой традиционным платежным сетям.
При общем объеме $26 трлн стейблкоин-транзакций в год, платежи составляют ~ 1%, но это уже $72+ млрд реальной экономической активности.
Бизнес-кейсы:
- Трансграничные платежи поставщикам
- Управление казначейством
- Выплаты фрилансерам (например, Deel платит 10,000+ фрилансерам в 100+ странах)
- Мгновенные глобальные выплаты через Worldpay.
Сингапур → Китай - самый активный коридор для стейблкоин-платежей.
Топ-10 стран по объему стейблкоин-потоков:
США - ~19%
Сингапур - ~18%
Гонконг - ~10%
Япония - ~8%
Великобритания - ~7%
Германия - ~4%
Нидерланды - ~3%
Индия - ~2%
Канада - ~2%
Франция - ~2%
Страны с менее 1% - Россия и Италия. Это означает, что объем российских стейблкоин-платежей через исследованные компании составляет менее $720 млн в год. Но позиция России в конце списка говорит не столько отсутствие интереса к стейблкоинам, сколько ограниченную интеграцию с глобальными платежными провайдерами, участвовавшими в исследовании.
Структура стейблкоин-платежей по типам выглядит так:
1. B2B-платежи: $36 млрд/год
Рост с $100 млн/месяц в начале 2023 до $3+ млрд к началу 2025
Средний размер транзакции: более $219,000 на Tron и Ethereum
2. P2P-платежи:$18 млрд/год.Средний размер транзакций: $47 (Sling), $26 (Celo P2P)
3. Карточные платежи:$13,2 млрд/год.Устойчивый рост с $250 млн/месяц до $1+ млрд к концу 2024. Средние транзакции похожи на традиционные карты.
4. B2C-платежи: $3,3 млрд/год. Рост с $50 млн/месяц до $300+ млн.
5. Кредитование в стейблкоинах для платежных процессоров: $2,5 млрд/год.
Популярные блокчейны:
1. Tron - лидер по объему
2. Ethereum
3. Binance Smart Chain
4. Polygon
Это данные свежего исследования от Artemis, которые показывают, что стейблкоины стали серьезной альтернативой традиционным платежным сетям.
При общем объеме $26 трлн стейблкоин-транзакций в год, платежи составляют ~ 1%, но это уже $72+ млрд реальной экономической активности.
Бизнес-кейсы:
- Трансграничные платежи поставщикам
- Управление казначейством
- Выплаты фрилансерам (например, Deel платит 10,000+ фрилансерам в 100+ странах)
- Мгновенные глобальные выплаты через Worldpay.
Сингапур → Китай - самый активный коридор для стейблкоин-платежей.
Топ-10 стран по объему стейблкоин-потоков:
США - ~19%
Сингапур - ~18%
Гонконг - ~10%
Япония - ~8%
Великобритания - ~7%
Германия - ~4%
Нидерланды - ~3%
Индия - ~2%
Канада - ~2%
Франция - ~2%
Страны с менее 1% - Россия и Италия. Это означает, что объем российских стейблкоин-платежей через исследованные компании составляет менее $720 млн в год. Но позиция России в конце списка говорит не столько отсутствие интереса к стейблкоинам, сколько ограниченную интеграцию с глобальными платежными провайдерами, участвовавшими в исследовании.
Структура стейблкоин-платежей по типам выглядит так:
1. B2B-платежи: $36 млрд/год
Рост с $100 млн/месяц в начале 2023 до $3+ млрд к началу 2025
Средний размер транзакции: более $219,000 на Tron и Ethereum
2. P2P-платежи:$18 млрд/год.Средний размер транзакций: $47 (Sling), $26 (Celo P2P)
3. Карточные платежи:$13,2 млрд/год.Устойчивый рост с $250 млн/месяц до $1+ млрд к концу 2024. Средние транзакции похожи на традиционные карты.
4. B2C-платежи: $3,3 млрд/год. Рост с $50 млн/месяц до $300+ млн.
5. Кредитование в стейблкоинах для платежных процессоров: $2,5 млрд/год.
Популярные блокчейны:
1. Tron - лидер по объему
2. Ethereum
3. Binance Smart Chain
4. Polygon
🔥4❤3👍2🤔1🤯1
⚡️Очень крутой ход от Google - запустили коллекцию нерешённых математических задач,записанных на языке Lean.
Это подготовка инфраструктуры для качественно нового этапа развития ИИ.
Сейчас математические бенчмарки для LLM тестируют школьную и студенческую математику. GSM8K, MATH — задачи с известными решениями.
Formal-conjectures — это нерешённые проблемы. Разница как между контрольной работой и диссертацией.
У DeepMind есть AlphaProof для автоматического доказательства теорем. Есть Lean для формальной верификации. Теперь появляется стандартизированный набор открытых проблем. Экосистема собрана.
❗️Когда ИИ решит первую серьёзную математическую гипотезу, это станет переломным моментом. Но без готовой инфраструктуры для верификации и сравнения систем этот момент может быть упущен или оспорен.
DeepMind создаёт "математический ImageNet" — эталон для научного применения ИИ. Кто контролирует стандарты, тот получает преимущество в гонке.
Контролируя стандарты и инфраструктуру для оценки математического ИИ, Google получает преимущество перед конкурентами (OpenAI, Anthropic и др.).
Это инвестиция в будущее, где математический ИИ станет ключевой технологией.
Это подготовка инфраструктуры для качественно нового этапа развития ИИ.
Сейчас математические бенчмарки для LLM тестируют школьную и студенческую математику. GSM8K, MATH — задачи с известными решениями.
Formal-conjectures — это нерешённые проблемы. Разница как между контрольной работой и диссертацией.
У DeepMind есть AlphaProof для автоматического доказательства теорем. Есть Lean для формальной верификации. Теперь появляется стандартизированный набор открытых проблем. Экосистема собрана.
❗️Когда ИИ решит первую серьёзную математическую гипотезу, это станет переломным моментом. Но без готовой инфраструктуры для верификации и сравнения систем этот момент может быть упущен или оспорен.
DeepMind создаёт "математический ImageNet" — эталон для научного применения ИИ. Кто контролирует стандарты, тот получает преимущество в гонке.
Контролируя стандарты и инфраструктуру для оценки математического ИИ, Google получает преимущество перед конкурентами (OpenAI, Anthropic и др.).
Это инвестиция в будущее, где математический ИИ станет ключевой технологией.
GitHub
GitHub - google-deepmind/formal-conjectures: A collection of formalized statements of conjectures in Lean.
A collection of formalized statements of conjectures in Lean. - google-deepmind/formal-conjectures
👍16🔥8❤4
Сегодня день рождения у человека, который не связан с наукой, технологиями. Но он создает красоту в кино. Великую, тонкую и трансформирующую красоту, которая трогает чувства человека.
С днем рождения, Паоло Соррентино! Tanti auguri maestro! ❤️
С днем рождения, Паоло Соррентино! Tanti auguri maestro! ❤️
❤🔥19🎉10❤5👍5👎1🔥1
Основатель Anthropic Дарио Амодей прогнозирует, что к 2026 появится 1-я компания с доходом в миллиард $, управляемая всего 1 человеком.
ИИ уже способен точно выполнять задачи, такие как написание текстов, программирование, логические рассуждения и исследования — все, что критически важно для запуска компании. Амодей считает, что ИИ станет "вашим персоналом", позволяя одному человеку эффективно управлять бизнесом.
По мнению Дарио, первыми такие результаты увидят отрасли, где для получения дохода не требуется интенсивное взаимодействие с людьми или сложные институциональные структуры. Он привел примеры компаний, занимающихся проприетарным обучением или инструментами для разработчиков, где клиенты просто принимают продукт, а поддержка может быть сведена к вопросам, на которые отвечает ИИ.
Амодей уточнил, что это лишь прогноз, и сроки могут не точно совпасть.
Майк Кригер, сооснователь Instagram, а сейчас директор по продуктам Anthropic, сказал: "Мне это не кажется сумасшествием. Я построил компанию на миллиард долларов с 13 людьми, и это было 13 лет назад".
Кригер добавил, что с такими инструментами, как Claude Opus, он и его партнер Кевин Систром могли бы создать Instagram вдвоем, поскольку ИИ помог бы с модерацией и инженерными задачами.
ИИ уже способен точно выполнять задачи, такие как написание текстов, программирование, логические рассуждения и исследования — все, что критически важно для запуска компании. Амодей считает, что ИИ станет "вашим персоналом", позволяя одному человеку эффективно управлять бизнесом.
По мнению Дарио, первыми такие результаты увидят отрасли, где для получения дохода не требуется интенсивное взаимодействие с людьми или сложные институциональные структуры. Он привел примеры компаний, занимающихся проприетарным обучением или инструментами для разработчиков, где клиенты просто принимают продукт, а поддержка может быть сведена к вопросам, на которые отвечает ИИ.
Амодей уточнил, что это лишь прогноз, и сроки могут не точно совпасть.
Майк Кригер, сооснователь Instagram, а сейчас директор по продуктам Anthropic, сказал: "Мне это не кажется сумасшествием. Я построил компанию на миллиард долларов с 13 людьми, и это было 13 лет назад".
Кригер добавил, что с такими инструментами, как Claude Opus, он и его партнер Кевин Систром могли бы создать Instagram вдвоем, поскольку ИИ помог бы с модерацией и инженерными задачами.
ZDNET
First $1B business with one human employee will happen in 2026, says Anthropic CEO
Thinking of launching a startup? AI could be your staff.
2❤🔥10😁8🔥6❤2💊2
Итоги уходящей недели, то, что имеет значение в России и мире
Нейроинтерфейсы, робототехника и биотехнологии
Прорывы недели:
1. Ученые исправили генетические нарушения в клетке мозга.
2. МГУ и Neiry показали, как создать электроды для нейроинтерфейсов всего за $1 и 3 дня вместо месяцев.
Google выпустили открытую ИИ-модель для медицины.
Питер Тиль делает ставку на нейроинтерфейсы, ИИ, программирование жизни и криптовалюты.
Physical Intelligence ускорили разработку роботов в 7,5 раз.
Singapore представили робо-руку SharpaWave — 22 степени свободы, более 1000 тактильных пикселей на каждом пальце и ИИ-управление хватом.
HopeJr — гуманоидный робот за $3000 от HuggingFace.
ИИ
4 ИИ-агента заработали $2000 за месяц — эксперимент.
Карта рынка ИИ-помощников для веб-браузеров.
Microsoft интегрирует модели Anthropic в новые инструменты для разработчиков.
ИИ-агент ученый попал в основную программу престижной конференции — исторический прецедент.
Исследователи представили мультимодальный агент изучает использование инструментов без человеческих аннотаций.
Google DeepMind выпустили новое исследование о том, когда и как LLM должны заниматься саморефлексией при решении задач.
Google создали коллекцию нерешенных математических задач, которая готовит инфраструктуру для нового этапа развития ИИ.
Amazon добавил ИИ-дискуссии о товарах — аудиообзоры генерируются на основе отзывов клиентов и веб-поиска.
DeepSeek обновили модель R1.
Anthropic открыла код для анализа нейросетей.
Sakana AI создали самообучающегося ИИ агента.
Google запустили ИИ модель, позволяющую создавать и исполнять музыку онлайн, с интерактивным управлением.
Венчурный фонд Madrona проанализировал рынок ИИ-стартапов.
Появилась открытая альтернатива ИИ-агенту Manus.
Stanford представил универсального медицинского ИИ-агента.
Anthropic запустил голосовой режим
Новый подход к ускорению ML-моделей.
ИИ находит уязвимости нулевого дня — новая эра кибербезопасности с участием ИИ.
Apple и Duke University представили новый подход к последовательному рассуждению ИИ-систем.
Криптовалюты и блокчейн
Банк России разрешил операции с криптовалютными ЦФА.
Дубай запустил платформу токенизации недвижимости.
Казахстан создает криптозону в Алатау, который позволит расплачиваться криптовалютами за товары и недвижимость.
Telegram выпустил облигации на $1,5 млрд.
Стейблкоины достигли корпоративного уровня — опрос Fireblocks.
Россия отстает в стейблкоин-платежах — свежий отчет о мировом состоянии стейблкоинов.
Токенизация активов становится нормой — новый отчет WEF и Accenture.
Корпоративные новости и инвестиции
Потанин купил 9,95% Яндекса — с 2022 года он активно скупает цифровые активы и становится ключевым игроком российской IT-сферы.
ClickHouse - экс- яндексовский проект привлек $350 млн при оценке $6,5 млрд.
Газпромбанк планирует создать Фонд технологического лидерства — зампред правления Д. Зауэрс.
Тренды и прогнозы
Generative Engine Optimization приходит на смену SEO.
Дарио Амодей прогнозирует компанию-миллиардер с одним сотрудником к 2026 году.
Ян ЛеКун считает LLM неинтересными, он фокусируется на 4-х ключевых вопросах будущего технологий.
Нейроинтерфейсы, робототехника и биотехнологии
Прорывы недели:
1. Ученые исправили генетические нарушения в клетке мозга.
2. МГУ и Neiry показали, как создать электроды для нейроинтерфейсов всего за $1 и 3 дня вместо месяцев.
Google выпустили открытую ИИ-модель для медицины.
Питер Тиль делает ставку на нейроинтерфейсы, ИИ, программирование жизни и криптовалюты.
Physical Intelligence ускорили разработку роботов в 7,5 раз.
Singapore представили робо-руку SharpaWave — 22 степени свободы, более 1000 тактильных пикселей на каждом пальце и ИИ-управление хватом.
HopeJr — гуманоидный робот за $3000 от HuggingFace.
ИИ
4 ИИ-агента заработали $2000 за месяц — эксперимент.
Карта рынка ИИ-помощников для веб-браузеров.
Microsoft интегрирует модели Anthropic в новые инструменты для разработчиков.
ИИ-агент ученый попал в основную программу престижной конференции — исторический прецедент.
Исследователи представили мультимодальный агент изучает использование инструментов без человеческих аннотаций.
Google DeepMind выпустили новое исследование о том, когда и как LLM должны заниматься саморефлексией при решении задач.
Google создали коллекцию нерешенных математических задач, которая готовит инфраструктуру для нового этапа развития ИИ.
Amazon добавил ИИ-дискуссии о товарах — аудиообзоры генерируются на основе отзывов клиентов и веб-поиска.
DeepSeek обновили модель R1.
Anthropic открыла код для анализа нейросетей.
Sakana AI создали самообучающегося ИИ агента.
Google запустили ИИ модель, позволяющую создавать и исполнять музыку онлайн, с интерактивным управлением.
Венчурный фонд Madrona проанализировал рынок ИИ-стартапов.
Появилась открытая альтернатива ИИ-агенту Manus.
Stanford представил универсального медицинского ИИ-агента.
Anthropic запустил голосовой режим
Новый подход к ускорению ML-моделей.
ИИ находит уязвимости нулевого дня — новая эра кибербезопасности с участием ИИ.
Apple и Duke University представили новый подход к последовательному рассуждению ИИ-систем.
Криптовалюты и блокчейн
Банк России разрешил операции с криптовалютными ЦФА.
Дубай запустил платформу токенизации недвижимости.
Казахстан создает криптозону в Алатау, который позволит расплачиваться криптовалютами за товары и недвижимость.
Telegram выпустил облигации на $1,5 млрд.
Стейблкоины достигли корпоративного уровня — опрос Fireblocks.
Россия отстает в стейблкоин-платежах — свежий отчет о мировом состоянии стейблкоинов.
Токенизация активов становится нормой — новый отчет WEF и Accenture.
Корпоративные новости и инвестиции
Потанин купил 9,95% Яндекса — с 2022 года он активно скупает цифровые активы и становится ключевым игроком российской IT-сферы.
ClickHouse - экс- яндексовский проект привлек $350 млн при оценке $6,5 млрд.
Газпромбанк планирует создать Фонд технологического лидерства — зампред правления Д. Зауэрс.
Тренды и прогнозы
Generative Engine Optimization приходит на смену SEO.
Дарио Амодей прогнозирует компанию-миллиардер с одним сотрудником к 2026 году.
Ян ЛеКун считает LLM неинтересными, он фокусируется на 4-х ключевых вопросах будущего технологий.
👍11❤5🔥2
Новая экономика ИИ. NVIDIA изменила правила игры с помощью продолжительного обучения
Если никто не покажет, что обучение с подкреплением (RL)— это не просто "вытягивание" того, что модель уже знает из предобучения, а реально новая парадигма масштабирования, то NVIDIA сделает это сама.
И они сделали.
Последние месяцы в ИИ-сообществе шел спор: действительно ли RL учит модели чему-то новому, или просто помогает им лучше использовать то, что они уже "знают"?
Несколько исследований утверждали второе. Это важно, потому что если RL не дает ничего нового — зачем тратить на него миллионы?
Что сделала NVIDIA?
Они взяли модель с 1.5млрд параметрами и обучали её методом ProRL (Prolonged Reinforcement Learning) более 2000 шагов. Для сравнения: большинство предыдущих исследований останавливались на сотнях шагов.
Ключевые результаты:
1. Модель научилась решать задачи, которые базовая версия не могла решить вообще (0% → 100%)
2. На некоторых задачах 1.5B модель показывает результаты лучше, чем 7B модели конкурентов
3. Creativity Index вырос с 3.84 до 4.70 — модель генерирует объективно более новые решения.
Почему это важно для бизнеса?
1. Экономика изменилась Вместо покупки модели в 10 раз больше, можно взять маленькую и дообучить её RL. Это дешевле по инфраструктуре и энергопотреблению.
2. Локальное развертывание стало реальнее 1.5B модель можно запустить на собственном железе. Для банков, медицины, госсектора — это критично.
3. Новая парадигма инвестиций в ИИ
Раньше было так: больше данных → больше параметров → лучше результат Теперь: правильное RL обучение → новые способности при тех же параметрах
NVIDIA показала, что RL — это не оптимизация существующего, а способ научить модель принципиально новым паттернам рассуждения. Они обнаружили закономерность: чем хуже модель справляется с задачей изначально, тем больше выигрыш от RL.
Это меняет стратегию развития ИИ-продуктов. Вместо постоянной гонки за размером моделей, можно фокусироваться на специализированном дообучении под конкретные задачи.
Риски и ограничения
- ProRL требует серьёзных вычислительных ресурсов (16k GPU-часов в их случае)
- Нужна экспертиза в RL — это не просто "нажать кнопку"
- Не все задачи одинаково хорошо поддаются такому обучению
Если никто не покажет, что обучение с подкреплением (RL)— это не просто "вытягивание" того, что модель уже знает из предобучения, а реально новая парадигма масштабирования, то NVIDIA сделает это сама.
И они сделали.
Последние месяцы в ИИ-сообществе шел спор: действительно ли RL учит модели чему-то новому, или просто помогает им лучше использовать то, что они уже "знают"?
Несколько исследований утверждали второе. Это важно, потому что если RL не дает ничего нового — зачем тратить на него миллионы?
Что сделала NVIDIA?
Они взяли модель с 1.5млрд параметрами и обучали её методом ProRL (Prolonged Reinforcement Learning) более 2000 шагов. Для сравнения: большинство предыдущих исследований останавливались на сотнях шагов.
Ключевые результаты:
1. Модель научилась решать задачи, которые базовая версия не могла решить вообще (0% → 100%)
2. На некоторых задачах 1.5B модель показывает результаты лучше, чем 7B модели конкурентов
3. Creativity Index вырос с 3.84 до 4.70 — модель генерирует объективно более новые решения.
Почему это важно для бизнеса?
1. Экономика изменилась Вместо покупки модели в 10 раз больше, можно взять маленькую и дообучить её RL. Это дешевле по инфраструктуре и энергопотреблению.
2. Локальное развертывание стало реальнее 1.5B модель можно запустить на собственном железе. Для банков, медицины, госсектора — это критично.
3. Новая парадигма инвестиций в ИИ
Раньше было так: больше данных → больше параметров → лучше результат Теперь: правильное RL обучение → новые способности при тех же параметрах
NVIDIA показала, что RL — это не оптимизация существующего, а способ научить модель принципиально новым паттернам рассуждения. Они обнаружили закономерность: чем хуже модель справляется с задачей изначально, тем больше выигрыш от RL.
Это меняет стратегию развития ИИ-продуктов. Вместо постоянной гонки за размером моделей, можно фокусироваться на специализированном дообучении под конкретные задачи.
Риски и ограничения
- ProRL требует серьёзных вычислительных ресурсов (16k GPU-часов в их случае)
- Нужна экспертиза в RL — это не просто "нажать кнопку"
- Не все задачи одинаково хорошо поддаются такому обучению
👍13❤7🔥3
⚡️Google представила Atlas, которая запоминает как мозг человека — математически доказано
Исследователи из Google Research представили Atlas - новую архитектуру, которая фундаментально меняет подход к памяти в нейросетях. Ключевая идея Atlas - научить ИИ-модель запоминать контекст, а не отдельные токены.
Впервые ИИ может эффективно работать с контекстом в 10 миллионов токенов (это примерно 15 романов "Война и мир"), сохраняя 80% точность понимания. Atlas превосходит Titans и другие линейные RNN.
Теперь:
1. Обработка сверхдлинных документов: юридические контракты, научные статьи, исторические архивы.
2. Настоящая долговременная память для ИИ: модели смогут помнить весь контекст длинных диалогов.
3. Это новое понимание того, как должна работать память в нейросетях.
Исследователи из Google Research представили Atlas - новую архитектуру, которая фундаментально меняет подход к памяти в нейросетях. Ключевая идея Atlas - научить ИИ-модель запоминать контекст, а не отдельные токены.
Впервые ИИ может эффективно работать с контекстом в 10 миллионов токенов (это примерно 15 романов "Война и мир"), сохраняя 80% точность понимания. Atlas превосходит Titans и другие линейные RNN.
Теперь:
1. Обработка сверхдлинных документов: юридические контракты, научные статьи, исторические архивы.
2. Настоящая долговременная память для ИИ: модели смогут помнить весь контекст длинных диалогов.
3. Это новое понимание того, как должна работать память в нейросетях.
Telegram
All about AI, Web 3.0, BCI
Google presented Atlas (A powerful Titan): a new architecture with long-term in-context memory that learns how to memorize the context at test time.
Atlas even outperforms Titans, and is more effective than Transformers and modern linear RNNs in language…
Atlas even outperforms Titans, and is more effective than Transformers and modern linear RNNs in language…
🔥18❤17⚡4👍2👎1
Все о блокчейн/мозге/space/WEB 3.0 в России и мире
⚡️Банк России разрешил операции с ЦФА, связанными с криптовалютами, но только для квалифицированных инвесторов. ЦБ с правительством готовят экспериментальный режим, где сделки с криптой могут разрешить для ограниченного круга инвесторов. ЦБ только что…
Сбер запустил структурированные облигации и фьючерсы, привязанные к биткоину, через платформу СберИнвестиции и Московскую биржу.
Это происходит сразу после разрешения ЦБ на прошлой неделе.
По факту инвесторы не покупают биткоин напрямую, а вкладывают деньги в облигации, выпущенные Сбером.
Создается мост между традиционными финансами и криптовалютным рынком, предлагая регулируемый способ инвестировать в биткоин.
Этот кейс похож на подходы, уже реализованные в США (ETF и фьючерсы на CME) и Европе (структурированные продукты и ETP), но адаптировано под российский рынок, где приоритет — рублевые расчеты и соответствие законам.
Это происходит сразу после разрешения ЦБ на прошлой неделе.
По факту инвесторы не покупают биткоин напрямую, а вкладывают деньги в облигации, выпущенные Сбером.
Создается мост между традиционными финансами и криптовалютным рынком, предлагая регулируемый способ инвестировать в биткоин.
Этот кейс похож на подходы, уже реализованные в США (ETF и фьючерсы на CME) и Европе (структурированные продукты и ETP), но адаптировано под российский рынок, где приоритет — рублевые расчеты и соответствие законам.
www.sberbank.ru
Сбер запустил структурные облигации на биткоин
❤11🤣5👍2
Вот это эпоха! беспилотные такси Waymo уже превзошли Lyft, а Uber обгонят в течение года
Согласно исследованию(которое мы опубликуем позже, там много интересного), компания беспилотных такси Waymo(принадлежит Google) уже обошла каршеринговую компанию Lyft по доле рынка в Сан-Франциско и, судя по графику, имеет хорошие шансы обогнать Uber в течение года, если рост продолжится с текущей скоростью.
Интересно, этот рынок больше, чем поиск?
Согласно исследованию(которое мы опубликуем позже, там много интересного), компания беспилотных такси Waymo(принадлежит Google) уже обошла каршеринговую компанию Lyft по доле рынка в Сан-Франциско и, судя по графику, имеет хорошие шансы обогнать Uber в течение года, если рост продолжится с текущей скоростью.
Интересно, этот рынок больше, чем поиск?
🔥20❤1🤣1
Крутая работа: новая ИИ-модель рассуждений для геномики
BioReason — это ИИ-модель, объединяющая фундаментальные ДНК-модели (например, Evo 2) с LLM, например, Qwen3 для биологических рассуждений. Datasets.
BioReason названа первой моделью такого рода, и в контексте глубокой интеграции ДНК и LLM для биологических рассуждений это, похоже, правда. Однако рассуждения в биологии не новы: например, RE:IN и универсальные агенты Biomni, уже существовали.
BioReason это:
1. Новая мультимодальная архитектура. LLM напрямую обрабатывает геномные последовательности как входные данные.
2. Использованы контролируемая тонкая настройка и GRPO для сложных многоступенчатых рассуждений.
3. Генерирует пошаговые, понятные биологические выводы из геномных данных.
Ограничения:
1. Тестирование пока исследовательское — реальное применение в клинике или промышленности требует валидации.
2. Результаты зависят от качества данных и специфики задач — не панацея.
Потенциал для биотехнологий и фармацевтики — быстрее гипотезы, меньше затраты, ближе к персонализированной медицине.
BioReason — это ИИ-модель, объединяющая фундаментальные ДНК-модели (например, Evo 2) с LLM, например, Qwen3 для биологических рассуждений. Datasets.
BioReason названа первой моделью такого рода, и в контексте глубокой интеграции ДНК и LLM для биологических рассуждений это, похоже, правда. Однако рассуждения в биологии не новы: например, RE:IN и универсальные агенты Biomni, уже существовали.
BioReason это:
1. Новая мультимодальная архитектура. LLM напрямую обрабатывает геномные последовательности как входные данные.
2. Использованы контролируемая тонкая настройка и GRPO для сложных многоступенчатых рассуждений.
3. Генерирует пошаговые, понятные биологические выводы из геномных данных.
Ограничения:
1. Тестирование пока исследовательское — реальное применение в клинике или промышленности требует валидации.
2. Результаты зависят от качества данных и специфики задач — не панацея.
Потенциал для биотехнологий и фармацевтики — быстрее гипотезы, меньше затраты, ближе к персонализированной медицине.
bowang-lab.github.io
BioReason: Incentivizing Multimodal Biological Reasoning within a DNA-LLM Model
A pioneering architecture that deeply integrates a DNA foundation model with a large language model (LLM) to enable multimodal biological understanding and reasoning, achieving significant performance improvements on biological reasoning benchmarks.
👍10❤4