ИИ в Google Colab теперь будет доступен бесплатным пользователям 🕺
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
К моделям уже можно обратиться двумя способами:
1. Через библиотеку google.colab.ai, которую сделали открытой для всех пользователей. Прямо в ячейке прописываете
from google.colab import ai, и затем можете: – Просмотреть все доступные вам модели:ai.list_models()Сгенерировать что-нибудь:
–response = ai.generate_text("2+2?", model_name = 'google/gemini-2.0-flash-lite')
print(response)
– Или стримить ответ:stream = ai.generate_text("Tell me a short story.", stream=True)
for text in stream:
print(text, end='')
2. Через новую кнопку «Add AI prompt cell», которая теперь расположена рядом с кнопкой +Code. Тут уже никакой код писать не надо, система сама предложит вам готовую ячейку с интерфейсом для написания промпта. Из моделей и там и там бесплатным пользователям будут доступны gemini-2.5-flash и gemini-2.5-flash-lite.
🍯
Please open Telegram to view this post
VIEW IN TELEGRAM
👍126❤29🔥17 6😁1
Anthropic зафиксировали первый официальный случай крупной кибератаки, выполненной с помощью ИИ. Стартап утверждает, что за операцией стоит китайская государственная группировка.
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию😍
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент🤠
По данным Anthropic, это был даже не единичный случай, а целая кибершпионская кампания, целью которой были около тридцати организаций по всему миру. Среди них бигтех, финансовые институты, хим.производства и государственные агентства.
Преступники использовали Claude Code и "агента на основе Claude". Модельку джейлбрейкнули, попросив ее выполнять мелкие задачи без раскрытия истинной цели и убедив, что она работает для легальной фирмы кибербезопасности.
Ну а дальше все как по маслу. Модель провела разведку инфраструктуры целевой организации, написала эксплойты, получила нужные доступы, создала бэкдоры, украла данные и даже услужливо написала по всему этому подробную документацию
По оценке Anthropic, вмешательство человека во всем этом требовалось 4-6 раз: преступники автоматизировали всю деятельность на 90%. Отловить атаку удалось благодаря тому, что аналитики заметики подозрительную активность и тут же запустили расследование.
Большиство запланированных атак, по словам стартапа, удалось предотвратить, и все же преступники «успешно компрометировали небольшое число случаев».
Вот вам и весь хваленый элаймент
Please open Telegram to view this post
VIEW IN TELEGRAM
😁202❤🔥34🤯30❤20👍15🔥8 2
Data Secrets
The New York Times требует от OpenAI доступ к 20 миллионам чатов пользователей На официальном сайте OpenAI сегодня появилось меланхоличное письмо под заголовком «The New York Times’ invasion of user privacy». В нем директор стартапа по информационной безопасности…
А тем временем суд все-таки обязал OpenAI предоставить The New York Times 20 миллионов чатов пользователей
Первая часть этой истории здесь. Кратко: NYT сейчас судятся с OpenAI из-за того, что ChatGPT якобы воспроизводит защищенные материалы издания. В рамках расследования они потребовали от стартапа отдать им на рассмотрение 20 миллионов случайных обезличенных пользовательских диалогов.
Стартап пытался противостоять запросу, но «будем биться за приватность пользователей до последнего» продлилось довольно недолго.
По оценке OpenAI, 99.99% логов вообще не будут относиться к делу. Они предлагали альтернативное решение с выборочной выдачей чатов, но судья посчитала, что обезличивания диалогов и охранного судебного ордера будет и так достаточно для защиты данных юзеров🙂
OpenAI подал ходатайство о пересмотре решения, но суд пока требует выполнить приказ и передать данные в ближайшее время.
Первая часть этой истории здесь. Кратко: NYT сейчас судятся с OpenAI из-за того, что ChatGPT якобы воспроизводит защищенные материалы издания. В рамках расследования они потребовали от стартапа отдать им на рассмотрение 20 миллионов случайных обезличенных пользовательских диалогов.
Стартап пытался противостоять запросу, но «будем биться за приватность пользователей до последнего» продлилось довольно недолго.
По оценке OpenAI, 99.99% логов вообще не будут относиться к делу. Они предлагали альтернативное решение с выборочной выдачей чатов, но судья посчитала, что обезличивания диалогов и охранного судебного ордера будет и так достаточно для защиты данных юзеров
OpenAI подал ходатайство о пересмотре решения, но суд пока требует выполнить приказ и передать данные в ближайшее время.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯144😁27❤10🫡9👏6🤨6🗿6👍4🐳1🤓1
OpenAI выпустили довольно интересную статью про интерпретируемость моделей
Сейчас модельки уже во всю помогают принимать решения в медицине, в науке, образовании и тд. Но интерпретировать их ответы мы так и не научились, к сожалению. Многие уповают на интерпретацию через CoT, но это дело очень хрупкое и ненадежное.
OpenAI утверждают: проблема в том, что мы пытаемся распутывать внутренности модели постфактум, когда это уже почти невозможно. Во время обучения модели подбирают миллиарды весов, из которых в итоге получается очень плотная сеть. В итоге поведение модели размазано по массе параметров, и структурировать эту паутину, мягко говоря, сложно.
Вместо этого они предлагают сразу обучать структурно более простую разреженную сетку.
На практике исследователи берут архитектуру, похожую на GPT-2 и ограничивают веса так, чтобы подавляющее большинство было равно нулю. То есть если в обычной плотной сети каждый нейрон связан со всеми из следующего слоя, то здесь остаются связи только с несколькими. Сеть становится более чистой и читаемой.
Это первый шаг. Такая структура сети позволяет для конкретной задачи брать и находить маленькую часть модели, отвечающую за ее решение. В статье это называется circuit. Формально, – минимальный поднабор весов, обладающий необходимостью и достаточностью: то есть если выкинуть все, кроме него, задача все еще будет решаться; а если выкинуть только его, а остальную сеть оставить – нет.
Ну а затем в этом маленьком наборе весов уже можно копаться и непосредственно анализировать поведение сети.
В статье приведен пример с простенькой задачей закрытия кавычки. Модели надо запомнить тип открывающейся кавычки и в конце последовательности поставить такую же. И вот оказывается, что делает она это по определенному логическому алгоритму, заложенному в 5 residual-каналах, двух MLP-слоях и 1 канале аттеншена. На картинке можете посмотреть, как это работает.
Представьте: если за маленькой задачкой скрывается что-то такое, то что можно найти, если посмотреть, как модель решает сложную математику или пишет код?
Короче, подход интересный. И есть даже занятный практический результат, в который нужно вдуматься: чем больше модель и чем более она разреженная, тем проще становятся схемы, реализующие одни те же способности. Makes sense.
Тем не менее, не факт, что если это работает для таких игрушечных моделек, заработает и для больших. К тому же обучать разреженные модельки только ради интерпретируемости никто не будет: слишком дорого и неэффективно.
Но вот если в OpenAI научатся извлекать что-то подобное из уже обученных dense-моделей, будет совсем другой разговор.
openai.com/index/understanding-neural-networks-through-sparse-circuits/
Сейчас модельки уже во всю помогают принимать решения в медицине, в науке, образовании и тд. Но интерпретировать их ответы мы так и не научились, к сожалению. Многие уповают на интерпретацию через CoT, но это дело очень хрупкое и ненадежное.
OpenAI утверждают: проблема в том, что мы пытаемся распутывать внутренности модели постфактум, когда это уже почти невозможно. Во время обучения модели подбирают миллиарды весов, из которых в итоге получается очень плотная сеть. В итоге поведение модели размазано по массе параметров, и структурировать эту паутину, мягко говоря, сложно.
Вместо этого они предлагают сразу обучать структурно более простую разреженную сетку.
На практике исследователи берут архитектуру, похожую на GPT-2 и ограничивают веса так, чтобы подавляющее большинство было равно нулю. То есть если в обычной плотной сети каждый нейрон связан со всеми из следующего слоя, то здесь остаются связи только с несколькими. Сеть становится более чистой и читаемой.
Это первый шаг. Такая структура сети позволяет для конкретной задачи брать и находить маленькую часть модели, отвечающую за ее решение. В статье это называется circuit. Формально, – минимальный поднабор весов, обладающий необходимостью и достаточностью: то есть если выкинуть все, кроме него, задача все еще будет решаться; а если выкинуть только его, а остальную сеть оставить – нет.
Ну а затем в этом маленьком наборе весов уже можно копаться и непосредственно анализировать поведение сети.
В статье приведен пример с простенькой задачей закрытия кавычки. Модели надо запомнить тип открывающейся кавычки и в конце последовательности поставить такую же. И вот оказывается, что делает она это по определенному логическому алгоритму, заложенному в 5 residual-каналах, двух MLP-слоях и 1 канале аттеншена. На картинке можете посмотреть, как это работает.
Представьте: если за маленькой задачкой скрывается что-то такое, то что можно найти, если посмотреть, как модель решает сложную математику или пишет код?
Короче, подход интересный. И есть даже занятный практический результат, в который нужно вдуматься: чем больше модель и чем более она разреженная, тем проще становятся схемы, реализующие одни те же способности. Makes sense.
Тем не менее, не факт, что если это работает для таких игрушечных моделек, заработает и для больших. К тому же обучать разреженные модельки только ради интерпретируемости никто не будет: слишком дорого и неэффективно.
Но вот если в OpenAI научатся извлекать что-то подобное из уже обученных dense-моделей, будет совсем другой разговор.
openai.com/index/understanding-neural-networks-through-sparse-circuits/
❤68👍31🔥12🤔8❤🔥2😁2🫡2
Дмитрий Ветров получил Yandex ML Prize 2025
Это ежегодная премия Яндекса за вклад в развитие машинного обучения. С этого года ей награждают преподавателей — тех, кто растит новое поколение AI-специалистов и двигает науку вперёд. Лауреатами стали 10 представителей ведущих вузов страны, еще трое ученых и преподавателей получили специальную награду.
Поздравляем Дмитрия Ветрова — профессора-исследователя ФКН НИУ ВШЭ, который вошёл в «Зал славы» Yandex ML Prize 2025. Респектуем за одну из самых сильных исследовательских команд по машинному обучению в России и продвижение байесовских методов.
Это ежегодная премия Яндекса за вклад в развитие машинного обучения. С этого года ей награждают преподавателей — тех, кто растит новое поколение AI-специалистов и двигает науку вперёд. Лауреатами стали 10 представителей ведущих вузов страны, еще трое ученых и преподавателей получили специальную награду.
Поздравляем Дмитрия Ветрова — профессора-исследователя ФКН НИУ ВШЭ, который вошёл в «Зал славы» Yandex ML Prize 2025. Респектуем за одну из самых сильных исследовательских команд по машинному обучению в России и продвижение байесовских методов.
❤94🗿55👍42🔥19🎉11🤨5😁4🫡3⚡2🦄2🍾1
Cursor привлек 2.3 миллиарда долларов
Для стартапа это уже раунд D, в этот раз в них вложились Nvidia, Google, Andreessen Horowitz и несколько других крупняков.
Оценка компании на данный момент – $29.3 миллиарда. Напоминаем, что при этом она основана только в конце 2022. На данный момент Cursor – самый быстрорастущий SaaS-стартап в истории.
Для стартапа это уже раунд D, в этот раз в них вложились Nvidia, Google, Andreessen Horowitz и несколько других крупняков.
Мы также рады сообщить, что годовой доход Cursor превысил 1 млрд долларов, и теперь он производит больше кода, чем любой другой агент в мире.
Оценка компании на данный момент – $29.3 миллиарда. Напоминаем, что при этом она основана только в конце 2022. На данный момент Cursor – самый быстрорастущий SaaS-стартап в истории.
❤101🔥42👍22😁8🤯3
This media is not supported in your browser
VIEW IN TELEGRAM
Google продолжают экспериментировать с ИИ-продуктами и на этот раз выкатили Code Wiki – агента, который сделает по любому репозиторию красочную понятную документацию
Открываете codewiki.google/, вставляете ссылку на репозиторий и все: перед вами подробная документация с оглавлением и схемами, по которой вы можете перемещаться в интерактивном режиме.
Тут же встроен чат с ассистеном, которому можно задавать вопросы по проекту и доке: он будет отвечать сразу с гиперссылками на файлы и куски кода, очень удобно.
И еще интересная фича: документация будет автоматически обновляться каждый раз, когда в репозитории происходят изменения.
Скоро обещают выкатить еще и CLI расширение, а пока Code Wiki можно попробовать абсолютно бесплатно здесь
Открываете codewiki.google/, вставляете ссылку на репозиторий и все: перед вами подробная документация с оглавлением и схемами, по которой вы можете перемещаться в интерактивном режиме.
Тут же встроен чат с ассистеном, которому можно задавать вопросы по проекту и доке: он будет отвечать сразу с гиперссылками на файлы и куски кода, очень удобно.
И еще интересная фича: документация будет автоматически обновляться каждый раз, когда в репозитории происходят изменения.
Скоро обещают выкатить еще и CLI расширение, а пока Code Wiki можно попробовать абсолютно бесплатно здесь
1🔥223👍48❤27🤯7😁2🤝1
LeJEPA: новая статья от Яна Лекуна
(Да-да, с каждым разом названия этой линейки моделей все лучше и лучше😂 )
Небольшое предисловие о том, что вообще такое эта ваша JEPA. Если кратко, это попытка Лекуна сделать шаг навстречу тем самым world models, о которых он так много говорит. Расшифровывается JEPA как Joint Embedding Predictive Architecture –Self-Supervised архитектура, предназначенная для понимания внешнего физического мира.
Вот, допустим, есть у вас видео, и вы хотите, чтобы модель не просто могла дорисовать пиксели для следующего кадра, а действительно понимала, что в сцене происходит: где объект, куда он движется, что неизменно, что может меняться и под действием каких сил и тд.
JEPA как раз отличается от большинства моделей тем, что работает не с предсказанием следующего токена/генерацией пикселей, а пытается предсказывать смысл наблюдаемого фрагмента на основе контекста (по факту, эмбеддинги).
Лекун считает, что это идеалогическая альтернатива привычному ИИ, потому что предсказание пикселей или токенов – это лишь имитация понимания структуры мира, а тут модель действительно учится понимать физику и логические связи. И, кстати, за счет того, что предсказание происходит на уровне скрытого пространства, JEPA еще и намного эффективнее той же авторегрессии.
Ну так вот. Впервые JEPA была предложена в 2022. С тех пор уже вышла I‑JEPA для изображений, V‑JEPA для видео и V‑JEPA 2 (ну и куча сторонних надстроек, это не считаем). Сейчас вот вышло следующее большое обновление архитектуры – LeJEPA.
Оно построено на важном теоретическом результате: исследователи впервые доказали, что существует оптимальная форма латентного распределения для foundation-моделей, и это изотропный гаусс. Оптимальная – значит такая, которая минимизирует среднюю ошибку на любых задачах. Раньше были только какие-то эмпирические наблюдения, а сейчас впервые появился четкий рецепт.
И, собственно, практическое обновление состоит только в том, что они добавили новый лосс, который заставляет эмбеддинги становиться гауссовыми, – SIGReg (Sketched Isotropic Gaussian Regularization). Но в итоге этот лосс:
1. Помог избавиться вообще от всех предыдущих костылей. Он заменил stop-grad, teacher-student, EMA, всякие трюки с нормализацией и пр.
2. Прокачал стабильность.
3. Дал SOTA качество на 10+ датасетах. Теперь по уровню это примерно DINOv2, но гораздо проще и с нормальной сходимостью.
В общем, приколько. Теперь JEPA уже несколько больше, чем исследовательская идея, и уже похожа на полноценный практический метод. Если любите математику, обязательно почитайте статью полностью, там красиво.
https://arxiv.org/abs/2511.08544
(Да-да, с каждым разом названия этой линейки моделей все лучше и лучше
Небольшое предисловие о том, что вообще такое эта ваша JEPA. Если кратко, это попытка Лекуна сделать шаг навстречу тем самым world models, о которых он так много говорит. Расшифровывается JEPA как Joint Embedding Predictive Architecture –Self-Supervised архитектура, предназначенная для понимания внешнего физического мира.
Вот, допустим, есть у вас видео, и вы хотите, чтобы модель не просто могла дорисовать пиксели для следующего кадра, а действительно понимала, что в сцене происходит: где объект, куда он движется, что неизменно, что может меняться и под действием каких сил и тд.
JEPA как раз отличается от большинства моделей тем, что работает не с предсказанием следующего токена/генерацией пикселей, а пытается предсказывать смысл наблюдаемого фрагмента на основе контекста (по факту, эмбеддинги).
Лекун считает, что это идеалогическая альтернатива привычному ИИ, потому что предсказание пикселей или токенов – это лишь имитация понимания структуры мира, а тут модель действительно учится понимать физику и логические связи. И, кстати, за счет того, что предсказание происходит на уровне скрытого пространства, JEPA еще и намного эффективнее той же авторегрессии.
Ну так вот. Впервые JEPA была предложена в 2022. С тех пор уже вышла I‑JEPA для изображений, V‑JEPA для видео и V‑JEPA 2 (ну и куча сторонних надстроек, это не считаем). Сейчас вот вышло следующее большое обновление архитектуры – LeJEPA.
Оно построено на важном теоретическом результате: исследователи впервые доказали, что существует оптимальная форма латентного распределения для foundation-моделей, и это изотропный гаусс. Оптимальная – значит такая, которая минимизирует среднюю ошибку на любых задачах. Раньше были только какие-то эмпирические наблюдения, а сейчас впервые появился четкий рецепт.
И, собственно, практическое обновление состоит только в том, что они добавили новый лосс, который заставляет эмбеддинги становиться гауссовыми, – SIGReg (Sketched Isotropic Gaussian Regularization). Но в итоге этот лосс:
1. Помог избавиться вообще от всех предыдущих костылей. Он заменил stop-grad, teacher-student, EMA, всякие трюки с нормализацией и пр.
2. Прокачал стабильность.
3. Дал SOTA качество на 10+ датасетах. Теперь по уровню это примерно DINOv2, но гораздо проще и с нормальной сходимостью.
В общем, приколько. Теперь JEPA уже несколько больше, чем исследовательская идея, и уже похожа на полноценный практический метод. Если любите математику, обязательно почитайте статью полностью, там красиво.
https://arxiv.org/abs/2511.08544
Please open Telegram to view this post
VIEW IN TELEGRAM
2😁158❤109👍63🔥26👏3🎄3 2🗿1
В эфире рубрика "Да что может пойти не так?". В Южной Корее хотят запустить датацентр, который будет полностью проектироваться и управляться ИИ.
Стоимость проекта под названием Project Concord оценивается примерно в 35 млрд долларов.
ИИ планируют применять почти на всех этапах: выбор площадки, проектирование инженерных систем, управление и оптимизация систем энергопотребления и охлаждения, а также непосредственный мониторинг и устранение неисправностей уже на этапе эксплуатации центра.
По мощности запланировано около 3 гигаватт, это довольно масштабно. Завершить строительство рассчитывают в 2028.
Стоимость проекта под названием Project Concord оценивается примерно в 35 млрд долларов.
ИИ планируют применять почти на всех этапах: выбор площадки, проектирование инженерных систем, управление и оптимизация систем энергопотребления и охлаждения, а также непосредственный мониторинг и устранение неисправностей уже на этапе эксплуатации центра.
По мощности запланировано около 3 гигаватт, это довольно масштабно. Завершить строительство рассчитывают в 2028.
😁184 83👍27❤8🗿8🤔5🐳4🤓4🦄3✍2☃1
Data Secrets
Майкл Бьюрри поставил 1.1 млрд долларов на крах ИИ-пузыря Майкл Бьюрри – это тот самый инвестор, про которого сняли фильм «Игра на понижение». В 2008 году он был одним из первых, кто увидел надвигающийся кризис недвижимости США и купил CDS на ипотечные облигации.…
На бирже опять что-то интересное происходит: миллиардер Питер Тиль продал все свои акции Nvidia
Он владел примерно 537 тысячами акций, они составляли 40% всего его фонда. Капитал он перераспределил в Microsoft, Apple и частично Tesla.
Основная мотивация та же – опасения по поводу пузыря. Он несколько раз публично заявлял, что не видит устойчивого экономического фундамента под текущей эйфорией вокруг ИИ, и, по классике, сравнивал ситуацию с доткомами 90-х. В общем, акции Nvidia Тиль, судя по всему, посчитал перегретыми.
Итого, что мы имеем:
– Один из самых влиятельных инвесторов мира избавляется от своих акций Nvidia
– SoftBank также продает всю свою долю в компании
– Майкл Бьюрри, который заработал миллионы на предыдущем кризисе США, шортит Nvidia на 14% всего своего портфеля
Мнения?
Он владел примерно 537 тысячами акций, они составляли 40% всего его фонда. Капитал он перераспределил в Microsoft, Apple и частично Tesla.
Основная мотивация та же – опасения по поводу пузыря. Он несколько раз публично заявлял, что не видит устойчивого экономического фундамента под текущей эйфорией вокруг ИИ, и, по классике, сравнивал ситуацию с доткомами 90-х. В общем, акции Nvidia Тиль, судя по всему, посчитал перегретыми.
Итого, что мы имеем:
– Один из самых влиятельных инвесторов мира избавляется от своих акций Nvidia
– SoftBank также продает всю свою долю в компании
– Майкл Бьюрри, который заработал миллионы на предыдущем кризисе США, шортит Nvidia на 14% всего своего портфеля
Мнения?
😁140 90👍31❤9🤔8🔥4🗿4🤯3🫡3
Андрей Карпаты: «ИИ – это ПО 2.0, и оно автоматизирует то, что можно проверить»
Понравился свежий емкий пост Карпаты на вечную тему автоматизации в эпоху ИИ. Подготовили сокращенный перевод:
Понравился свежий емкий пост Карпаты на вечную тему автоматизации в эпоху ИИ. Подготовили сокращенный перевод:
ИИ часто сравнивают с историческими прорывами: электричеством, промышленной революцией и тд. Но, по-моему, самая точная аналогия – ИИ как новая вычислительная парадигма, Software 2.0.
В обоих случаях речь про автоматизацию обработки цифровой информации. В 80-х автоматизировались задачи, которые сводились к механическому преобразованию информации по простым, чётко формализуемым правилам (например, бухгалтерия).
Сейчас же, с ИИ, мы можем автоматизировать то, что вручную описать невозможно, но можно проверить. Мы задаем таргет (например, accuracy) и с помощью градиентного спуска ищем в пространстве алгоритмов нейросеть, которая оптимизирует этот таргет лучше всего.
Это и есть Software 2.0, и в этой парадигме ключевым факторов автоматизируемости задачи выступает ее проверяемость. Лучше всего можно автоматизировать именно то, что легко проверить.
Если задача непроверяема, останется надеяться на волшебную обобщающую способность нейросетей. Именно поэтому прогресс ИИ такой зубчатый: в проверяемых задачах прогресс стремительный (код, математика, головоломки), а вот многое другое отстает (творчество, стратегия, здравый смысл).
Software 1.0 легко автоматизирует то, что можно формально описать.
Software 2.0 легко автоматизирует то, что можно проверить.
1❤162👍91🔥37🗿8💯5🫡5😁3
Сэм Альтман совместно с Льюисом Андре основал компанию, заявленную как «новый тип R&D-организации»
Компания под названием Episteme намерена нанимать выдающихся исследователей из разных областей и давать им возможность заниматься своими исследованиями без бюрократии и давления со стороны коммерции.
Сотрудникам они обещают все необходимые ресурсы, инфраструктуру и поддержку. Также исследователи будут получать долю в компании.
Цель – заниматься идеями, которые могут стать прорывными в долгосроке. В академии на такие обычно не хватает денег, а в индустрии они не получают достаточно внимания или свободы, потому что промышленность ориентирована на быстрые результаты и прибыль.
По темам целятся в пересечение физики, биологии, вычислений и энергии. То есть все равно в те области, где значимые исследования в итоге могут принести значимый экономический эффект (но в анонсе, конечно, говорится только про эффект для человечества).
В общем, пока звучит слишком хорошо для того, чтобы быть правдой, но новость интересная. Посмотрим, кто пойдет к ним работать.
Сайт: episteme.com
Компания под названием Episteme намерена нанимать выдающихся исследователей из разных областей и давать им возможность заниматься своими исследованиями без бюрократии и давления со стороны коммерции.
Сотрудникам они обещают все необходимые ресурсы, инфраструктуру и поддержку. Также исследователи будут получать долю в компании.
Цель – заниматься идеями, которые могут стать прорывными в долгосроке. В академии на такие обычно не хватает денег, а в индустрии они не получают достаточно внимания или свободы, потому что промышленность ориентирована на быстрые результаты и прибыль.
По темам целятся в пересечение физики, биологии, вычислений и энергии. То есть все равно в те области, где значимые исследования в итоге могут принести значимый экономический эффект (но в анонсе, конечно, говорится только про эффект для человечества).
В общем, пока звучит слишком хорошо для того, чтобы быть правдой, но новость интересная. Посмотрим, кто пойдет к ним работать.
Сайт: episteme.com
1❤158🔥63👍30 20🤔7😁5⚡3🤝1
Статистика дня: примерно 80% американских стартапов построены на китайском ИИ
Это число озвучил не кто-нибудь, а Мартин Косадо – партнёр в венчурной фирме Andreessen Horowitz (a16z), одной из самых влиятельных в Кремниевой долине. Он сказал:
Смешно, конечно, но не удивительно. Открытых американских и европейских моделей с такими же ценами и качеством, как у тех же Qwen или Moonshot, просто нет (Meta уже давно курит в сторонке).
Bloomberg пишет, что на фоне такой картины даже распространилась следующая практика: стартапы тихо делают продукты на китайском опенсорсе, а затем перед релизом вычищают логи и убирают упоминание базовой модели.
За примером даже не надо далеко ходить. Говорят, что новая и первая собственная модель от Cursor (Composer) – это, собственно, не что иное, как затюненый Qwen.
Вот такая реальность
Это число озвучил не кто-нибудь, а Мартин Косадо – партнёр в венчурной фирме Andreessen Horowitz (a16z), одной из самых влиятельных в Кремниевой долине. Он сказал:
Сейчас, когда фаундеры питчат свои проекты в a16z, вероятность, что их стартапы работают на китайских моделях, довольно большая. Я бы сказал, что с вероятностью 80% они используют китайскую опенсорсную модель.
Смешно, конечно, но не удивительно. Открытых американских и европейских моделей с такими же ценами и качеством, как у тех же Qwen или Moonshot, просто нет (Meta уже давно курит в сторонке).
Bloomberg пишет, что на фоне такой картины даже распространилась следующая практика: стартапы тихо делают продукты на китайском опенсорсе, а затем перед релизом вычищают логи и убирают упоминание базовой модели.
За примером даже не надо далеко ходить. Говорят, что новая и первая собственная модель от Cursor (Composer) – это, собственно, не что иное, как затюненый Qwen.
Вот такая реальность
1😁244🤯37❤22 13👍11 8🐳4💯3🗿3🤨2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
У Google Colab теперь есть официальная интеграция с VSCode
Это значит, что наконец-то можно будет подключать локальные ноутбуки к средам Colab и, не выходя из IDE, использовать, например, TPU.
Как это сделать:
1. В VSCode заходим в Extensions, ищем Google Colab и устанавливаем.
2. Создаем или импортируем файл .ipynb в проект.
3. Кликаем Select Kernel справа сверху, выбираем Colab и затем нужный runtime. Заходим в свой аккаунт Google и готово.
Как говорится, happy coding 🍯
Это значит, что наконец-то можно будет подключать локальные ноутбуки к средам Colab и, не выходя из IDE, использовать, например, TPU.
Как это сделать:
1. В VSCode заходим в Extensions, ищем Google Colab и устанавливаем.
2. Создаем или импортируем файл .ipynb в проект.
3. Кликаем Select Kernel справа сверху, выбираем Colab и затем нужный runtime. Заходим в свой аккаунт Google и готово.
Как говорится, happy coding 🍯
🔥357❤57👍45😁5🤯3
Говорят, что относительно прошлой версии модель стала намного более эмпатичной и чуткой, а еще ей существенно прокачали creative writing.
Показывают даже SOTA-результаты на EQ-Bench (это бенчмарк с задачками на всякие soft skills). Но с новой версией GPT-5.1 сравнения нет.
Это все круто, но главный результат, на наш взгляд: модель галлюцинирует в три раза реже, чем предыдущая версия. Вот это правда здорово.
Что касается остальных метрик – бенчмарков нет. Известно только, что модель опять выбила первое место на LMArena, и причем довольно уверено: предыдущего лидера Gemini 2.5 Pro версия Thinking обогнала на 31 балл.
Уже раскатано на всех, можно пробовать
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍93❤27😁15🔥3😎3 1
Джефф Безос основал ИИ-стартап Project Prometheus
Пока подробностей немного: компания находится в стелс моде. Известно только, что Безос уже собрал 6.2 миллиарда долларов инвестиций, часть из которых вложил сам, и что он будет занимать роль Co-Chief Executive.
Ключевая цель стартапа заявляется как «ускорение научных открытый и повышение эффективности классических производственных процессов». В компании хотят сделать ставку на ИИ, который будет учится на реальных физических экспериментах и данных.
Звучит занятно, конечно. Некоторые издания пишут, что в команде уже почти 100 опытных исследователей. И еще есть изюминка: ожидается тесная связь стартапа с Blue Origin, аэрокосмической компанией Безоса.
Пока подробностей немного: компания находится в стелс моде. Известно только, что Безос уже собрал 6.2 миллиарда долларов инвестиций, часть из которых вложил сам, и что он будет занимать роль Co-Chief Executive.
Ключевая цель стартапа заявляется как «ускорение научных открытый и повышение эффективности классических производственных процессов». В компании хотят сделать ставку на ИИ, который будет учится на реальных физических экспериментах и данных.
Звучит занятно, конечно. Некоторые издания пишут, что в команде уже почти 100 опытных исследователей. И еще есть изюминка: ожидается тесная связь стартапа с Blue Origin, аэрокосмической компанией Безоса.
1🔥83👍22❤15☃5 4😁2✍1
Топы Google недвусмысленно намекают на выход Gemini 3 (а Андрей Карпаты подливает масла в огонь в своем стиле)
Ждем релиз сегодня?
Ждем релиз сегодня?
😁236🍓47❤26🔥2👍1🗿1