У Яндекса сегодня большой день: компания показала самое глобальное обновление Алисы за всю историю
Алиса эволюционировала в универсальную нейросеть Алису AI, которую обучили на миллионах реальных кейсов пользователей. В ответе на запрос пользователя она не ограничивается только текстом, а прикладывает картинки, видео и даже данные Яндекс Карт.
Еще из любопытного: появится функция «Моя память» — можно будет хаотично наговорить или набросать в чат с ней мысли, она обработает их, сформирует списки дел и напомнит вам о них.
Ну и самое главное — в Алисе AI появится функционал ИИ-агента, который позволит делегировать жизненную рутину, например искать и бронировать рестораны, записывать в салоны красоты. На старте можно будет забронировать слот в 40 тысячах бьюти- и других организаций, а также стол в более чем 30 тысячах ресторанов России.
Шаг действительно фундаментальный как для компании, так и для российских пользователей (ведь такой функционал у них появится впервые), и может стать новым стандартом в ИИ.
Алиса эволюционировала в универсальную нейросеть Алису AI, которую обучили на миллионах реальных кейсов пользователей. В ответе на запрос пользователя она не ограничивается только текстом, а прикладывает картинки, видео и даже данные Яндекс Карт.
Еще из любопытного: появится функция «Моя память» — можно будет хаотично наговорить или набросать в чат с ней мысли, она обработает их, сформирует списки дел и напомнит вам о них.
Ну и самое главное — в Алисе AI появится функционал ИИ-агента, который позволит делегировать жизненную рутину, например искать и бронировать рестораны, записывать в салоны красоты. На старте можно будет забронировать слот в 40 тысячах бьюти- и других организаций, а также стол в более чем 30 тысячах ресторанов России.
Шаг действительно фундаментальный как для компании, так и для российских пользователей (ведь такой функционал у них появится впервые), и может стать новым стандартом в ИИ.
🔥184🗿60❤39😁27👍16🤯8 6🤨4 4 3
ИИ-музыка прошла тест Тьюринга
В испанском университете провели такой эксперимент: участникам предъявлялись пары песен, из которых одна была сгенерированной, а другая человеческой, – и проверяли, насколько люди способны отличить, где что.
В итоге результат оказался близок к случайному угадыванию. В среднем слушатели отвечали правильно в 53% случаев.
Киберпанк✌️
P.S. Но для музыкантов пока что есть и хорошая новость: чем ближе пара была по стилю/вокалу/звукам, тем лучше слушатели отличали AI от «живой» музыки.
В испанском университете провели такой эксперимент: участникам предъявлялись пары песен, из которых одна была сгенерированной, а другая человеческой, – и проверяли, насколько люди способны отличить, где что.
В итоге результат оказался близок к случайному угадыванию. В среднем слушатели отвечали правильно в 53% случаев.
Киберпанк
P.S. Но для музыкантов пока что есть и хорошая новость: чем ближе пара была по стилю/вокалу/звукам, тем лучше слушатели отличали AI от «живой» музыки.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤91 32🔥14😁5🦄3🤯2👍1 1
На Wikipedia уже появилась статья про Grokipedia
Настроение у нее довольно забавное. Смотрите, что пишут:
Пассивная агрессия, уровень: Wikipedia
Настроение у нее довольно забавное. Смотрите, что пишут:
Маск позиционирует Grokipedia как альтернативу Wikipedia, которая, по его словам, должна «очистить от пропаганды» последнюю.
По состоянию на 28 октября 2025 года, на сайте размещено более 800 000 статей, созданных ИИ. Материалы создаются и редактируются языковой моделью Grok. Многие статьи основаны на статьях из Википедии, и некоторые из них почти дословно повторяют оригиналы.
Отмечается, что тексты проходят проверку фактов с помощью модели Grok.
Часть контента, по утверждениям критиков, согласуется с личными взглядами Маска и бывшего CEO Twitter Парага Агравала на темы вроде гендерного перехода.
Пассивная агрессия, уровень: Wikipedia
😁268❤45 32👍4 4⚡2🤩1🤨1🗿1👾1 1
Data Secrets
Большая новость: OpenAI раскрывают детали новой структуры компании Как вы помните, они уже несколько месяцев назад отказались от полного перехода в статус коммерческой организации и объявили, что будут Public Benefit Corporation, как, например, Anthropic…
OpenAI завершили реструктуризацию и стали (почти) коммерческим стартапом
Некоммерческое подразделение все еще будет жить и теперь называется OpenAI Foundation. Они владеют примерно четвертью акций OpenAI: в деньгах это примерно 130 миллиардов долларов. Такой бюджет делает компанию одной из самых богатых филантропических организаций в мире.
Забавно, что состояние некоммерческой структуры напрямую зависит от финансового успеха коммерческой. После достижения определенных рубежей в оценке акций она будет получать дополнительные доли и опционы.
Тратить эти деньги планируется на общественно полезные проекты. На первых парах метят в ИИ-кибербез и ИИ в здравоохранении.
При этом nonprofit также сохраняет влияние на дочерний profit и оставляет за собой право решающего голоса в вопросах этики, безопасности и тд.
Также (наконец-то!) появилась какая-то ясность в дальнейших отношениях OpenAI и Microsoft.
Ключевое: Microsoft все-таки выбили себе право интеллектуальной собственности на все модели и разработки до 2032 года. Даже если OpenAI раньше объявит о достижении AGI, это право сохранится.
Исключение составляет только небольшой список так называемых исследовательских разработок. Это, например, модели, предназначенные только для внутреннего тестирования и использования.
https://openai.com/index/built-to-benefit-everyone/
Некоммерческое подразделение все еще будет жить и теперь называется OpenAI Foundation. Они владеют примерно четвертью акций OpenAI: в деньгах это примерно 130 миллиардов долларов. Такой бюджет делает компанию одной из самых богатых филантропических организаций в мире.
Забавно, что состояние некоммерческой структуры напрямую зависит от финансового успеха коммерческой. После достижения определенных рубежей в оценке акций она будет получать дополнительные доли и опционы.
Тратить эти деньги планируется на общественно полезные проекты. На первых парах метят в ИИ-кибербез и ИИ в здравоохранении.
При этом nonprofit также сохраняет влияние на дочерний profit и оставляет за собой право решающего голоса в вопросах этики, безопасности и тд.
Также (наконец-то!) появилась какая-то ясность в дальнейших отношениях OpenAI и Microsoft.
Ключевое: Microsoft все-таки выбили себе право интеллектуальной собственности на все модели и разработки до 2032 года. Даже если OpenAI раньше объявит о достижении AGI, это право сохранится.
Исключение составляет только небольшой список так называемых исследовательских разработок. Это, например, модели, предназначенные только для внутреннего тестирования и использования.
https://openai.com/index/built-to-benefit-everyone/
😁51❤25👍16🦄7 6 5🤯2👏1
Data Secrets
Google завезли кучу полезных обновлений в NotebookLM. Знаем, как вы любите эту тулзу, так что вам должно быть интересно: 1. Добавился формат флэшкарт и квизов. Флэшкарты объяснят вам тему кратко в формате «вопрос-ответ» (+ есть кнопка «Объснить», если где…
Media is too big
VIEW IN TELEGRAM
Может для кого-то это станет отличной новостью: в NotebookLM ИИ-видеообзоры теперь можно делать в стиле аниме и каваий
Оказалось, что после того, как Google раскатили фичу с видеообзорами источников, запросы на ролики в аниме-стиле побили все рекорды.
Есть спрос – есть предложение. Так что теперь вайфу и здесь можно завести⌨️
Оказалось, что после того, как Google раскатили фичу с видеообзорами источников, запросы на ролики в аниме-стиле побили все рекорды.
Есть спрос – есть предложение. Так что теперь вайфу и здесь можно завести
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥92🦄39😁24🗿7❤6😍3👍1
Media is too big
VIEW IN TELEGRAM
Google выпустили интересный экспериментальный продукт Pomelli для создания контента для брендов
Суть в том, что это не просто генерация постеров/видео по описанию или референсам, а полноценный маркетинговый инструмент.
То есть: вы даете агенту адрес веб-сайта вашей компании, он считывает айдентику, стилистику, посыл и предлагает вам какие-то единицы контента, которые соответствуют специфике.
Это может быть условные картинки для соцсетей, рекламные постеры и тд. После генерации их можно изменять самостоятельно, вплоть до цветов и текста на картинке. Или попросить модель внести правки.
Конечно, на практике все далеко не так радужно, как по черрипикам. Но для прототипирования идей – сойдет. Как хорошо проработанная обертка для Nano Banana заслуживает внимания.
Если хотите попробовать, нужен аккаунт США, Канады, Австралии или Новой Зеландии.
labs.google.com/pomelli/
Суть в том, что это не просто генерация постеров/видео по описанию или референсам, а полноценный маркетинговый инструмент.
То есть: вы даете агенту адрес веб-сайта вашей компании, он считывает айдентику, стилистику, посыл и предлагает вам какие-то единицы контента, которые соответствуют специфике.
Это может быть условные картинки для соцсетей, рекламные постеры и тд. После генерации их можно изменять самостоятельно, вплоть до цветов и текста на картинке. Или попросить модель внести правки.
Конечно, на практике все далеко не так радужно, как по черрипикам. Но для прототипирования идей – сойдет. Как хорошо проработанная обертка для Nano Banana заслуживает внимания.
Если хотите попробовать, нужен аккаунт США, Канады, Австралии или Новой Зеландии.
labs.google.com/pomelli/
❤55🔥22👍12🤯5😁1
Яндекс поделился первыми техническими подробностями нового семейства моделей Alice AI
Тестировали и улучшали модель на корзине из тысяч реальных пользовательских задач. Кроме того, на этих задачах Алиса AI, которая работает на семействе моделей, превзошла DeepSeek – это узнали журналисты Хабра. Подробностей мало, разработчики обещают выложить подробный тех.репорт.
Alice AI LLM обновилась не только качественно, но и архитектурно. Разработчики перешли на MoE (Mixture of Experts) В разработке использовали метод обучения online-RL с подкреплением с многокомпонентными наградами. В случае с MoE применение этого метода считается очень сложной задачей, и справляются с этим единицы стартапов и компаний.
А еще новую LLM объединили с генеративным поиском в новый пайплайн. Это позволяет нейросети использовать в инференсе не только текст, но и другие объекты — изображения, карточки организаций, карты, видео. LLM теперь может последовательно отправлять запросы в сеть, чтобы собрать всю недостающую для ответа информацию.
Подробностей мало, разработчики обещают выложить подробный тех.репорт. Очень ждем репорт и поздравляем команду Алисы AI с топом в AppStore
Тестировали и улучшали модель на корзине из тысяч реальных пользовательских задач. Кроме того, на этих задачах Алиса AI, которая работает на семействе моделей, превзошла DeepSeek – это узнали журналисты Хабра. Подробностей мало, разработчики обещают выложить подробный тех.репорт.
Alice AI LLM обновилась не только качественно, но и архитектурно. Разработчики перешли на MoE (Mixture of Experts) В разработке использовали метод обучения online-RL с подкреплением с многокомпонентными наградами. В случае с MoE применение этого метода считается очень сложной задачей, и справляются с этим единицы стартапов и компаний.
А еще новую LLM объединили с генеративным поиском в новый пайплайн. Это позволяет нейросети использовать в инференсе не только текст, но и другие объекты — изображения, карточки организаций, карты, видео. LLM теперь может последовательно отправлять запросы в сеть, чтобы собрать всю недостающую для ответа информацию.
Подробностей мало, разработчики обещают выложить подробный тех.репорт. Очень ждем репорт и поздравляем команду Алисы AI с топом в AppStore
🔥108❤33😁33🗿15🤨10🤔5 5🤩2👍1
Новый робот NEO от 1X: что нужно знать
Стартап из Норвегии открыл предзаказ на домашнего робота NEO. Он предназначен для бытовых задач: уборка, стирка, принеси-подай и прочее.
Это один из первых образцов домашнего гуманоида, которого фактически можно купить себе.
Но ожидать от него чудес не стоит. Хотя NEO и рекламируют, как автономного, тут есть нюанс. В сложных сценариях к роботу будет подключаться живой оператор, который удаленно будет управлять процессом выполнения задачи.
Плюс, все данные с робота вы «должны» передавать в компанию. Да, от этого можно отказаться, но тогда, вероятнее всего, вы получите от железки очень мало пользы.
Лица с камер обещают блюрить. Также можно настроить «запретные зоны» в доме, куда роботу точно нельзя. Ну и вы сами можете подключаться к камерам и наблюдать, что делает NEO, даже если вас нет дома.
В общем, если вы спокойно относитесь к шерингу данных, то робот действительно со временем может стать полезным. К тому же, вы сделаете вклад в следующий этап обучения гуманоидов в 1Х😩
Стоит такое добро 20к долларов. Или можно брать в аренду за 500 долларов в месяц.
https://www.1x.tech/order
Стартап из Норвегии открыл предзаказ на домашнего робота NEO. Он предназначен для бытовых задач: уборка, стирка, принеси-подай и прочее.
Это один из первых образцов домашнего гуманоида, которого фактически можно купить себе.
Но ожидать от него чудес не стоит. Хотя NEO и рекламируют, как автономного, тут есть нюанс. В сложных сценариях к роботу будет подключаться живой оператор, который удаленно будет управлять процессом выполнения задачи.
Плюс, все данные с робота вы «должны» передавать в компанию. Да, от этого можно отказаться, но тогда, вероятнее всего, вы получите от железки очень мало пользы.
Лица с камер обещают блюрить. Также можно настроить «запретные зоны» в доме, куда роботу точно нельзя. Ну и вы сами можете подключаться к камерам и наблюдать, что делает NEO, даже если вас нет дома.
В общем, если вы спокойно относитесь к шерингу данных, то робот действительно со временем может стать полезным. К тому же, вы сделаете вклад в следующий этап обучения гуманоидов в 1Х
Стоит такое добро 20к долларов. Или можно брать в аренду за 500 долларов в месяц.
https://www.1x.tech/order
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
😁109❤29🔥19🗿6👍4🆒4🤯2👌1
Дуров анонсировал децентрализованную ИИ-сеть
Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть:
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON.
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
Если у вас есть GPU и вы готовы ее предоставить, пост с информацией вот
Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть:
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON.
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
Если у вас есть GPU и вы готовы ее предоставить, пост с информацией вот
2❤117😁68🔥31🤯12👍11🤔4🦄1
OpenAI релизнули две новые открытые модели: gpt-oss-safeguard 20B и 120B
Они основаны на gpt-oss и обучены специально для задач классификации текста на предмет безопасности. Важно, что правила фильтрации не сразу зашиты в модель, а определяются самим пользователем уже на этапе инференса и могут быть какими угодно.
Это что-то новенькое. И вообще, кажется, что область очень узкая. Но на самом деле задач, связанных со всевозможной модерацией контента, вокруг море, и с ростом популярности ИИ их становится еще больше. И в этом смысле модели актуальные.
OpenAI пишут, что работают они прямо отлично, но только при условии, что вы зададите четкие непротиворечивые инструкции. Если политика продуманная, то gpt-oss-safeguard (якобы) смогут обрабатывать даже сложные пограничные случаи.
Внутри стартапа эти модели уже частично используются для оценки безопасности запросов и элаймента моделей.
Это удобно, потому что в разных случаях политика может быть разная: для несовершеннолетних пользователей одна, для самих моделей другая, для бизнеса третья. И обучать несколько разных классификаторов не нужно: достаточно задать одной и той же модели разные инструкции, и она подстроится.
openai.com/index/introducing-gpt-oss-safeguard/
Они основаны на gpt-oss и обучены специально для задач классификации текста на предмет безопасности. Важно, что правила фильтрации не сразу зашиты в модель, а определяются самим пользователем уже на этапе инференса и могут быть какими угодно.
Это что-то новенькое. И вообще, кажется, что область очень узкая. Но на самом деле задач, связанных со всевозможной модерацией контента, вокруг море, и с ростом популярности ИИ их становится еще больше. И в этом смысле модели актуальные.
OpenAI пишут, что работают они прямо отлично, но только при условии, что вы зададите четкие непротиворечивые инструкции. Если политика продуманная, то gpt-oss-safeguard (якобы) смогут обрабатывать даже сложные пограничные случаи.
Внутри стартапа эти модели уже частично используются для оценки безопасности запросов и элаймента моделей.
Это удобно, потому что в разных случаях политика может быть разная: для несовершеннолетних пользователей одна, для самих моделей другая, для бизнеса третья. И обучать несколько разных классификаторов не нужно: достаточно задать одной и той же модели разные инструкции, и она подстроится.
openai.com/index/introducing-gpt-oss-safeguard/
❤55🔥20👍12🤝8🤩2😁1🤯1
This media is not supported in your browser
VIEW IN TELEGRAM
AlphaXiv сделали крутую подробнейшую 3D-визуализацию трансформера
Они взяли LLaMA 3.1 и создали трёхмерную интерактивную схему, внутри которой можно полетать сквозь все внутренности трансформера и увидеть, как модель работает изнутри.
Если навести курсор на блок, то появится всплывающая карточка с описанием вычислений, которые за ним стоят. А если щелкнуть, то откроется встроенный редактор кода, в котором можно посмотреть точный код операции.
Реализовано все на основе библиотеки ggml в llama-cpp. Оттуда парсится отладочная информация о том, какие операции происходят во время вычислений (например, MUL_MAT, ROPE, RESHAPE, ADD). Затем это визуализируется в виде 3D-блоков в three.js. Для удобства восприятия все блоки разбиты на смысловые группы: query, key, value, MLP и residual stream.
www.alphaxiv.org/labs/tensor-trace
Они взяли LLaMA 3.1 и создали трёхмерную интерактивную схему, внутри которой можно полетать сквозь все внутренности трансформера и увидеть, как модель работает изнутри.
Если навести курсор на блок, то появится всплывающая карточка с описанием вычислений, которые за ним стоят. А если щелкнуть, то откроется встроенный редактор кода, в котором можно посмотреть точный код операции.
Реализовано все на основе библиотеки ggml в llama-cpp. Оттуда парсится отладочная информация о том, какие операции происходят во время вычислений (например, MUL_MAT, ROPE, RESHAPE, ADD). Затем это визуализируется в виде 3D-блоков в three.js. Для удобства восприятия все блоки разбиты на смысловые группы: query, key, value, MLP и residual stream.
www.alphaxiv.org/labs/tensor-trace
1🔥154❤42👍23🤔5🤯4😁1
Media is too big
VIEW IN TELEGRAM
Cursor выкатили собственную модель для кодинга и обновили редактор до версии 2.0
Первое и самое важное: Composer. Это дебютная собственная модель стартапа (давно пора). MoE. Базовую модель не упоминают, но говорят, что обучали с помощью RL.
По метрикам – уровень frontier (Haiku 4.5, Gemini Flash 2.5), но от GPT-5 и Sonnet 4.5 отстает. Зато по скорости заявляют 4х относительно конкурентов. Плюс, модель специально ориентирована на длинный контекст и tool use (семантический поиск, терминал, работа с файлами).
Цены на уровне GPT-5. В общем, надо пробовать.
Теперь кратко по основным обновлениям в самом Cursor 2.0:
– Интерфейс теперь ориентирован на multi-agent. А еще появилась новая интересная функция: можно запустить разные модели параллельно работать над одной и той же задачей.
– Появился встроенный браузер, который позволяет агентам самостоятельно тестировать выполненную работу и итеративно дорабатывать её до корректного результата.
– Добавлен голосовой режим!
Скачать уже можно вот тут. Завтра будет интересный рабочий день☕️
Первое и самое важное: Composer. Это дебютная собственная модель стартапа (давно пора). MoE. Базовую модель не упоминают, но говорят, что обучали с помощью RL.
По метрикам – уровень frontier (Haiku 4.5, Gemini Flash 2.5), но от GPT-5 и Sonnet 4.5 отстает. Зато по скорости заявляют 4х относительно конкурентов. Плюс, модель специально ориентирована на длинный контекст и tool use (семантический поиск, терминал, работа с файлами).
Цены на уровне GPT-5. В общем, надо пробовать.
Теперь кратко по основным обновлениям в самом Cursor 2.0:
– Интерфейс теперь ориентирован на multi-agent. А еще появилась новая интересная функция: можно запустить разные модели параллельно работать над одной и той же задачей.
– Появился встроенный браузер, который позволяет агентам самостоятельно тестировать выполненную работу и итеративно дорабатывать её до корректного результата.
– Добавлен голосовой режим!
Скачать уже можно вот тут. Завтра будет интересный рабочий день
Please open Telegram to view this post
VIEW IN TELEGRAM
👍77❤38🔥16😁5 5
В ближайшие полтора года OpenAI начнет продавать свои акции публично
К концу 2026 компания планирует подать документы, а к началу 2027 акции окажутся в продаже. Видимо, процесс запустился немедленно после недавней реструктуризации компании (она сделала OpenAI пригодной для публичного листинга).
Выход на биржу рассматривается с оценкой до $1 триллиона. Это один из крупнейших IPO в истории.
Для стартапа IPO – еще один способ привлечь капитал. Сейчас они ведут предварительные переговоры с инвесторами о вложениях минимум $60 миллиардов с возможным увеличением суммы на стадии размещения.
💸
К концу 2026 компания планирует подать документы, а к началу 2027 акции окажутся в продаже. Видимо, процесс запустился немедленно после недавней реструктуризации компании (она сделала OpenAI пригодной для публичного листинга).
Выход на биржу рассматривается с оценкой до $1 триллиона. Это один из крупнейших IPO в истории.
Для стартапа IPO – еще один способ привлечь капитал. Сейчас они ведут предварительные переговоры с инвесторами о вложениях минимум $60 миллиардов с возможным увеличением суммы на стадии размещения.
Please open Telegram to view this post
VIEW IN TELEGRAM
🤯75😁28❤10🤔8👍7🤩4🦄4🔥3🗿3