Forwarded from Неискусственный интеллект (Ruslan Dz)
Яндекс в каждой статье на Хабре: их ИИ попробует объяснить любой фрагмент кода
Пока мы спали, на Хабре произошла тихая, но значимая интеграция. Теперь в статьях под каждым блоком кода есть кнопка «Объяснить код с SourceCraft», которая запускает ИИ-ассистент от Яндекса.
Функция, как отмечают на самой платформе, создана в первую очередь для помощи начинающим программистам и специалистам, которые сталкиваются с незнакомым языком. Она позволяет мгновенно получить пояснения, не отвлекая авторов и не покидая страницу. Для более глубокого анализа есть возможность перейти в расширенный режим.
Хотя, кмк, интеграция на Хабре — больше, чем просто фича. Яндекс захватывает точку входа в лице аудитории из миллионов разработчиков, одновременно пробуя доказать состоятельность своего ИИ-копайлота.
@anti_agi
Пока мы спали, на Хабре произошла тихая, но значимая интеграция. Теперь в статьях под каждым блоком кода есть кнопка «Объяснить код с SourceCraft», которая запускает ИИ-ассистент от Яндекса.
Функция, как отмечают на самой платформе, создана в первую очередь для помощи начинающим программистам и специалистам, которые сталкиваются с незнакомым языком. Она позволяет мгновенно получить пояснения, не отвлекая авторов и не покидая страницу. Для более глубокого анализа есть возможность перейти в расширенный режим.
Хотя, кмк, интеграция на Хабре — больше, чем просто фича. Яндекс захватывает точку входа в лице аудитории из миллионов разработчиков, одновременно пробуя доказать состоятельность своего ИИ-копайлота.
@anti_agi
👍5❤2⚡1👎1🥰1
#unrealneural
Nexus Campus
Интерактивный цифровой двойник здания с помощью Gemini 3.0
Промпт в комментариях, накидайте ⚡️
Nexus Campus
Интерактивный цифровой двойник здания с помощью Gemini 3.0
Промпт в комментариях, накидайте ⚡️
⚡9👍2🔥2
Forwarded from Искусственный интеллект. Высокие технологии
🚀 Google представила Titans + MIRAS - новую архитектуру, которая даёт ИИ долговременную память 🧠
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
Теперь модель может обновлять свои знания прямо во время инференса, а не только при обучении.
Что делает Titans важным:
• Классические Transformer-модели хорошо работают с коротким контекстом, но резко дорожают по вычислениям при его увеличении.
• Альтернативы вроде RNN и state-space экономят ресурсы, но теряют детали при сжатии информации.
• Titans предлагает гибрид: краткосрочная память через attention плюс глубокая нейронная память, которая обновляется «на лету» и запоминает только действительно новое.
Как работает память:
Модель записывает в память только те данные, которые оказались неожиданными.
Это помогает:
✔ фильтровать шум
✔ хранить не весь текст, а смысл
✔ удерживать контекст больше 2 миллионов токенов
✔ сохранять линейную скорость обработки
Практические результаты:
- Улучшение reasoning
- Сильные результаты на задачах длинного контекста
- Более устойчивое качество по сравнению с продвинутыми Transformer-подходами
Итог: Titans + MIRAS — это шаг к ИИ, который не просто держит окно контекста, а умеет помнить, забывать и учиться прямо в процессе генерации.
📌 Статья: https://research.google/blog/titans-miras-helping-ai-have-long-term-memory/
📌Видео: https://www.youtube.com/watch?v=mI6mv2c7RK0
@vistehno
👍5🤔2❤1⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
ExA-SPIM для изучения мозга 🤯
Используя технологию, изначально разработанную для обнаружения дефектов в производстве электроники, микроскоп «ExA-SPIM» позволяет ученым рассматривать отдельные нейроны и их связи в контексте всего мозга мыши.
ExA-SPIM для изучения мозга 🤯
Используя технологию, изначально разработанную для обнаружения дефектов в производстве электроники, микроскоп «ExA-SPIM» позволяет ученым рассматривать отдельные нейроны и их связи в контексте всего мозга мыши.
❤2👍2🔥2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
А может скоро роботы и на стройку доберутся ? Главное чтобы было дешево ⚡️⚡️⚡️
А может скоро роботы и на стройку доберутся ? Главное чтобы было дешево ⚡️⚡️⚡️
❤5⚡2🤯1
#unrealneural #вкопилкуэрудита
Диаграмма Пенроуза пространства-времени Минковского - это двумерное представление, используемое в теоретической физике для иллюстрации причинно-следственных связей между различными точками пространства-времени
Диаграмма Пенроуза пространства-времени Минковского - это двумерное представление, используемое в теоретической физике для иллюстрации причинно-следственных связей между различными точками пространства-времени
⚡5😱2🤗1
#unrealneural
AI в 2025 году
Это обзор состояния ИИ в 2025 году: что реально улучшилось в возможностях моделей (особенно в кодинге и агентах) и где прогресс оказался менее впечатляющим, чем ожидалось.
В безопасности картина смешанная: модели лучше следуют инструкциям, становятся честнее и более мониторируемыми, но одновременно растут автономность.
Главный вывод - мы живём в режиме «итеративного выравнивания» без чёткой глобальной стратегии, и уже нельзя просто верить метрикам: баланс между ростом возможностей и реальной безопасностью остаётся принципиально неопределённым.
https://www.lesswrong.com/posts/Q9ewXs8pQSAX5vL7H/ai-in-2025-gestalt
AI в 2025 году
Это обзор состояния ИИ в 2025 году: что реально улучшилось в возможностях моделей (особенно в кодинге и агентах) и где прогресс оказался менее впечатляющим, чем ожидалось.
В безопасности картина смешанная: модели лучше следуют инструкциям, становятся честнее и более мониторируемыми, но одновременно растут автономность.
Главный вывод - мы живём в режиме «итеративного выравнивания» без чёткой глобальной стратегии, и уже нельзя просто верить метрикам: баланс между ростом возможностей и реальной безопасностью остаётся принципиально неопределённым.
https://www.lesswrong.com/posts/Q9ewXs8pQSAX5vL7H/ai-in-2025-gestalt
❤2👍2🔥2
#unrealneural
«Что делает ChatGPT...»
На 2023 год GPT всё ещё слабо решал математические задачи. Качественный скачок произошёл только с первой «моделью рассуждений» o1, которая в гораздо большей степени полагалась на обучение с подкреплением (RL), а не на простое масштабирование пре-тренинга.Это наводит на любопытную мысль: язык по своей природе сильно «размыт», одно и то же место в предложении допускает множество «правдоподобных» слов, и именно эта размытость идеально ложится на вероятностную природу LLM. Математика же гораздо жёстче и однозначнее.Получается, что для успеха в такой «жёсткой» области решающим оказался именно RL-компонент, более близкий к правиловому мышлению. А это, в свою очередь, говорит о том, что формальная математика вычислительно проще, чем мы привыкли считать.
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
«Что делает ChatGPT...»
На 2023 год GPT всё ещё слабо решал математические задачи. Качественный скачок произошёл только с первой «моделью рассуждений» o1, которая в гораздо большей степени полагалась на обучение с подкреплением (RL), а не на простое масштабирование пре-тренинга.Это наводит на любопытную мысль: язык по своей природе сильно «размыт», одно и то же место в предложении допускает множество «правдоподобных» слов, и именно эта размытость идеально ложится на вероятностную природу LLM. Математика же гораздо жёстче и однозначнее.Получается, что для успеха в такой «жёсткой» области решающим оказался именно RL-компонент, более близкий к правиловому мышлению. А это, в свою очередь, говорит о том, что формальная математика вычислительно проще, чем мы привыкли считать.
https://writings.stephenwolfram.com/2023/02/what-is-chatgpt-doing-and-why-does-it-work/
🤔2👍1🔥1😁1