NN
Контент на вечер: сооснователь OpenAI Илья Суцкевер дал большое интервью блогеру Дваркешу Пателю. Они обсуждали, как обойти текущие ограничения для обучения ИИ и приблизить его к человеку и почему люди все еще эффективнее моделей. Также Суцкевер покритиковал…
YouTube
Сооснователь OpenAI о Будущем и Настоящем в AI. Подкаст на Русском - Илья Суцкевер
Оригинал: https://www.youtube.com/watch?v=aR20FWCCjAs
Больше интересного в моей группе: https://news.1rj.ru/str/matrix_media_1
Больше интересного в моей группе: https://news.1rj.ru/str/matrix_media_1
👍4🔥2⚡1
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Нейробумажная архитектура ✨
Нейробумажная архитектура ✨
🤗5👍2⚡1
Привет всем ⚡️Кто вы? 🙂
Anonymous Poll
29%
Архитектор
16%
Программист
6%
ML специалист
5%
Художник
45%
Другое
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Разработчики finch 3d поделились видео с работой их запатентованной моделью генерации планировок ✨
Выглядит диффузионно ⚡️
Разработчики finch 3d поделились видео с работой их запатентованной моделью генерации планировок ✨
Выглядит диффузионно ⚡️
🤔6👍3❤2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
Nano Banana Pro для генерации плана и Claude 4.5 Opus для преобразование в 3д
Круто ⚡️⚡️⚡️
Nano Banana Pro для генерации плана и Claude 4.5 Opus для преобразование в 3д
Круто ⚡️⚡️⚡️
⚡2👍2❤1
Media is too big
VIEW IN TELEGRAM
#unrealneural
Claude Opus 4.5 очень круто ⚡️⚡️⚡️3д город одним промптом, пришлю как только накинете реакций 🙂
Claude Opus 4.5 очень круто ⚡️⚡️⚡️3д город одним промптом, пришлю как только накинете реакций 🙂
1⚡24🔥19👍7👌2
Forwarded from Нейронавт | Нейросети в творчестве
Prompting Guide - FLUX.2
Официальный гайд по промптингу Flux.2
Основное:
- поддерживает структурированные промпты в формате JSON, что даёт точный контроль над элементами изображения
- позволяет использовать HEX-коды для точного подбора цветов
- не поддерживает негативные промпты — нужно описывать, что хочется увидеть, а не то, чего хочется избежать
- понимает промпты на разных языках, что помогает создавать культурно аутентичные результаты
- для фотореалистичных изображений можно указывать модели камер, объективы и настройки.
#guide #prompting
Официальный гайд по промптингу Flux.2
Основное:
- поддерживает структурированные промпты в формате JSON, что даёт точный контроль над элементами изображения
- позволяет использовать HEX-коды для точного подбора цветов
- не поддерживает негативные промпты — нужно описывать, что хочется увидеть, а не то, чего хочется избежать
- понимает промпты на разных языках, что помогает создавать культурно аутентичные результаты
- для фотореалистичных изображений можно указывать модели камер, объективы и настройки.
#guide #prompting
❤3⚡1👍1
Media is too big
VIEW IN TELEGRAM
#unrealneural
Claude 4.5 Opus
3d оркестр ⚡️⚡️⚡️
P.S. Напишите в комментариях а где вы тестируете эту модель ⚡️
Claude 4.5 Opus
3d оркестр ⚡️⚡️⚡️
P.S. Напишите в комментариях а где вы тестируете эту модель ⚡️
⚡3👍1
Forwarded from Machinelearning
Опубликован tech report по Qwen3-VL - мультимодальным моделям, работающим с изображениями и текстом.
Кратко :
- Три модели собрали 1M+ загрузок за месяц.
- Qwen3-VL-8B - более 2M скачиваний.
- Линейка развивает идеи Qwen2.5-VL (2800+ цитирований).
Что описано в отчёте:
- Архитектура vision–language модели.
- Процесс обучения: pretraining + post-training.
- Источники данных и методы фильтрации.
- Сравнения с другими VLM и ключевые метрики.
🔗 PDF: https://arxiv.org/pdf/2511.21631
🔗 Видео: https://www.youtube.com/watch?v=clwFmuJX_wQ
@ai_machinelearning_big_data
#Qwen #Qwen3 #QwenVL #Qwen3VL #LLM #AIModel
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👌3⚡2👍1
Forwarded from 🟡NeuroGraph
Благодаря Nano Banana Pro можно читать лучшие книги, которые не переведены на русский.
Прямо сейчас читаю книгу Мастера – Роджера Дикинса «Reflections».
Переводит даже ручные заметки.
Прямо сейчас читаю книгу Мастера – Роджера Дикинса «Reflections».
Переводит даже ручные заметки.
🔥14⚡2👍2
This media is not supported in your browser
VIEW IN TELEGRAM
#unrealneural
На просторах интернета нашел вот такой вау кейс сочетания Ии моделей 😍😍😍
Попробуем повторить ⚡️⚡️⚡️
На просторах интернета нашел вот такой вау кейс сочетания Ии моделей 😍😍😍
Попробуем повторить ⚡️⚡️⚡️
👍10❤3🤗2
Media is too big
VIEW IN TELEGRAM
#unrealneural
Игровой движок на базе ИИ, способный за считанные минуты сгенерировать локацию для 3д шутера 💫
Игровой движок на базе ИИ, способный за считанные минуты сгенерировать локацию для 3д шутера 💫
👍5🔥2⚡1
#unrealneural
Ваши мысли буквально формируют ваш мозг
Когда вы концентрируетесь на хорошем, ваш мозг начинает перестраиваться, чтобы замечать ещё больше хорошего. Это не просто мотивация - это нейропластичность в действии. ✨✨✨Нейропластичность - это способность мозга реорганизовываться и создавать новые нейронные связи на основе ваших постоянных мыслей, чувств и внимания.
Ваши мысли буквально формируют ваш мозг
Когда вы концентрируетесь на хорошем, ваш мозг начинает перестраиваться, чтобы замечать ещё больше хорошего. Это не просто мотивация - это нейропластичность в действии. ✨✨✨Нейропластичность - это способность мозга реорганизовываться и создавать новые нейронные связи на основе ваших постоянных мыслей, чувств и внимания.
👍7⚡1
Forwarded from gonzo-обзоры ML статей
Последняя из работ-финалистов NeurIPS 2025, про геометрию репрезентаций и механистическое объяснение законов скейлинга. Работа прекрасна!
Superposition Yields Robust Neural Scaling
Yizhou Liu, Ziming Liu, and Jeff Gore
Статья: https://arxiv.org/abs/2505.10465, https://openreview.net/forum?id=knPz7gtjPW
Код: https://github.com/liuyz0/SuperpositionScaling
Ревью: https://arxiviq.substack.com/p/neurips-2025-superposition-yields
# TL;DR
ЧТО сделали: Предложили механистическое объяснение законов масштабирования (scaling laws), связав их с суперпозицией репрезентаций. Адаптировав фреймворк разреженных автоэнкодеров и проверив теорию на открытых LLM (OPT, Pythia, Qwen), авторы показали: когда модели работают в режиме «сильной суперпозиции» (кодируют значительно больше фичей, чем имеют измерений), лосс масштабируется обратно пропорционально ширине модели (
ПОЧЕМУ это важно: Работа — Best Paper Runner-Up на NeurIPS 2025. Она дает вывод законов скейлинга «из первых принципов», устойчивый к распределению данных. В отличие от предыдущих теорий, опирающихся на аппроксимацию многообразия, здесь утверждается, что степенной закон поведения LLM — это геометрическая неизбежность сжатия разреженных концептов в плотные пространства. Это означает, что для преодоления барьеров масштабирования нужны архитектурные вмешательства для управления интерференцией признаков — простое добавление данных не поможет обойти это геометрическое бутылочное горлышко.
Подробнее: https://news.1rj.ru/str/gonzo_ML_podcasts/1531
Superposition Yields Robust Neural Scaling
Yizhou Liu, Ziming Liu, and Jeff Gore
Статья: https://arxiv.org/abs/2505.10465, https://openreview.net/forum?id=knPz7gtjPW
Код: https://github.com/liuyz0/SuperpositionScaling
Ревью: https://arxiviq.substack.com/p/neurips-2025-superposition-yields
# TL;DR
ЧТО сделали: Предложили механистическое объяснение законов масштабирования (scaling laws), связав их с суперпозицией репрезентаций. Адаптировав фреймворк разреженных автоэнкодеров и проверив теорию на открытых LLM (OPT, Pythia, Qwen), авторы показали: когда модели работают в режиме «сильной суперпозиции» (кодируют значительно больше фичей, чем имеют измерений), лосс масштабируется обратно пропорционально ширине модели (
L ∝ 1/m). Этот скейлинг обусловлен геометрической интерференцией между векторами признаков, а не статистическими свойствами хвоста распределения данных.ПОЧЕМУ это важно: Работа — Best Paper Runner-Up на NeurIPS 2025. Она дает вывод законов скейлинга «из первых принципов», устойчивый к распределению данных. В отличие от предыдущих теорий, опирающихся на аппроксимацию многообразия, здесь утверждается, что степенной закон поведения LLM — это геометрическая неизбежность сжатия разреженных концептов в плотные пространства. Это означает, что для преодоления барьеров масштабирования нужны архитектурные вмешательства для управления интерференцией признаков — простое добавление данных не поможет обойти это геометрическое бутылочное горлышко.
Подробнее: https://news.1rj.ru/str/gonzo_ML_podcasts/1531
arXiv.org
Superposition Yields Robust Neural Scaling
The success of today's large language models (LLMs) depends on the observation that larger models perform better. However, the origin of this neural scaling law, that loss decreases as a power law...
👍5⚡1