#полезное
😊 Mistral Medium 3
Новая модель от Mistral, опять без ризонинга, опять не сравнивают с Qwen и Gemini, весов простым смертным не дают. Но как закрытая инстракт модель вполне хорошая: почти на уровне с Sonnet 3.7, но при этом в 7 раз дешевле — $0.4/$2 против $3/$15 у соннета.
Mistral Medium 3 уже доступна в API. Через несколько недель обещают модель побольше, надеюсь уже с ризонингом.
Блогпост
👉 Новости 👉 База вопросов
Новая модель от Mistral, опять без ризонинга, опять не сравнивают с Qwen и Gemini, весов простым смертным не дают. Но как закрытая инстракт модель вполне хорошая: почти на уровне с Sonnet 3.7, но при этом в 7 раз дешевле — $0.4/$2 против $3/$15 у соннета.
Mistral Medium 3 уже доступна в API. Через несколько недель обещают модель побольше, надеюсь уже с ризонингом.
Блогпост
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
👍 Miras: как улучшить модели через память и внимание.
Google Research опубликовал интересную статью «It’s All Connected», в которой предлагают решение проблемы квадратичной сложности трансформеров в обработке последовательностей : фреймворк Miras, который объединяет онлайн-оптимизацию, управление памятью и внимание в единую систему, что в итоге позволяет создавать более эффективные модели.
Miras — это 4 компонента: архитектура памяти, целевая функция (смещение внимания), регуляризация удержания и алгоритм обучения. Miras позволяет экспериментировать с loss-функциями (Huber loss для устойчивости к выбросам) и регуляризацией (KL-дивергенция, Elastic Net).
С помощью Miras были созданы 3 тестовые модели — Moneta, Yaad и Memora. Moneta использует Lp-нормы для баланса между запоминанием и устойчивостью, Yaad комбинирует L1 и L2 через Huber loss, а Memora применяет Softmax с KL-регуляризацией.
В экспериментах тестовые модели обошли трансформеры и современные RNN на задачах языкового моделирования и поиска информации в длинных контекстах. На тесте «иголка в стоге сена» (8K токенов) Moneta достигла точности 98.8%, тогда как Mamba2 — лишь 31%.
Статья не просто теоретическое изыскание — это практическое руководство для разработки моделей. Четкая структура Miras помогает систематизировать существующие подходы и экспериментировать с компонентами. Например, замена регуляризации на Elastic Net или Bregman divergence может улучшить управление памятью в нишевых задачах.
Miras — шаг к более осмысленному проектированию архитектур. Если трансформеры — это «кувалда» для масштаба, то описанный в статье подход Google Research - хирургический инструмент, где каждый компонент настраивается под конкретную задачу.
Arxiv
👉 Новости 👉 База вопросов
Google Research опубликовал интересную статью «It’s All Connected», в которой предлагают решение проблемы квадратичной сложности трансформеров в обработке последовательностей : фреймворк Miras, который объединяет онлайн-оптимизацию, управление памятью и внимание в единую систему, что в итоге позволяет создавать более эффективные модели.
Miras — это 4 компонента: архитектура памяти, целевая функция (смещение внимания), регуляризация удержания и алгоритм обучения. Miras позволяет экспериментировать с loss-функциями (Huber loss для устойчивости к выбросам) и регуляризацией (KL-дивергенция, Elastic Net).
С помощью Miras были созданы 3 тестовые модели — Moneta, Yaad и Memora. Moneta использует Lp-нормы для баланса между запоминанием и устойчивостью, Yaad комбинирует L1 и L2 через Huber loss, а Memora применяет Softmax с KL-регуляризацией.
В экспериментах тестовые модели обошли трансформеры и современные RNN на задачах языкового моделирования и поиска информации в длинных контекстах. На тесте «иголка в стоге сена» (8K токенов) Moneta достигла точности 98.8%, тогда как Mamba2 — лишь 31%.
Статья не просто теоретическое изыскание — это практическое руководство для разработки моделей. Четкая структура Miras помогает систематизировать существующие подходы и экспериментировать с компонентами. Например, замена регуляризации на Elastic Net или Bregman divergence может улучшить управление памятью в нишевых задачах.
Miras — шаг к более осмысленному проектированию архитектур. Если трансформеры — это «кувалда» для масштаба, то описанный в статье подход Google Research - хирургический инструмент, где каждый компонент настраивается под конкретную задачу.
Arxiv
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #postgres
🤔 Какой максимальный размер таблицы в PostgreSQL?
B PostgreSQL максимальный размер таблицы ограничен размером базы данных - до 32 ТБ, если используется стандартный блок данных размером 8 КБ. Это ограничение связано с максимальной длиной идентификатора блока в системе.
👉 Новости 👉 База вопросов
B PostgreSQL максимальный размер таблицы ограничен размером базы данных - до 32 ТБ, если используется стандартный блок данных размером 8 КБ. Это ограничение связано с максимальной длиной идентификатора блока в системе.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#полезное
❤️🔥 Апскейлим ЛЮБОЕ видео до 8K 120 FPS. В KREA зашили лютую имбу на базе Topaz.
С помощью фичи можно довести даже самый шакальный видос до голливудского качества.
Пробуем тут
👉 Новости 👉 База вопросов
С помощью фичи можно довести даже самый шакальный видос до голливудского качества.
Пробуем тут
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😇 Почему цена за токен — это ещё не всё
Artificial Analysis недавно начали замерять цену за прогон их набора тестов, дошли они и до новых моделей Google. Вышло что Gemini 2.5 Flash с ризонингом вплоть до 150 раз дороже оригинальной Gemini 2.0 Flash. Мало того — на одних и тех же задачах она стоит почти в полтора раза дороже o4-mini-high, несмотря на то, что o4-mini дороже Gemini 2.5 Flash за токен.
Без ризонинга ситуация тоже так себе — хоть цена за токен, по сравнению с 2.0, выросла всего в 1.5x, реальная цена модели выросла в четыре раза. Дело в том что модель более разговорчивая и выдаёт, в среднем, в 2.6x больше токенов на одних и тех же задачах. Так что перед переходом всегда стоит тестить стоимость модели на реальных задачах.
👉 Новости 👉 База вопросов
Artificial Analysis недавно начали замерять цену за прогон их набора тестов, дошли они и до новых моделей Google. Вышло что Gemini 2.5 Flash с ризонингом вплоть до 150 раз дороже оригинальной Gemini 2.0 Flash. Мало того — на одних и тех же задачах она стоит почти в полтора раза дороже o4-mini-high, несмотря на то, что o4-mini дороже Gemini 2.5 Flash за токен.
Без ризонинга ситуация тоже так себе — хоть цена за токен, по сравнению с 2.0, выросла всего в 1.5x, реальная цена модели выросла в четыре раза. Дело в том что модель более разговорчивая и выдаёт, в среднем, в 2.6x больше токенов на одних и тех же задачах. Так что перед переходом всегда стоит тестить стоимость модели на реальных задачах.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🛞 ML Course Notes — коллекция конспектов по машинному обучению. Этот открытый репозиторий объединяет структурированные заметки по курсам от Стэнфорда, MIT и CMU — от основ нейросетей до трансформеров и RLHF. Здесь можно найти выжимки ключевых идей из лекций Andrew Ng, Кристофера Мэннинга и Андрея Карпати.
Репозиторий будет полезен для тех, кто хочет быстро освежить материал: каждая заметка привязана к конкретному видео и лектору. На страницу проекта можно добавить свои конспекты или улучшить существующие.
Гитхаб
👉 Новости 👉 База вопросов
Репозиторий будет полезен для тех, кто хочет быстро освежить материал: каждая заметка привязана к конкретному видео и лектору. На страницу проекта можно добавить свои конспекты или улучшить существующие.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
❤1
#Собес #postgres
🤔 Что такое функции в PostgreSQL?
Функции в PostgreSQL - это блоки кода, которые выполняют заданную последовательность SQL или процедурных команд. Они позволяют выполнять вычисления, возвращать значения и обрабатывать данные более эффективно. Их можно использовать для вызова сложной логики в SQL-запросах или триггерах.
👉 Новости 👉 База вопросов
Функции в PostgreSQL - это блоки кода, которые выполняют заданную последовательность SQL или процедурных команд. Они позволяют выполнять вычисления, возвращать значения и обрабатывать данные более эффективно. Их можно использовать для вызова сложной логики в SQL-запросах или триггерах.
Please open Telegram to view this post
VIEW IN TELEGRAM
This media is not supported in your browser
VIEW IN TELEGRAM
#новости
😊 ChatGPT обновили функцию Deep Research – теперь можно скачивать отчеты в формате красивого pdf
👉 Новости 👉 База вопросов
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
😎 Тех-репорт Qwen3
Вышел тех-репорт по одной из сильнейших LLM моделей в OpenSource на сегодня - Qwen 3.Большой респект авторам за то, что выкладывают свои модели в открытый доступ.
Подробностей не супер много, но все равно есть интересные моменты, и стоит пробежаться глазами.
Ждем, когда InternVL прикрутит Qwen3 к своим VLM.
Тех-репорт
👉 Новости 👉 База вопросов
Вышел тех-репорт по одной из сильнейших LLM моделей в OpenSource на сегодня - Qwen 3.Большой респект авторам за то, что выкладывают свои модели в открытый доступ.
Подробностей не супер много, но все равно есть интересные моменты, и стоит пробежаться глазами.
Ждем, когда InternVL прикрутит Qwen3 к своим VLM.
Тех-репорт
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
#новости
😵💫 GPT 4.1 добавили в ChatGPT
4.1-mini заменит 4o-mini для всех пользователей, а 4.1 уже раскатывают платным подписчикам (но Enterprise и Edu как всегда позже). По сравнению с 4o, модели 4.1 сильно лучше в кодинге и следованию инструкций. Ещё GPT 4.1 поддерживают и контекст до миллиона токенов в API, но похоже на ChatGPT это не распространяется и у Plus пользователей всё те же 32к контекста, а у Pro — 128k.
👉 Новости 👉 База вопросов
4.1-mini заменит 4o-mini для всех пользователей, а 4.1 уже раскатывают платным подписчикам (но Enterprise и Edu как всегда позже). По сравнению с 4o, модели 4.1 сильно лучше в кодинге и следованию инструкций. Ещё GPT 4.1 поддерживают и контекст до миллиона токенов в API, но похоже на ChatGPT это не распространяется и у Plus пользователей всё те же 32к контекста, а у Pro — 128k.
Please open Telegram to view this post
VIEW IN TELEGRAM
Forwarded from YeaHub
На этой неделе мы побили рекорд по количеству регистраций — и это важный для нас рубеж! 🚀 Мы не останавливаемся на достигнутом и готовим крутые обновления:
- Обновленный лендинг — станет еще информативнее и удобнее;
- Публичные страницы коллекций — делитесь своими подборками с сообществом;
- Избранное для вопросов — сохраняйте самое важное в один клик;
- Горячий режим 🔥 — для дополнительной мотивации;
- Мультипрофили — удобное переключение между аккаунтами;
- Новый сервис "Полезные ресурсы" — всё необходимое для развития в одном месте.
А еще мы будем еженедельно пополнять коллекции актуальными вопросами с собеседований по всем направлениям.
И это только начало! В планах — запуск 20+ новых сервисов для развития, нетворкинга и досуга. Оставайтесь с нами — будет ещё круче! 💪
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #postgres
🤔 Что такое VACUUM в PostgreSQL
👉 Новости 👉 База вопросов
VACUUM - это команда в PostgreSQL, которая удаляет ненужные данные, освобождает место и предотвращает разрастание базы данных. Регулярное выполнение vAcuum помогает поддерживать производительность базы.Please open Telegram to view this post
VIEW IN TELEGRAM
👍1
#полезное
🤓 Мультимодальная поддержка в llama.cpp (обновление)
llama.cpp теперь поддерживает мультимодальные модели с визуальным вводом!
🚩 Что нового
Проект
Ключевые возможности
🟠 Поддержка моделей с вводом изображения (image + text)
🟠 Новый CLI:
🟠 Расширена совместимость: поддержка GGUF-моделей мультимодального типа
🟠 Локальная работа на CPU и GPU без зависимости от облачных API
Как использовать
1⃣ Скачай модель в формате
https://huggingface.co/liuhaotian/llava-v1.5-13b-GGUF
2⃣ Подготовь изображение (например, `photo.jpg`)
3⃣ Запусти CLI:
Гитхаб
👉 Новости 👉 База вопросов
llama.cpp теперь поддерживает мультимодальные модели с визуальным вводом!
Проект
llama.cpp теперь поддерживает *мультимодальные модели* — такие как LLaVA 1.5 / 1.6, BakLLaVA, Obsidian, MobileVLM и другие, позволяя выполнять вывод, совмещающий текст и изображения локально, без облака.Ключевые возможности
llama-mtmd-cli (заменяет `llava-cli`) Как использовать
.gguf, например LLaVA:https://huggingface.co/liuhaotian/llava-v1.5-13b-GGUF
./build/bin/llama-mtmd-cli \
-m models/llava-v1.5-13b.gguf \
--image ./photo.jpg \
-p "Что изображено на фото?"
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
Media is too big
VIEW IN TELEGRAM
#полезное
👨💻 Google Deepmind представил AlphaEvolve: ИИ-агент, создающий алгоритмы.
AlphaEvolve - система, которая использует модели Gemini и автоматические оценки для разработки эффективных алгоритмов. Вместо ручного поиска решений ИИ развивает код, проверяя идеи на лету. AlphaEvolve уже улучшил распределение нагрузки в дата-центрах Borg, экономя 0.7% вычислительных ресурсов компании. Он также оптимизировал чипы TPU, убрав лишние операции в математических схемах, и ускорил обучение моделей Gemini на 1%, переписав ключевые фрагменты кода.
Систему потестили и в математике: алгоритм для умножения матриц 4x4 теперь требует 48 операций вместо 64, а в задаче о «контактного числа» ИИ нашел конфигурацию из 593 сфер в 11-мерном пространстве. Сейчас Google тестирует AlphaEvolve внутри инфраструктуры и обещает скоро открыть доступ исследователям.
deepmind.google
👉 Новости 👉 База вопросов
AlphaEvolve - система, которая использует модели Gemini и автоматические оценки для разработки эффективных алгоритмов. Вместо ручного поиска решений ИИ развивает код, проверяя идеи на лету. AlphaEvolve уже улучшил распределение нагрузки в дата-центрах Borg, экономя 0.7% вычислительных ресурсов компании. Он также оптимизировал чипы TPU, убрав лишние операции в математических схемах, и ускорил обучение моделей Gemini на 1%, переписав ключевые фрагменты кода.
Систему потестили и в математике: алгоритм для умножения матриц 4x4 теперь требует 48 операций вместо 64, а в задаче о «контактного числа» ИИ нашел конфигурацию из 593 сфер в 11-мерном пространстве. Сейчас Google тестирует AlphaEvolve внутри инфраструктуры и обещает скоро открыть доступ исследователям.
deepmind.google
Please open Telegram to view this post
VIEW IN TELEGRAM
#Собес #postgres
🤔 Что такое PostgreSQL replication?
Репликация в PostgreSQL - это процесс создания копий данных из основной базы данных на другие серверы. Это повышает отказоустойчивость, позволяет балансировать нагрузку и обеспечивает резервное копирование. Существует несколько типов репликации: синхронная и асинхронная.
👉 Новости 👉 База вопросов
Репликация в PostgreSQL - это процесс создания копий данных из основной базы данных на другие серверы. Это повышает отказоустойчивость, позволяет балансировать нагрузку и обеспечивает резервное копирование. Существует несколько типов репликации: синхронная и асинхронная.
Please open Telegram to view this post
VIEW IN TELEGRAM
#полезное
🤯 ML-Notebooks — готовые рецепты для изучения машинного обучения
Для тех, кто предпочитает осваивать ML на практических примерах, проект предлагает коллекцию минималистичных Jupyter-ноутбуков, от базовой линейной регрессии до тонкой настройки Mistral 7B через QLoRA. Каждый пример самодостаточен: есть реализации классических алгоритмов с нуля, работа с трансформерами и даже генеративные модели.
Авторы сделали акцент на образовательной составляющей: ноутбуки сопровождаются пояснениями и ссылками на Kaggle-соревнования. Проект полностью готов к работе в Codespaces — окружение с зависимостями разворачивается в пару кликов.
Гитхаб
👉 Новости 👉 База вопросов
Для тех, кто предпочитает осваивать ML на практических примерах, проект предлагает коллекцию минималистичных Jupyter-ноутбуков, от базовой линейной регрессии до тонкой настройки Mistral 7B через QLoRA. Каждый пример самодостаточен: есть реализации классических алгоритмов с нуля, работа с трансформерами и даже генеративные модели.
Авторы сделали акцент на образовательной составляющей: ноутбуки сопровождаются пояснениями и ссылками на Kaggle-соревнования. Проект полностью готов к работе в Codespaces — окружение с зависимостями разворачивается в пару кликов.
Гитхаб
Please open Telegram to view this post
VIEW IN TELEGRAM