Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Я не очень хочу превращать в канал в "я сгонял на нипс и смотрите какие умные презы" но если хотите я могу притащить презы с нипса и не только которые мне понравились за последние пару недель
1👍205😁418🔥5👏11
Главное не просить авторов посмотреть на mmlu
1😁19🔥8
Типичный диалог в гей клубе

Я:
"Приветствую!
Я Саша из ресерча, занимаюсь ..
Хочу уточнить такой вопрос: ..."

Собеседник:
"Давай вернусь с ответом в ..."

Я:
"Фига, не знал, что ты админ канала лав дес трансформерс"

Собеседник:
"О, а я не обратил внимания, что ты пидрила"

Или другая ветка

Я:
"Приветствую!
Я пидрила, сосу за сырки..."

Собеседник:
"Привет! ... Где работаешь кстати?"

Я:
"В ресерче, а ты?"

Собеседник:
"О, а я в мехинте"

Вот и пересекаемся 😂
1😁68🥴22💊12🥱44👍3🔥3🍓31
Tim detters - ака автор bitsandbytes подхода для квантизаций который дал сильный буст всему современному в квантизации дропнули пост вида "Why AGI Will Not Happen"

Мне очень нравится

Linear Progress Needs Exponential Resources



Blog
33😁147👍4🔥2🤔2💯1
Дата центр на батарейках в виде префаба, датацентр на колесах, 4 RPI с кубиком, everything is datacenter if you're brave enough
👍37🥴15🔥3😁1
This media is not supported in your browser
VIEW IN TELEGRAM
Я пожалуй выберу все же не ИИ рекламу, а душевную рекламу супермаркета...

https://news.1rj.ru/str/denissexy/11039
2👍94💔36💯8🥱3🔥2🤔1
Love. Death. Transformers.
Выглядит как пиздатая замена deepseek3.1~ на русском, mtp, MLA , на русском бодро болтает, метрики sub frontier, жду апи и померяю на всяком. Ждём статью на архив и будет понятнее https://huggingface.co/ai-sage/GigaChat3-702B-A36B-preview https://huggingface.co/ai…
яндекс дотюнил квен 235b, вышло в среднем лучше, по технологиям и скиллсету так же
- поменяли токенайзер
- дотрен
- мидтрен
- алаймент с ризонингом(у гигачата нет ризнинга)
- в целом RL пиздато завели

жаль не опенсурс, апи есть но мне лень
habr

Ps

я не сомневаюсь и не ставлю под сомнение харды и навык команды которая это делала, но не поржать над посылом "НАШ СУВЕРЕННЫЙ СДЕЛАННО У НАС (доученный квен)" я не могу, это слишком смешно
77😁38🔥16💩6👍4😢42
This media is not supported in your browser
VIEW IN TELEGRAM
😁10728🔥7💩2💯1
Теперь все месте, твёрдо и четко:

Alice AI LLM — это совершенно точно, железно, однозначно, стопроцентно, наверняка, без вариантов, гарантированно, стопудово, зуб даю, сто пудов, как пить дать, факт, инфа сотка, базар фильтрую, мамой клянусь, отвечаю, голову даю на отсечение новая, оригинальная, свежая, уникальная, неповторимая, инновационная, небывалая, беспрецедентная, нестандартная, непохожая, самобытная, авторская, эксклюзивная, штучная, единственная в своём роде, первая в своём роде, ни на что не похожая, такого ещё не было, с иголочки, с нуля, незаезженная, незатасканная, невиданная, диковинная модель.

НЕ ФА*Н*ЮН.
😁105🔥15💯9🍓3💅22👍1😍1
DOOM исполнилось 32 года — игре, которую научились запускать на самых неожиданных устройствах.

Фанаты переносили её на умные часы, графические калькуляторы, банкоматы, холодильники, осциллографы и прочее железо, которое изначально точно не планировалось для игр.

Мы тут спросили у ГигаЧата, почему DOOM стал таким вездесущим. ИИ-помощник через свою новую функцию голосового общения объяснил, что это прямое отражение силы Open Source. Суть проста: открытость кода DOOM и его архитектуры (да, оригинальный код открыт) позволяет энтузиастам легко портировать, модифицировать и оптимизировать игру под что угодно.

Кстати, кто помнит, на чем самом странном вы видели DOOM?
🔥70😁67🗿27💩20💊665👍2🥴22
https://platform.openai.com/docs/models/gpt-5.2

Да ща выйдет 5 версия, нейминг станет лучше нуну. По бенчам лучше, по вайбу sonnet по прежнему лучший
1❤‍🔥20😭6🤔3🔥1💩1
мы все умерли в ковид или хз в 22, иначе я не могу обьяснить как вот это
Zoom AI sets new state-of-the-art benchmark on Humanity's Last Exam

и это еще и federated ai (что? да) и еще у них есть свои LLM судя по всему. Что это, зачем, почему и как работает - никто не знает


https://www.zoom.com/en/blog/humanitys-last-exam-zoom-ai-breakthrough/?utm_source=social&utm_medium=organic-social
😁48🤔10😨5💯22🔥1🥴1
Forwarded from whargarbl
Давно папир не читал, а там забавное

VQRAE - built on pretrained VFMs (SigLIP2), which can simultaneously produce continous semantic features for multimodal understanding tasks and discrete tokens for visual generation and reconstruction tasks.

От авторов RAE - пишут типа мультимодальные ембеддинги (на самом деле нет) - но уже что то в этом направлении
По идее он должен лучше генерить всякое типа 3girls, 2boys (совмещает дискретное и непрерывное пространство - картинку с текстом).

https://arxiv.org/pdf/2511.23386
🔥7👍5
Love. Death. Transformers.
https://platform.openai.com/docs/models/gpt-5.2 Да ща выйдет 5 версия, нейминг станет лучше нуну. По бенчам лучше, по вайбу sonnet по прежнему лучший
цифры в бечах все больше напоминают измерение членов, но любовь цифрами не измерить
61😁28💔4🔥2
Forwarded from ML Underhood
Сегодня вышел техрепорт Alice AI

Ниже — краткий обзор ключевых технических решений и результатов, а подробнее обо всех деталях, экспериментах и выводах можно почитать в полной версии отчёта на Хабре.

Alice AI LLM
На этапе претрейна улучшили качество данных: фильтрация и аугментация повысили фактологичность ответов (+4–7% на внутреннем бенчмарке). Также собрали специализированные данные по школьным предметам, что дало прирост на образовательных задачах — модель обошла конкурентов по истории, литературе, математике и русскому языку. Усилили навыки программирования и математики за счёт алгоритмических и кодовых данных (+4,5 п.п. на LiveCodeBench). В alignment-фазе перешли к единому RLHF-пайплайну с мультиаспектным ревордом (полезность, фактологичность и др.) вместо одного «суперсигнала».


Alice AI LLM Search
Пайплайн объединяет планировщик поисковых запросов, фильтрацию и ранжирование результатов и генерацию ответа, а также поддерживает мультимодальные источники — тексты, изображения, видео и геоданные — для более полных ответов. Для обучения использовали RLHF с мультиаспектными ревордами вместо одной метрики, что упростило оценку сложных ответов. В RL-тренировке перешли к онлайн-методу GRPO, сократили этапы обучения, повысили эффективность GPU и в итоге улучшили полезность и актуальность ответов.


Alice AI ART
Обучающий датасет проанализировали с помощью Alice AI VLM, извлекли структурированные JSON-описания изображений и выявили дисбалансы в данных. На основе этого датасет для файнтюна переработали и дополнили недостающими категориями запросов, чтобы лучше соответствовать реальным пользовательским сценариям. Архитектура модели сделана двухступенчатой: на первом этапе формируется общая композиция изображения, на втором — прорабатываются высокочастотные детали. Дополнительно обучили отдельный «рефразер» — компактную LLM, которая преобразует сырые пользовательские промпты в детализированное описание сцены, сохраняя исходный смысл перед генерацией.


Alice AI VLM
Объём данных претрейна увеличили с 400 до 600 млрд токенов и расширили контекст до 32 тыс. Обновили OCR-датасет, улучшив качество чтения текста с изображений, включая рукописный, и описание визуального контента. VLM тесно интегрирован с текстовой LLM и обучается с теми же RLHF-подходами. Дополнительно в систему добавлен специализированный VLM-«решатель» для задач, требующих глубокой визуально-математической экспертизы.


Инфраструктура инференса
Инференс оптимизировали, повторно использовав KV-кэш для одинаковых частей промпта. Также помогла полная FP8-квантизация весов, активаций и KV-кэша. За счёт этого объём KV-кэша сократился почти вдвое. Дополнительно внедрили спекулятивное декодирование EAGLE-3, повысив пропускную способность генерации.
В результате новый инференс-стек обеспечивает около 5,8× ускорение по сравнению с BF16 и примерно 1,3× относительно лучших открытых решений, что позволило достичь целевых показателей скорости.


ML Underhood
😁31💩22🔥11💊97😍3🤪311
😁17825🍓12💯8🤪33😢2
31🤔11🌭7😭32🔥1
Forwarded from Derp Learning
Media is too big
VIEW IN TELEGRAM
We’ve officially rolled into open beta: a video stylization / transformation & VFX service — the spiritual successor to WarpFusion (iscord with sassy mods included)

You upload a video, tweak the keyframes right there in Banana on the spot, hit render — and let it cook 🍌🔥

Everything lives in a video-editor-style interface:
projects, tracks, frame-by-frame scrubbing, and side-by-side comparisons of up to four videos at once. Yes, four. Because we can.

👉 Break it here: app.mago.studio

And for the OG goats, a promo code may mysteriously appear in the comments 🐐😏
🔥14😁7👍4🍌2