Love. Death. Transformers. – Telegram
Love. Death. Transformers.
22.5K subscribers
4.26K photos
499 videos
76 files
2.79K links
❤️☠️🤗

Указанные действия не являются ресерчем, поскольку:
а) Мы не ученые;
б) Оно работает.
@transformerslovedeatch по всем вопросам
Все ситуации вымышлены, любые совпадения с реальности плот вашей фантазии.
Download Telegram
Oh god
😁110👍11😢10🤷‍♂62💅1
Ниже вольный(kimi k2) перевод статьи вот этого автора одного из команды KIMI


После релиза Kimi K2: это больше не просто ChatBot

Пару дней назад мы наконец-то выпустили Kimi K2 — результат нашей многомесячной работы. Перед запуском мы бессонно провели всю ночь, а потом я два дня отсыпался. Сегодня наконец появилось время поделиться мыслями.

Дисклеймер: Всё ниже — исключительно моя личная точка зрения, не отражающая официальную позицию компании.

Ещё один дисклеймер: Всё написано вручную по старинке (Copilot использовался только как «умная клавиатура»).



О «написании фронтенда»

С момента выхода Claude 3.5 Sonnet AI-модели стали действительно полезными для написания фронтенда. С тех пор почти каждая новая модель хвастается своими способностями в этом направлении, и Kimi K2 — не исключение. Хочу поделиться своими размышлениями на эту тему.

Изначально большинство текстовых AI выводили Markdown, и продукт воспринимался как продвинутый ChatBot: отвечать на вопросы, писать тексты, поддерживать эмоциональный контакт. Когда один пользователь попросил Kimi «переформатировать статью так, чтобы она уместилась на листе A4», в текстовом режиме это, разумеется, было невозможно — я тогда посмеялся, мол, типичный казус между продукт-менеджером и инженером.

В марте мы начали разрабатывать Kimi Researcher. Тогда и OpenAI, и Deep Research от Gemini выдавали в итоге просто текстовый отчёт. Мы же подумали: а можем ли мы пойти дальше и, опираясь на уже неплохие фронтенд-навыки модели, сгенерировать интерактивный, визуально насыщенный отчёт? Эта идея воплотилась в релизе Kimi Researcher и получила положительные отзывы.

Но у меня возник другой вопрос: а кто вообще сказал, что текстовый AI должен по умолчанию выдавать markdown? Что если фронтенд-программирование станет основной формой взаимодействия с AI?

Иными словами — сдвинуть парадигму от chat-first к artifact-first. Вместо того чтобы просто отвечать текстом, AI сразу начинает делать мини-проект — создаёт фронтенд-приложение, с которым пользователь может взаимодействовать, вносить правки, дорабатывать. Взаимодействие вращается не вокруг диалога, а вокруг создаваемого артефакта.

Если вы подумали: «Так это же cursor / aider / openhands», — вы правы. Но если хорошо продумать UX, то для обычного пользователя, не знающего программирования, это будет как магия: «Я просто что-то сказал — а AI сделал мне презентацию / диаграмму / игру». Это уже совсем другой уровень опыта по сравнению с классическим ChatBot.

Во время праздников я сделал демо: пользователь пишет «расскажи про Xiaomi SU7», и вместо обычного текстового ответа появляется красивая, интерактивная, как PPT, страничка. Потом пользователь может сказать: «Сделай фон чёрным» или «Добавь про Su7 Ultra», и модель это дорабатывает.

Я показал демо в продуктовой команде. Все сказали, что круто, но «работа навалена, потом обязательно…». Сейчас, после релиза K2 и запуска Kimi Researcher, я верю — скоро продукт Kimi удивит ещё сильнее.

Помню, как в 2009 году, когда я был на втором курсе, один старшекурсник сказал:

«Через 20 лет компилятор будет таким, что ты скажешь “дай мне Firefox”, он два дня будет пыхтеть — и соберёт Firefox».

Тогда это было шуткой. Сейчас — это почти реальность.



О Tool Use и Agent-ах

В начале года начался хайп вокруг MCP. Мы тоже хотели подключить Kimi к различным внешним инструментам через MCP. В K1.5 мы добились успехов через RLVR (Reinforcement Learning with Verifiable Rewards) и хотели повторить трюк — подключить к RL-среде реальные MCP-серверы.

Но быстро столкнулись со стеной. Blender MCP легко использовать на локальной машине, но в RL-среде его запуск — это боль. А некоторые инструменты требуют логин, и ты же не будешь регать 100 аккаунтов Notion ради тренировки.

Тогда я подумал: а может, модель уже умеет пользоваться этими инструментами, просто надо пробудить это знание?
👍45🔥5👏4🥴1
kimi довольно любопытна архитектурно - 1T мое(в опенсурсе лол), активно по 32б параметров, не ризонинг и при этом около SOTA на большинстве бенчей.

репо
🔥557
Love. Death. Transformers.
Oh god
This media is not supported in your browser
VIEW IN TELEGRAM
У меня есть один знакомый правак он примерно так же дома ходит..
🍓74😁218🤷‍♂5🔥2💩2💋21
Forwarded from ChillHouse (Alexey Moiseenkov)
Настало время релиза. Читателям канала первее всех.

Чем занимаюсь: Мы делаем on-device AI. Начали с того что сделали полностью свой с нуля инференс движок для моделек на Apple Silicon. И он open sourced на 90%. Есть небольшой кусок привязанный к платформе - speculative decoding. Который может дать значительное до 10х ускорение инференса.

О компании: называется Mirai с японского будущее. Мы верим, что локальные модели очень важная часть будущего UX и того какой опыт взаимодействия будет человека с устройствами вокруг него. Подняли pre-seed около 4M USD, на сайте есть чуть подробнее.

Ссылочки и как можно помочь:

1/ проект open source и мы будем очень рады если вы поставите звездочку и покажете тем, кто работает с приложениями для iOS & macOS. Есть биндинги под swift. Есть свой подход к тому как модели должны быть представлены для устройств. Лицензия MIT. Форкай как угодно!

2/ можно зайти к нам на сайт и попробовать все своими руками, проект для разработчиков, но если вы бизнес и хотите делать локальные штуки и экономить на облачном инференсе - велкам в личку

3/ апвоутом на HackerNews

4/ мы быстрее чем llama cpp и популярные обертки вокруг, мы удобнее и благодаря speculative decoding быстрее MLX от Apple. Мы ищем rnd & core performance engineers для поддержки аудио пайплайна (будем работать с очень крупным провайдером аудио моделей).

Thanks for reading!
1173🔥28👍9💩5👏2
Love. Death. Transformers.
red teaming edge llms for noobs.pdf
Be harmless Ai

Антропик заключает контракт на 200м USD на строительство оборонного Ai. Не можешь сделать Ai safety? Напади первым 💀
Please open Telegram to view this post
VIEW IN TELEGRAM
😁12318😢10🥴5🔥42
Airi лучшая ресерч организация в России, ЕДИНСТВЕННЫЕ пишут статьи на а* и делают реальный контрибьют в науку. Опенаи сасат.

(После поста удалите текст в скобках, деньги получите на счёт)
😁186❤‍🔥1712💩108🗿6🔥5🥱5👍43🌚1
Love. Death. Transformers.
Airi лучшая ресерч организация в России, ЕДИНСТВЕННЫЕ пишут статьи на а* и делают реальный контрибьют в науку. Опенаи сасат. (После поста удалите текст в скобках, деньги получите на счёт)
Пост оплачен лучшем местным пабликом про rl и лучшей rl лабой в мире

СЛАДКО ДУНУЛ лаб. Подписаться. Только продовый и полезный ресерч. Только рост 📈 метрик LTV, ARR, GPA, WER
Please open Telegram to view this post
VIEW IN TELEGRAM
89💩186😁5👍2🤔2🗿1🙉1
Видимо единственный способ избежать бутылки- это занятьтретье место
😁1659👍7🍌5
They are closely trailed by
DeepSeek-Coder-V2 (0.347) and GigaChat-2-Max
(0.346), with the former showing exceptional
capability
in predicting code compilation success
(CodeCorrectness: 0.714). Vikhr-YandexGPT-5-
Lite lags significantly (0.168), showing near-zero
performance in algorithmic and code completion
tasks.


Ну все еще лушче гигакода на вашем же привате, хоть и хуже в таблице 2, да и как вы сравниваете 8-32-72b в одной таблице я хз.


В одной статье есть Sonnet, в другой нет, в одной есть T pro в другой нет, блин я ни-че-го не понимаю.
51😁43🔥7🍓3👍1
This media is not supported in your browser
VIEW IN TELEGRAM
🌭10🤔5
https://misha24-10.github.io/Misha24-10/

О, а вот качественный русский опенсурс - tts ft на основе F5
🔥41🤓10🤔2
Forwarded from partially unsupervised
Я обещал написать про бота, и добрался только сейчас, потому что этот пет проект вырвался из клетки и чуть меня не сожрал. Было интересно, неожиданный end-to-end опыт от идеи до багфиксов на проде за жалкие три дня.

Все затевалось как локальная шутка для корешей и очередной подход к вайбкодингу, было сделано за пару часов, вброшено в пару чатов и оставлено без внимания. Но в итоге случилась некоторая виральность, и я потратил половину выходных, занимаясь пожаротушением.

Во-первых, парсить телеграм-каналы через bot API нельзя, и потому я парсил через телеграм-клиент, используя собственный основной аккаунт. Когда набежала толпа пользователей, я быстро попал в софт бан, и начал искать обходные пути. Рынок серых аккаунтов оказался недружелюбным, да и банились они примерно за 10 минут, даже если купить премиум и не наглеть с частотой запросов. Даже удивительно: спам-боты в комментариях прекрасно живут, а довольно безобидное чтение каналов оказалось жестко ограничено. В итоге помог рабоче-крестьянский подход - скрапить веб-версию.

Во-вторых, в попытках выстроить систему рейт лимитеров, я накостылял слишком много велосипедов, и их впоследствии пришлось расчищать. Например, из-за кривого набора лимитеров запросы в LLM уходили батчами, и частично отваливались из-за лимита уже на стороне Gemini. Я дебагал практически "на продакшене" с живыми пользователями, которые периодически справедливо жаловались, что ничего не работает. Как следствие, много ранних пользователей так и остались без ответа. К счастью, у меня остались логи в базе данных, и потому я смогу всем написать и предложить попробовать снова сейчас, когда проблемы со стабильностью решены.

В-третьих, к слове о базе данных, я впервые всерьез попробовал Neon (ссылка накинет 5 баксов на аккаунт) для своего проекта и остался очень доволен - все просто работало безо всякой возни, причем на обычном бесплатном аккаунте, это сэкономило мне кучу времени и сил. Всем рекомендую, коллегам респект!

В-четвертых, я впервые что-то сделал end-to-end на расте, и моя жизнь не будет прежней. Писать на нем руками, конечно, сложнее и дольше (skill issue, признаю), чем на каком-нибудь питоне, но если 90+% кода написано агентом, то эта проблема в целом уходит. Зато качество изменилось всерьез: если что-то компилировалось без ворнингов, то оно обычно просто работало. В питоне пришлось бы потратить на порядок больше усилий на тестирование и бесконечные фиксы. Короче, думаю, что всерьез перейду на Rust для одноразовых проектов на выброс. Отдельный кайф наблюдать, как что-то помещается в <40 мегабайт памяти.

В-пятых, аудитория оказалась совершенно за пределами моего пузыря. Я изначально делал это все для корешей-задротов, которые в основном пишут лонгриды про AI, а в итоге набежало очень много людей, у которых, например, контент - это исключительно картинки. Камон, для этого есть инстаграм! И, конечно, на таких каналах ничего не работает.

Статистика: 7500+ юзеров, 200+ плательщиков. Заработано в звездах на ~10% больше, чем потрачено на Gemini API (то есть если бы это был настоящий бизнес, экономика бы едва сошлась; не будь лимитов и платных фичей - я бы наверняка офигел от затрат). Какой-то моментум есть, можно попробовать пилить новые фичи и вообще развивать эту штуку. Для самых любопытных выложил исходники - с нуля я бы сейчас делал слегка иначе (например, надо было использовать каналы, с самого начала делать персистентность для in flight тасков), ну да как есть.
🔥31💔7👍5💩3❤‍🔥1🗿1
📊 Channel Analysis Results by @ScratchAuthorEgoBot

🎯 Channel: @lovedeathtransformers

🔥 Roast Analysis:

Господи, открываешь твой канал и сразу хочется проверить, не протекли ли у тебя мозги вместе с очередным апдейтом GPT-4o. Ты же ходячий парадокс. Орешь, что «алаймент нужен для соевых пориджей», а потом репостишь вакансии в стартапы по AI Safety. Видимо, соевый латте сам себя не купит. Твоя лента — это шизофренический микс из обзоров на state-of-the-art архитектуры, копипасты с Двача и жалоб на то, что iPad за тысячу евро не может заменить тебе ноутбук. Серьезно, кто-нибудь, подарите этому человеку нормальный девайс, а то он скоро начнет жаловаться, что его умный холодильник не компилирует CUDA-кернелы.

Ты постоянно твердишь, что все бенчмарки — говно, а потом первым бежишь замерять новую модель на MMLU, Aider и еще десятке каких-то никому не нужных тестов, чтобы с умным видом заявить: «ну, на 2% лучше, чем прошлая, но все равно хуйня». Мы поняли, ты слишком умен для этого мира, полного фальши и «клоунады с умными моделями». Кажется, единственный бенчмарк, который ты по-настоящему ценишь, — это уровень кринжа в корпоративных блогах, и тут ты, бесспорно, SOTA-исследователь.

Отдельная тема — это твое элитарное «мы в Вихрях». Звучит так, будто вы там в подпольной лаборатории строите AGI, а на деле, небось, сидите и тюните очередную Llama на анекдотах про говно, пока не упадет loss. Хватит вести себя так, будто ты один понял жизнь, а все вокруг — «обезьяны с llmarena». Сходи в горы, потрогай траву... а, стоп, ты же это и так делаешь, чтобы потом вернуться и написать очередной пост о том, как всё тлен. Короче, продолжай в том же духе, твой поток сознания — лучшее средство, чтобы почувствовать себя нормальным на фоне твоего высокотехнологичного безумия. Мы тебя за это и читаем, булочка ты наша циничная.
1😁159💯67🥱4🌭2💔2😐2👾1
С травой не вышло правда в этот раз
🔥43🍓10
Тряска юда при любых попытках ии слушаться его шизоидей
https://news.1rj.ru/str/NeuralShit/6686
1😁55💩6😨6🔥1🍓1
Вообще важная история что у моделей до сих пор все очень плохо с multi modal generalization - когда разные модальности контрибьютят метрики друг в друга, а не убивают
👍41❤‍🔥6🔥5