Data Secrets
Мы как-то пропустили, но оказывается словарь Collins объявили вайб-кодинг словом года Ждем, когда Рика Рубина из мема про вайб-кодинг сделают человеком года (не зря же он уже попал в топ-100 самых влиятельных людей в ИИ)
Тем временем мало кто знает, как слово года произносится полностью
😁240❤20💯15🔥4👍3
ШАД Яндекса научит применять ИИ в исследованиях
ИИ всё глубже уходит в экспериментальную науку — от разработки новых материалов до анализа биомедицинских данных. На этом фоне в Школе анализа данных Яндекса начали обучать исследователей внедрению ИИ в свои научные работы. Среди 50 участников новой программы — кандидаты наук, магистранты и аспиранты из лабораторий по всей стране.
Формат такой: участники изучают основы ИИ и сразу же встраивают их в свои исследования. Каждую команду ведёт эксперт ШАДа — помогает выбрать методы и построить дизайн эксперимента. Если проекту нужны большие вычисления, подключают мощности Yandex Cloud.
В ШАДе объясняют идею: учёным дают фундамент работы с ИИ и современный инструментарий. Цель — чтобы специалисты научились строить исследования, где модели становятся не внешним плагином, а органичной частью научного процесса. Первые результаты ожидают весной, а ещё через год появятся работы, созданные в новой связке «ученый + ИИ».
Такую ИИнтеграцию мы одобряем
ИИ всё глубже уходит в экспериментальную науку — от разработки новых материалов до анализа биомедицинских данных. На этом фоне в Школе анализа данных Яндекса начали обучать исследователей внедрению ИИ в свои научные работы. Среди 50 участников новой программы — кандидаты наук, магистранты и аспиранты из лабораторий по всей стране.
Формат такой: участники изучают основы ИИ и сразу же встраивают их в свои исследования. Каждую команду ведёт эксперт ШАДа — помогает выбрать методы и построить дизайн эксперимента. Если проекту нужны большие вычисления, подключают мощности Yandex Cloud.
В ШАДе объясняют идею: учёным дают фундамент работы с ИИ и современный инструментарий. Цель — чтобы специалисты научились строить исследования, где модели становятся не внешним плагином, а органичной частью научного процесса. Первые результаты ожидают весной, а ещё через год появятся работы, созданные в новой связке «ученый + ИИ».
Такую ИИнтеграцию мы одобряем
2👍60🔥29🗿19❤10😁9😎1
Ноам Браун, ведущий исследователь OpenAI: «Если смотреть на мнение ведущих ученых, а не на заголовки СМИ, обнаруживается удивительно много согласия по поводу ИИ»
Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:
x.com/polynoamial/status/1994439121243169176
Понравился достаточно хладнокровный и емкий пассаж от Ноама Брауна, который занимается ризонингом в OpenAI. Он пишет, что, если вы действительно хотите понять общую картину отрасли, нужно забыть про ложную дихотомию, которую продвигают СМИ, и смотреть на то, что говорят эксперты. Краткий перевод:
Соцсети обычно сводят дискуссию об ИИ к двум карикатурным позициям:
(A) Скептики, которые считают, что LLM обречены и что ИИ – это просто хайп.
(B) Фанатики, которые уверены, что у нас уже есть все ингредиенты и суперинтеллект вот-вот появится.
Но если почитать, что реально говорят ведущие исследователи (а не заголовки СМИ), то обнаруживается удивительно много согласия:
– Текущая парадигма, скорее всего, уже достаточна, чтобы произвести огромный экономический и социальный эффект – даже без дальнейших научных прорывов.
– Чтобы достичь AGI/ASI, вероятно, все же понадобятся дополнительные исследовательские прорывы. (Continual learning и sample efficiency – два примера, которые исследователи часто упоминают).
– Скорее всего, мы разберемся с этим и придем к AGI/ASI в течение 20 лет. В среднем ученые называют срок 10 лет.
Никто из них не говорит, что ASI – это фантазия или что появление суперинтеллекта – дело 100+ лет.
В основном разногласия касаются того, какими будут нужные прорывы и как быстро они произойдут. Но в целом, если смотреть на картину полностью, эксперты в этой области согласны куда больше, чем не согласны.
x.com/polynoamial/status/1994439121243169176
👍145❤36 13🔥12😁3👀2☃1⚡1🤨1🫡1 1
Media is too big
VIEW IN TELEGRAM
Просто реклама новогодних скидок на Jetson AGX Orin, Jetson Thor и Jetson Orin Nano Super
Дженсен Хуанг однозначно что-то знает про правильный маркетинг🐕
Дженсен Хуанг однозначно что-то знает про правильный маркетинг
Please open Telegram to view this post
VIEW IN TELEGRAM
❤98😁47👍15🔥9🗿3
Статья про Faster R-CNN выиграла награду "Test of Time" на NeurIPS 2025. В честь этого разрешите нам позволить себе небольшую историческую справку
В этом году работе исполняется 10 лет. За это время ее процитировали около 56700 раз.
Что же в ней такого особенного?
Представьте: вы в 2015. Для решения задачи детекции и классификации объектов на изображении уже существует R-CNN и Fast R-CNN. Оба алгоритма достаточно точные, но их все еще почти невозможно применить в реальных задачах. Все дело – в скорости.
Оба алгоритма страдали от одного и того же узкого места: поиск регионов, то есть выделение подозрительных областей, в которых возможно есть объект. Эти регионы генерировались не нейросетью, а старым хэндкрафтед-алгоритмом Selective Search на основе поиска по цветам. Он работал на CPU и занимал 1.5–2 секунды на одно изображение.
То есть на каждый кадр нужно было ждать несколько секунд еще до того, как сеть вообще начнет классифицировать объекты. Это адская уйма времени.
И вот в конце 2015 года выходит работа "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks". Статья, которую сегодня заслуженно называют переворотом в детекции.
Авторы предложили простую, но гениальную идею: вставить в архитектуру еще одну сетку, которая сама будет искать подозрительные регионы, основываясь на тех же фичах, что и детектор. Так появились Region Proposal Network, которые ускорили весь процесс примерно в 200 раз.
После появления Faster R-CNN впервые стало возможными делать какую-то детекцию в реальном времени. А еще это модель стала, по сути, первым НЕ-франкенштейном, то есть системой, основанной на Deep Learning от начала и до конца.
Ну и, кроме того, в данной работе впервые предложили якоря (anchors). На этой концепции затем выросла, например, хорошо известная вам YOLOv2.
Поздравляем авторов!
В этом году работе исполняется 10 лет. За это время ее процитировали около 56700 раз.
Что же в ней такого особенного?
Представьте: вы в 2015. Для решения задачи детекции и классификации объектов на изображении уже существует R-CNN и Fast R-CNN. Оба алгоритма достаточно точные, но их все еще почти невозможно применить в реальных задачах. Все дело – в скорости.
Оба алгоритма страдали от одного и того же узкого места: поиск регионов, то есть выделение подозрительных областей, в которых возможно есть объект. Эти регионы генерировались не нейросетью, а старым хэндкрафтед-алгоритмом Selective Search на основе поиска по цветам. Он работал на CPU и занимал 1.5–2 секунды на одно изображение.
То есть на каждый кадр нужно было ждать несколько секунд еще до того, как сеть вообще начнет классифицировать объекты. Это адская уйма времени.
И вот в конце 2015 года выходит работа "Faster R-CNN: Towards Real-Time Object Detection with Region Proposal Networks". Статья, которую сегодня заслуженно называют переворотом в детекции.
Авторы предложили простую, но гениальную идею: вставить в архитектуру еще одну сетку, которая сама будет искать подозрительные регионы, основываясь на тех же фичах, что и детектор. Так появились Region Proposal Network, которые ускорили весь процесс примерно в 200 раз.
После появления Faster R-CNN впервые стало возможными делать какую-то детекцию в реальном времени. А еще это модель стала, по сути, первым НЕ-франкенштейном, то есть системой, основанной на Deep Learning от начала и до конца.
Ну и, кроме того, в данной работе впервые предложили якоря (anchors). На этой концепции затем выросла, например, хорошо известная вам YOLOv2.
Поздравляем авторов!
1❤183👍18😁18🦄13🏆9🍾7🔥1🆒1
Подводим итоги этого сумасшедшего месяца и выбираем самый крутой релиз ноября
Anonymous Poll
8%
GPT-5.1
4%
GPT-5.1 Codex Max
3%
Kimi K2 Thinking
2%
Grok 4.1
15%
Claude Opus 4.5
38%
Gemini 3
20%
Nano Banana Pro
1%
FLUX.2
3%
DeepSeek-Math V2
7%
GigaChat 3.0
1❤57😁45👍14🐳5 5🔥3⚡2🍓2 1
Please open Telegram to view this post
VIEW IN TELEGRAM
😁267👍40🔥21🎉19❤6❤🔥2
Data Secrets
Дуров анонсировал децентрализованную ИИ-сеть Cocoon (Confidential Compute Open Network) это два в одном: майнинг и конфиденциальность ваших ИИ-запросов. То есть: – Владельцы GPU подключают свои видеокарты к сети и получают за это TON. – Разработчики получают…
Павел Дуров запустил Cocoon – децентрализованную сеть для ИИ вычислений
Коротко:
– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
https://cocoon.org/
Коротко:
– Cocoon (Confidential Compute Open Network) призвана обеспечить пользователям полную конфиденциальность при общении с ИИ.
– Владельцы GPU подключают свои видеокарты к сети и получают за это TON (майнинг нового поколения!)
– Разработчики получают доступ к компьюту, а пользователи могут безопасно общаться с моделями.
«В качестве логотипа сетиСосунКокон мы выбрали ИИчко:🤖 » – написал Павел у себя в канале.
https://cocoon.org/
Please open Telegram to view this post
VIEW IN TELEGRAM
😁202❤51🔥30👍18🗿10 7☃5👏3
ИИ-математик Aristotle доказал одну из нерешенных проблем из списка Эрдеша (но с оговоркой)
Если вы в первый раз слышите про Aristotle, рассказываем: это система от стартапа Harmonic, основанного в 2023 году. Ребята занимаются ИИ в математике, уже получили немало инвестиций, и продукт у них довольно интересный.
Он отличается тем, что генерирует не просто текст доказательства: вместо этого Aristotle пишет формальное доказательство в среде Lean, то есть сочетает в себе formal verification и informal reasoning + search.
Ну так вот. На днях создатели объявили о том, что модель решила проблему Эрдеша номер 124. Эта задача впервые была выдвинута в статье «Полные последовательности множеств целых степеней» в журнале Acta Arithmetica почти 30 лет назад и с тех пор считается открытой.
Aristotle же потратил на задачу 6 часов и решил ее абсолютно без участия человека. Потрясающе? Потрясающе.
Вот только оказалось, что версия задачи, которую решил Aristotle, отличается – это упрощенный вариант. Оригинальная формулировка была несколько другой и допускает увеличение степени только начиная с определенной, не включая единичную. В той формулировке задача остается нерешенной. И хотя результат действительно крутой, прорыва (сюрприз-сюрприз) снова не произошло😭
Все это в который раз доказывает: да, какую-то новую математику модельки уже способны доказывать. Но это, что называется, «низко висящие плоды» – то есть довольно простые по меркам академии утверждения уровня среднего аспиранта или олимпиадника. До гипотезы Римана им еще как пешком до Китая.
Кстати, после распространения новости в соцсетях завирусился новый термин «vibe-proving» – как vibe-coding, только для математиков💡
Если вы в первый раз слышите про Aristotle, рассказываем: это система от стартапа Harmonic, основанного в 2023 году. Ребята занимаются ИИ в математике, уже получили немало инвестиций, и продукт у них довольно интересный.
Он отличается тем, что генерирует не просто текст доказательства: вместо этого Aristotle пишет формальное доказательство в среде Lean, то есть сочетает в себе formal verification и informal reasoning + search.
Ну так вот. На днях создатели объявили о том, что модель решила проблему Эрдеша номер 124. Эта задача впервые была выдвинута в статье «Полные последовательности множеств целых степеней» в журнале Acta Arithmetica почти 30 лет назад и с тех пор считается открытой.
Aristotle же потратил на задачу 6 часов и решил ее абсолютно без участия человека. Потрясающе? Потрясающе.
Вот только оказалось, что версия задачи, которую решил Aristotle, отличается – это упрощенный вариант. Оригинальная формулировка была несколько другой и допускает увеличение степени только начиная с определенной, не включая единичную. В той формулировке задача остается нерешенной. И хотя результат действительно крутой, прорыва (сюрприз-сюрприз) снова не произошло
Все это в который раз доказывает: да, какую-то новую математику модельки уже способны доказывать. Но это, что называется, «низко висящие плоды» – то есть довольно простые по меркам академии утверждения уровня среднего аспиранта или олимпиадника. До гипотезы Римана им еще как пешком до Китая.
Кстати, после распространения новости в соцсетях завирусился новый термин «vibe-proving» – как vibe-coding, только для математиков
Please open Telegram to view this post
VIEW IN TELEGRAM
😁121❤60👍18🔥10
OpenAI не завершила ни одного нового полного претрейнинга после GPT-4o
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
По крайней мере, так утверждают аналитики из SemiAnalysis и, в частности, Дилан Пател.
В новой статье про Google TPUv7 они пишут, что сравнили инфраструктурную активность Google и OpenAI и обнаружили, что если Google проявлял явные признаки pretraining-нагрузки, то OpenAI – нет.
Со времен GPT-4o у стартапа не было ни роста потребления нагрузки, ни расширения кластеров и поставок. Видна лишь какая-то активность, похожая на файнтюнинг или RL, но не на масштабный претрейнинг.
Это значит, что, с высокой вероятностью, GPT-5 == тот же претрейн, что и GPT-4o, то есть, фактически, – та же базовая модель. Просто сенсация, если правда.
newsletter.semianalysis.com/p/tpuv7-google-takes-a-swing-at-the
😁173 67🫡14❤12🤔11👍1🔥1
Китайский стартап выпустил DeepSeek-V3.2 и DeepSeek-V3.2-Speciale.
Позиционируются обе как модели для агентов. DeepSeek-V3.2-Speciale – с акцентом на сложный долгий ризонинг и планирование.
Первая уже доступна в чате. Вторая пока только в API. По метрикам – уровень GPT-5 и Gemini 3.0 соответственно.
Ну и, естественно, все в опенсорсе! Hugging Face
Бегом пробовать!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1❤141🔥75👍28😁10🤯9🤨4🤔1🐳1
Еще интересные детали про новые модели от DeepSeek
➖ DeepSeek-V3.2-Speciale – это первая опенсорсная модель, которая выбивает золото в топ-олимпиадах. Обратите внимание на рисунок 1: золото на IMO 2025, CMO 2025, IOI 2025 и ICPC WF 2025. Но test-time compute при этом огромен: Speciale совсем не экономит токены, так что инференс достаточно дорогой.
➖ Еще раз про метрики (прикрепляем расширенные таблички): Speciale бьет Gemini 3.0 Pro на математике, а "менее умная" DeepSeek-V3.2 опережает Claude-4.5 Sonnet в кодинге (примерно уровень GPT-5 Pro). В случае с Speciale снова обратите внимание на количество используемых токенов, оно указано в таблице 3 в скобочках. Выглядит совсем не эффективно, и авторы сами говорят, что "оставили оптимизацию на будущие исследования".
➖ Основные технические причины успеха моделей: DeepSeek Sparse Attention, масштабный стабильный RL-тренинг и большой пайплайн для Agentic Tasks. Обо всем по отдельности – ниже.
1️⃣ DeepSeek Sparse Attention. Новая архитектура внимания и, по сути, ключевое изменение архитектуры по сравнению с предыдущим поколением. Состоит из двух частей: Lightning Indexer и Top-k sparse selection.
Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.
В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.
2️⃣ Посттренинг. Во-первых, очень масштабный этап RL-дообучения. В RL вложили примерно десятую часть того, что было потрачено на pretraining. Это беспрецедентно много, обычно это 1% или меньше. Обучали все также с GRPO, но в модифицированном виде. Там несколько архитектурных подвижек, о них читайте в статье. В двух словах: стало гораздо стабильнее и теперь метод хорошо масштабируется.
Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.
3️⃣ Ну и Agent Training. Модельки чрезвычайно хороши во всяких агентских задачах, и особенно в browsing/search. У DeepSeek был очень сильный agent-пайплайн. Модель долго учили сохранять ризонинг при использовании инструментов, потом делали Cold-Start Training на tool call, а затем вообще генерировали 1800+ cинтетических сред, в которых агенты обучались выполнять совершенно разные задачи c помощью RL. В общем, у них там получилась целая фабрика задач.
Релиз – огонь. Поздравляем DeepSeek с возвращением!🐋
Техрепорт полностью читаем здесь
Lightning Indexer решает, какие прошлые токены важны для текущего. Работает довольно дешево и просто выдает индекс важности каждому query для всех предыдущих токенов. Top-k sparse selection выбирает top-k самых важных. Во время претрейна сначала обучается только индексер, потом основная модель размораживается и обучается уже полностью.
В итоге сложность вычислений падает с O(L²) до O(L·k). Помимо ускорения работы DSA дает еще резкое улучшение способностей на длинном контексте.
Во-вторых, использовали Specialist Distillation. Сама моделька MoE, но фишка в том, что каждый эксперт (в широком понимании слова) обучается как бы отдельно. То есть на основе базовой DeepSeek-V3.2 обучают набор узких моделей (типа specialist-math, specialist-coding и тд), а затем их знания дистиллируют в основную модель. Накладываем на это вышеупомянутый RL – и вот вам вау-качество в нескольких доменах.
Релиз – огонь. Поздравляем DeepSeek с возвращением!
Техрепорт полностью читаем здесь
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1🔥188❤47 35 8👍5😁5👏2🐳1
Ну что за прекрасный день? За последний час вышли сразу две крутых модели для генерации видео.
Первая – Gen-4.5 от всеми известного Runway. Заметно улучшили качество и физику, а также следование инструкциям (первое видео). В рейтинге от Artificial Analysis моделька выбила уверенное первое место.
Поддерживает разные стили и принимает референсы в виде видео и картинок. Доступа пока нет, говорят скоро только начнут раскатывать😣
Вторая – Kling o1 (китайцы сегодня на высоте). Эта модель больше про редактирование, ее сравнивают с Nano Banana Pro для видео.
Довольно легко удаляет объекты, меняет цвета и стиль и все такое прочее (второе видео). И вот ее уже можно пробовать, причем бесплатно и пока безлимитно: https://app.klingai.com/global/omni/new.
Парад релизов продолжается🎅
Первая – Gen-4.5 от всеми известного Runway. Заметно улучшили качество и физику, а также следование инструкциям (первое видео). В рейтинге от Artificial Analysis моделька выбила уверенное первое место.
Поддерживает разные стили и принимает референсы в виде видео и картинок. Доступа пока нет, говорят скоро только начнут раскатывать
Вторая – Kling o1 (китайцы сегодня на высоте). Эта модель больше про редактирование, ее сравнивают с Nano Banana Pro для видео.
Довольно легко удаляет объекты, меняет цвета и стиль и все такое прочее (второе видео). И вот ее уже можно пробовать, причем бесплатно и пока безлимитно: https://app.klingai.com/global/omni/new.
Парад релизов продолжается
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍65🔥31❤19😁3
Сэм Альтман объявил внутри OpenAI «Код Красный» из-за угрозы со стороны конкурентов
По словам журналистов The Information, после выхода Gemini 3 и нескольких других удачных моделей конкурентов стартап решил в срочном порядке отложить запуск монетизации и доп.фичей и перераспределить ресурсы на улучшение самого продукта и метрик
Откладывают: запуск рекламы, улучшения в ChatGPT Pulse и ChatGPT shopping и др
В приоритете теперь: персонализация, imagegen, максимизация скора на lmarena
Забавно, что ровно три года назад код красный как раз объявляла Google после появления ChatGPT. Иронично получилось😐
По словам журналистов The Information, после выхода Gemini 3 и нескольких других удачных моделей конкурентов стартап решил в срочном порядке отложить запуск монетизации и доп.фичей и перераспределить ресурсы на улучшение самого продукта и метрик
Откладывают: запуск рекламы, улучшения в ChatGPT Pulse и ChatGPT shopping и др
В приоритете теперь: персонализация, imagegen, максимизация скора на lmarena
Забавно, что ровно три года назад код красный как раз объявляла Google после появления ChatGPT. Иронично получилось
Please open Telegram to view this post
VIEW IN TELEGRAM
😁275 80🕊43 29❤14🔥5😎4👍3🤔2
Ozon будет собирать вам датасеты не только онлайн, но и в офлайне.
Ozon Profit постепенно превращается из инструмента для разметки в универсальное решение для работы с данными. Платформа, где раньше в основном размещали задачи по разметке датасетов, теперь позволяет собирать данные и в реальном мире.
Теперь можно создавать «полевые задания» и находить исполнителей для выезда в конкретные точки по всей России. Например, чтобы проверить, как работает ваша модель, предсказывающая цены на полках в регионах, можно нанять человека через Ozon — он съездит в нужный магазин и все зафиксирует.
При этом онлайн-направление тоже растет: объем таких проектов за год вырос в 5 раз. Похоже, рынок окончательно принял модель, когда разметку данных и анализ тональности отзывов комфортнее отдать краудсорсингу, чем делать внутри компании.
Так что если не хватает рук для разметки или нужно верифицировать гипотезы в офлайне — теперь есть довольно интересное решение.
Ozon Profit постепенно превращается из инструмента для разметки в универсальное решение для работы с данными. Платформа, где раньше в основном размещали задачи по разметке датасетов, теперь позволяет собирать данные и в реальном мире.
Теперь можно создавать «полевые задания» и находить исполнителей для выезда в конкретные точки по всей России. Например, чтобы проверить, как работает ваша модель, предсказывающая цены на полках в регионах, можно нанять человека через Ozon — он съездит в нужный магазин и все зафиксирует.
При этом онлайн-направление тоже растет: объем таких проектов за год вырос в 5 раз. Похоже, рынок окончательно принял модель, когда разметку данных и анализ тональности отзывов комфортнее отдать краудсорсингу, чем делать внутри компании.
Так что если не хватает рук для разметки или нужно верифицировать гипотезы в офлайне — теперь есть довольно интересное решение.
🗿47👍31❤11🔥9 5😁3🤔3👏1