Forwarded from Сергей Марков: машинное обучение, искусство и шитпостинг
А вот скажите, есть ли среди вас кто-то, кто рубит в low-level-ML? Руками под CUDA писать, оптимизировать потоки данных, кэши, вот это всё? Если да, то черкните мне в личку (@oulenspiegel), возможно у меня для вас будет прямо хорошее предложение
🎉7👍2
Китайцы перед своим Новым годом, конечно, обеспечили всех пищей для размышлений на пару недель празднества💪
А меж тем Janus Pro 1B (any-to-any новая мультимодальная модель от DeepSeek) уже раскатали в режиме локального использования в браузере на WebGPU
Почитать тред на Reddit тут
Попробовать тут
А меж тем Janus Pro 1B (any-to-any новая мультимодальная модель от DeepSeek) уже раскатали в режиме локального использования в браузере на WebGPU
Почитать тред на Reddit тут
Попробовать тут
huggingface.co
Janus Pro: DeepSeek's Revolutionary Multimodal AI Model
A Blog post by LLMhacker on Hugging Face
❤🔥11👍7🔥5🦄5😁1
ICT.Moscow собрал 80 крутых инструментов для разработчиков ИИ 🔥
Все они в открытом доступе и подходят для решения абсолютно разных задач. В подборку вошли библиотеки, фреймворки, датасеты, архитектуры и многое другое.
В подборке также есть решение от нашей лаборатории — фреймворк LLM Microscope для визуализации и анализа характеристик языковых моделей. Он позволяет исследовать свойства трансформерных архитектур. Статья о LLM Microscope была недавно принята на международную конференцию NAACL 2025.
Полную версию подборки ICT.Moscow можно посмотреть тут🔜 ссылка
Также есть удобная инфографика для быстрого поиска нужных решений в PDF.
Все они в открытом доступе и подходят для решения абсолютно разных задач. В подборку вошли библиотеки, фреймворки, датасеты, архитектуры и многое другое.
В подборке также есть решение от нашей лаборатории — фреймворк LLM Microscope для визуализации и анализа характеристик языковых моделей. Он позволяет исследовать свойства трансформерных архитектур. Статья о LLM Microscope была недавно принята на международную конференцию NAACL 2025.
Полную версию подборки ICT.Moscow можно посмотреть тут
Также есть удобная инфографика для быстрого поиска нужных решений в PDF.
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🔥5❤🔥3👍2🏆2😁1🦄1
Секретная новость от создателя DeepSeek — в основе модели код, написанный советскими учеными в 1985 году💪
Инфа сотка
Инфа сотка
😁79🔥15👏5🙊4❤1😱1🦄1
Complete AI
Секретная новость от создателя DeepSeek — в основе модели код, написанный советскими учеными в 1985 году💪 Инфа сотка
На самом деле, это конечно же фейковая новость, которая довольно быстро распространилась за последние дни и дошла даже до федеральных телеканалов.
Какой можно сделать вывод: какой бы источник информации вы не читали/смотрели/слушали, всегда надо сохранять место здоровой критике и уделить 1-2 минуты факт-чекингу или проверке достоверности сообщения. Как правило, большинство таких «громких» или кликбейтных заголовков раскручивается на раз-два🧐
Будьте бдительны и проверяйте всё, что читаете)
Какой можно сделать вывод: какой бы источник информации вы не читали/смотрели/слушали, всегда надо сохранять место здоровой критике и уделить 1-2 минуты факт-чекингу или проверке достоверности сообщения. Как правило, большинство таких «громких» или кликбейтных заголовков раскручивается на раз-два🧐
Будьте бдительны и проверяйте всё, что читаете)
🔥20🏆12💯4🦄1
Как известно, в лаборатории FusionBrain есть несколько научных групп. Одна из них занимается механистической интерпретируемостью (Architectural insights) и руководит ею Антон Разжигаев (автор канала AbstractDL). На днях он выпустил отличную статью на Хабре про нашумевшую модель DeepSeek-R1, где подробно изложил все тонкости процесса обучения.
Несмотря на то, что называется она "DeepSeek-R1 для чайников", внутри много технических деталей (мы вчера уже пошутили, что это какие-то очень навороченные чайники с кучей сенсоров и умных программ).Не пугайтесь, вы в них не утоните😉
Рекомендую всем почувствовать себя каким-то "чайником" и получить ответы на вопросы, которые могли еще остаться без ответа) Желаю приятного чтения! Приходите с вопросами, будем рады помочь разобраться💪
👉Хабр
Несмотря на то, что называется она "DeepSeek-R1 для чайников", внутри много технических деталей (мы вчера уже пошутили, что это какие-то очень навороченные чайники с кучей сенсоров и умных программ).
Рекомендую всем почувствовать себя каким-то "чайником" и получить ответы на вопросы, которые могли еще остаться без ответа) Желаю приятного чтения! Приходите с вопросами, будем рады помочь разобраться💪
👉Хабр
❤🔥27🔥10👍9👏3❤2
Forwarded from Inspiration de l'inventeur
Вот, как работают современные алгоритмы на примере Ведра:
1) Samsung Galaxy S22+
2) iPhone 15 Pro Max
3) iPhone 13 mini
4) iPhone 16 Pro
Ссылка на ведро:
https://market.yandex.ru/cc/VX3y9Pk
1) Samsung Galaxy S22+
2) iPhone 15 Pro Max
3) iPhone 13 mini
4) iPhone 16 Pro
Ссылка на ведро:
https://market.yandex.ru/cc/VX3y9Pk
2👍22😁18🙊10🎉5💯3🤔1
Дорогие читатели, друзья, коллеги, поздравляю всех с Днём российской науки🔬
Желаю выдающихся открытий, передовых результатов, никогда не сдаваться в процессе исследований и побольше мечтать! Наука - это не только про формулы и законы, но и про удачу, чутьё и целеустремлённость! «Per aspera ad astra» (Через тернии к звёздам) (это всё, что я знаю на латыни — мама в детстве как-то сказала, я запомнил и регулярно вспоминаю это выражение)
У науки нет границ и пусть так остаётся всегда!
Желаю выдающихся открытий, передовых результатов, никогда не сдаваться в процессе исследований и побольше мечтать! Наука - это не только про формулы и законы, но и про удачу, чутьё и целеустремлённость! «Per aspera ad astra» (Через тернии к звёздам) (это всё, что я знаю на латыни — мама в детстве как-то сказала, я запомнил и регулярно вспоминаю это выражение)
У науки нет границ и пусть так остаётся всегда!
❤🔥35🔥17🏆5👍4
Forwarded from Институт AIRI
Когда чувства компилируются без ошибок❤
Мы сделали валентинки для тех, кто видит красоту в коде, звёздное небо в репозиториях и всегда выбирает оптимальный путь — и в науке, и в жизни. Отправляйте их коллегам, друзьям и просто дорогим людям.
Пусть ваши градиенты сходятся, модели не переобучаются, а сердце остаётся в стабильной конвергенции!
Мы сделали валентинки для тех, кто видит красоту в коде, звёздное небо в репозиториях и всегда выбирает оптимальный путь — и в науке, и в жизни. Отправляйте их коллегам, друзьям и просто дорогим людям.
Пусть ваши градиенты сходятся, модели не переобучаются, а сердце остаётся в стабильной конвергенции!
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
2❤21😁8👍7⚡2❤🔥2
Forwarded from База знаний AI
Опрос: какие прикладные задачи, связанные с ИИ-моделями, для вас в приоритете в этом году?
Final Results
19%
Улучшение качества обучения ИИ-моделей
21%
Сжатие ИИ-моделей и оптимизация используемой ими инфраструктуры
15%
Разработка систем компьютерного зрения
8%
Распознавание эмоций человека
47%
Расширение возможностей LLM (включая новые модальности, RAG, создание ИИ-агентов и др.)
23%
Создание ИИ-ассистентов для написания программного кода
27%
Решение проблем науки
19%
Решение задач медицины
8%
Другие (отвечу в комментариях)
❤7
У нас тут кстати случилось чудесное событие после одного телефонного звоночка на прошлой неделе)
Разблокировали гитхаб лаборатории — https://github.com/FusionBrainLab 🎉
Все звёзды на месте🔥🔥🔥
Разблокировали гитхаб лаборатории — https://github.com/FusionBrainLab 🎉
Все звёзды на месте🔥🔥🔥
3🔥63🎉14🏆5👍2🌚1🆒1
⚡⚡⚡Прекрасная новость!
Наша статья про open source фреймворк LLM-Microscope и методы оценки языковых моделей на предмет измерения контекстуальности токенов, нелинейности, logit lens и прочего снова борется за первое место на Hugging Face за звание Paper of the day🏆
Поддержите upvote'ами🙏
Мы пока на втором месте, но верю, что можем на первом оказаться)
Cтатья принята на большую международную конференцию Core A — NAACL 2025
Отдать голос за статью можно тут👇
https://huggingface.co/papers/2502.15007
UPD: Спасибо всем большое🙏 Вы как всегда крутые💪
Наша статья про open source фреймворк LLM-Microscope и методы оценки языковых моделей на предмет измерения контекстуальности токенов, нелинейности, logit lens и прочего снова борется за первое место на Hugging Face за звание Paper of the day🏆
Поддержите upvote'ами🙏
Мы пока на втором месте, но верю, что можем на первом оказаться)
Cтатья принята на большую международную конференцию Core A — NAACL 2025
Отдать голос за статью можно тут👇
https://huggingface.co/papers/2502.15007
UPD: Спасибо всем большое🙏 Вы как всегда крутые💪
🔥61👍15👏7❤3🤔1
⚡️+1 Accept на CVPR-2025
Детали о принятой статье расскажу чуть позже😉
Детали о принятой статье расскажу чуть позже😉
1🔥49⚡6🆒3🌚2👏1
⚡️⚡️⚡️Первая open-source модель переноса головы на фото — GHOST 2.0
Сегодня мы выпустили первую модель для переноса головы на фото с открытым кодом — GHOST 2.0. Модель продолжает наследие семейства моделей переноса лиц на фото и видео (GHOST).
Архитектура GHOST 2.0 модели включает две составляющих:
🟢 Aligner для реконструкции положения головы и трансфера выражения лица с головы-источника
🟢 Blender позволяет "встроить" голову в целевую картинку с сохранение свойств окружения (чтобы освещение и контраст совпадали, а также дорисовались области-лакуны, которые возникли при переносе)
Самое интересное, что в open source таких моделей по сути нет и самый ближайший аналог — это модель HeSer 2022 года, которую по метрикам удалось обойти. Также мы проделали большой объём работы, исследуя механизмы блендинга и аугментации данных при обучении, чтобы постараться учесть сложные кейсы, когда голова-источник отличается от области встраивания по форме, положению, причёске и т.д. Подробно про эти эксперименты можно почитать в детальном тех репорте.
Внизу по ссылочке можно поиграть с демкой, почитать Хабр и собственно развернуть у себя код, чтобы изучить "нутро" модели. В ближайшее время обновим TG бот, и я отдельно оповещу об этом)
⚡️По сложившейся традиции все наши статьи стараемся номинировать на Paper of the day на Hugging Face — буду очень рад вашим Upvote голосам👇
https://huggingface.co/papers/2502.18417
Полезные ссылки:
👉 ArXiv: https://arxiv.org/abs/2502.18417
👉 Хабр: https://habr.com/ru/companies/sberbank/articles/884780/
👉 Project page: https://ai-forever.github.io/ghost-2.0/
@complete_ai
Сегодня мы выпустили первую модель для переноса головы на фото с открытым кодом — GHOST 2.0. Модель продолжает наследие семейства моделей переноса лиц на фото и видео (GHOST).
Архитектура GHOST 2.0 модели включает две составляющих:
🟢 Aligner для реконструкции положения головы и трансфера выражения лица с головы-источника
🟢 Blender позволяет "встроить" голову в целевую картинку с сохранение свойств окружения (чтобы освещение и контраст совпадали, а также дорисовались области-лакуны, которые возникли при переносе)
Самое интересное, что в open source таких моделей по сути нет и самый ближайший аналог — это модель HeSer 2022 года, которую по метрикам удалось обойти. Также мы проделали большой объём работы, исследуя механизмы блендинга и аугментации данных при обучении, чтобы постараться учесть сложные кейсы, когда голова-источник отличается от области встраивания по форме, положению, причёске и т.д. Подробно про эти эксперименты можно почитать в детальном тех репорте.
Внизу по ссылочке можно поиграть с демкой, почитать Хабр и собственно развернуть у себя код, чтобы изучить "нутро" модели. В ближайшее время обновим TG бот, и я отдельно оповещу об этом)
⚡️По сложившейся традиции все наши статьи стараемся номинировать на Paper of the day на Hugging Face — буду очень рад вашим Upvote голосам👇
https://huggingface.co/papers/2502.18417
Полезные ссылки:
👉 ArXiv: https://arxiv.org/abs/2502.18417
👉 Хабр: https://habr.com/ru/companies/sberbank/articles/884780/
👉 Project page: https://ai-forever.github.io/ghost-2.0/
@complete_ai
2🔥28💯7🏆6👏1🌚1
Forwarded from RnD CV Team
🙋♀️ Всем привет! В предыдущем посте мы уже рассказывали, как наш датасет EasyPortrait помог коллегам при создании модели GHOST 2.0.
⚡️ А на прошлой неделе наша команда приезжала в Португалию на конференцию VISIGRAPP '25, где представляла статью EasyPortrait — Face Parsing and Portrait Segmentation Dataset.
🚀 Конференция прошла 26-28 февраля в городе Порту, и за 3 дня на ней было представлено больше 200 статей. На конференции мы услышали обратную связь от сообщества, пообщались с коллегами из других стран, а также послушали множество докладов других участников.
📖 ArXiv: https://arxiv.org/abs/2304.13509
👩💻 GitHub: https://github.com/hukenovs/easyportrait
🔑 kaggle: https://www.kaggle.com/datasets/kapitanov/easyportrait
#news
⚡️ А на прошлой неделе наша команда приезжала в Португалию на конференцию VISIGRAPP '25, где представляла статью EasyPortrait — Face Parsing and Portrait Segmentation Dataset.
🚀 Конференция прошла 26-28 февраля в городе Порту, и за 3 дня на ней было представлено больше 200 статей. На конференции мы услышали обратную связь от сообщества, пообщались с коллегами из других стран, а также послушали множество докладов других участников.
#news
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥13❤🔥10⚡4❤1