This media is not supported in your browser
VIEW IN TELEGRAM
Станция Рёгоку считается священным местом сумо, здесь проходят главные турниры и живёт дух этого спорта.
И даже реклама PlayStation оформлена так, чтобы визуально вписаться в атмосферу района и показать уважение к его традициям.
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
❤81👍36🔥36🥰7👏6🤩6😍6😁2🌚1🤗1
⚡️ Врываемся на студкемп по аппаратной разработке умных устройств от Яндекс Образования. Осталось 5 дней на регистрацию!
Две насыщенные недели обучения в Москве, с 13 по 24 апреля. В программе — лекции и домашние задания, практические задания и командный проект. Среди спикеров: разработчики Яндекса, участвовавшие в создании Алисы и других умных устройств, а также преподаватели ФПМИ МФТИ, ФКН ВШЭ и эксперты ШАД.
Что даст студкемп:
1. Понимание цикла разработки умного устройства: от идеи до готового продукта.
2. Навыки интеграции машинного обучения в устройства с сохранением их скорости и предсказуемости, даже при ограниченных ресурсах.
3. Знакомство с современными подходами в исследованиях и разработках.
4. Новые знакомства и обмен опытом с профессионалами.
Участие бесплатное. Организаторы покрывают расходы на проезд и проживание для тех, кто прошел отбор. Для тестового потребуются знания C++ или Java/Kotlin, умение работать с командной строкой.
Регистрация открыта только до 22 февраля. Узнать подробности студкемпа и зарегистрироваться можно по ссылке.
Две насыщенные недели обучения в Москве, с 13 по 24 апреля. В программе — лекции и домашние задания, практические задания и командный проект. Среди спикеров: разработчики Яндекса, участвовавшие в создании Алисы и других умных устройств, а также преподаватели ФПМИ МФТИ, ФКН ВШЭ и эксперты ШАД.
Что даст студкемп:
1. Понимание цикла разработки умного устройства: от идеи до готового продукта.
2. Навыки интеграции машинного обучения в устройства с сохранением их скорости и предсказуемости, даже при ограниченных ресурсах.
3. Знакомство с современными подходами в исследованиях и разработках.
4. Новые знакомства и обмен опытом с профессионалами.
Участие бесплатное. Организаторы покрывают расходы на проезд и проживание для тех, кто прошел отбор. Для тестового потребуются знания C++ или Java/Kotlin, умение работать с командной строкой.
Регистрация открыта только до 22 февраля. Узнать подробности студкемпа и зарегистрироваться можно по ссылке.
⚡26👍12❤8🎉5🤩5😈2🤗2
This media is not supported in your browser
VIEW IN TELEGRAM
2024: Промпт-инженер
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028:ваш вариант
🙂
@ai_machinelearning_big_data
2025: Вайб-кодер
2026: Менеджер ИИ-агентов
2027: Безработный
2028:
@ai_machinelearning_big_data
Please open Telegram to view this post
VIEW IN TELEGRAM
👍115😭57😁35🤣23😐11😍8💯8🤨5❤3🔥2😴1
Мы привыкли, что навигация = минимизация ETA. Но в реальности пользователь сходит с неудобного маршрута, даже если тот экономит 30 секунд. Команда маршрутизации Яндекс Карт пересобрала ранжирование. Теперь варианты оцениваются не только по времени в пути, но и по совокупности факторов, влияющих на удобство поездки.
Ранжированием занимается ML-модель, обученная на обезличенных данных поведения пользователей - агрегированных паттернах, таких как плотность сходов или предпочтения на перекрестках. В качестве метрики было выбрано совпадение фактического трека пользователя с предложенным маршрутом. Этот показатель и стал новым таргетом для ML-модели.
Раньше маршруты ранжировались в первую очередь по ETA. Теперь каждый вариант описывается сотнями признаков: от времени в пути до сложности манёвров и исторических данных о сходах. На основе этого «признакового портрета» модель рассчитывает скор - вероятность того, что водитель успешно доедет без отклонений.
Акцент при обучении модели сместился: теперь она оптимизируется в первую очередь на то, чтобы первый предложенный маршрут оказался тем, по которому человек действительно доедет до конца. Именно топ-1 получает максимальное внимание, при этом остальные варианты никуда не исчезают и доступны для выбора.
В поездке человек не строит рейтинг маршрутов - он выбирает один, а все остальные варианты для него в этот момент перестают существовать. Поэтому мы перешли от классического «ранжирования» к задаче «выбора», используя функцию потерь на основе Softmax с one‑hot‑таргетом.
Долгое время порядок формировался простой сортировкой по ETA - удобные и предсказуемые маршруты не всегда были на первом месте и иногда вовсе выпадали из топ-3.
- Синий маршрут - результат старого ранжирования (ETA-first);
- Красный - новое ML‑ранжирование, он чуть медленнее по времени, но с него реже сходят.
Модель начала чаще поднимать такие варианты наверх, обходя сложные участки или центр города. В итоге первым оказывается не самый быстрый путь, а тот, который на практике понятнее и чаще проезжаем. При этом пользователю предлагаются и другие варианты и выбор всегда остается за ним.
Такой подход позволяет учитывать реальные сценарии движения и легко масштабируется: модель может учитывать новые факторы - от персонализации до адаптации под локальные дорожные особенности.
Технические детали и логику работы модели команда разложила на Хабре.
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
1👍100🤷♂26❤19🤔16🙏15🍾15🤷12👌11🏆8😎8🔥7
Tiny Aya: семейство мультиязычных SLM.
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
🟡 Фишка релиза в дата-инжиниринге.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
🟡 Состав семейства
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.Мы тут
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
🟡 Результаты тестов
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
🟡 Капля реализма
📌 Лицензирование: CC-BY-NC-4.0 License.
🟡 Блогпост
🟡 Набор моделей
🟡 Техотчет
🟡 Demo
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Cohere Labs выкатили семейство моделей Tiny Aya на 3 млрд. параметров с контекстным окном 8К, которое поддерживает 70+ языков.
Семейство заявляется как достойный кандидат для локальных переводчиков, чат-ботов и образовательных тулзов в оффлайн-режиме. Если необходимо, чтобы было быстро, локально и переводить суахили или кхмерский лучше, чем Llama - это вот оно.
Tiny Aya учили на 6 трлн. токенов, а проблему нехватки данных для редких языков решали через синтетику от моделей-учителей (своя Command R + DeepSeek-V3).
Вместо того чтобы учить одну модель всему сразу, разбили данные на языковые кластеры (Европа, Азия, Африка и т.д.) и дотюнивали отдельные ветки, после чего смержили эти региональные чекпоинты в глобальную модель Tiny Aya Global.
Tiny Aya Global: Универсальный чекпоинт для всех языков.
Tiny Aya Earth: Африка и Западная Азия.
Tiny Aya Fire: Южная Азия.
Tiny Aya Water: Азиатско-Тихоокеанский регион и Европа.
GGUF: Есть к каждой версии в 4, 8 и 16-бит.
iOS и Android: модели доступны в PocketPal
Global-версия бьет Gemma 3-4B в 46 языках из 61 на бенче WMT24++.
На iPhone 17 Pro выдает 32 токена/сек, на стареньком iPhone 13 - около 10 токенов/сек в квантовании Q4_k_m.
Самый высокий показатель безопасности (91.1%) среди конкурентов (Qwen3-4B, Ministral-3-3B).
Это 3B модель. В сложных задачах она очевидно хуже или где-то рядом с одноклассниками, чудес ждать не стоит.
Несмотря на заявленное разнообразие, английский язык занимает львиную долю датасета во всех кластерах.
При сильном сжатии (ниже Q4) качество начинает заметно страдать, особенно на редких языках.
@ai_machinelearning_big_data
#AI #ML #SLM #TinyAya #Cohere
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
🤓58💯36🥱33🤩27❤22🦄20🔥19😴17🙈16😇14👍13
Media is too big
VIEW IN TELEGRAM
EVMbench - специализированный фреймворк, который проверяет, насколько хорошо языковые модели справляются с 3 задачами: находят баги в коде смарт-контрактов, эксплуатируют их в контролируемой среде и исправляют без нарушения логики контракта.
Тестовая база построена на реальных примерах багов, найденных ранее в ходе аудитов и профильных соревнований.
Авторы рассчитывают, что EVMbench станет отраслевым стандартом, что важно для защиты активов в секторе децентрализованных финансов, где исправить ошибку после деплоя уже невозможно.
openai.com
Теперь в NotebookLM сгенерированные презентации можно дорабатывать прямо в диалоге с ИИ, без ручной правки каждого слайда. Достаточно написать, что изменить, и модель перестроит контент сама.
Второе обновление - экспорт в PPTX. Готовую презентацию можно скачать и открыть в Microsoft PowerPoint. Поддержка Google Slides анонсирована, но пока не запущена.
NotebookLM в сети Х
ИИ-поисковик прекратил эксперименты с рекламной монетизацией, посчитав, что она фундаментально противоречит миссии сервиса. Несмотря на то, что стартап одним из первых начал тестировать спонсорские ответы в 2024 году, сейчас руководство решило свернуть эту инициативу.
Представители компании пояснили, что их главная ценность - это точность и объективность информации. Даже если промо-блоки четко маркированы и технически не влияли на генерацию текста, сам факт их наличия заставляет людей сомневаться в честности ответов.
В Perplexity пришли к выводу, что для удержания платных подписчиков пользователь должен быть уверен, что получает лучший возможный ответ, не искаженный коммерческими интересами рекламодателей.
ft.com
В чат-бот добавили модель Lyria 3 от DeepMind. На вход она принимает текст, картинку или видео, а если указать в запросе имя исполнителя, Gemini создаст трек в похожем стиле (но скопировать артиста напрямую не получится).
Инструмент в бете, но уже пишет полноценные треки на английском, немецком, испанском, французском, хинди, японском, корейском и португальском языках. Вся музыка, созданная через Lyria 3, получает метку SynthID.
blog.google
Команда инженеров-химиков института адаптировала архитектуру LLM для нужд биотехнологий. Созданный алгоритм помогает промышленным дрожжам Komagataella phaffii эффективнее производить сложные белки, используемые в вакцинах и препаратах от рака.
Суть разработки - решении проблемы генетических синонимов. Одна и та же аминокислота может кодироваться разными триплетами ДНК (кодонами), но на классических методах оптимизации выбор самых часто встречающихся вариантов нередко приводит к дефициту ресурсов клетки и снижению выработки.
Инженеры обучили модель на геноме дрожжей, заставив ее воспринимать ДНК как текст. ИИ не просто запомнил частоту кодонов, но и усвоил скрытый контекст — «синтаксис» их взаимодействия. В тестах на реальных белках, включая человеческий гормон роста и моноклональные антитела, последовательности от ИИ превзошли результаты лучших коммерческих инструментов в 5 случаях из 6.
Технология обещает сократить расходы на разработку новых лекарств, которые на этапе подготовки производства сейчас составляют до 20% от общего бюджета.
news.mit.edu
@ai_machinelearning_big_data
#news #ai #ml
Please open Telegram to view this post
VIEW IN TELEGRAM
❤32👏24👍13🔥9🤩8🤔5😎5🎉3🤝1🆒1