а вы знали, что в тг можно ставить кастомные аватарки на других людей? 🙂
Please open Telegram to view this post
VIEW IN TELEGRAM
🌚30🤯14👍9👌6😱4🤔1
Про что больше хотите пост?
Anonymous Poll
21%
Разбор lm для tts (aka vall-e) 🖊️
79%
Какие вопросы я задавала на ml собеседованиях (speech/nlp) 👩🏻💻
👍6💯2
Мое первое серьезное собеседование было на 2м курсе в Яндекс.Такси. С алгоритмами я справилась нормально, а вот мл секция была полным фиаско. После собеседования мне позвонили и сказали, что мои знания по мл “поверхностные”. Я расстроилась, но не сдалась — а сейчас, спустя 6 лет, кучу пройденных и проведенных собеседований я понимаю, что в этом нет ничего страшного.
Я выработала подход для себя как интервьюера. Сама, подглядела, или от противного 😂
Цель собеседования: понять, что человек уже умеет, чем занимался, готов ли учиться, как будет вести себя в стрессе. Идеально — если с собеса он уйдет довольный при любом раскладе)
🌱 Джун/мидл 🌱
Даю тестовое задание на кодинг, чтобы обсуждать на собеседовании и попутно задавать технические вопросы. В случае успешного прохождения этого этапа, человек попадает на собес. И там идем по плану:
Вопрос: есть ли релевантный опыт?
Вопрос: делал ли тестовое сам (понимает, что там происходит), как решает задачи?
Начинаем обсуждать решение по накиданному плану. То, что обязательно спрошу: использовал ли чужой код? (И да, само собой это норм). Использовал — почему взял из этого репозитория, а не из другого? Как работает твой алгоритм? С какими трудностями столкнулся? Как можно улучшить? А как корректно оценить результат?
Вопрос: что будет происходить в нестандартных ситуациях?
Если по части 2 все чисто, переходим к финальному этапу — проблемы из реальной жизни. Тут нет правильных ответов, но важен план и размышления. И да, для роли любой синиорности ответ “пойду спрошу того кто знает если не уверен” очень хорошо. Будет ли закапываться? Будет ли молчать, если накосячил?
🌴 Синиор/лид🌴
И в корпорации, и в стартап на такую роль ожидаю человека, который в значительной мере понимает бизнес-задачи и сам принимает решения. Идеально, если человек приходит по проверенной рекомендации.
Вопрос: есть ли релевантный опыт?
Тестовое задание обычно не даю — особенно, если есть опыт работы над конкретными проектами с понятным импактом человека. Например — “делал генерацию субтитров к видео в компании N, отвечал за эффективный сбор данных и дообучение моделей”. Тоже накидываю список вопросов для дайва.
Вопрос: как решает релевантные задачи?
Проваливаемся по цепочке связанных тем примерно по плану накиданных вопросов в первом пункте. Важно не столько погружаться в теоретические детали, сколько спрашивать про подходы и фреймворки. Как человек декомпозирует задачу, проецирует бизнес задачи на техническое пространство, как фиксирует успех и взаимодействует со смежными специалистами? Умеет ли делегировать?
Вопрос: что будет происходить в нестандартных ситуациях?
Как будем контролировать, что пайплайн не упадет? Что будем делать, если упадет? Выяснили, что задачу не сделать так быстро, как планировали. Что тогда? И все на конкретных примерах.
А также то, что обязательно должно быть развито у любого синьора — софт скилы. Кандидат должен быть готов к компромиссам, обсуждениям и тупым вопросам. А еще к признанию своих собственных ошибок и несению ответственности за критические компоненты.
Что происходит после собеседования? Отказы — тоже целое искусство 🌚. Самый изящный вариант отказа был мне из гугла после финального собеса — эйчар позвонил и голосом сказал, что у меня есть самое главное — софт скиллы и умение выстраивать рабочие процессы. То, что в этот раз не хватило знаний по алгоритмам (не мл) — можно развить и мне очень понравился этот ответ — закончили на хорошей ноте)
Кстати, если я вас собеседовала когда-либо, пишите в комменты
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥43👍12❤5👏4
Очередной визовый апдейт
Пришло еще одно письмо от консула из Белграда по О1 визе — запросили еще раз (в 3й) мое CV и заполненную форму про бекграунд. Общаюсь с юристами, снова не понимаю, что происходит...
upd: юристы говорят, что форму бекграунда действительно могут запрашивать часто. Сейчас скорее всего проверяют, что мой оффер еще актуален и ждут ли меня в сша
#O1
Пришло еще одно письмо от консула из Белграда по О1 визе — запросили еще раз (в 3й) мое CV и заполненную форму про бекграунд. Общаюсь с юристами, снова не понимаю, что происходит...
upd: юристы говорят, что форму бекграунда действительно могут запрашивать часто. Сейчас скорее всего проверяют, что мой оффер еще актуален и ждут ли меня в сша
#O1
😱32🤡25🤯14
🎶Как не словить депрессию, пока делаешь свой SVS (text-to-singing voice synthesis)
Задача синтеза речи хорошо решена на большинстве языков. С пением все иначе — есть пара популярных репозиториев с прошлых интерспичей, но есть нюансы. Чтобы успешно завести свой svs и не разочароваться в мире нейронок и в жизни в целом я сейчас про них расскажу.
😡 SVS в 2023 году — мир китайцев, японцев и немного корейцев. Все дело в том, что нет опенсорсных датасетов на английском языке в студийном качестве, но зато есть отличный датасет opencpop с китайским женским пением, размеченный не только по тексту, но и по нотам. Есть пара API с английском языком, но это уже совсем другая история.
😌 Хорошая новость — SVS хорошо дружат с one-shot SVC моделями (можно нагенерировать данных voice conversion'ом по нескольким минутам оригинального спикера).
😡 Многие модные фреймворки из статей типа NANSY++, NaturalSpeech-2 упоминают SVS, но не является фокусом внимания авторов. Хоть они и на слуху, проблема в том, что у многих из них есть только любительские реализации, некоторые из которых не заводятся, а авторы не поддерживают работу. И если в офигенного lucidrains который пишет понятный работающий код и его работу над NaturalSpeech я верю, то единственная известная мне реализация NANSY++ не работает от слова совсем. К тому же значительная часть документации будет на китайском даже в официальных репозиториях. Как вам такое?
😌 Совет банальный — искать комьюнити вокруг моделей и смотреть на число звезд у репозитория. Например вокруг самого залайканного DiffSinger есть дискорд, где можно с англоговорящими разработчиками пообуждать как лучше разбивать английские слова на слоги и куда ставить SP/AP токены
😡 Просто текста не достаточно. Нужна информация о длительностях фонем и нотах для пения. А, значит, нужно еще 2 модели: для генерации мелодии и для предсказания длительностей фонем и других фичей (например f0, enenrgy)
😌 Самая большая боль здесь — разметка по числу фонем на каждый слог и расстановка спец символов. Но и ее не так сложно автоматизировать, благо задача в интернете популярная. В остальном разметка английского похожа на пайплайн разметки китайского: какой-нибудь алфавитный asr (не whisper, чтобы не разворачивать потом числа/сокращения и учесть все охи/вздохи, можно из nemo взять что-нибудь например) + mfa + оценка октав и нот по частоте. Много деталей, но сам пайп заводится не очень сложно. А вот с мелодией все чуть сложнее... в целом подход "найти хорошие паттерны и выбирать/комбинировать" работает неплохо или обучить легкий seq2seq. Главное, чтобы на выходе был элаймент по длительностям нот и сами ноты, которые уже можно подать на вход предиктору фонем
Задача синтеза речи хорошо решена на большинстве языков. С пением все иначе — есть пара популярных репозиториев с прошлых интерспичей, но есть нюансы. Чтобы успешно завести свой svs и не разочароваться в мире нейронок и в жизни в целом я сейчас про них расскажу.
😡 SVS в 2023 году — мир китайцев, японцев и немного корейцев. Все дело в том, что нет опенсорсных датасетов на английском языке в студийном качестве, но зато есть отличный датасет opencpop с китайским женским пением, размеченный не только по тексту, но и по нотам. Есть пара API с английском языком, но это уже совсем другая история.
😌 Хорошая новость — SVS хорошо дружат с one-shot SVC моделями (можно нагенерировать данных voice conversion'ом по нескольким минутам оригинального спикера).
😡 Многие модные фреймворки из статей типа NANSY++, NaturalSpeech-2 упоминают SVS, но не является фокусом внимания авторов. Хоть они и на слуху, проблема в том, что у многих из них есть только любительские реализации, некоторые из которых не заводятся, а авторы не поддерживают работу. И если в офигенного lucidrains который пишет понятный работающий код и его работу над NaturalSpeech я верю, то единственная известная мне реализация NANSY++ не работает от слова совсем. К тому же значительная часть документации будет на китайском даже в официальных репозиториях. Как вам такое?
😌 Совет банальный — искать комьюнити вокруг моделей и смотреть на число звезд у репозитория. Например вокруг самого залайканного DiffSinger есть дискорд, где можно с англоговорящими разработчиками пообуждать как лучше разбивать английские слова на слоги и куда ставить SP/AP токены
😡 Просто текста не достаточно. Нужна информация о длительностях фонем и нотах для пения. А, значит, нужно еще 2 модели: для генерации мелодии и для предсказания длительностей фонем и других фичей (например f0, enenrgy)
😌 Самая большая боль здесь — разметка по числу фонем на каждый слог и расстановка спец символов. Но и ее не так сложно автоматизировать, благо задача в интернете популярная. В остальном разметка английского похожа на пайплайн разметки китайского: какой-нибудь алфавитный asr (не whisper, чтобы не разворачивать потом числа/сокращения и учесть все охи/вздохи, можно из nemo взять что-нибудь например) + mfa + оценка октав и нот по частоте. Много деталей, но сам пайп заводится не очень сложно. А вот с мелодией все чуть сложнее... в целом подход "найти хорошие паттерны и выбирать/комбинировать" работает неплохо или обучить легкий seq2seq. Главное, чтобы на выходе был элаймент по длительностям нот и сами ноты, которые уже можно подать на вход предиктору фонем
👍29🔥9❤8👏3
Кто спрашивал про визу — если коротко, продвижений больших нет 🥲
Писали сенатору, сенатор обратилась в консульство, консульство ответило, что мой статус О1 в пересмотре (по какой-то причине они не получили майское уведомление о том, что ходатайство об отзыве статуса не удовлетворено и статус остается). Сейчас пытаемся через сенатора снова достучаться до консульства и узнать, почему они не получили уведомление о сохранении статуса в мае🌚
#O1
Писали сенатору, сенатор обратилась в консульство, консульство ответило, что мой статус О1 в пересмотре (по какой-то причине они не получили майское уведомление о том, что ходатайство об отзыве статуса не удовлетворено и статус остается). Сейчас пытаемся через сенатора снова достучаться до консульства и узнать, почему они не получили уведомление о сохранении статуса в мае
#O1
Please open Telegram to view this post
VIEW IN TELEGRAM
😱38😢15🌚6❤🔥4
Прошлой осенью по сети бродил любительский проект riffusion, который умел генерировать звуки/мелодии и подражать пению, но именно подражать, без слов. Авторов начали цитировать в своих статьях бигтехи и тем самым привлекли внимание в том числе инвесторов. С тех пор riffusion подняли 4М$ и научили свою сетку не просто внятно говорить, но и здорово петь
это реально 🔥, я такого еще не видела
само собой в этот раз без статей или опенсорса 🥲
попробовать можно в том числе по русскому номеру бесплатно
это реально 🔥, я такого еще не видела
само собой в этот раз без статей или опенсорса 🥲
попробовать можно в том числе по русскому номеру бесплатно
🔥30👍8❤5🤯2
Помимо работы с войс тех стартапами я развиваю свой собственный проект, а именно разрабатываю приложение, которое будет помогать покупать и выбирать одежду по личным предпочтениям и особенностям внешности пользователя нет, пока что это не онлайн примерка
если хотите мне помочь и вам интересна эта область, то пройдите небольшой опрос на 5-10 минут. Шеринг очень приветствуется 😊
если хотите мне помочь и вам интересна эта область, то пройдите небольшой опрос на 5-10 минут. Шеринг очень приветствуется 😊
Google Docs
OOTD needs YOU!
Hey there! We're the OOTD team, and we'd love to pick your brain for a second! OOTD is this fantastic new project we're working on. It's all about using AI to help people discover awesome outfit combos that match their personal style. We're stoked to have…
👍20❤6👏4🔥3😱3❤🔥2
подборка классных сеток из мира audio processing 😎
1. speech-speech MT от меты. Работает хорошо, не онлайн, не переносит исходную интонацию. Зато доступно очень много языков и опенсорс
2. HeyGen video-video машинный перевод с voice cloning и lip sync. Интонация хороша, но по моему опыту голос не всегда получается похож и доступно очень немного языков, доступен только веб-интерфейс. Переводить свои видео с русского на английский вполне себе может
3. Podcaster сетка из 2022, которая заметно повышает качество исходной записи, убирает шумы и нежелательные артефакты записи. Жаль, что только веб интерфейс
4. Riffusion-2 генерирует "рифы", то есть короткие видео со сгенерированным голосом по промпту в заданном стиле. Доступна первая версия в опенсорсе, которая генерирует звуки. Однако, на мой взгляд, новая версия принципиально отличается по архитектуре (слова произносятся четко, скорее всего это генерация мелодии и вокала отдельно. Как, например, в suno)
5. Suno bark и chirp text-prompt speech generation (AudioLM + nanoGPT). Любопытная вещь, в которой в промпте можно указывать особенности голоса на выходе. Например сетка будет имитировать британский акцент или пытаться петь. Скорее фан, качество на выходе так себе. Правда, коммерческая версия sono поинтереснее и поет хорошо
6. RVC для one-shot singing voice synthesis по 3м минутам пения. Генерирует круто, играться с webui интересно. Но если вам нужно это встроить, придется повозиться. Спасибо, что хотя бы английский мануал добавили..
7. Distill Whisper speech-to-text (coming soon!) обещают более быструю и легкую версию выложить в ближайшее время. Кстати если вы искали whisper и разбивкой по словам по таймстепмам или диаризацию, то вам сюда
8. stable-audio-tools опенсорс от stability-ai с удобным интерфейсом для файнтюна генерации аудио
9. audiocraft от меты text-to-melody, text-to-sound - аудиолмки с хорошим качеством генерации. Однако иногда в musicgen сбивается ритм, в остальном очень годно
10. llark music understanding, captioning and reasoning от спотифая. Похоже, самая крупная lm в звуке на момент написания поста. Может давать фидбек и советы музыкантам и описывать что происходит на музыкальной дорожке. Код выложили, демо выложили, надеюсь претрейн или хотя бы доступ по апи дадут
пишите в комментах, что забыла😉
1. speech-speech MT от меты. Работает хорошо, не онлайн, не переносит исходную интонацию. Зато доступно очень много языков и опенсорс
2. HeyGen video-video машинный перевод с voice cloning и lip sync. Интонация хороша, но по моему опыту голос не всегда получается похож и доступно очень немного языков, доступен только веб-интерфейс. Переводить свои видео с русского на английский вполне себе может
3. Podcaster сетка из 2022, которая заметно повышает качество исходной записи, убирает шумы и нежелательные артефакты записи. Жаль, что только веб интерфейс
4. Riffusion-2 генерирует "рифы", то есть короткие видео со сгенерированным голосом по промпту в заданном стиле. Доступна первая версия в опенсорсе, которая генерирует звуки. Однако, на мой взгляд, новая версия принципиально отличается по архитектуре (слова произносятся четко, скорее всего это генерация мелодии и вокала отдельно. Как, например, в suno)
5. Suno bark и chirp text-prompt speech generation (AudioLM + nanoGPT). Любопытная вещь, в которой в промпте можно указывать особенности голоса на выходе. Например сетка будет имитировать британский акцент или пытаться петь. Скорее фан, качество на выходе так себе. Правда, коммерческая версия sono поинтереснее и поет хорошо
6. RVC для one-shot singing voice synthesis по 3м минутам пения. Генерирует круто, играться с webui интересно. Но если вам нужно это встроить, придется повозиться. Спасибо, что хотя бы английский мануал добавили..
7. Distill Whisper speech-to-text (coming soon!) обещают более быструю и легкую версию выложить в ближайшее время. Кстати если вы искали whisper и разбивкой по словам по таймстепмам или диаризацию, то вам сюда
8. stable-audio-tools опенсорс от stability-ai с удобным интерфейсом для файнтюна генерации аудио
9. audiocraft от меты text-to-melody, text-to-sound - аудиолмки с хорошим качеством генерации. Однако иногда в musicgen сбивается ритм, в остальном очень годно
10. llark music understanding, captioning and reasoning от спотифая. Похоже, самая крупная lm в звуке на момент написания поста. Может давать фидбек и советы музыкантам и описывать что происходит на музыкальной дорожке. Код выложили, демо выложили, надеюсь претрейн или хотя бы доступ по апи дадут
пишите в комментах, что забыла
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥35❤3👍3🤩2👏1
Интересную модель для генерации комиксов увидела в этом посте
1. По входному промпту + стилю к каждой картинке генерируется отдельный промпт с описанием происходящего на кадре
2. К каждому кадру из комикса отдельно генерируется картинка. Промпты можно редактировать или повторно генерировать
по тому что заметила, стиль American modern работает лучше всего. Правда, из-за него в аниме появились супергеройские нотки)
1. По входному промпту + стилю к каждой картинке генерируется отдельный промпт с описанием происходящего на кадре
2. К каждому кадру из комикса отдельно генерируется картинка. Промпты можно редактировать или повторно генерировать
по тому что заметила, стиль American modern работает лучше всего. Правда, из-за него в аниме появились супергеройские нотки)
Нормальная концовка атаки титанов подъехала🌚❤15👍6😁4🔥2🌚2
Вчера был DevDay от openai, где представили несколько новых любопытных обновлений. Главное из них — GPT-4 Turbo! Еще более умная версия 😎
1. Размер контекста GPT-4 Turbo увеличили в 16 раз по сравнению с предыдущим. Для сравнения Сэм сказал, что это примерно 300 книжных страниц
2. В API завозят json mode аутпуты. То есть теперь не нужно будет выцеживать нужную информацию из текстового ответа, можно ее просто явно запросить
3. Знания модели не будут ограничены 2021 годом, сейчас модель знает про мир до апреля 2023го. И разработчики пообещали поддерживать модель актуальной
4. В API теперь можно будет прокидывать картинки (а не только url как было раньше), в GPT-4 turbo будет интеграция с DALLE-3. Кроме того, обещают скоро открыть Whisper v3, в котором будет еще больше языков
5. Откроют gpt-4 для файнтюнинга в экспериментальном режиме. Заверили, что на данных которые юзеры используют для дообучения они не учатся. Анонсировали b2b дообучение моделей под нужды клиента
6. Повысили лимиты токенов в минуту, сделали более приятный прайс. Если нужны еще более высокие лимиты, можно отправлять запросы
1. Размер контекста GPT-4 Turbo увеличили в 16 раз по сравнению с предыдущим. Для сравнения Сэм сказал, что это примерно 300 книжных страниц
2. В API завозят json mode аутпуты. То есть теперь не нужно будет выцеживать нужную информацию из текстового ответа, можно ее просто явно запросить
3. Знания модели не будут ограничены 2021 годом, сейчас модель знает про мир до апреля 2023го. И разработчики пообещали поддерживать модель актуальной
4. В API теперь можно будет прокидывать картинки (а не только url как было раньше), в GPT-4 turbo будет интеграция с DALLE-3. Кроме того, обещают скоро открыть Whisper v3, в котором будет еще больше языков
5. Откроют gpt-4 для файнтюнинга в экспериментальном режиме. Заверили, что на данных которые юзеры используют для дообучения они не учатся. Анонсировали b2b дообучение моделей под нужды клиента
6. Повысили лимиты токенов в минуту, сделали более приятный прайс. Если нужны еще более высокие лимиты, можно отправлять запросы
YouTube
OpenAI DevDay: Opening Keynote
Join us for the opening keynote from OpenAI DevDay — OpenAI’s first developer conference.
We’re gathering developers from around the world for an in-person day of programming to learn about the latest AI advancements and explore what lies ahead.
New models…
We’re gathering developers from around the world for an in-person day of programming to learn about the latest AI advancements and explore what lies ahead.
New models…
🔥21👍6❤3
пробую генерировать с новой связкой dalle-3/gpt-4 иллюстрации для своего fashion tech приложения. Попросила давать мне менее сексуализированные образы (генерировались девушки модельной внешности в откровенных нарядах). Выдалось такое 🤯
А вообще похоже что в следующей версии мы увидим нормальные буквы
А вообще похоже что в следующей версии мы увидим нормальные буквы
😁27🤯9🔥5👍4🤣2
Forwarded from Denis Sexy IT 🤖
This media is not supported in your browser
VIEW IN TELEGRAM
Что случилось за ночь 🎪:
– Судя по слухам, из-за увольнения Сэма сотрудники OpenAI начали увольняться в ощутимом для стартапа количестве – я еще давно читал, что атмосфера в OpenAI скорее похожа на культ, то есть многие там правда ради достижения AGI и любят Сэма как лидера, так что не удивлен.
– По разным источникам, добровольные увольнения членов команды напугало борду, они согласились взять назад Сэма и ушедших, а сама борда будет распущена (и видимо, те кто ее часть – покинет компанию). Это сейчас самый актуальный слух.
– Просто забавно: CEO Microsoft когда узнал про увольнение Альтмана был «в ярости».
– Сотрудники массово лайкают твит Сэма, в котором он признается в любви к OpenAI, что частично подтверждает теорию что его взяли назад и переворот завершился ничем.
Дальше AGI-цирк ушел спать, ждем подтверждения слухов вечером по нашему.
Если все подтвердится, то это, как по мне, еще одно подтверждение теории номер 2 выше и значит, алайнеры проиграли, что вызовет очередную волну паники в медиа в стиле «ученые которые хотели безопасного AI были уволены шок читать с подпиской»
– Судя по слухам, из-за увольнения Сэма сотрудники OpenAI начали увольняться в ощутимом для стартапа количестве – я еще давно читал, что атмосфера в OpenAI скорее похожа на культ, то есть многие там правда ради достижения AGI и любят Сэма как лидера, так что не удивлен.
– По разным источникам, добровольные увольнения членов команды напугало борду, они согласились взять назад Сэма и ушедших, а сама борда будет распущена (и видимо, те кто ее часть – покинет компанию). Это сейчас самый актуальный слух.
– Просто забавно: CEO Microsoft когда узнал про увольнение Альтмана был «в ярости».
– Сотрудники массово лайкают твит Сэма, в котором он признается в любви к OpenAI, что частично подтверждает теорию что его взяли назад и переворот завершился ничем.
Дальше AGI-цирк ушел спать, ждем подтверждения слухов вечером по нашему.
Если все подтвердится, то это, как по мне, еще одно подтверждение теории номер 2 выше и значит, алайнеры проиграли, что вызовет очередную волну паники в медиа в стиле «ученые которые хотели безопасного AI были уволены шок читать с подпиской»
😁22👍7🤡5🤔4🤣2
Я подумывала написать в канал, когда соберу первый раунд или хотя бы пройду в аксель со своим стартапом и буду тут флексить. Но потом решила, что по мере своих сил буду держать вас в курсе. Так ведь интереснее 👀
💃 Итак, с чем же я планирую покорять fashion e-commerce? 💃
🪩 Какую проблему решаем?
"Перед выходом из дома я сомневаюсь, что оделся/оделась достаточно хорошо. Я чувствую неуверенность и дискомфорт."
🪩 Как сейчас решаем проблему?
mvp: Определяем какие цвета идут человеку, какому стилю он хочет следовать, что хочет подчеркнуть/скрыть при помощи одежды, одет ли он по погоде и даем алгоритм, как быстро улучшить свой сегодняшний образ по фотке в полный рост (например: заправь рубашку, подверни штаны, накинь куртку и так далее).
Есть мысли по развитию, но будем отталкиваться от фидбека пользователей 😏
🪩 Что уже успели сделать?
Сделали лендос, залетели в тестфлайт с mvp, а также подались в YC, techstars. Скоро узнаем, зовут ли нас на собесы. Планируем выйти в стор в Q1 2024
P.S. если хотите потестить прилу - напишите "+" в комменты или мне в личку, первым 20ти пошарю ссылку на тестфлайт
UPD: пока тестирование закрываем, спасибо всем кто откликнулся!
💃 Итак, с чем же я планирую покорять fashion e-commerce? 💃
🪩 Какую проблему решаем?
"Перед выходом из дома я сомневаюсь, что оделся/оделась достаточно хорошо. Я чувствую неуверенность и дискомфорт."
🪩 Как сейчас решаем проблему?
mvp: Определяем какие цвета идут человеку, какому стилю он хочет следовать, что хочет подчеркнуть/скрыть при помощи одежды, одет ли он по погоде и даем алгоритм, как быстро улучшить свой сегодняшний образ по фотке в полный рост (например: заправь рубашку, подверни штаны, накинь куртку и так далее).
Есть мысли по развитию, но будем отталкиваться от фидбека пользователей 😏
🪩 Что уже успели сделать?
Сделали лендос, залетели в тестфлайт с mvp, а также подались в YC, techstars. Скоро узнаем, зовут ли нас на собесы. Планируем выйти в стор в Q1 2024
P.S. если хотите потестить прилу - напишите "+" в комменты или мне в личку, первым 20ти пошарю ссылку на тестфлайт
UPD: пока тестирование закрываем, спасибо всем кто откликнулся!
www.aesty.ai
Aesty - Shop by Style, Wardrobe AI
AestyApp analyzes your outfit photos to recommend fashion that fits your style, color type, and wardrobe. Get AI-driven shopping suggestions instantly
🔥46👍12❤6😁3🤡3
мы набрали 20 человек, пока что ограничиваем тестирование. Спасибо за такой интерес к продукту, по всем багам/предложениям пишите в комменты или мне в личку
🔥25🙏3👌3
коротко про current state виртуальной примерки 🌚
Я не очень верю в решенность этой задачи в декабре 23го по нескольким причинам:
1. Лекала и размерные сетки. Возьмите одни и те же штаны из зары в Корее и в Америке. Условный M там будет совершенно разный
2. Сложные фасоны. Думаю, что в течение года можно будет примерить очень реалистично оверсайз вещи, но ведь куда интереснее как будет выглядеть какой-нибудь слим фит
3. Неинклюзивность. Все впечатляющие демки с онлайн-примеркой сейчас на стройных и высоких. Увы, но на них всегда все хорошо сидит :) если говорить про обычных людей, то здесь все будет похуже. Гугл кстати тут сделал интересную механику - выбирать похожую по фигуре модель и смотреть, как вещь будет сидеть на ней
А вообще я рада, что так много интереса к этой теме последнее время. Потому что рынок fashion e-commerce активно растет во многом из-за генеративок и хайпа вокруг примерки 🦄
картинка взята из этого треда
Я не очень верю в решенность этой задачи в декабре 23го по нескольким причинам:
1. Лекала и размерные сетки. Возьмите одни и те же штаны из зары в Корее и в Америке. Условный M там будет совершенно разный
2. Сложные фасоны. Думаю, что в течение года можно будет примерить очень реалистично оверсайз вещи, но ведь куда интереснее как будет выглядеть какой-нибудь слим фит
3. Неинклюзивность. Все впечатляющие демки с онлайн-примеркой сейчас на стройных и высоких. Увы, но на них всегда все хорошо сидит :) если говорить про обычных людей, то здесь все будет похуже. Гугл кстати тут сделал интересную механику - выбирать похожую по фигуре модель и смотреть, как вещь будет сидеть на ней
А вообще я рада, что так много интереса к этой теме последнее время. Потому что рынок fashion e-commerce активно растет во многом из-за генеративок и хайпа вокруг примерки 🦄
картинка взята из этого треда
🤣32👍11🔥6👏3❤1😁1
Месяц назад все обсуждали Sama и его уход из openai, сейчас движ происходит в fashion tech вокруг продажи Farfetch (самый известный люксовый маркетплейс) южнокорейскому Coupang, который называют азиатским Амазоном. Мне стало интересно, как так вышло, что после миллиардного выхода на IPO в 2018м компания оказалась на грани банкротства в 2023м 🥲
👀 Шаги, противоречащие основной бизнес-модели
Изначально Farfetch был платформой, которая связывала покупателей с продавцами люкса, не владеющей собственными складами и производствами. После успешного выхода на IPO и пандемии, CEO решил расширять компанию, поглотив несколько других: New Guards Group (производство и дистрибуция люксового шмота) и Violet Grey (американское золотое яблоко). Инвесторы этот мув не оценили и стали задавать вопросы о целесообразности таких импульсивных покупок. Вскоре быстрый рост привел к увеличению накладных расходов без доходов
👀 Снижения спроса на люкс в 2023 году
Времена непростые, поэтому спрос на люксовые товары сильно уменьшился. В качестве ответной меры, многие платформы стали вводить скидки, что в начале 2023 немного помогло, но затем дало откат - люди ждали скидки и не покупали товары по полной цене 🙃 пострадали все, от модных домов до ритейла
👀 Разные обсуждения в СМИ
В сети давно обсуждают Farfetch с разных ракурсов. Кто-то считал, что благодаря своей технологичности и открытости к экспериментам компания придет к успеху, но многие сомневались в продаже люкса онлайн с самого начала, а когда компанию начало штормить - вылезло много нумыжеговорили. Для многих покупка люкса это экспириенс. Здесь его почти нет, но есть наценки. Поэтому обсуждения виртуальной примерки кроссовок в 2020м оказались не такими сочными и заметными
у Farfetch даже свой аксель был в Париже, куда я планировала подаваться весной. Coupang видит в партнерстве доступ к US рынку и продолжение экспериментов, так что мне очень интересно, будет ли в этом году набор или им не до того. Может, фандинг даже расширят🌚
👀 Шаги, противоречащие основной бизнес-модели
Изначально Farfetch был платформой, которая связывала покупателей с продавцами люкса, не владеющей собственными складами и производствами. После успешного выхода на IPO и пандемии, CEO решил расширять компанию, поглотив несколько других: New Guards Group (производство и дистрибуция люксового шмота) и Violet Grey (американское золотое яблоко). Инвесторы этот мув не оценили и стали задавать вопросы о целесообразности таких импульсивных покупок. Вскоре быстрый рост привел к увеличению накладных расходов без доходов
👀 Снижения спроса на люкс в 2023 году
Времена непростые, поэтому спрос на люксовые товары сильно уменьшился. В качестве ответной меры, многие платформы стали вводить скидки, что в начале 2023 немного помогло, но затем дало откат - люди ждали скидки и не покупали товары по полной цене 🙃 пострадали все, от модных домов до ритейла
👀 Разные обсуждения в СМИ
В сети давно обсуждают Farfetch с разных ракурсов. Кто-то считал, что благодаря своей технологичности и открытости к экспериментам компания придет к успеху, но многие сомневались в продаже люкса онлайн с самого начала, а когда компанию начало штормить - вылезло много нумыжеговорили. Для многих покупка люкса это экспириенс. Здесь его почти нет, но есть наценки. Поэтому обсуждения виртуальной примерки кроссовок в 2020м оказались не такими сочными и заметными
у Farfetch даже свой аксель был в Париже, куда я планировала подаваться весной. Coupang видит в партнерстве доступ к US рынку и продолжение экспериментов, так что мне очень интересно, будет ли в этом году набор или им не до того. Может, фандинг даже расширят
Please open Telegram to view this post
VIEW IN TELEGRAM
👍21❤6🔥3🤯3🤔1