#fantasy #gemmel
"Послышался звук трубы, и гладиаторы скрестили мечи в знак приветствия, затем разошлись. С бешеной скоростью Волтан атаковал первым, но Свирепый блокировал удар и контратаковал с такой силой, что Волтану пришлось отпрыгнуть назад. Зрители изумленно молчали. Конечно, немногие из тридцати тысяч собравшихся могли полностью оценить высочайшее мастерство боя, но о том, что сражаются два великих гладиатора, знали все. Они чувствовали, что этот необыкновенный поединок войдет в историю и через много лет они будут рассказывать детям и внукам о смертельном поединке между Волтаном и Свирепым на арене цирка Палантес.
Бэйн не мог поверить своим глазам.
— Почему? — прошептал он. Потянувшись вперед, он вцепился в перила балкона. Да, он знал все ответы. Свирепый делал это ради него. Слова старшего друга всплыли в памяти Бэйна, словно высеченные из огня.
«У тебя нет отца, а у меня — сына. Мне кажется, мы стали почти родственниками, и, как любому отцу, мне не хочется, чтобы мой сын губил себя по собственной глупости».
Бэйну стало стыдно и страшно. Ради его эгоистичной мечты о мести жизнью рисковал его единственный настоящий друг. Его мозг не выдерживал напряжения, и вся горечь и ненависть его детства и юности начала таять вместе с тоской и одиночеством, обидами и разочарованиями. Все стало казаться мелким и ничтожным по сравнению с жертвой, которую ради него собирался принести этот человек. Свирепый знал, что Бэйну не одолеть Волтана, и понимал, что, несмотря на собственный возраст, он все еще может ослабить Волтана, растратить его силы на себя, может, даже ранить, чтобы у Бэйна появилось больше шансов выжить. — Я не хотел… — шептал Бэйн.
Бэйн наблюдал за поединком с ужасом и изумлением. Свирепый был прав. Он не смог бы одолеть Волтана. Для такого роста и сложения скорость Волтана была совершенно необыкновенной. Он прекрасно двигался, и в атаке, и в защите сохраняя равновесие.
Скорость поединка была просто невероятной, и само сражение немного напоминало танец. Бэйн смотрел не отрываясь, во рту у него пересохло, дыхание сбилось, вцепившиеся в перила пальцы побелели. Как бы ни закончился поединок, он знал, что поступок Свирепого навсегда изменил его жизнь. Никогда больше он не станет жаловаться на несправедливость. Подарок, который он получил сегодня, с лихвой покрыл все обиды и неприятности, которые с ним случались."
"Послышался звук трубы, и гладиаторы скрестили мечи в знак приветствия, затем разошлись. С бешеной скоростью Волтан атаковал первым, но Свирепый блокировал удар и контратаковал с такой силой, что Волтану пришлось отпрыгнуть назад. Зрители изумленно молчали. Конечно, немногие из тридцати тысяч собравшихся могли полностью оценить высочайшее мастерство боя, но о том, что сражаются два великих гладиатора, знали все. Они чувствовали, что этот необыкновенный поединок войдет в историю и через много лет они будут рассказывать детям и внукам о смертельном поединке между Волтаном и Свирепым на арене цирка Палантес.
Бэйн не мог поверить своим глазам.
— Почему? — прошептал он. Потянувшись вперед, он вцепился в перила балкона. Да, он знал все ответы. Свирепый делал это ради него. Слова старшего друга всплыли в памяти Бэйна, словно высеченные из огня.
«У тебя нет отца, а у меня — сына. Мне кажется, мы стали почти родственниками, и, как любому отцу, мне не хочется, чтобы мой сын губил себя по собственной глупости».
Бэйну стало стыдно и страшно. Ради его эгоистичной мечты о мести жизнью рисковал его единственный настоящий друг. Его мозг не выдерживал напряжения, и вся горечь и ненависть его детства и юности начала таять вместе с тоской и одиночеством, обидами и разочарованиями. Все стало казаться мелким и ничтожным по сравнению с жертвой, которую ради него собирался принести этот человек. Свирепый знал, что Бэйну не одолеть Волтана, и понимал, что, несмотря на собственный возраст, он все еще может ослабить Волтана, растратить его силы на себя, может, даже ранить, чтобы у Бэйна появилось больше шансов выжить. — Я не хотел… — шептал Бэйн.
Бэйн наблюдал за поединком с ужасом и изумлением. Свирепый был прав. Он не смог бы одолеть Волтана. Для такого роста и сложения скорость Волтана была совершенно необыкновенной. Он прекрасно двигался, и в атаке, и в защите сохраняя равновесие.
Скорость поединка была просто невероятной, и само сражение немного напоминало танец. Бэйн смотрел не отрываясь, во рту у него пересохло, дыхание сбилось, вцепившиеся в перила пальцы побелели. Как бы ни закончился поединок, он знал, что поступок Свирепого навсегда изменил его жизнь. Никогда больше он не станет жаловаться на несправедливость. Подарок, который он получил сегодня, с лихвой покрыл все обиды и неприятности, которые с ним случались."
Forwarded from DLStories
В продолжение поста о Google Vizer:
Google представляет OptFormer: первую нейронную модель для black-box оптимизации
#paper
Работал, значит, в Гугле Vizer несколько лет, работал, и накопил достаточно много логов оптимизации разных ML-моделей. И у рисерчеров возникла идея: что если на этих логах обучить нейросеть? И тогда с помощью этой нейросети можно будет оптимизировать параметры других ML-моделей. Так и родился OptFormer.
Устройство OptFormer простое. Архитектура — обычный T5-Трансформер. На вход модель принимает информацию о нейросети и о задаче, под которую нейросеть нужно оптимизировать (на гифке ниже это info: нейросеть обучается под CIFAR-10) Эта информация подается на вход в виде набора текстовых токенов. Например, если мы хотим найти гиперпараметры для сверточной нейросети для решения задачи CIFAR, и наша метрика — accuracy, то на вход модели подаем следующее:
"name": "convnet on cifar10",
"metric": "accuracy",
"goal": "MAXIMIZE"
Также на вход нужно подать список параметров, которые нужно оптимизировать (search space на гифке под постом). Например, вот так можно задать, что лучший оптимизатор нужно искать среди SGD и Adam:
"parameter": {
"name": "opt_type",
"type": "CATEGORICAL",
"categories": ["SGD", "Adam"],
}
После этого начинается процесс подбора гиперпараметров. На каждом шаге OptFormer выдает значение каждого из настраеваемых параметров. Например, “Adam, 1e-3”. Далее нужно обучить нейросеть с этими параметрами, получить результат (значение лосс-функции/метрики качества), и подать это значение обратно в OptFormer. После этого начинается следующий шаг оптимизации: OptFormer видит, какой результат получился с текущими значениями гиперпараметров, и на основе этой инфы пытается подобрать новые гиперпараметры, которые дадут лучший результат.
Короче, user interface как у стандартных байесовских оптимизаторов. Но у OptFormer несколько серьезных преимуществ:
✔️ В OptFormer можно задать, какой алгоритм оптимизации имитировать. Как я писала в посте выше, для black-box оптимизации есть много разных алгоритмов. OptFormer учился на логах всех из них, поэтому может имитировать процесс подбора параметров разными алгоритмами. Чтобы заставить OptFormer имитировать grid search, к примеру, нужно на вход подать еще один параметр: "algorithm": "random_search”. Результаты экспериментов показывают, что OptFormer достаточно хорошо прикидывается различными алгоритмами.
✔️ Кроме значений параметров на каждом шаге OptFormer также выдает ожидаемую метрику качества, которая должна получиться у нейросети с такими параметрами. Причем выдает весьма неплохо, как пишут в статье.
Эта фича — предсказание значения метрики качества для набора параметров — позволяет OptFormer работать даже лучше, чем стандартные алгоритмы (и даже лучше, чем Vizer). Дело в том, что на каждом шаге работы алгоритма можно семплировать сразу несколько значений параметров, а затем выбрать из них лучший, основываясь на предсказаниях метрики качества для каждого из набора параметров. По результатам экспериментов OptFormer действительн могёт: оптимизация ResNet-50 на CIFAR-10 у него заняла меньшее количество итераций, чем у Vizer, и итоговый достигнутый accuracy получился даже лучше.
Ссылки:
Блогпост Google AI
Статья на arxiv
Google представляет OptFormer: первую нейронную модель для black-box оптимизации
#paper
Работал, значит, в Гугле Vizer несколько лет, работал, и накопил достаточно много логов оптимизации разных ML-моделей. И у рисерчеров возникла идея: что если на этих логах обучить нейросеть? И тогда с помощью этой нейросети можно будет оптимизировать параметры других ML-моделей. Так и родился OptFormer.
Устройство OptFormer простое. Архитектура — обычный T5-Трансформер. На вход модель принимает информацию о нейросети и о задаче, под которую нейросеть нужно оптимизировать (на гифке ниже это info: нейросеть обучается под CIFAR-10) Эта информация подается на вход в виде набора текстовых токенов. Например, если мы хотим найти гиперпараметры для сверточной нейросети для решения задачи CIFAR, и наша метрика — accuracy, то на вход модели подаем следующее:
"name": "convnet on cifar10",
"metric": "accuracy",
"goal": "MAXIMIZE"
Также на вход нужно подать список параметров, которые нужно оптимизировать (search space на гифке под постом). Например, вот так можно задать, что лучший оптимизатор нужно искать среди SGD и Adam:
"parameter": {
"name": "opt_type",
"type": "CATEGORICAL",
"categories": ["SGD", "Adam"],
}
После этого начинается процесс подбора гиперпараметров. На каждом шаге OptFormer выдает значение каждого из настраеваемых параметров. Например, “Adam, 1e-3”. Далее нужно обучить нейросеть с этими параметрами, получить результат (значение лосс-функции/метрики качества), и подать это значение обратно в OptFormer. После этого начинается следующий шаг оптимизации: OptFormer видит, какой результат получился с текущими значениями гиперпараметров, и на основе этой инфы пытается подобрать новые гиперпараметры, которые дадут лучший результат.
Короче, user interface как у стандартных байесовских оптимизаторов. Но у OptFormer несколько серьезных преимуществ:
✔️ В OptFormer можно задать, какой алгоритм оптимизации имитировать. Как я писала в посте выше, для black-box оптимизации есть много разных алгоритмов. OptFormer учился на логах всех из них, поэтому может имитировать процесс подбора параметров разными алгоритмами. Чтобы заставить OptFormer имитировать grid search, к примеру, нужно на вход подать еще один параметр: "algorithm": "random_search”. Результаты экспериментов показывают, что OptFormer достаточно хорошо прикидывается различными алгоритмами.
✔️ Кроме значений параметров на каждом шаге OptFormer также выдает ожидаемую метрику качества, которая должна получиться у нейросети с такими параметрами. Причем выдает весьма неплохо, как пишут в статье.
Эта фича — предсказание значения метрики качества для набора параметров — позволяет OptFormer работать даже лучше, чем стандартные алгоритмы (и даже лучше, чем Vizer). Дело в том, что на каждом шаге работы алгоритма можно семплировать сразу несколько значений параметров, а затем выбрать из них лучший, основываясь на предсказаниях метрики качества для каждого из набора параметров. По результатам экспериментов OptFormer действительн могёт: оптимизация ResNet-50 на CIFAR-10 у него заняла меньшее количество итераций, чем у Vizer, и итоговый достигнутый accuracy получился даже лучше.
Ссылки:
Блогпост Google AI
Статья на arxiv
🔥1
Forwarded from asisakov
А что если данные закончатся?
Прочитал недавно конспект небольшого интервью с Андреем Карпаты. Интересный был тезис, что пока что мы наблюдаем линейный рост качества моделей от использования все большего количества данных, при этом большая часть информации ещё не применялась в обучении.
Когда минимум 40 часов в неделю занимаешься прогнозированием, то автоматом через секунду в голове возникает вопрос - а что дальше? Что будет, когда закончатся все данные, до которых мы можем дотянуться?
Вообще, на вопросы про возможные ограничения ресурсов (например, нехватка GPU) уже отвечали тут, тут и тут. Ну и ещё пара предпосылок тут и тут.
Как их можно объединить в контексте данных:
1. Экспоненциальный рост объема данных, требуемых для тренировки все более мощных LLM. Каждое новое поколение моделей требует на порядок больше данных для обучения.
2. Ограниченность открытых данных. Хотя объем информации в интернете огромен, не весь этот контент подходит для обучения LLM из-за проблем с качеством, зашумленностью, лицензиями и другими ограничениями.
3. Необходимость в специализированных данных под конкретные задачи и предметные области, где одной крупной базовой LLM уже недостаточно, и нужны узкоспециализированные модели, требующие переобучения на под свой домен.
Каким можно увидеть развитие ситуации?
(Что-то из этого уже реализуется)
1. Генерация синтетических данных и получение новых:
1.1. Создание продвинутых моделей и сред (environment) для генерации реалистичных данных на основе ограниченных исходных выборок, с учетом особенностей имеющихся данных.
1.2. Использование генеративных моделей для создания синтетических данных, неотличимых от реальных примеров.
1.3. Привлечение экспертов для валидации и улучшения качества синтетически сгенерированных данных - особо важно на старте замкнутых систем с генерациями данных.
2. Улучшение эффективного переноса знаний (transfer learning) для LLM:
2.1. Обучение одной универсальной модели как учителя для других более маленьких и узконаправленных моделей. Может выступать как маршрутизатор к нужной модели. Мб реализуемо и через RAG.
2.2. Разработка более эффективных архитектур и алгоритмов - очевидно. Например, чтобы было меньше забывания.
2.3. Переход к новой парадигме передачи и хранения информации в LLM.
3. Инкрементальное обучение и генерация/разметка данных человеком:
3.1. Запрос у пользователей недостающей по их мнению информации в ответе, обработка обратной связи в процессе работы с моделью.
3.2. Активное обучение, где LLM самостоятельно выбирает наиболее информативные примеры для обогащения данных из потока пользовательских логов.
Возможные проблемы:
1. Снижение качества новых LLM из-за отсутствия разнообразия в данных - больше параметров, но качество то же самое.
2. Сложности с низкоресурсными языками и специфическими доменами, где совсем мало информации - можем натренировать модели проводить исследования и накапливать данные в этих областях.
3. Монополизация данных.
Крупные корпорации, обладающие гигантскими датасетами, получат подавляющее преимущество. Конечно, многие прорывы в области LLM были совершены некоммерческими организациями вроде OpenAI (которая перестала быть некоммерческой) или StabilityAI.
4. Генерация недостоверной информации и обход проверок с целью скормить некачественные данные для обучения. И также большое количество разбирательств из-за использования закрытых данных. Может в конце и придём к тому, что любые данные станут открытыми.
Может уже в ближайшем будущем нам будут платить за то, чтобы мы генерили качественную информацию и также ее проверяли😂
P. S. По дефолту я думаю, что вы прочли все посты, которые я репосчу в свой соседний канал, поэтому никаких пояснений к тому, что я пишу, не требуется. Но если у вас возникает непонимание чего-либо, то обязательно интересуйтесь в комментариях!
#llm #thoughts
Прочитал недавно конспект небольшого интервью с Андреем Карпаты. Интересный был тезис, что пока что мы наблюдаем линейный рост качества моделей от использования все большего количества данных, при этом большая часть информации ещё не применялась в обучении.
Когда минимум 40 часов в неделю занимаешься прогнозированием, то автоматом через секунду в голове возникает вопрос - а что дальше? Что будет, когда закончатся все данные, до которых мы можем дотянуться?
Вообще, на вопросы про возможные ограничения ресурсов (например, нехватка GPU) уже отвечали тут, тут и тут. Ну и ещё пара предпосылок тут и тут.
Как их можно объединить в контексте данных:
1. Экспоненциальный рост объема данных, требуемых для тренировки все более мощных LLM. Каждое новое поколение моделей требует на порядок больше данных для обучения.
2. Ограниченность открытых данных. Хотя объем информации в интернете огромен, не весь этот контент подходит для обучения LLM из-за проблем с качеством, зашумленностью, лицензиями и другими ограничениями.
3. Необходимость в специализированных данных под конкретные задачи и предметные области, где одной крупной базовой LLM уже недостаточно, и нужны узкоспециализированные модели, требующие переобучения на под свой домен.
Каким можно увидеть развитие ситуации?
(Что-то из этого уже реализуется)
1. Генерация синтетических данных и получение новых:
1.1. Создание продвинутых моделей и сред (environment) для генерации реалистичных данных на основе ограниченных исходных выборок, с учетом особенностей имеющихся данных.
1.2. Использование генеративных моделей для создания синтетических данных, неотличимых от реальных примеров.
1.3. Привлечение экспертов для валидации и улучшения качества синтетически сгенерированных данных - особо важно на старте замкнутых систем с генерациями данных.
2. Улучшение эффективного переноса знаний (transfer learning) для LLM:
2.1. Обучение одной универсальной модели как учителя для других более маленьких и узконаправленных моделей. Может выступать как маршрутизатор к нужной модели. Мб реализуемо и через RAG.
2.2. Разработка более эффективных архитектур и алгоритмов - очевидно. Например, чтобы было меньше забывания.
2.3. Переход к новой парадигме передачи и хранения информации в LLM.
3. Инкрементальное обучение и генерация/разметка данных человеком:
3.1. Запрос у пользователей недостающей по их мнению информации в ответе, обработка обратной связи в процессе работы с моделью.
3.2. Активное обучение, где LLM самостоятельно выбирает наиболее информативные примеры для обогащения данных из потока пользовательских логов.
Возможные проблемы:
1. Снижение качества новых LLM из-за отсутствия разнообразия в данных - больше параметров, но качество то же самое.
2. Сложности с низкоресурсными языками и специфическими доменами, где совсем мало информации - можем натренировать модели проводить исследования и накапливать данные в этих областях.
3. Монополизация данных.
Крупные корпорации, обладающие гигантскими датасетами, получат подавляющее преимущество. Конечно, многие прорывы в области LLM были совершены некоммерческими организациями вроде OpenAI (которая перестала быть некоммерческой) или StabilityAI.
4. Генерация недостоверной информации и обход проверок с целью скормить некачественные данные для обучения. И также большое количество разбирательств из-за использования закрытых данных. Может в конце и придём к тому, что любые данные станут открытыми.
Может уже в ближайшем будущем нам будут платить за то, чтобы мы генерили качественную информацию и также ее проверяли
P. S. По дефолту я думаю, что вы прочли все посты, которые я репосчу в свой соседний канал, поэтому никаких пояснений к тому, что я пишу, не требуется. Но если у вас возникает непонимание чего-либо, то обязательно интересуйтесь в комментариях!
#llm #thoughts
Please open Telegram to view this post
VIEW IN TELEGRAM
👍3
#nvidia #salaries
"Из-за высокого спроса на ИИ-ускорители её акции в минувшем году подорожали втрое — Nvidia стала третьей по величине компанией в мире после Microsoft и Apple. Рост цен на акции Nvidia также увеличил личное состояние Хуанга — сейчас он занимает 18 место в списке богатейших людей в мире по версии Bloomberg Billionaires Index с $80,5 млрд, потому что ему принадлежат 3,8 % акций компании.
Гендиректор — не единственный руководитель Nvidia, чья зарплата значительно выросла за год. Компенсационный пакет финансового директора компании Колетт Кресс (Colette Kress) увеличился на 22 % до $13,3 млн. Поднялась зарплата и рядовых сотрудников: в 2024 финансовом году средний работник компании получил $266 939, что на 17 % больше, чем годом ранее. За последние 12 месяцев акции компании подорожали более чем на 200 %, а с начала этого года они поднялись в цене на 85 %."
https://3dnews.ru/1104857/nvidia-podnyala-zarplatu-gendirektoru-dgensenu-huangu-na-60-do-34-millionov-za-god
"Из-за высокого спроса на ИИ-ускорители её акции в минувшем году подорожали втрое — Nvidia стала третьей по величине компанией в мире после Microsoft и Apple. Рост цен на акции Nvidia также увеличил личное состояние Хуанга — сейчас он занимает 18 место в списке богатейших людей в мире по версии Bloomberg Billionaires Index с $80,5 млрд, потому что ему принадлежат 3,8 % акций компании.
Гендиректор — не единственный руководитель Nvidia, чья зарплата значительно выросла за год. Компенсационный пакет финансового директора компании Колетт Кресс (Colette Kress) увеличился на 22 % до $13,3 млн. Поднялась зарплата и рядовых сотрудников: в 2024 финансовом году средний работник компании получил $266 939, что на 17 % больше, чем годом ранее. За последние 12 месяцев акции компании подорожали более чем на 200 %, а с начала этого года они поднялись в цене на 85 %."
https://3dnews.ru/1104857/nvidia-podnyala-zarplatu-gendirektoru-dgensenu-huangu-na-60-do-34-millionov-za-god
3DNews - Daily Digital Digest
Nvidia подняла зарплату гендиректору Дженсену Хуангу на 60 % до $34 млн за год
Гендиректор и соучредитель Nvidia Дженсен Хуанг (Jensen Huang) по итогам 2024 финансового года (с февраля 2023 по январь 2024 календарного года) получил компенсационный пакет в размере $34,2 млн.
#smartphones #cameras #bollocks
На dxomark обновился лидер по мобильной фотографии. Я обрадовался, думаю, попробую его раздобыть, хватит пользоваться дешёвым китайским ширпотребом, жизнь слишком коротка.
Но вот смотрим обзорчик с реальным сравнением фоток на этом pura ultra и нескольких других топчиках: в 2024 сука году до сих пор на научились инженеры, прогеры, дата сайентисты и кто там ещё правильно определять, скажем, баланс белого. Ну как может девайс за $1.5k желтить? Ну возьми ты, сука, в свои китайские ручки референсную качественную камеру, и свою смартфоновскую, и научи модельку сопоставлять цвета при разных уровнях освещённости, ну почему это такие сложности у вас всех сука вызывает? Ну железо ведь одинаковое используете. Либо это реально необъяснимо сложно, либо просто всем похер, и так сойдёт.
Ещё и селфи-камера не в фокусе... Морда владельца на видео-селфи получается расплывчатая, зато хорошая детализация дальних домов. Если бы я там менеджерил, вся продуктовая команда после такого релиза такого "флагмана" дружно пошла бы на мороз.
https://www.youtube.com/watch?v=dlGr2hQ2Km8
https://www.youtube.com/watch?v=TavTpHDT9bo
На dxomark обновился лидер по мобильной фотографии. Я обрадовался, думаю, попробую его раздобыть, хватит пользоваться дешёвым китайским ширпотребом, жизнь слишком коротка.
Но вот смотрим обзорчик с реальным сравнением фоток на этом pura ultra и нескольких других топчиках: в 2024 сука году до сих пор на научились инженеры, прогеры, дата сайентисты и кто там ещё правильно определять, скажем, баланс белого. Ну как может девайс за $1.5k желтить? Ну возьми ты, сука, в свои китайские ручки референсную качественную камеру, и свою смартфоновскую, и научи модельку сопоставлять цвета при разных уровнях освещённости, ну почему это такие сложности у вас всех сука вызывает? Ну железо ведь одинаковое используете. Либо это реально необъяснимо сложно, либо просто всем похер, и так сойдёт.
Ещё и селфи-камера не в фокусе... Морда владельца на видео-селфи получается расплывчатая, зато хорошая детализация дальних домов. Если бы я там менеджерил, вся продуктовая команда после такого релиза такого "флагмана" дружно пошла бы на мороз.
https://www.youtube.com/watch?v=dlGr2hQ2Km8
https://www.youtube.com/watch?v=TavTpHDT9bo
DXOMARK
Huawei Pura 70 Ultra Camera test
Discover the exceptional camera performance of the Huawei Pura 70 Ultra in the DXOMARK tests. Top scores for still images, impressive detail retention, and natural skin-tone rendering.
#smartphones #cameras
Вот эта фотка вообще атас. Как можно настолько безбожно дорисовывать, да ещё невпопад? Даже не скажешь, что это фотографии одного и того же места.
Вот эта фотка вообще атас. Как можно настолько безбожно дорисовывать, да ещё невпопад? Даже не скажешь, что это фотографии одного и того же места.
#hpt #hpo #hypergradients #hypernetworks
Очень интересный подход! Nash vs Stackelberg.
https://www.youtube.com/watch?v=eoLeANtBGKs
Очень интересный подход! Nash vs Stackelberg.
https://www.youtube.com/watch?v=eoLeANtBGKs
YouTube
Self-Tuning Networks: Amortizing the Hypergradient Computation for Hyperparameter Optimization
Optimization of many deep learning hyperparameters can be formulated as a bilevel optimization problem. While most black-box and gradient-based approaches re...
#hpt #logscale
https://www.youtube.com/watch?v=cSoK_6Rkbfg&list=PLkDaE6sCZn6Hn0vK8co82zjQtt3T2Nkqc&index=25
https://www.youtube.com/watch?v=cSoK_6Rkbfg&list=PLkDaE6sCZn6Hn0vK8co82zjQtt3T2Nkqc&index=25
YouTube
Using an Appropriate Scale (C2W3L02)
Take the Deep Learning Specialization: http://bit.ly/3anfsyN
Check out all our courses: https://www.deeplearning.ai
Subscribe to The Batch, our weekly newsletter: https://www.deeplearning.ai/thebatch
Follow us:
Twitter: https://twitter.com/deeplearningai_…
Check out all our courses: https://www.deeplearning.ai
Subscribe to The Batch, our weekly newsletter: https://www.deeplearning.ai/thebatch
Follow us:
Twitter: https://twitter.com/deeplearningai_…
Forwarded from Техножрица 👩💻👩🏫👩🔧
Написала небольшую статью на Хабре про алгоритмы снижения размерности, жду ваших классов 👍 :
https://habr.com/ru/articles/811437/
В дополнение к статье рекомендую посмотреть вот эту замечательную демонстрацию работы UMAP и t-SNE (уже не моего производства): https://pair-code.github.io/understanding-umap/
#математика_в_ML #учебные_материалы
https://habr.com/ru/articles/811437/
В дополнение к статье рекомендую посмотреть вот эту замечательную демонстрацию работы UMAP и t-SNE (уже не моего производства): https://pair-code.github.io/understanding-umap/
#математика_в_ML #учебные_материалы
Please open Telegram to view this post
VIEW IN TELEGRAM
Хабр
Главные отличия PCA от UMAP и t-SNE
Здесь будет рассказано о главных отличиях самого старого и базового алгоритма снижения размерности - PCA от его популярных современных коллег - UMAP и t-SNE. Предполагается, что читатель уже...
❤2
#inference
Как выбирать модельку под задачи с учётом латентности.
https://www.youtube.com/watch?v=uQCLHHyGc3c
Как выбирать модельку под задачи с учётом латентности.
https://www.youtube.com/watch?v=uQCLHHyGc3c
YouTube
Talk | The Challenges in Hardware Aware Inference Optimization in Deep Learning
The increasing size of modern deep neural models makes it harder to meet cost-effective inference performance requirements without hardware-aware optimizatio...
#churn #uplift
Не с первого взгляда, но я узнал логотип этого Flo Health. Эти ребята настолько "sort of" инновационны, что рекламу своего приложения по контролю месячных показывают на ютубе даже мне, мужику. Аплодирую стоя. Ценю настойчивость, через полгода такой рекламы, пожалуй, установлю себе.
Кстати, у подхода we predict churn to minimize %your business metric%->we maximize %your business metric% directly via uplift modelling просматриваются аналогии в трейдинге. Treatment=TradingAction, business metric=SharpeRatio. Single learner model - это по сути подход Эрни Чана (client features+treatment features vs market features+strategy actions).
Идея метода target transformation, котрую человеческим языком автора доклада не смог сформулировать, в том, что после преобразования позитивным аплифт становится для случаев когда мы подействовали и клиент остался, либо не действовали и клиент ушёл, что в принципе звучит логично.
Странно названный метод T-learner - это просто модификация 1го варианта, когда данные расщепляются по значениям treatment и для каждого куска строится отдельная модель. Как я уже рассказывал, эти 2 подхода имеет смысл тестировать вообще всегда, потому что никогда не знаешь заранее, какой сработает лучше в конкретной задаче и для конкретного алгоритма моделирования.
Так автор доклада и не сообщил, какой же из рассмотренных им методов у них в компании сработал лучше и почему, похоже, они тестировали какой-то один и сравнения не делали. Привёл только рост 7-24% ARPU (в зависимости от региона).
На 22:45 автор делится крайне интересной идеей: вместо стандартного избитого А/Б теста с красной и синей кнопками на сайте, и последующего определения одного для всех "цвета-победителя", не лучше ли предсказывать для каждого юзера оптимальный цвет кнопки, пытаясь максимизировать его кратко- и среднесрочные метрики?
Тупой пример: девочки любят красные кнопки, мальчики синие. Девочки составляют 65% аудитории сайта, соответственно, стандартный А/Б тест заключает, что кнопку надо ставить красную для всех. Тем самым мы вроде бы максимизируем полезность, при этом 35% аудитории ходят недовольные, совершают меньше покупок, итд.
https://www.youtube.com/watch?v=A6a1MbH4fFk
Не с первого взгляда, но я узнал логотип этого Flo Health. Эти ребята настолько "sort of" инновационны, что рекламу своего приложения по контролю месячных показывают на ютубе даже мне, мужику. Аплодирую стоя. Ценю настойчивость, через полгода такой рекламы, пожалуй, установлю себе.
Кстати, у подхода we predict churn to minimize %your business metric%->we maximize %your business metric% directly via uplift modelling просматриваются аналогии в трейдинге. Treatment=TradingAction, business metric=SharpeRatio. Single learner model - это по сути подход Эрни Чана (client features+treatment features vs market features+strategy actions).
Идея метода target transformation, котрую человеческим языком автора доклада не смог сформулировать, в том, что после преобразования позитивным аплифт становится для случаев когда мы подействовали и клиент остался, либо не действовали и клиент ушёл, что в принципе звучит логично.
Странно названный метод T-learner - это просто модификация 1го варианта, когда данные расщепляются по значениям treatment и для каждого куска строится отдельная модель. Как я уже рассказывал, эти 2 подхода имеет смысл тестировать вообще всегда, потому что никогда не знаешь заранее, какой сработает лучше в конкретной задаче и для конкретного алгоритма моделирования.
Так автор доклада и не сообщил, какой же из рассмотренных им методов у них в компании сработал лучше и почему, похоже, они тестировали какой-то один и сравнения не делали. Привёл только рост 7-24% ARPU (в зависимости от региона).
На 22:45 автор делится крайне интересной идеей: вместо стандартного избитого А/Б теста с красной и синей кнопками на сайте, и последующего определения одного для всех "цвета-победителя", не лучше ли предсказывать для каждого юзера оптимальный цвет кнопки, пытаясь максимизировать его кратко- и среднесрочные метрики?
Тупой пример: девочки любят красные кнопки, мальчики синие. Девочки составляют 65% аудитории сайта, соответственно, стандартный А/Б тест заключает, что кнопку надо ставить красную для всех. Тем самым мы вроде бы максимизируем полезность, при этом 35% аудитории ходят недовольные, совершают меньше покупок, итд.
https://www.youtube.com/watch?v=A6a1MbH4fFk
YouTube
Uplift Modelling - throw away your churn model. Ivan Klimuk
💬 “Uplift modelling is a powerful technique to make the best out of your marketing campaigns or any personalized user treatment with the help of machine learning,” says Ivan Klimuk, ML Engineer at Flo Health Inc.
Being one of the speakers at the Danske Technight…
Being one of the speakers at the Danske Technight…
👍2
#sound
https://3dnews.ru/1105024/issledovateli-predlogili-tehnologiyu-aktivnogo-shumopodavleniya-s-ii-pozvolyayushchuyu-udalyat-tolko-opredelyonnie-zvuki
https://3dnews.ru/1105024/issledovateli-predlogili-tehnologiyu-aktivnogo-shumopodavleniya-s-ii-pozvolyayushchuyu-udalyat-tolko-opredelyonnie-zvuki
3DNews - Daily Digital Digest
Новая технология активного шумоподавления с ИИ позволяет выделить определённые звуки и убрать все лишние
Команда исследователей из Вашингтонского университета во главе с доцентом Шьямом Голлакотой (Shyam Gollakota) предложила технологию активного шумоподавления в реальном времени с использованием ИИ, позволяющую удалять посторонний шум, выделяя нужные звуки.…
#commissions #apple #monopoly #law
Интересно, приведут ли огрызков в чувство?
"Предложенная компанией ставка комиссии в 27 % за платежи вне App Store вызвала у судьи Гонсалес-Роджерс сомнения. Старший директор по управлению бизнесом Apple Карсон Оливер (Carson Oliver) рассказал, что компания наняла консалтинговую фирму Analysis Group, чтобы установить новую ставку комиссии за покупки. Та провела исследование и установила, что нижним пределом диапазона возможных ставок является комиссия в 12,3 %. Судья поинтересовалась, как Apple обосновывает остальные 15 %.
По словам Оливера, эта сумма складывается из пакета услуг для разработчиков: рекомендация приложений, их распространение, инструменты для разработки и технологии платформы; а также из конфиденциальности, доверия и безопасности пользователей, с которыми не сравнятся возможности других платформ. По собственным оценкам Apple, истинный нижний предел составляет 17 %, уточнил Оливер. Analysis Group проводила оценку, сравнивая ставку Apple с комиссиями, которые на своих платформах взимают Microsoft, Google, Etsy и Shopify. В результате консалтинговая фирма предложила ставку в диапазоне от 12,3 % до 92 % в зависимости от масштабов разработчика.
«И вы берёте 27 %», — вмешалась судья."
https://3dnews.ru/1105027/apple-predlogila-vzimat-27-ot-plategey-za-predelami-app-store-no-amerikanskiy-sud-eto-ne-ustroilo
Интересно, приведут ли огрызков в чувство?
"Предложенная компанией ставка комиссии в 27 % за платежи вне App Store вызвала у судьи Гонсалес-Роджерс сомнения. Старший директор по управлению бизнесом Apple Карсон Оливер (Carson Oliver) рассказал, что компания наняла консалтинговую фирму Analysis Group, чтобы установить новую ставку комиссии за покупки. Та провела исследование и установила, что нижним пределом диапазона возможных ставок является комиссия в 12,3 %. Судья поинтересовалась, как Apple обосновывает остальные 15 %.
По словам Оливера, эта сумма складывается из пакета услуг для разработчиков: рекомендация приложений, их распространение, инструменты для разработки и технологии платформы; а также из конфиденциальности, доверия и безопасности пользователей, с которыми не сравнятся возможности других платформ. По собственным оценкам Apple, истинный нижний предел составляет 17 %, уточнил Оливер. Analysis Group проводила оценку, сравнивая ставку Apple с комиссиями, которые на своих платформах взимают Microsoft, Google, Etsy и Shopify. В результате консалтинговая фирма предложила ставку в диапазоне от 12,3 % до 92 % в зависимости от масштабов разработчика.
«И вы берёте 27 %», — вмешалась судья."
https://3dnews.ru/1105027/apple-predlogila-vzimat-27-ot-plategey-za-predelami-app-store-no-amerikanskiy-sud-eto-ne-ustroilo
3DNews - Daily Digital Digest
Apple настаивает на обоснованности комиссии в 27 % за платежи вне App Store — суд в этом сомневается
Старший вице-президент по маркетингу Apple Филип Шиллер (Philip Schiller) заявил американскому судье, что комиссия в размере 27 % за покупки в приложениях, совершаемые за пределами App Store, — это добросовестная попытка компании обеспечить соблюдение закона…
#wisdom
Don’t judge each day by the harvest you reap but by the seeds that you plant.
—Robert Louis Stevenson
Don’t judge each day by the harvest you reap but by the seeds that you plant.
—Robert Louis Stevenson
👍2