Scale Amazon QuickSight embedded analytics with new API-based domain allow listing
Read: https://aws.amazon.com/blogs/big-data/scale-amazon-quicksight-embedded-analytics-with-new-api-based-domain-allow-listing/
Read: https://aws.amazon.com/blogs/big-data/scale-amazon-quicksight-embedded-analytics-with-new-api-based-domain-allow-listing/
👍2
IDC: Oracle Analytics is a leader in U.S. Business Intelligence and Analytics
Oracle Analytics has been recognized as a Leader in the ‘IDC MarketScape: U.S. Business Intelligence and Analytics Platforms 2022 Vendor Assessment’ report.
Read: https://blogs.oracle.com/analytics/post/idc-oracle-analytics-leader-in-us-business-intelligence-and-analytics-marketscape
Oracle Analytics has been recognized as a Leader in the ‘IDC MarketScape: U.S. Business Intelligence and Analytics Platforms 2022 Vendor Assessment’ report.
Read: https://blogs.oracle.com/analytics/post/idc-oracle-analytics-leader-in-us-business-intelligence-and-analytics-marketscape
👍2
Как собрать платформу обработки данных «своими руками»?
Большое количество российских компаний столкнулись с ограничениями в области ПО. Они теперь не имеют возможности использовать многие важные инструменты для работы с данными. Но, как говорится, одна дверь закрылась — другая открылась. Альтернатива зарубежным решениям есть: платформу обработки данных можно создать своими силами. Расскажем, как мы в ITSumma это сделали, какие компоненты использовали, с какими ограничениями столкнулись и зачем вообще всё это нужно.
Предыстория (очень короткая)
Один заказчик, который заинтересовался нашими компетенциям в построении инфраструктур, предложил крупный интеграционный проект. Архитекторы клиента придумали сложную и большую платформу, которая включала в себя машинное обучение, обработку данных и управлялась с помощью Kubernetes. Нам поставили задачу реализовать проект платформы, настроить связность элементов, построить и запустить инфраструктуру в эксплуатацию.
В итоге всё прошло хорошо и заказчик доволен. А у нас возникла идея скомпоновать свою платформу — такую, чтобы она была доступной не только большому бизнесу, но и компаниям среднего и малого масштаба. То есть сделать так, чтобы можно было получать большие возможности и не платить при этом огромные деньги.
Читать: https://habr.com/ru/post/679516/
Большое количество российских компаний столкнулись с ограничениями в области ПО. Они теперь не имеют возможности использовать многие важные инструменты для работы с данными. Но, как говорится, одна дверь закрылась — другая открылась. Альтернатива зарубежным решениям есть: платформу обработки данных можно создать своими силами. Расскажем, как мы в ITSumma это сделали, какие компоненты использовали, с какими ограничениями столкнулись и зачем вообще всё это нужно.
Предыстория (очень короткая)
Один заказчик, который заинтересовался нашими компетенциям в построении инфраструктур, предложил крупный интеграционный проект. Архитекторы клиента придумали сложную и большую платформу, которая включала в себя машинное обучение, обработку данных и управлялась с помощью Kubernetes. Нам поставили задачу реализовать проект платформы, настроить связность элементов, построить и запустить инфраструктуру в эксплуатацию.
В итоге всё прошло хорошо и заказчик доволен. А у нас возникла идея скомпоновать свою платформу — такую, чтобы она была доступной не только большому бизнесу, но и компаниям среднего и малого масштаба. То есть сделать так, чтобы можно было получать большие возможности и не платить при этом огромные деньги.
Читать: https://habr.com/ru/post/679516/
👍2
[recovery mode] Build vs buy: покупать софт у вендора или разрабатывать собственное IT-решение?
Купить готовое ПО или разрабатывать самим – один из острых вопросов перед компаниями в эпоху цифровизации. Решение, как правило, зависит от объема ресурсов, которые предприятие готово вложить в это дело, от сроков решения задачи, специфики управления компанией и корпоративных компетенций, которыми она обладает.
Однозначного ответа на вопрос, что окажется быстрее и дешевле, нет: каждый из путей предполагает большое количество подводных камней и факторов, влияющих на конечный результат. Важна разумная комбинация с учётом внешнего и внутреннего контекстов. В этой статье порассуждаем о том, как её достичь.
Читать: https://habr.com/ru/post/679526/
Купить готовое ПО или разрабатывать самим – один из острых вопросов перед компаниями в эпоху цифровизации. Решение, как правило, зависит от объема ресурсов, которые предприятие готово вложить в это дело, от сроков решения задачи, специфики управления компанией и корпоративных компетенций, которыми она обладает.
Однозначного ответа на вопрос, что окажется быстрее и дешевле, нет: каждый из путей предполагает большое количество подводных камней и факторов, влияющих на конечный результат. Важна разумная комбинация с учётом внешнего и внутреннего контекстов. В этой статье порассуждаем о том, как её достичь.
Читать: https://habr.com/ru/post/679526/
👍2
Как мы выстроили процесс собеседований в DS
Всем привет! Я Жека Никитин, Head of AI в медтех-стартапе «Цельс».
Сегодня хочу рассказать вам, как у нас устроен процесс собеседований, почему были приняты те или иные решения,какие сохранились слабые места и как мы с этим боремся.
Читать: https://habr.com/ru/post/679550/
Всем привет! Я Жека Никитин, Head of AI в медтех-стартапе «Цельс».
Сегодня хочу рассказать вам, как у нас устроен процесс собеседований, почему были приняты те или иные решения,какие сохранились слабые места и как мы с этим боремся.
Читать: https://habr.com/ru/post/679550/
👍2
Хранение данных, опыт Oxygen: профессиональные СХД становятся еще более востребованными
Проблема эффективного хранения данных стоит сегодня перед многими компаниями, и поэтому сегодня я подготовил текст о том, как именно мы решаем задачу хранения в облаке Oxygen. В этом посте речь пойдет о преимуществах виртуализации хранилищ NetApp, о том, что дают нам СХД Huawei, как организовано подключение пользователей к виртуальному хранилищу облака Oxygen. Также мы рассмотрим несколько примеров, когда преимущества профессиональных СХД остаются неоспоримыми.
Читать: https://habr.com/ru/post/679574/
Проблема эффективного хранения данных стоит сегодня перед многими компаниями, и поэтому сегодня я подготовил текст о том, как именно мы решаем задачу хранения в облаке Oxygen. В этом посте речь пойдет о преимуществах виртуализации хранилищ NetApp, о том, что дают нам СХД Huawei, как организовано подключение пользователей к виртуальному хранилищу облака Oxygen. Также мы рассмотрим несколько примеров, когда преимущества профессиональных СХД остаются неоспоримыми.
Читать: https://habr.com/ru/post/679574/
👍2
Как мы в Brand Analytics разработали Детектор сбоев и как вы можете помочь его улучшить
Привет, Хабр! Мы тут решили выйти из тени, на этот раз по-настоящему, технически, без маркетинговых текстов. А раз без маркетинга, то почитать про сам Brand Analytics можно на сайте или очень кратко под катом.
Меня зовут Островский Григорий, я CTO Brand Analytics. Сегодня расскажу, как за 4 недели мы запускали Детектор сбоев взамен ушедшему из рунета Downdetector: на какие задачки напоролись, как с ними боролись и как пришла идея — дать возможность сообществу улучшить определение сбоев на больших данных в нашем первом контесте.
Так как статью пишу здесь впервые, буду крайне признателен фидбеку, чтобы понять, на чём сделать больше акцент, нужно ли больше технических подробностей, какие темы остались не раскрыты и что ещё подкорректировать на будущее.
Читать: https://habr.com/ru/post/679580/
Привет, Хабр! Мы тут решили выйти из тени, на этот раз по-настоящему, технически, без маркетинговых текстов. А раз без маркетинга, то почитать про сам Brand Analytics можно на сайте или очень кратко под катом.
Меня зовут Островский Григорий, я CTO Brand Analytics. Сегодня расскажу, как за 4 недели мы запускали Детектор сбоев взамен ушедшему из рунета Downdetector: на какие задачки напоролись, как с ними боролись и как пришла идея — дать возможность сообществу улучшить определение сбоев на больших данных в нашем первом контесте.
Так как статью пишу здесь впервые, буду крайне признателен фидбеку, чтобы понять, на чём сделать больше акцент, нужно ли больше технических подробностей, какие темы остались не раскрыты и что ещё подкорректировать на будущее.
Читать: https://habr.com/ru/post/679580/
Accelerate your data warehouse migration to Amazon Redshift – Part 6
Read: https://aws.amazon.com/blogs/big-data/part-6-accelerate-your-data-warehouse-migration-to-amazon-redshift/
Read: https://aws.amazon.com/blogs/big-data/part-6-accelerate-your-data-warehouse-migration-to-amazon-redshift/
👍3
Schedule email reports and configure threshold based-email alerts using Amazon QuickSight
Read: https://aws.amazon.com/blogs/big-data/schedule-email-reports-and-configure-threshold-based-email-alerts-using-amazon-quicksight/
Read: https://aws.amazon.com/blogs/big-data/schedule-email-reports-and-configure-threshold-based-email-alerts-using-amazon-quicksight/
👍2
Implementing Data Level Security for Oracle Analytics Using Database Proxy User and Analytics Session Variables
This article demonstrates the functionality of enabling data level security in reports in Oracle Analytics by passing the single sign-on user name to an Oracle Database proxy user.
Read: https://blogs.oracle.com/analytics/post/implementing-data-level-security-for-oracle-analytics-cloud-using-database-proxy-user-analytics-session-variable
This article demonstrates the functionality of enabling data level security in reports in Oracle Analytics by passing the single sign-on user name to an Oracle Database proxy user.
Read: https://blogs.oracle.com/analytics/post/implementing-data-level-security-for-oracle-analytics-cloud-using-database-proxy-user-analytics-session-variable
Oracle
Data Level Security for Oracle Analytics Using Database Proxy User and Analytics Session Variables
This article demonstrates the functionality of enabling data level security for reports in Oracle Analytics by passing the single sign-on user name to an Oracle Database proxy user.
👍2
Глубокое погружение в Data Quality
Забота о качестве данных часто кажется малопривлекательной, но, по иронии, именно на нее мы тратим большую часть времени. Возможно, Data Quality — важнейший компонент пайплайна данных, ведь дашборд и аналитика, сгенерированные на основе недостоверных и ненадежных данных, окажутся бесполезными. Команда VK Cloud Solutions перевела статью о том, что такое Data Quality на самом деле и как обеспечивать его на разных уровнях пайплайна.
Читать: https://habr.com/ru/post/674876/
Забота о качестве данных часто кажется малопривлекательной, но, по иронии, именно на нее мы тратим большую часть времени. Возможно, Data Quality — важнейший компонент пайплайна данных, ведь дашборд и аналитика, сгенерированные на основе недостоверных и ненадежных данных, окажутся бесполезными. Команда VK Cloud Solutions перевела статью о том, что такое Data Quality на самом деле и как обеспечивать его на разных уровнях пайплайна.
Читать: https://habr.com/ru/post/674876/
👍3
Подборка актуальных вакансий
— Аналитик DWH
Где: Москва, можно удалённо
Опыт: от 3 лет
— Системный аналитик
Где: Москва, можно удалённо
Опыт: от 3 лет
— Ведущий системный аналитик
Где: Москва, можно удалённо
Опыт: от 3 лет
— Главный специалист Группы сопровождения аналитических систем
Где: Москва, можно удалённо
Опыт: от 3 лет
— Аналитик в Центр Компетенций R&D
Где: Москва
Опыт: от 3 лет
— Младший инженер-аналитик SOC (1-ая линия)
Где: Краснодар
Опыт: от 1 года
#вакансии #работа
— Аналитик DWH
Где: Москва, можно удалённо
Опыт: от 3 лет
— Системный аналитик
Где: Москва, можно удалённо
Опыт: от 3 лет
— Ведущий системный аналитик
Где: Москва, можно удалённо
Опыт: от 3 лет
— Главный специалист Группы сопровождения аналитических систем
Где: Москва, можно удалённо
Опыт: от 3 лет
— Аналитик в Центр Компетенций R&D
Где: Москва
Опыт: от 3 лет
— Младший инженер-аналитик SOC (1-ая линия)
Где: Краснодар
Опыт: от 1 года
#вакансии #работа
CDP для бизнеса, или Как эффективно подружиться с клиентом
Всем привет, мы – одна из команд GlowByte, специализируемся на клиентской аналитике и автоматизации маркетинга. В этом материале мы рассмотрим класс продуктов CDP (Customer data platform) – функциональные возможности, решаемые с их помощью задачи, назовем несколько распространенных на российском рынке решений и расскажем о базовых маркетинговых коммуникациях. В этот раз не будет глубокого погружения в технику и внутреннюю архитектуру систем, поэтому материал в первую очередь будет интересен для конечных бизнес-пользователей, которые хотят получить возможность лучше узнать своих клиентов и проводить с ними более эффективные коммуникации.
Читать: https://habr.com/ru/post/679890/
Всем привет, мы – одна из команд GlowByte, специализируемся на клиентской аналитике и автоматизации маркетинга. В этом материале мы рассмотрим класс продуктов CDP (Customer data platform) – функциональные возможности, решаемые с их помощью задачи, назовем несколько распространенных на российском рынке решений и расскажем о базовых маркетинговых коммуникациях. В этот раз не будет глубокого погружения в технику и внутреннюю архитектуру систем, поэтому материал в первую очередь будет интересен для конечных бизнес-пользователей, которые хотят получить возможность лучше узнать своих клиентов и проводить с ними более эффективные коммуникации.
Читать: https://habr.com/ru/post/679890/
👍2
Use SQL queries to define Amazon Redshift datasets in AWS Glue DataBrew
Read: https://aws.amazon.com/blogs/big-data/use-sql-queries-to-define-amazon-redshift-datasets-in-aws-glue-databrew/
Read: https://aws.amazon.com/blogs/big-data/use-sql-queries-to-define-amazon-redshift-datasets-in-aws-glue-databrew/
👍2
Sportmaster Lab ищет аналитиков
В компанию нужен системный аналитик, аналитик данных, Middle Data / ML Engineer и старший аналитик 1С.
#вакансии #работа
В компанию нужен системный аналитик, аналитик данных, Middle Data / ML Engineer и старший аналитик 1С.
#вакансии #работа
Переход от Платформы работы с данными к Платформе конфиденциальных вычислений
Привет, Хабр! Меня зовут Александр, в компании oneFactor я являюсь руководителем платформенных продуктов, и одна из моих целей — это развитие платформы конфиденциальных вычислений. Именно о них мы и будем говорить в данной статье, пройдя путь по преобразованию Платформы работы с данными в Платформу конфиденциальных вычислений над данными, где основной целью является – обеспечить нераскрытие информации, загружаемой в Платформу, даже для администратора Платформы.
1 Введение
2 Статья
2.1 Поставка данных
2.2 Контроль качества данных
2.3 Обработка данных
2.4 Обеспечение конфиденциальности данных
1.1.1 Технология конфиденциальных вычислений
1.1.2 Защищенное приложение
1.1.3 Как доказать владельцу сохранность данных?
2.5 Заключение
Читать: https://habr.com/ru/post/678794/
Привет, Хабр! Меня зовут Александр, в компании oneFactor я являюсь руководителем платформенных продуктов, и одна из моих целей — это развитие платформы конфиденциальных вычислений. Именно о них мы и будем говорить в данной статье, пройдя путь по преобразованию Платформы работы с данными в Платформу конфиденциальных вычислений над данными, где основной целью является – обеспечить нераскрытие информации, загружаемой в Платформу, даже для администратора Платформы.
1 Введение
2 Статья
2.1 Поставка данных
2.2 Контроль качества данных
2.3 Обработка данных
2.4 Обеспечение конфиденциальности данных
1.1.1 Технология конфиденциальных вычислений
1.1.2 Защищенное приложение
1.1.3 Как доказать владельцу сохранность данных?
2.5 Заключение
Читать: https://habr.com/ru/post/678794/
👍2
How Epos Now modernized their data platform by building an end-to-end data lake with the AWS Data Lab
Read: https://aws.amazon.com/blogs/big-data/how-epos-now-modernized-their-data-platform-by-building-an-end-to-end-data-lake-with-the-aws-data-lab/
Read: https://aws.amazon.com/blogs/big-data/how-epos-now-modernized-their-data-platform-by-building-an-end-to-end-data-lake-with-the-aws-data-lab/
👍2
FAW–Cross Functional Subject Area Analysis & 'explain' metrics on the combined dataset
The following document describes steps, how a FAW analytics user can go about doing a cross Subject Area between two or more subject areas and also use OAC pre-built explain functionality on all the measures available on cross-subject Areas.
Read: https://blogs.oracle.com/analytics/post/cf-sa
The following document describes steps, how a FAW analytics user can go about doing a cross Subject Area between two or more subject areas and also use OAC pre-built explain functionality on all the measures available on cross-subject Areas.
Read: https://blogs.oracle.com/analytics/post/cf-sa
Oracle
Cross Functional Subject Area ERP AR CX FAW Analytics explain metrics
The following document describes how a Fusion Analytics user can create a cross-functional subject area between two or more subject areas and use the prebuilt Explain functionality of Oracle Analytics Cloud (OAC) on all the measures available on the combined…
👍2
Нейросетевой подход к кредитному скорингу на данных кредитных историй
В Альфа-Банке естественным образом накапливаются разнообразные последовательные данные: истории транзакций клиентов, кредитные истории, истории коммуникаций. Одно из двух направлений Лаборатории машинного обучения Альфа-Банка занимается построением нейросетевых моделей на таких данных для решения разных задач. Одна из них — задача кредитного скоринга. Любой прирост в качестве скоринга платежеспособности клиентов на входе может быстро принести большой прирост в прибыли на выходе за счет увеличения числа выдач при неизменном риске.
Мы уже рассказывали о построении моделей на последовательностях карточных транзакций и транзакций расчетного счета для решения задачи кредитного скоринга. В обоих случаях вместо классических подходов – логистической регрессии и градиентного бустинга – использовались настоящие «черные ящики»: рекуррентные нейронные сети. Теперь же мы хотим рассказать о применении этого неклассического подхода на другом источнике данных – кредитных историях.
Появление модели на данных КИ стало переломной точкой, когда совокупный вес нейронок на последовательных данных при принятии решений превысил вес бустинговой модели на табличных данных. В этой статье мы опустим некоторые технические детали, о которых уже рассказывали в предыдущих. Вместо этого расскажем, как звучала постановка задачи, какие данные использовали, какие применяли модели, с какими сложностями столкнулись и как с ними справились. От этого рассказ, может быть, станет чуть менее техническим, но при этом не менее интересным.
Читать: https://habr.com/ru/post/680346/
В Альфа-Банке естественным образом накапливаются разнообразные последовательные данные: истории транзакций клиентов, кредитные истории, истории коммуникаций. Одно из двух направлений Лаборатории машинного обучения Альфа-Банка занимается построением нейросетевых моделей на таких данных для решения разных задач. Одна из них — задача кредитного скоринга. Любой прирост в качестве скоринга платежеспособности клиентов на входе может быстро принести большой прирост в прибыли на выходе за счет увеличения числа выдач при неизменном риске.
Мы уже рассказывали о построении моделей на последовательностях карточных транзакций и транзакций расчетного счета для решения задачи кредитного скоринга. В обоих случаях вместо классических подходов – логистической регрессии и градиентного бустинга – использовались настоящие «черные ящики»: рекуррентные нейронные сети. Теперь же мы хотим рассказать о применении этого неклассического подхода на другом источнике данных – кредитных историях.
Появление модели на данных КИ стало переломной точкой, когда совокупный вес нейронок на последовательных данных при принятии решений превысил вес бустинговой модели на табличных данных. В этой статье мы опустим некоторые технические детали, о которых уже рассказывали в предыдущих. Вместо этого расскажем, как звучала постановка задачи, какие данные использовали, какие применяли модели, с какими сложностями столкнулись и как с ними справились. От этого рассказ, может быть, станет чуть менее техническим, но при этом не менее интересным.
Читать: https://habr.com/ru/post/680346/
👍3
11 августа состоится Alfa Data Science MeetUp в стиле кибер-футуризма
Если вы в Москве, регистрируйтесь на сайте и приезжайте в офис Альфа-Банка по адресу: проспект Андропова 18, корп. 6. Также есть возможность подключиться к онлайн трансляции.
Темы и спикеры:
— Развитие клиентской базы: моделирование LTV и прогноз будущих доходов. Спикер: Сергей Королёв, Middle Data Scientist Альфа-Банк.
— Uplift-моделирование в ценообразовании кредитных продуктов. Спикер: Максим Коматовский, Junior Data Scientist Альфа-Банк.
— Совершенный код расчёт. Спикер: Максим Cтаценко, Team Lead/Senior DWH Developer в Яндекс.
— Побеждаем смещение распределения в задаче нейросетевого кредитного скоринга. Спикер: Алексей Фирстов, Senior Data Scientist Альфа-Банк.
Мероприятие пройдет в необычном формате. У вас будет время вспомнить «Бегущего по лезвию» или «Cyberpunk 2077», вдохновиться, поучаствовать в конкурсе и получить призы за креативность.
Регистрируйтесь на сайте, приходите в гости, будет интересно!
#ивент
Если вы в Москве, регистрируйтесь на сайте и приезжайте в офис Альфа-Банка по адресу: проспект Андропова 18, корп. 6. Также есть возможность подключиться к онлайн трансляции.
Темы и спикеры:
— Развитие клиентской базы: моделирование LTV и прогноз будущих доходов. Спикер: Сергей Королёв, Middle Data Scientist Альфа-Банк.
— Uplift-моделирование в ценообразовании кредитных продуктов. Спикер: Максим Коматовский, Junior Data Scientist Альфа-Банк.
— Совершенный
— Побеждаем смещение распределения в задаче нейросетевого кредитного скоринга. Спикер: Алексей Фирстов, Senior Data Scientist Альфа-Банк.
Мероприятие пройдет в необычном формате. У вас будет время вспомнить «Бегущего по лезвию» или «Cyberpunk 2077», вдохновиться, поучаствовать в конкурсе и получить призы за креативность.
Регистрируйтесь на сайте, приходите в гости, будет интересно!
#ивент
👍3