#вакансия #москва #snowflake #dataengineer
Крутая вакансия и солидное вознаграждение!🔥
Архитектор данных (Snowflake❄️) в «ФИНАМ» (крупнейший брокер Восточной Европы).
Мы ищем сотрудника, который организует автоматизированный сбор данных из различных источников в единое централизованное хранилище Snowflake. Опыт работы со Snowflake – обязателен.
Локация - Москва, гибридный формат работы (удаленно и в офисе)
Компенсация по вакансии обсуждается индивидуально – от 300К+ net.
Отклики и вопросы в @baibakova или ebaybakova@corp.finam.ru
PS как обычно хорошо поддержали vsevsevmeste☺️
Крутая вакансия и солидное вознаграждение!🔥
Архитектор данных (Snowflake❄️) в «ФИНАМ» (крупнейший брокер Восточной Европы).
Мы ищем сотрудника, который организует автоматизированный сбор данных из различных источников в единое централизованное хранилище Snowflake. Опыт работы со Snowflake – обязателен.
Локация - Москва, гибридный формат работы (удаленно и в офисе)
Компенсация по вакансии обсуждается индивидуально – от 300К+ net.
Отклики и вопросы в @baibakova или ebaybakova@corp.finam.ru
PS как обычно хорошо поддержали vsevsevmeste☺️
По вакансии выше, хочу добавить от себя. Я пообщался с ними, и возможно можно добавить, что важен следующий опыт:
- опыт с AWS или Azure или сертификация Solution Architect, ну или опыт, чтобы можно было создать решение в облаке, обеспечить безопасность, настройки сети и тп
- понимание как работать с DW и ELT в облаке, например опыт с Redshift/BigQuery/Synapse и Glue/Data Factory
- знать как развернуть BI и подключить все это дело вместе (end to end ELT, DW, BI)
- понимать как построить DW с точки зрения создания модели данных
- инструменты обеспечения качества данных и документации
- умение использовать элементы DevOps для кода (CI/CD, Git)
То есть опыт со Snowflake это хорошо, но сам продукт не сложный, важно знать принципы создания облачного решения по аналитики и иметь подходящий опыт. Про Python я тоже особо ничего не сказал, так как можно и без него обойтись, например использовать dbt (будет шикарно и на SQL + CI/CD).
- опыт с AWS или Azure или сертификация Solution Architect, ну или опыт, чтобы можно было создать решение в облаке, обеспечить безопасность, настройки сети и тп
- понимание как работать с DW и ELT в облаке, например опыт с Redshift/BigQuery/Synapse и Glue/Data Factory
- знать как развернуть BI и подключить все это дело вместе (end to end ELT, DW, BI)
- понимать как построить DW с точки зрения создания модели данных
- инструменты обеспечения качества данных и документации
- умение использовать элементы DevOps для кода (CI/CD, Git)
То есть опыт со Snowflake это хорошо, но сам продукт не сложный, важно знать принципы создания облачного решения по аналитики и иметь подходящий опыт. Про Python я тоже особо ничего не сказал, так как можно и без него обойтись, например использовать dbt (будет шикарно и на SQL + CI/CD).
А вот и видео новое по курсу ML&DS 101 от Анастасии Риццо.
В этом уроке мы:
1) Пройдем весь Exploratory Data Analysis, который включает в себя:
📌 Denoscriptive Statistic
📌 Observation of target variable
📌 Missing Data
📌 Numerical and Categorical features
2) Рассмотрим Data Wrangling and Transformation:
📌 Multicollinearity
📌 Standard Scaler
📌 Creating datasets for ML part
📌 'Train\Test' splitting method
https://youtu.be/S-ZBb4yvxAQ
В этом уроке мы:
1) Пройдем весь Exploratory Data Analysis, который включает в себя:
📌 Denoscriptive Statistic
📌 Observation of target variable
📌 Missing Data
📌 Numerical and Categorical features
2) Рассмотрим Data Wrangling and Transformation:
📌 Multicollinearity
📌 Standard Scaler
📌 Creating datasets for ML part
📌 'Train\Test' splitting method
https://youtu.be/S-ZBb4yvxAQ
YouTube
ML-101 | Module 01 | Lesson 03 | EDA, Data Wrangling and Transformation | Anastasia Rizzo
Курс Getting Started with Machine Learning and Data Science (ML-101).
В этом уроке мы:
1) Пройдем весь Exploratory Data Analysis, который включает в себя:
📌 Denoscriptive Statistic
📌 Observation of target variable
📌 …
В этом уроке мы:
1) Пройдем весь Exploratory Data Analysis, который включает в себя:
📌 Denoscriptive Statistic
📌 Observation of target variable
📌 …
А вот новый урок по курсу Job Hunting 101 от Анастасии Дробышевой!
- 3 основных составляющих цели, полезных для резюме;
- 2 дополнительных составляющих цели;
- причём тут популярная марка автомобиля.
https://youtu.be/_vd69ekKwk4
- 3 основных составляющих цели, полезных для резюме;
- 2 дополнительных составляющих цели;
- причём тут популярная марка автомобиля.
https://youtu.be/_vd69ekKwk4
YouTube
DATALEARN | JOB HUNTING - 101 | АНАСТАСИЯ ДРОБЫШЕВА | УРОК 1-2 | ПОСТАНОВКА ЦЕЛИ
Курс "Поиск работы для аналитических специальностей в России и за рубежом". Модуль JH 1-2. Стратегия поиска работы. Постановка цели.
Что обсуждаем в этом видео:
- 3 основных составляющих цели, полезных для резюме;
- 2 дополнительных составляющих цели;
…
Что обсуждаем в этом видео:
- 3 основных составляющих цели, полезных для резюме;
- 2 дополнительных составляющих цели;
…
Классная статья про галстуки. Мне нравятся галстуки, потому что я одеваю его раз в год. А вот когда заставляют носить его, это уже перебор. С работой из дома дресс код совсем пропал. У меня была одна история в Канаде, когда я только приехал в Виннипег и устроился в страховую Sr BI developer, я не очень сработался с коллегами женского пола, потому что я не знал про особенности и имел опыт несколько раз неудачно пошутить… Один раз меня вызвали к начальнику, за то что я был в темных джинсах а не штанах, кто-то доложил куда следует. Хотя мы работали в кубиках, меньше вообще не видно было. И я там бегал как будто в стартапе работал (за это тоже я не очень им подходил). И он меня отправил домой пересевать штаны! Смех сквозь слезы)) Зимой в -30 на 2х автобусах домой и обратно. За что я им чрезмерно благодарен, так я попал в Амазон.
Virgin
New Zealand says bye to the tie
After Rawiri Waititi was thrown out of Parliament, the country has removed its archaic requirement for members to wear ties.
Ну можно считать Mission completed! Присягнули королеве👸 и стали Канадцами🇨🇦 (онлайн). Хорошо, что РФ позволяет иметь два гражданство. От идеи до реализации где-то 7 лет. Если еще не читали, на хабре было про переезд в Канадуl
Интересная статья от бывшего коллеги из Черногории “I AM A PROFESSIONAL IMPOSTOR”. Как раз как мы любим - fake it till you make it😜
PS Imposter - самозванец.
PS Imposter - самозванец.
Инверсная статья про сравнения Amazon и Microsoft. https://vc.ru/hr/207322-amazon-protiv-microsoft-otlichiya-intervyu-v-it-gigantah
vc.ru
Amazon против Microsoft: отличия интервью в ИТ-гигантах — Карьера на vc.ru
Павел Доронин прошел путь от аналитика до менеджера по продукту, а некоторое время назад переехал в Дублин и решил развивать карьеру дальше. Но схема поиска вакансий была непохожа на прежние.
Пример текущей задачки по Databricks, которую не знал как решить, но потом осилил и сам написал ответ на свой вопрос). https://stackoverflow.com/questions/66107803/azure-databricks-external-hive-metastore/66128066#66128066
Stack Overflow
Azure Databricks external Hive Metastore
I checked the [documentation][1] about usage of Azure Databricks external Hive Metastore (Azure SQL database).
I was able to download jars and place them into /dbfs/hive_metastore_jar
My next step ...
I was able to download jars and place them into /dbfs/hive_metastore_jar
My next step ...
Kaggle State of Machine Learning and Data Science 2020.pdf
14 MB
Kaggle State of Machine Learning and Data Science 2020
Метрики наших сообществ:
- 2000 человек в нашем Slack DataLearn, и видно как все больше людей начинают активно общаться и решать рабочие вопросы
- 6000 человек в телеграм канале (вчера перевалило)
- 60000 рублей собрали на благотворительность
- 3 активных курса (DE-101,JH-101,DS&ML-101)
- 2 курса в разработке (SQL-101, DevOps для Data Engineering)
- 16 вебинаров с экспертами и еще много вебинаров готовиться
- 2000 человек в нашем Slack DataLearn, и видно как все больше людей начинают активно общаться и решать рабочие вопросы
- 6000 человек в телеграм канале (вчера перевалило)
- 60000 рублей собрали на благотворительность
- 3 активных курса (DE-101,JH-101,DS&ML-101)
- 2 курса в разработке (SQL-101, DevOps для Data Engineering)
- 16 вебинаров с экспертами и еще много вебинаров готовиться
В Databricks есть свой front-end (читай BI) - SQL Analytics. Но есть и еще альтернатива интересная - Dash от Plotly.
Medium
Dash is an ideal Python based front-end for your Databricks Spark Backend
📌 Learn how to deliver AI for Big Data using Dash & Databricks in a live webinar on July 28th at 1pm EDT.
Всем привет! 14 февраля - не только День святого Валентина, но и день рождения группы Power BI Group RU, самого большого русскоязычного сообщества влюбленных в Power BI в Telegram. Здесь всегда будут новости, полезные ссылки, жаркие дискуссии, но, главное, активная помощь друг другу. Присоединяйтесь!
https://news.1rj.ru/str/PBI_Rus
https://news.1rj.ru/str/PBI_Rus
Telegram
Power BI Group RU
Правила: https://news.1rj.ru/str/PBI_Rus/7 (там же ссылки на профильные группы и материалы)
(@LebedevDmitry)
(@LebedevDmitry)
Forwarded from Reveal the Data
This media is not supported in your browser
VIEW IN TELEGRAM
❤️ Make Love, Not War
Табло-валентинка от великолепного Саши Варламова, присмотритесь к его твиттеру.
Между разными BI-системами иногда ведется настоящая война, а приверженцы систем готовы защищать их довольно агрессивно. За собой такое тоже иногда замечаю =) Конечно же это булшит и разные системы лучше решают разные задачи и все они важны и хороши.
Меня очень радует как вокруг инструментов появляются комьюнити и как пользователи помогают друг другу лучше любого поиска или официального саппорта. Это просто прекрасно. Если вы пользуетесь какой-то платформой для визуализации, то присоединяйтесь к чатам, там вам всегда помогут.
— Tableau
— Power BI (у ребят сегодня ДР 🎉)
— Qlik|Qlik
— Yandex DataLens
— Google Data Studio
— Apache Superset
— Plotly
— D3.js
— Дата-виз чат
— Чат про открытые данные
— Чат про журналистику данных
А ещё, пока весь мир идёт в Клабхаус, я только сейчас решил попробовать включить комментарии, посмотрим что получится. Пишите какие ещё классные чаты про датавиз и BI я забыл.
#ссылка
Табло-валентинка от великолепного Саши Варламова, присмотритесь к его твиттеру.
Между разными BI-системами иногда ведется настоящая война, а приверженцы систем готовы защищать их довольно агрессивно. За собой такое тоже иногда замечаю =) Конечно же это булшит и разные системы лучше решают разные задачи и все они важны и хороши.
Меня очень радует как вокруг инструментов появляются комьюнити и как пользователи помогают друг другу лучше любого поиска или официального саппорта. Это просто прекрасно. Если вы пользуетесь какой-то платформой для визуализации, то присоединяйтесь к чатам, там вам всегда помогут.
— Tableau
— Power BI (у ребят сегодня ДР 🎉)
— Qlik|Qlik
— Yandex DataLens
— Google Data Studio
— Apache Superset
— Plotly
— D3.js
— Дата-виз чат
— Чат про открытые данные
— Чат про журналистику данных
А ещё, пока весь мир идёт в Клабхаус, я только сейчас решил попробовать включить комментарии, посмотрим что получится. Пишите какие ещё классные чаты про датавиз и BI я забыл.
#ссылка
Для команд аналитики очень важна налаженная коммуникация с бизнесом и другими техническими командами. Блог doordash рассказывает как они делают это эффективно.
DoorDash Engineering Blog
Effective Data Science Communication with Cross-Functional Teams
An often overlooked part of the data science process is selling the insights to business stakeholders who can take the recommended actions
Пока Илон Маск вложил 1,5 млрд от имени Теслы в Биткоин, автор черного лебедя избавляется от них. https://www.forbes.ru/newsroom/finansy-i-investicii/421127-eto-proval-avtor-chernogo-lebedya-nachal-izbavlyatsya-ot
Forbes.ru
«Это провал»: автор «Черного лебедя» начал избавляться от биткоинов
Автор книги «Черный лебедь» Нассим Талеб разочаровался в биткоинах и пообещал избавиться от них. Он считает, что из-за своей волатильности криптовалюта не сможет стать ни платежным средством, ни активом, защищающим от рисков, а проблем биткоина сейча
Я люблю статья, где есть отсылки к истории технологий и мы можем видеть “было-стало”. Вот пример - The Evolution of Precomputation Technology and its Role in Data Analytics
- Precomputation is a common technique used in information retrieval and analysis, including index, materialized view, cube and more.
-It’s a trade-off between time and space, query speed and update flexibility, online processing and offline processing.
-A few megatrends that make precomputation essential to the big data era.
-A real example of 200x acceleration of an OLAP query using different types of precomputation.
-In the near future, how AI and automation will improve precomputation and how that impacts the TCO of big data systems.
- Precomputation is a common technique used in information retrieval and analysis, including index, materialized view, cube and more.
-It’s a trade-off between time and space, query speed and update flexibility, online processing and offline processing.
-A few megatrends that make precomputation essential to the big data era.
-A real example of 200x acceleration of an OLAP query using different types of precomputation.
-In the near future, how AI and automation will improve precomputation and how that impacts the TCO of big data systems.
InfoQ
The Evolution of Precomputation Technology and its Role in Data Analytics
In this article, author Yang Li discusses the importance of precomputation techniques in databases, OLAP and data cubes, and some of the trends in using precomputation in big data analytics.