Ребята, 4 дня назад у нас прошла лекция Сергея Иванова (Париж, Критео) "Boost then Convolve: Gradient Boosting Meets Graph Neural Networks"
Cергей один из лидеров графового комьюнити в ODS и автор лучшего канала в тг по граф-мл @graphML
Видео можно посмотреть на нашем youtube канале SBERLOGA
https://youtu.be/rMNA68wLAxk
Доклад основан на работе https://openreview.net/forum?id=ebS5NUfoMKL
Графовые нейронные сети (GNN) - это мощные модели, успешно решающие различные задачи обучения графического представления. В тоже время градиентный бустинг на деревьях (GBDT) часто превосходит другие методы машинного обучения при работе с табличными данными. Но какой подход следует использовать для графов с табличными характеристиками узлов? Предыдущие модели GNN в основном фокусировались на сетях с однородными разреженными фичами и, как мы покажем, неоптимальны в гетерогенном пространстве. В этой работе мы предлагаем новую архитектуру, которая обучает GBDT и GNN совместно, чтобы получить лучшее из обоих миров: модель GBDT имеет дело с гетерогенными фичами, а GNN учитывает структуру графа. Наша модель выигрывает от сквозной оптимизации, позволяя новым деревьям соответствовать обновлениям градиента GNN. Проведя обширное экспериментальное сравнение с ведущими моделями GBDT и GNN, мы демонстрируем значительное улучшение производительности на различных графах с табличными фичами.
Приятного просмотра!
@sberloga
Cергей один из лидеров графового комьюнити в ODS и автор лучшего канала в тг по граф-мл @graphML
Видео можно посмотреть на нашем youtube канале SBERLOGA
https://youtu.be/rMNA68wLAxk
Доклад основан на работе https://openreview.net/forum?id=ebS5NUfoMKL
Графовые нейронные сети (GNN) - это мощные модели, успешно решающие различные задачи обучения графического представления. В тоже время градиентный бустинг на деревьях (GBDT) часто превосходит другие методы машинного обучения при работе с табличными данными. Но какой подход следует использовать для графов с табличными характеристиками узлов? Предыдущие модели GNN в основном фокусировались на сетях с однородными разреженными фичами и, как мы покажем, неоптимальны в гетерогенном пространстве. В этой работе мы предлагаем новую архитектуру, которая обучает GBDT и GNN совместно, чтобы получить лучшее из обоих миров: модель GBDT имеет дело с гетерогенными фичами, а GNN учитывает структуру графа. Наша модель выигрывает от сквозной оптимизации, позволяя новым деревьям соответствовать обновлениям градиента GNN. Проведя обширное экспериментальное сравнение с ведущими моделями GBDT и GNN, мы демонстрируем значительное улучшение производительности на различных графах с табличными фичами.
Приятного просмотра!
@sberloga
YouTube
Сергей Иванов (Париж, Критео) - Boost then Convolve: Gradient Boosting Meets Graph Neural Networks
Графовые нейронные сети (GNN) - это мощные модели, успешно решающие различные задачи обучения графического представления. В тоже время градиентный бустинг на деревьях (GBDT) часто превосходит другие методы машинного обучения при работе с табличными данными.…
🚀 Онлайн семинар по ML/DS от "SBERLOGA"
⌚ Четверг 11 февраля, 19.00 по Москве
👨🔬 Доклад Людмила Прохоренкова (Yandex Research)
“Графовые методы поиска ближайших соседей”
Абстракт.
Среди методов поиска ближайших соседей в последнее время стали популярны алгоритмы, основанные на графах близости. Оказалось, что в практических задачах такие методы работают лучше, чем многие давно известные и хорошо изученные подходы. Я расскажу про то, как устроен поиск на графах, как построить подходящий граф, как масштабировать поиск на очень большие датасеты, какие есть теоретические гарантии для графовых методов и еще про некоторые интересные работы в этой области.
Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogawithgraphs - присоединяйтесь.
Записи докладов на ютубе:
https://www.youtube.com/c/SBERLOGA - подписывайтесь.
PS
Будут обсуждаться в том числе следующие работы:
Graph-based nearest neighbor search: From practice to theory http://proceedings.mlr.press/v119/prokhorenkova20a/prokhorenkova20a.pdf
Efficient and robust approximate nearest neighbor search using hierarchical navigable small world graphs https://arxiv.org/ftp/arxiv/papers/1603/1603.09320.pdf
ANN-Benchmarks: A Benchmarking Tool for Approximate Nearest Neighbor Algorithms https://arxiv.org/pdf/1807.05614.pdf
Disorder Inequality: A Combinatorial Approach to Nearest Neighbor Search http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.116.2680&rep=rep1&type=pdf
Improving Approximate Nearest Neighbor Search through Learned Adaptive Early Termination https://conglongli.github.io/paper/ann-sigmod2020.pdf
⌚ Четверг 11 февраля, 19.00 по Москве
👨🔬 Доклад Людмила Прохоренкова (Yandex Research)
“Графовые методы поиска ближайших соседей”
Абстракт.
Среди методов поиска ближайших соседей в последнее время стали популярны алгоритмы, основанные на графах близости. Оказалось, что в практических задачах такие методы работают лучше, чем многие давно известные и хорошо изученные подходы. Я расскажу про то, как устроен поиск на графах, как построить подходящий граф, как масштабировать поиск на очень большие датасеты, какие есть теоретические гарантии для графовых методов и еще про некоторые интересные работы в этой области.
Ссылка на зум будет доступна ближе к началу доклада через чат @sberlogawithgraphs - присоединяйтесь.
Записи докладов на ютубе:
https://www.youtube.com/c/SBERLOGA - подписывайтесь.
PS
Будут обсуждаться в том числе следующие работы:
Graph-based nearest neighbor search: From practice to theory http://proceedings.mlr.press/v119/prokhorenkova20a/prokhorenkova20a.pdf
Efficient and robust approximate nearest neighbor search using hierarchical navigable small world graphs https://arxiv.org/ftp/arxiv/papers/1603/1603.09320.pdf
ANN-Benchmarks: A Benchmarking Tool for Approximate Nearest Neighbor Algorithms https://arxiv.org/pdf/1807.05614.pdf
Disorder Inequality: A Combinatorial Approach to Nearest Neighbor Search http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.116.2680&rep=rep1&type=pdf
Improving Approximate Nearest Neighbor Search through Learned Adaptive Early Termination https://conglongli.github.io/paper/ann-sigmod2020.pdf
Ребята,
Выложили видео с прошедшего семинара 11 февраля “Графовые методы поиска ближайших соседей” от Людмила Прохоренкова (Yandex Research)
Материалы
Приятного просмотра!
@sberloga
Выложили видео с прошедшего семинара 11 февраля “Графовые методы поиска ближайших соседей” от Людмила Прохоренкова (Yandex Research)
Материалы
Приятного просмотра!
@sberloga
YouTube
Людмила Прохоренкова (Yandex Research) - Графовые методы поиска ближайших соседей
Среди методов поиска ближайших соседей в последнее время стали популярны алгоритмы, основанные на графах близости. Оказалось, что в практических задачах такие методы работают лучше, чем многие давно известные и хорошо изученные подходы. Я расскажу про то…
🚀 Онлайн семинар по ML/DS от "SBERLOGA"
⌚️ Четверг 18 февраля, 19.00 по Москве
👨🔬 "Jounral club (Short talk club)" Семинар с несколькими короткими (10-15 минут) докладами.
Богдан Салып
"Удачные и неудачные попытки удержать GPT" LogitProcessors в HuggingFace, форсированная генерация слов, GPT+NER, GPT+USE, настройка датасета под ключевые слова и куда двигаться дальше
Глеб Ерофеев (Lead ML Sbermarket)
"ML Хакатон-страйк"
Поделиться опытом как преуспеть в хакатонах.
Никита Варганов, Юрий Барамыков (Сбер)
Это команда Optimization Guys. Мы расскажем про наш опыт участия в хакатоне от ODS. Наша команда разрабатывала AutoML for dummies - AutoML решение для людей, которые не умеют программировать и вообще не разбираются в анализе данных. Юра расскажет про команду и процесс написания AutoML, а Никита расскажет про фреймворк streamlit - простейшее решение для создания web-приложений для работы с данными.
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogadataclub
Записи докладов смотрите на ютубе канале SBERLOGA
Приятного просмотра!
@sberloga
⌚️ Четверг 18 февраля, 19.00 по Москве
👨🔬 "Jounral club (Short talk club)" Семинар с несколькими короткими (10-15 минут) докладами.
Богдан Салып
"Удачные и неудачные попытки удержать GPT" LogitProcessors в HuggingFace, форсированная генерация слов, GPT+NER, GPT+USE, настройка датасета под ключевые слова и куда двигаться дальше
Глеб Ерофеев (Lead ML Sbermarket)
"ML Хакатон-страйк"
Поделиться опытом как преуспеть в хакатонах.
Никита Варганов, Юрий Барамыков (Сбер)
Это команда Optimization Guys. Мы расскажем про наш опыт участия в хакатоне от ODS. Наша команда разрабатывала AutoML for dummies - AutoML решение для людей, которые не умеют программировать и вообще не разбираются в анализе данных. Юра расскажет про команду и процесс написания AutoML, а Никита расскажет про фреймворк streamlit - простейшее решение для создания web-приложений для работы с данными.
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogadataclub
Записи докладов смотрите на ютубе канале SBERLOGA
Приятного просмотра!
@sberloga
Сегодня 22.02.2021 , в 19:00 по Москве продолжаем смотреть и обсуждать Лекцию #3 KnowledgeGraph-курса. Будут обсуждаться - B-tree, B+tree, LSM-tree - для организации хранения графовых бд.
Ссылка на зума, как обычно, будет в чате @kg_course перед началом.
Напомним кратко прошедшую часть лекции. Она была посвящена SPARQL - языку запросов к графовым бд. Это не так сложно - взгляните на примеры:
Наиболее доступный и известный всем граф знаний - Wikidata - уже содержит 12 098 892 788 ребер (="триплетов", = "фактов"). По ссылке https://query.wikidata.org/ вы можете прямо сейчас написать запрос и получить ответ. Обратите внимание на вкладку EXAMPLES - примеры запросов на все случае жизни. Хотите найти лекарства, которые воздействуют на гены связанные с пролиферацией в клетке ? Смотрите в EXAMPLES.
ПС
Видео записей смотрите на нашем Ютуб канале SBERLOGA
Ссылка на зума, как обычно, будет в чате @kg_course перед началом.
Напомним кратко прошедшую часть лекции. Она была посвящена SPARQL - языку запросов к графовым бд. Это не так сложно - взгляните на примеры:
SELECT ?s WHERE { ?s :knows ?Alice .}
# найти всех кто знает Алису
select (count(*) as ?num) where {?s ?p ?o}
# Найти количество триплетов (ребер) в графе знаний
Наиболее доступный и известный всем граф знаний - Wikidata - уже содержит 12 098 892 788 ребер (="триплетов", = "фактов"). По ссылке https://query.wikidata.org/ вы можете прямо сейчас написать запрос и получить ответ. Обратите внимание на вкладку EXAMPLES - примеры запросов на все случае жизни. Хотите найти лекарства, которые воздействуют на гены связанные с пролиферацией в клетке ? Смотрите в EXAMPLES.
ПС
Видео записей смотрите на нашем Ютуб канале SBERLOGA
🚀 Онлайн семинар по ML/DS от "SBERLOGA"
⌚️ Четверг 25 февраля, 19.00 по Москве
👨🔬 "Машинное обучение и анализ мутаций SNP" Валерий Хаменя (@khamenya), Михаил Косарецкий (@cappelchi).
Первая часть обсуждения - Машинное обучение и анализ мутаций SNP
Ребята нам расскажут:
1️⃣ Как подступиться к файлам со снипами
2️⃣ Как из OHE-тензора строить иерархический остов вероятностного графа для снипов — @ostroumovala
3️⃣ Как сделать нечто любопытное ещё до того, как у нас готов граф. Например, нащупать супер-хабы — локус-варианты, которые вероятностно связаны почти с каждым четвёртым локус-вариантом.
❤️ Самое главное: ищем кто хотел бы поучаствовать. У нас не хватает ни рук, ни времени. Мы очень надеемся, что появятся новые участники в этой дискуссии! Вам будут особенно рады если вы спец по оптимизации простых алгебраических тензорных операций для GPU/TPU + PyTorch/Tensorflow.
💌 Если есть какие-то вопросы/пожелания, то можно обращаться в личку к @cappelchi и @khamenya до и после доклада!
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogabio
Записи докладов смотрите на ютубе канале SBERLOGA
⌚️ Четверг 25 февраля, 19.00 по Москве
👨🔬 "Машинное обучение и анализ мутаций SNP" Валерий Хаменя (@khamenya), Михаил Косарецкий (@cappelchi).
Первая часть обсуждения - Машинное обучение и анализ мутаций SNP
Ребята нам расскажут:
1️⃣ Как подступиться к файлам со снипами
*.vcf и получать из них тензор. Акцент будет на очень важном one-hot-encoded (OHE) представлении для снипов. Без такого тензора считать условные вероятности будет очень тяжело.2️⃣ Как из OHE-тензора строить иерархический остов вероятностного графа для снипов — @ostroumovala
3️⃣ Как сделать нечто любопытное ещё до того, как у нас готов граф. Например, нащупать супер-хабы — локус-варианты, которые вероятностно связаны почти с каждым четвёртым локус-вариантом.
❤️ Самое главное: ищем кто хотел бы поучаствовать. У нас не хватает ни рук, ни времени. Мы очень надеемся, что появятся новые участники в этой дискуссии! Вам будут особенно рады если вы спец по оптимизации простых алгебраических тензорных операций для GPU/TPU + PyTorch/Tensorflow.
💌 Если есть какие-то вопросы/пожелания, то можно обращаться в личку к @cappelchi и @khamenya до и после доклада!
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogabio
Записи докладов смотрите на ютубе канале SBERLOGA
🔥Ребята,
Выложили видео с прошедшего семинара 18 февраля
1️⃣ Никита Варганов, Юрий Барамыков (Сбер)
"CraftML - AutoML for dummies"
Это команда Optimization Guys. Мы расскажем про наш опыт участия в хакатоне от ODS. Наша команда разрабатывала AutoML for dummies - AutoML решение для людей, которые не умеют программировать и вообще не разбираются в анализе данных. Юра расскажет про команду и процесс написания AutoML, а Никита расскажет про фреймворк streamlit - простейшее решение для создания web-приложений для работы с данными.
https://youtu.be/U1LU_HzeMd0
2️⃣ Глеб Ерофеев (Lead ML Sbermarket)
"ML Хакатон-страйк"
Поделиться опытом как преуспеть в хакатонах.
https://youtu.be/3ge3LvTR2Eg
3️⃣ Богдан Салып
"Удачные и неудачные попытки удержать GPT" LogitProcessors в HuggingFace, форсированная генерация слов, GPT+NER, GPT+USE, настройка датасета под ключевые слова и куда двигаться дальше
https://youtu.be/lM6a9e1t-mA
Приятного просмотра!
@sberloga
Выложили видео с прошедшего семинара 18 февраля
1️⃣ Никита Варганов, Юрий Барамыков (Сбер)
"CraftML - AutoML for dummies"
Это команда Optimization Guys. Мы расскажем про наш опыт участия в хакатоне от ODS. Наша команда разрабатывала AutoML for dummies - AutoML решение для людей, которые не умеют программировать и вообще не разбираются в анализе данных. Юра расскажет про команду и процесс написания AutoML, а Никита расскажет про фреймворк streamlit - простейшее решение для создания web-приложений для работы с данными.
https://youtu.be/U1LU_HzeMd0
2️⃣ Глеб Ерофеев (Lead ML Sbermarket)
"ML Хакатон-страйк"
Поделиться опытом как преуспеть в хакатонах.
https://youtu.be/3ge3LvTR2Eg
3️⃣ Богдан Салып
"Удачные и неудачные попытки удержать GPT" LogitProcessors в HuggingFace, форсированная генерация слов, GPT+NER, GPT+USE, настройка датасета под ключевые слова и куда двигаться дальше
https://youtu.be/lM6a9e1t-mA
Приятного просмотра!
@sberloga
YouTube
Никита Варганов, Юрий Барамыков (Сбер) - CraftML - AutoML for dummies
Команда "Optimization Guys". Ребята расскажут про их опыт участия в хакатоне от ODS. Команда разрабатывала AutoML for dummies. AutoML решение для людей, которые не умеют программировать и вообще не разбираются в анализе данных.
Юра расскажет про команду…
Юра расскажет про команду…
Ребята,
В прошлый понедельник мы подробно разбирали нюансы хранения графов знаний и рассмотрели такие базовые для хранения больших объемов информации структуры как B+дерево и LSM деревья.
Посмотреть обсуждение
А сегодня вечером приступим к разбору четвертой лекции из курса Knowledge Graphs.
В этот раз мы подступимся к процессу реификации, который заключается в описании высказываний внутри графов знаний с помощью других высказываний из этиих же графов. Реификацию можно выполнять разными способами в зависимости от внутреннего устройства графа знаний.
Вторая тема разбора - внутреннее устройство wikidata. Посмотрим на то, как организован граф, на основе которого работает значительная часть wikipedia - типы сущностей и связи между ними.
Ссылка на zoom появится в чате курса (@kg_course) и канале в ODS непосредственно перед стартом в 19:00 МСК.
В прошлый понедельник мы подробно разбирали нюансы хранения графов знаний и рассмотрели такие базовые для хранения больших объемов информации структуры как B+дерево и LSM деревья.
Посмотреть обсуждение
А сегодня вечером приступим к разбору четвертой лекции из курса Knowledge Graphs.
В этот раз мы подступимся к процессу реификации, который заключается в описании высказываний внутри графов знаний с помощью других высказываний из этиих же графов. Реификацию можно выполнять разными способами в зависимости от внутреннего устройства графа знаний.
Вторая тема разбора - внутреннее устройство wikidata. Посмотрим на то, как организован граф, на основе которого работает значительная часть wikipedia - типы сущностей и связи между ними.
Ссылка на zoom появится в чате курса (@kg_course) и канале в ODS непосредственно перед стартом в 19:00 МСК.
YouTube
Курс Knowledge Graphs - Обсуждение Лекции 3 часть 2 - B-tree, B+tree, LSM-tree
Лекция 3 часть1 "B-tree, B+tree, LSM-tree"
https://youtu.be/z7coG_7kzM8
Слайды: https://drive.google.com/file/d/1EcTeaUxgtcJWiE-FiWDn_YFPKYSTbrCj/view?usp=sharing
Конспект с ДЗ: https://migalkin.github.io/kgcourse2021/lectures/lecture3
Вначале собираемся…
https://youtu.be/z7coG_7kzM8
Слайды: https://drive.google.com/file/d/1EcTeaUxgtcJWiE-FiWDn_YFPKYSTbrCj/view?usp=sharing
Конспект с ДЗ: https://migalkin.github.io/kgcourse2021/lectures/lecture3
Вначале собираемся…
🚀 Онлайн семинар по ML/DS от "SBERLOGA"
⌚️ Четверг 4 марта, 19.00 по Москве
👨🔬 Антон Цицулин "Расстояние между графами"
Как сравнить структуру двух графов? Я расскажу про то, какие подходы существуют к сравнению графов и разберу подходы из разных семейств – графовые ядра, спектральные подходы и современные deep learning методы.
Доклад будет основан на следующих работах:
Statistics: https://arxiv.org/abs/1209.2684
Graph kernels: https://arxiv.org/abs/1903.11835
Spectral methods: https://arxiv.org/abs/1805.10712 https://arxiv.org/abs/2003.01282
Deep learning: https://arxiv.org/abs/1904.09671 https://arxiv.org/abs/1908.01000
Reviews: https://arxiv.org/abs/2008.02415 https://arxiv.org/abs/1904.07414
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogawithgraphs
Записи докладов смотрите на ютубе канале SBERLOGA
https://www.youtube.com/c/SBERLOGA
⌚️ Четверг 4 марта, 19.00 по Москве
👨🔬 Антон Цицулин "Расстояние между графами"
Как сравнить структуру двух графов? Я расскажу про то, какие подходы существуют к сравнению графов и разберу подходы из разных семейств – графовые ядра, спектральные подходы и современные deep learning методы.
Доклад будет основан на следующих работах:
Statistics: https://arxiv.org/abs/1209.2684
Graph kernels: https://arxiv.org/abs/1903.11835
Spectral methods: https://arxiv.org/abs/1805.10712 https://arxiv.org/abs/2003.01282
Deep learning: https://arxiv.org/abs/1904.09671 https://arxiv.org/abs/1908.01000
Reviews: https://arxiv.org/abs/2008.02415 https://arxiv.org/abs/1904.07414
Ссылка на зум будет доступна ближе к началу доклада в чате @sberlogawithgraphs
Записи докладов смотрите на ютубе канале SBERLOGA
https://www.youtube.com/c/SBERLOGA
arXiv.org
NetSimile: A Scalable Approach to Size-Independent Network Similarity
Given a set of k networks, possibly with different sizes and no overlaps in nodes or edges, how can we quickly assess similarity between them, without solving the node-correspondence problem?...
Ребята,
К нам тут набежали рекрутеры из Сбера и Яндекса и оставили много вкусных вакансий от Middle до Lead позиции на разные направления ML
Переходи по ссылке и попробуй себя в новой роли
@sberlogajobs
К нам тут набежали рекрутеры из Сбера и Яндекса и оставили много вкусных вакансий от Middle до Lead позиции на разные направления ML
Переходи по ссылке и попробуй себя в новой роли
@sberlogajobs
Ребята,
Позавчера случилось знаменательное событие - открытой библиотеке для обработки естественного языка DeepPavlov, 5 февраля исполнилось 3 года!
Было много интересных докладов https://deeppavlov.ai/events/3year
Трансляцию можно посмотреть тут https://youtu.be/LkvioWrgo5E
Ребята обещали в течении недели всю ее нарезать и выложить на свой канал 👍
Но а я, как человек который в очередной раз все пропустил, начну смотреть в "режиссерской" версии 😅
@sberloga
Позавчера случилось знаменательное событие - открытой библиотеке для обработки естественного языка DeepPavlov, 5 февраля исполнилось 3 года!
Было много интересных докладов https://deeppavlov.ai/events/3year
Трансляцию можно посмотреть тут https://youtu.be/LkvioWrgo5E
Ребята обещали в течении недели всю ее нарезать и выложить на свой канал 👍
Но а я, как человек который в очередной раз все пропустил, начну смотреть в "режиссерской" версии 😅
@sberloga
deeppavlov.ai
DeepPavlov 3 года
Встреча пользователей и разработчиков открытой библиотеки DeepPavlov 2021
♥️ Дорогие девушки, с прекраснным весенним праздником 8 марта !Действительно круто что все больше представительниц прекрасного пола в сфере IT и Data Science! ♥️
Мы долго пытались придумать оригинальное поздравление, и привлекли на помощь всю мощь нейронных сетей GPT3🤖
Много ждать не стоит, но повеселят они вас точно 🤣
Попытать удачу можно тут: https://yandex.ru/lab/postcard
@sberloga
Мы долго пытались придумать оригинальное поздравление, и привлекли на помощь всю мощь нейронных сетей GPT3🤖
Много ждать не стоит, но повеселят они вас точно 🤣
Попытать удачу можно тут: https://yandex.ru/lab/postcard
@sberloga
🚀 Онлайн семинар по ML/DS от @sberloga
⌚️ Четверг 11 марта, 19.00 по Москве
👨🔬 "Нейронные сети для оценки атмосферных искажений в астрофизических наблюдениях" Ирина Князева.
Мы хотим попробовать новый формат семинара, на котором можно поделиться совсем еще сырыми результатами работы над чем-то и попросить совета по возникающим вопросам.
Попробуем этот формат на астрофизической задачке вместе с Ириной Князевой и ее ребятами.
В настоящее время в Крымской астрофизической обсерватории (КрАО) ведутся работы по созданию нового солнечного спектрополяриметра на базе спектрографа Башенного солнечного телескопа (БСТ-1). Согласно поставленной цели, новый инструмент должен давать возможность проводить спектрополяриметрические наблюдения участков солнечной поверхности с пространственным разрешением порядка 1 угловой секунды и с перекрытием спектра в оптическом диапазоне в полосе 15-20 ангстрем.. Такие данные позволят определять параметры солнечной атмосферы (в т.ч. внешнее магнитное поле и продольную доплеровскую скорость плазмы) на разных высотах, которые определяются выбранными для наблюдений спектральными линиями. Задачу восстановления параметров атмосферы по этим спектральным линиям собственно мы и решаем. Форма спектральных линий может быть получена с помощью модели атмосферы (11 параметрической), в этом случае задача сводится к восстановлению параметров (в идеале всех 11) по форме профилей. Параметры не являются независимыми, поэтому для семплирования параметров подаваемых на вход модели атмосферы мы использовали уже наблюдающиеся на другом инструменте наборы. Стандартным подходом тут является метод Левенберга-Марквардта, но восстанавливать им вычислительно дорого и нужно решать вопрос с выбором начального приближения. Мы реализуем это на нейронных сетях, работа в статусе work in progress, хотелось бы получить фидбек по выбранным архитектурам, а особенно по вариантам аппроксимации плотности распределения параметров, из которой можно сэмплировать.
Ссылка на зум будет доступна через тг чат @sberlogadataclub
Записи докладов смотрите на ютубе канале https://www.youtube.com/c/SBERLOGA
⌚️ Четверг 11 марта, 19.00 по Москве
👨🔬 "Нейронные сети для оценки атмосферных искажений в астрофизических наблюдениях" Ирина Князева.
Мы хотим попробовать новый формат семинара, на котором можно поделиться совсем еще сырыми результатами работы над чем-то и попросить совета по возникающим вопросам.
Попробуем этот формат на астрофизической задачке вместе с Ириной Князевой и ее ребятами.
В настоящее время в Крымской астрофизической обсерватории (КрАО) ведутся работы по созданию нового солнечного спектрополяриметра на базе спектрографа Башенного солнечного телескопа (БСТ-1). Согласно поставленной цели, новый инструмент должен давать возможность проводить спектрополяриметрические наблюдения участков солнечной поверхности с пространственным разрешением порядка 1 угловой секунды и с перекрытием спектра в оптическом диапазоне в полосе 15-20 ангстрем.. Такие данные позволят определять параметры солнечной атмосферы (в т.ч. внешнее магнитное поле и продольную доплеровскую скорость плазмы) на разных высотах, которые определяются выбранными для наблюдений спектральными линиями. Задачу восстановления параметров атмосферы по этим спектральным линиям собственно мы и решаем. Форма спектральных линий может быть получена с помощью модели атмосферы (11 параметрической), в этом случае задача сводится к восстановлению параметров (в идеале всех 11) по форме профилей. Параметры не являются независимыми, поэтому для семплирования параметров подаваемых на вход модели атмосферы мы использовали уже наблюдающиеся на другом инструменте наборы. Стандартным подходом тут является метод Левенберга-Марквардта, но восстанавливать им вычислительно дорого и нужно решать вопрос с выбором начального приближения. Мы реализуем это на нейронных сетях, работа в статусе work in progress, хотелось бы получить фидбек по выбранным архитектурам, а особенно по вариантам аппроксимации плотности распределения параметров, из которой можно сэмплировать.
Ссылка на зум будет доступна через тг чат @sberlogadataclub
Записи докладов смотрите на ютубе канале https://www.youtube.com/c/SBERLOGA
Доклад Антона Цицулина (@xgfsru) не состоявшийся 4 марта будет 18 марта.
https://news.1rj.ru/str/sberloga/35
https://news.1rj.ru/str/sberloga/35