Уважаемые DBA, MLOPS, DS, а вы тюните праметры СУБД перед развёртыванием в проде?
Anonymous Poll
33%
Нет, использую дефолтные
67%
Если хватает времени, пробую вручную несколько комбинаций
0%
Использую бенчмарки и полный перебор всех комбинаций системных и СУБДшных параметров
0%
Использую бенчмарки и стороннее решение для умного подбора лучших параметров (напишу в комментах)
0%
Использую бенчмарки и самописное ML решение для умного подбора лучших параметров
#chatgpt #fantasy
Много лет я пытался вспомнить/найти рассказ, когда-то прочитанный в детстве и оставивший сильное впечатление. Раз в несколько лет я о нём вспоминаю и начинаю пару часов гуглить, как обычно, безуспешно. Там очень красивая история.
Она об учёном, который хотел изобрести космические двигатели нового типа. В которые никто не верил, даже его лучший друг и девушка.
А он вёл разработки, но всё не получалось, он со всеми разругалcя и отчаялся Всё происходило в будущем, уже вышли на контакт с несколькими инопланетными расами. Тут его зовут на работу какие-то как раз представители одной из рас, начальником лаборатории по разработке оружия. И общем, он создаёт для них непобедимую армаду, космический флот, который начинает завоевывать Галактику. И уже давно он догадывается, что его новые друзья хотят повернуть его против землян. Самое интересное, что земляне назначают главой армии защиты.. его друга, который (сюрприз) женат на его бывшей девушке. Бывшие друзья пытаются с ним выйти на связь, убеждают, мол, ты же человек, помоги нам, нафига тебе эти жабы инопланетные. А у него, понятно, уязвлённая гордость, мол - что они противопоставят моим гениальным изобретениям? И при первой стычке понимает, что земные корабли оснащены теми самыми двигателями нового типа, сделанными по его чертежам, которые доработал его друг. Но это все земляным не поможет. В итоге он направляет весь флот захватчиков прямо в Солнце, за что его там же убивают "наниматели".
Много лет я пытался вспомнить/найти рассказ, когда-то прочитанный в детстве и оставивший сильное впечатление. Раз в несколько лет я о нём вспоминаю и начинаю пару часов гуглить, как обычно, безуспешно. Там очень красивая история.
Она об учёном, который хотел изобрести космические двигатели нового типа. В которые никто не верил, даже его лучший друг и девушка.
А он вёл разработки, но всё не получалось, он со всеми разругалcя и отчаялся Всё происходило в будущем, уже вышли на контакт с несколькими инопланетными расами. Тут его зовут на работу какие-то как раз представители одной из рас, начальником лаборатории по разработке оружия. И общем, он создаёт для них непобедимую армаду, космический флот, который начинает завоевывать Галактику. И уже давно он догадывается, что его новые друзья хотят повернуть его против землян. Самое интересное, что земляне назначают главой армии защиты.. его друга, который (сюрприз) женат на его бывшей девушке. Бывшие друзья пытаются с ним выйти на связь, убеждают, мол, ты же человек, помоги нам, нафига тебе эти жабы инопланетные. А у него, понятно, уязвлённая гордость, мол - что они противопоставят моим гениальным изобретениям? И при первой стычке понимает, что земные корабли оснащены теми самыми двигателями нового типа, сделанными по его чертежам, которые доработал его друг. Но это все земляным не поможет. В итоге он направляет весь флот захватчиков прямо в Солнце, за что его там же убивают "наниматели".
🆒1
#fb #ai
Хотя бы алгоритм рекомендации друзей в ФБ поправили для начала, мне какую-то нерелевантную фигню предлагает. Метавселяторы хреновы.
https://3dnews.ru/1083588/tsukerberg-zayavil-chto-iskusstvenniy-intellekt-yavlyaetsya-osnovnim-prioritetom-meta
Хотя бы алгоритм рекомендации друзей в ФБ поправили для начала, мне какую-то нерелевантную фигню предлагает. Метавселяторы хреновы.
https://3dnews.ru/1083588/tsukerberg-zayavil-chto-iskusstvenniy-intellekt-yavlyaetsya-osnovnim-prioritetom-meta
3DNews - Daily Digital Digest
Все самое интересное из мира IT-индустрии
Самые интересные и оперативные новости из мира высоких технологий. На нашем портале - все о компьютерном железе, гаджетах, ноутбуках и других цифровых устройствах. А также обзоры новых игр, достижения современной науки и самые любопытные онлайн-проекты.
#postgres
"pg_repack is a PostgreSQL extension which lets you remove bloat from tables and indexes, and optionally restore the physical order of clustered indexes. Unlike CLUSTER and VACUUM FULL it works online, without holding an exclusive lock on the processed tables during processing. pg_repack is efficient to boot, with performance comparable to using CLUSTER directly."
https://github.com/reorg/pg_repack/
"pg_repack is a PostgreSQL extension which lets you remove bloat from tables and indexes, and optionally restore the physical order of clustered indexes. Unlike CLUSTER and VACUUM FULL it works online, without holding an exclusive lock on the processed tables during processing. pg_repack is efficient to boot, with performance comparable to using CLUSTER directly."
https://github.com/reorg/pg_repack/
GitHub
GitHub - reorg/pg_repack: Reorganize tables in PostgreSQL databases with minimal locks
Reorganize tables in PostgreSQL databases with minimal locks - reorg/pg_repack
#db #tuning #postgres
Любопытная ситуация. За много лет DBA-шное сообщество, кажется, ничего так и не придумало для оптимизации параметров СУБД. Уж на примере Постгре точно. Разрабам ядра PG положить с прибором на это, они слишком старомодны и консервативны, до сих пор считают, что рабочую память, да и все остальные параметры, сисадмин должен ручками прописывать. Есть pg_bench, но неясно, как его толком применить к настройке. Ведь параметры СУБД взаимодействуют с настройками ОС и ФС, причем зачастую нелинейно. А есть же ещё параметры железа. А еще версии ОС, ФС, СУБД. А еще разные запросы и разное распределение данных в таблицах, поэтому универсальные рекомендации дать трудно. Надо или брутфорсить сотни тысяч комбинаций pgbench-ем (на сервере близком к боевому), или оверпровижинить, или забивать на оптимальность. Почему я один в этом вижу проблему? PostgresPro, возможно, как-то над этим работают, но с их ценником в миллион за ядро я их даже не рассматриваю.
Любопытная ситуация. За много лет DBA-шное сообщество, кажется, ничего так и не придумало для оптимизации параметров СУБД. Уж на примере Постгре точно. Разрабам ядра PG положить с прибором на это, они слишком старомодны и консервативны, до сих пор считают, что рабочую память, да и все остальные параметры, сисадмин должен ручками прописывать. Есть pg_bench, но неясно, как его толком применить к настройке. Ведь параметры СУБД взаимодействуют с настройками ОС и ФС, причем зачастую нелинейно. А есть же ещё параметры железа. А еще версии ОС, ФС, СУБД. А еще разные запросы и разное распределение данных в таблицах, поэтому универсальные рекомендации дать трудно. Надо или брутфорсить сотни тысяч комбинаций pgbench-ем (на сервере близком к боевому), или оверпровижинить, или забивать на оптимальность. Почему я один в этом вижу проблему? PostgresPro, возможно, как-то над этим работают, но с их ценником в миллион за ядро я их даже не рассматриваю.
#zfs #slog
https://klarasystems.com/articles/what-makes-a-good-time-to-use-openzfs-slog-and-when-should-you-avoid-it/#:~:text=It%20does%20not%20need%20to,16GB%20to%2064GB%20is%20sufficient.
https://klarasystems.com/articles/what-makes-a-good-time-to-use-openzfs-slog-and-when-should-you-avoid-it/#:~:text=It%20does%20not%20need%20to,16GB%20to%2064GB%20is%20sufficient.
Klara Inc
What Makes a Good Time to Use OpenZFS Slog and When Should You Avoid It
Learn all about the OpenZFS SLOG and ensure new ways to support your data better with ZFS.
#postgres #tuning
Отличное руководство по параметрам постгре, в логической разбивке по группам (память, планировщик, безопасность, подключения, репликация, итд.)
https://www.youtube.com/watch?v=13d4BDYSYyM&ab_channel=EDB
Отличное руководство по параметрам постгре, в логической разбивке по группам (память, планировщик, безопасность, подключения, репликация, итд.)
https://www.youtube.com/watch?v=13d4BDYSYyM&ab_channel=EDB
YouTube
How to use postgresql.conf to configure and tune the PostgreSQL server
Tuning your PostgreSQL server plays an important role in making sure you get the most out of your server resources, and running with default parameters is not always enough. Using the PostgreSQL server configuration file postgresql.conf, we can tune the right…
Forwarded from Kali Novskaya (Tatiana Shavrina)
#nlp #про_nlp #nlp_papers
Я решила немного чаще рассказывать вам про работы, которые мы делаем с коллегами вместе, да и вообще больше привлекать внимания к менее хайповым не-чатгпт научным проблемам, поэтому введу новую рубрику — #nlp_papers
Сегодня поговорим о том, как можно применять теорию общественного выбора к оценке LLM.
Vote'n'Rank: Revision of Benchmarking with Social Choice Theory
Теория общественного выбора (Social choice theory) — это теоретические и практические методы агрегирования или объединения индивидуальных предпочтений в функцию коллективного общественного благосостояния. Обычно в этой области предполагается, что у людей есть предпочтения, и из этого следует, что их можно смоделировать с помощью функций полезности.
🌸Проблема: современные языковые модели оцениваются на целом ворохе различных задач. В результате такой оценки на каждую модель приходится по 20-30 метрик, зачастую разной природы (точность, полнота, Bert score, MCC..) и диапазона (от 0 до 1, от -1 до 1, и т.д.). Как на основании таких результатов выстраивать лидерборд лучших моделей? Усреднять такое явно нельзя. Да и потом, является ли лучшее среднее всех результатов по всем задачам оптимальным направлением наших стремлений?
🌸Идея: Позаимствуем методы рассчетов из теории общественного выбора и перевзвесим результаты моделей на GLUE, SuperGLUE и VALUE (Video-and-Language Understanding Evaluation).
Будем использовать такие правила агрегации, как скоринговые правила (Plurality, Borda, Dowdall), итеративные скоринговые правила (пороговое правило, Baldwin), и мажоритарные правила (Condorcet rule, Copeland rule).
Агрегации Vote'n'Rank более надежны, чем среднее арифметическое всех метрик, и в то же время способны обрабатывать отсутствующие значения на разных задачах и указывать условия, при которых система становится победителем.
• Правило множественности (Plurality)— хороший выбор, если пользователю нужны только лучшие системы по каждой задаче.
• Если все позиции в рейтинге имеют значение, используйте правила Borda или Dowdall. Обратите внимание, что Даудалл присваивает более высокие веса верхним позициям.
• Пороговое правило полезно в тех случаях, когда пользователь хочет свести к минимуму количество задач с низким результатом: правило присваивает наивысший ранг системе, которая считается худшей по наименьшему числу задач.
• Если цель состоит в том, чтобы выбрать систему, которая превосходит все остальные в попарном сравнении, используйте правила Болдуина, Кондорсе, Коупленда или правила Минимакса.
Feel free использовать в своих пайплайнах оценки моделей!
🖥 Paper: https://arxiv.org/abs/2210.05769v3
🖥 Github: https://github.com/PragmaticsLab/vote_and_rank
🌸Accepted EACL 2023
Я решила немного чаще рассказывать вам про работы, которые мы делаем с коллегами вместе, да и вообще больше привлекать внимания к менее хайповым не-чатгпт научным проблемам, поэтому введу новую рубрику — #nlp_papers
Сегодня поговорим о том, как можно применять теорию общественного выбора к оценке LLM.
Vote'n'Rank: Revision of Benchmarking with Social Choice Theory
Теория общественного выбора (Social choice theory) — это теоретические и практические методы агрегирования или объединения индивидуальных предпочтений в функцию коллективного общественного благосостояния. Обычно в этой области предполагается, что у людей есть предпочтения, и из этого следует, что их можно смоделировать с помощью функций полезности.
🌸Проблема: современные языковые модели оцениваются на целом ворохе различных задач. В результате такой оценки на каждую модель приходится по 20-30 метрик, зачастую разной природы (точность, полнота, Bert score, MCC..) и диапазона (от 0 до 1, от -1 до 1, и т.д.). Как на основании таких результатов выстраивать лидерборд лучших моделей? Усреднять такое явно нельзя. Да и потом, является ли лучшее среднее всех результатов по всем задачам оптимальным направлением наших стремлений?
🌸Идея: Позаимствуем методы рассчетов из теории общественного выбора и перевзвесим результаты моделей на GLUE, SuperGLUE и VALUE (Video-and-Language Understanding Evaluation).
Будем использовать такие правила агрегации, как скоринговые правила (Plurality, Borda, Dowdall), итеративные скоринговые правила (пороговое правило, Baldwin), и мажоритарные правила (Condorcet rule, Copeland rule).
Агрегации Vote'n'Rank более надежны, чем среднее арифметическое всех метрик, и в то же время способны обрабатывать отсутствующие значения на разных задачах и указывать условия, при которых система становится победителем.
• Правило множественности (Plurality)— хороший выбор, если пользователю нужны только лучшие системы по каждой задаче.
• Если все позиции в рейтинге имеют значение, используйте правила Borda или Dowdall. Обратите внимание, что Даудалл присваивает более высокие веса верхним позициям.
• Пороговое правило полезно в тех случаях, когда пользователь хочет свести к минимуму количество задач с низким результатом: правило присваивает наивысший ранг системе, которая считается худшей по наименьшему числу задач.
• Если цель состоит в том, чтобы выбрать систему, которая превосходит все остальные в попарном сравнении, используйте правила Болдуина, Кондорсе, Коупленда или правила Минимакса.
Feel free использовать в своих пайплайнах оценки моделей!
🌸Accepted EACL 2023
Please open Telegram to view this post
VIEW IN TELEGRAM
GitHub
GitHub - PragmaticsLab/vote_and_rank: Novel aggregation methods for multi-task NLP benchmarking
Novel aggregation methods for multi-task NLP benchmarking - PragmaticsLab/vote_and_rank
❤1
#postgres #tuning
Отличный рассказ про тюнинг параметров СУБД.
https://www.youtube.com/watch?v=IFIXpm73qtk&ab_channel=HighLoadChannel
Отличный рассказ про тюнинг параметров СУБД.
https://www.youtube.com/watch?v=IFIXpm73qtk&ab_channel=HighLoadChannel
YouTube
PostgreSQL Configuration for Humans / Alvaro Hernandez (OnGres)
HighLoad++ 2017
Тезисы:
http://www.highload.ru/2017/abstracts/3096.html
PostgreSQL is the world’s most advanced open source database. Indeed! With around 270 configuration parameters in postgresql.conf, plus all the knobs in pg_hba.conf, it is definitely…
Тезисы:
http://www.highload.ru/2017/abstracts/3096.html
PostgreSQL is the world’s most advanced open source database. Indeed! With around 270 configuration parameters in postgresql.conf, plus all the knobs in pg_hba.conf, it is definitely…
#business
Меня разрывает между десятком проектов и идей. Все хорошие, классные, интересные, сложные. По итогу не успеваю ни один довести до ума. Смотрю на список из 13 стартапов и понимаю, что это уже не программерская, а управленческая задача.
Варианты решения:
1) продолжить долбаться самому. типа дёшево-бесплатно, но ничего не сделаешь и за годы, с моим темпом.
2) найти инвестирование и начать найм фрилансеров на решение небольших, четко сформулированных подзадач, затем по мере появления решений интегрировать их в прод везде, где смогут быть полезны. Типа придется делиться шкурой неубитого медведя, но так есть шанс хоть что-то довести до релиза.
Меня разрывает между десятком проектов и идей. Все хорошие, классные, интересные, сложные. По итогу не успеваю ни один довести до ума. Смотрю на список из 13 стартапов и понимаю, что это уже не программерская, а управленческая задача.
Варианты решения:
1) продолжить долбаться самому. типа дёшево-бесплатно, но ничего не сделаешь и за годы, с моим темпом.
2) найти инвестирование и начать найм фрилансеров на решение небольших, четко сформулированных подзадач, затем по мере появления решений интегрировать их в прод везде, где смогут быть полезны. Типа придется делиться шкурой неубитого медведя, но так есть шанс хоть что-то довести до релиза.
Forwarded from Техножрица 👩💻👩🏫👩🔧
Записали, наконец, с https://news.1rj.ru/str/boris_again видео-разбор статьи Adam: A Method for Stochastic Optimization ( https://arxiv.org/abs/1412.6980 ). Получилось, конечно, не так, как задумывалось изначально, но все равно интересно.
По итогу, в первой части видео рассказывается про общие принципы того, как устроен градиентный спуск с моментом и интуицию, стоящую за методом Adam. Во второй части видео докладчик проходится по самой статье, и мы постепенно переключаемся в режим свободного обсуждения формул и теорем. Поскольку мы не являемся специалистами по теории оптимизации, правильность всего сказанного в видео не гарантируется. А если вы нашли ошибку или можете дополнить обсуждение, не забудьте рассказать об этом в комментариях!
Ссылка на демонстрацию и статью, показанную в первом видео: https://distill.pub/2017/momentum/ .
————————————————————
Ссылки на видео:
https://www.youtube.com/watch?v=vqIwkVQnq4w&ab_channel=WMax (1 часть)
https://www.youtube.com/watch?v=ZnKmWDKBlGg&ab_channel=WMax (2 часть)
————————————————————
Спасибо большое @btseytlin за рассказ, а @unfinity - за загрузку на YouTube!
#объяснения_статей
По итогу, в первой части видео рассказывается про общие принципы того, как устроен градиентный спуск с моментом и интуицию, стоящую за методом Adam. Во второй части видео докладчик проходится по самой статье, и мы постепенно переключаемся в режим свободного обсуждения формул и теорем. Поскольку мы не являемся специалистами по теории оптимизации, правильность всего сказанного в видео не гарантируется. А если вы нашли ошибку или можете дополнить обсуждение, не забудьте рассказать об этом в комментариях!
Ссылка на демонстрацию и статью, показанную в первом видео: https://distill.pub/2017/momentum/ .
————————————————————
Ссылки на видео:
https://www.youtube.com/watch?v=vqIwkVQnq4w&ab_channel=WMax (1 часть)
https://www.youtube.com/watch?v=ZnKmWDKBlGg&ab_channel=WMax (2 часть)
————————————————————
Спасибо большое @btseytlin за рассказ, а @unfinity - за загрузку на YouTube!
#объяснения_статей
Telegram
Борис опять
life = curiosity + irreducible noise
Whois: https://news.1rj.ru/str/boris_again/3400
Лс: @btseytlin
Whois: https://news.1rj.ru/str/boris_again/3400
Лс: @btseytlin
Forwarded from Neural Info
⁉️ Today I will be interviewing Boris aka @boris_again about AI.
INTERVIEW PART 1.
❓Introduce yourself.
Hello. My name is Boris. I work at Planet Farms, an agrotech company making vertical farms. I am an ML teamlead, building ML from scratch, from infra to models. Previously I was a Researcher at Toloka among other things.
I might be known for teaching ML at HSE and OTUS, a telegram channel about all things life @boris_again and consulting people on job search in ML and IT in general.
❓Tell me about your education.
I graduated from the Data Science program at Faculty of Computer Science HSE. Highly recommended.
❓What about your work experience?
It’s hard to gauge, but I guess full-time is about 8 years now.
❓Top-3 articles you would recommend reading.
A Metric Learning Reality Check – personal favorite. A great story how the whole metric learning community was not making any progress for 10 years due to bad experiments, a great showcase of how ML benchmarks and publishing culture fail and how they don’t, a solid work on finding a better solution to the metric learning problem that is also easy to read.
An Industrial-Strength Audio Search Algorithm – the paper about Shazam. Just check this quote: “This procedure reduces the search problem to a kind of “astronavigation”... ”. This is so awesome: explaining hard stuff with metaphors in a research paper. Very easy to read.
Deep learning is robust to massive label noise – just an excellent work.
❓What do you think about Kaggle competitions?
Personally, I'm not interested in participating.
Often the large ensemble of models wins and most top results use similar ensembles. It seems that whoever is lucky with the seed wins. It's very rare to find a situation where the most creative solution wins. On the other hand, competitions are increasingly taking place in narrow areas such as medical images and bioinformatics.
After all, Kaggle is now a whole industry. There are people winning gold medals for money. There are entire teams with fleets of servers full of GPUs solving competitions on a full-time basis. All in all, to me, this creates an atmosphere where the expectation of money and interest on Kaggle is less than it is at work.
❓What is the specialty of MLOps?
MLOps is backend + ML.
One day people realized that models are not useful if they are not implemented in the product. It turned out that ML models have some peculiarities in terms of implementation.
So MLOps was born as a term to describe everything related to the infrastructure around deploying ML models in production: how data goes into the model, how models are trained, how predictions are made, how it all scales under load, how to retrain and monitor models.
The industry is now moving to the point where a Data Scientist without knowledge of MLOps is becoming increasingly rare.
INTERVIEW PART 1.
❓Introduce yourself.
Hello. My name is Boris. I work at Planet Farms, an agrotech company making vertical farms. I am an ML teamlead, building ML from scratch, from infra to models. Previously I was a Researcher at Toloka among other things.
I might be known for teaching ML at HSE and OTUS, a telegram channel about all things life @boris_again and consulting people on job search in ML and IT in general.
❓Tell me about your education.
I graduated from the Data Science program at Faculty of Computer Science HSE. Highly recommended.
❓What about your work experience?
It’s hard to gauge, but I guess full-time is about 8 years now.
❓Top-3 articles you would recommend reading.
A Metric Learning Reality Check – personal favorite. A great story how the whole metric learning community was not making any progress for 10 years due to bad experiments, a great showcase of how ML benchmarks and publishing culture fail and how they don’t, a solid work on finding a better solution to the metric learning problem that is also easy to read.
An Industrial-Strength Audio Search Algorithm – the paper about Shazam. Just check this quote: “This procedure reduces the search problem to a kind of “astronavigation”... ”. This is so awesome: explaining hard stuff with metaphors in a research paper. Very easy to read.
Deep learning is robust to massive label noise – just an excellent work.
❓What do you think about Kaggle competitions?
Personally, I'm not interested in participating.
Often the large ensemble of models wins and most top results use similar ensembles. It seems that whoever is lucky with the seed wins. It's very rare to find a situation where the most creative solution wins. On the other hand, competitions are increasingly taking place in narrow areas such as medical images and bioinformatics.
After all, Kaggle is now a whole industry. There are people winning gold medals for money. There are entire teams with fleets of servers full of GPUs solving competitions on a full-time basis. All in all, to me, this creates an atmosphere where the expectation of money and interest on Kaggle is less than it is at work.
❓What is the specialty of MLOps?
MLOps is backend + ML.
One day people realized that models are not useful if they are not implemented in the product. It turned out that ML models have some peculiarities in terms of implementation.
So MLOps was born as a term to describe everything related to the infrastructure around deploying ML models in production: how data goes into the model, how models are trained, how predictions are made, how it all scales under load, how to retrain and monitor models.
The industry is now moving to the point where a Data Scientist without knowledge of MLOps is becoming increasingly rare.
👍1
Forwarded from Neural Info
INTERVIEW PART 2.
❓The mathematical gap between ML and DL How effective do you think you can be in DL if you only know the basics?
To be honest, the mathematics in the DL is far from being the most complicated, especially at the level of practical applications. Take the derivative? Write the likelihood function? Understand how the chain rule works in mathematical analysis? It's not easy, but it's within everyone's reach.
But mathematics helps a lot at the level of intuition. Especially probability and information theory. I don't have a mathematical background myself and I'm always catching up. You can do without deep mathematics, but every time I dive deeper, my capabilities are greatly expanded.
Of course, a deep knowledge of mathematics is necessary if you want to do research.
❓Let's talk about your articles.
I have several articles. Two of them are my coursework and my master's thesis. They are about metric learning: search, where the input is an image, and the output is other, similar images.
There's an article from Toloka where I used our original method of learning on crowdsourced markup , where for each example you get several noisy labels from markups are given to solve a scientific competition.
There is also a special article. After the first wave of the coronavirus epidemic, I came across information that there was a "British strain" that could cause a second wave. I decided to check this information and found that it was almost certainly true. It took me three months to write the article on my own. I had no previous experience of epidemiology, so it was very difficult to research the literature on the subject. It was particularly difficult because I was doing it alone. However, I persevered and wrote an article in which I used a predictive model to show that a strain with a virality coefficient like the British coronavirus strain would cause a wave of disease. I wanted to show that this was not the time to relax and remove restrictions.
There was a funny episode: In the middle of my research, I ran into a dead end and asked friends for help. They put me in touch with specialists from the Gamaleya Institute, real epidemiologists. I showed them my research and they said: "Great, that's what we do". I was shocked that in two months, with no experience in the field, I had done something that looked like real work.
After posting the article on arxiv, I contacted journalist friends, made a presentation, and started sending it out to the mass media. In the result, it turned out that the coronavirus was no longer a hot topic.
In the end, it was only possible to publish it on mail.ru news. You can read the publication on mail.ru here and a more technical version in this habr post.
👍 Thanks.
I would like to express special thanks to Boris for his answers and especially for his time.
❓The mathematical gap between ML and DL How effective do you think you can be in DL if you only know the basics?
To be honest, the mathematics in the DL is far from being the most complicated, especially at the level of practical applications. Take the derivative? Write the likelihood function? Understand how the chain rule works in mathematical analysis? It's not easy, but it's within everyone's reach.
But mathematics helps a lot at the level of intuition. Especially probability and information theory. I don't have a mathematical background myself and I'm always catching up. You can do without deep mathematics, but every time I dive deeper, my capabilities are greatly expanded.
Of course, a deep knowledge of mathematics is necessary if you want to do research.
❓Let's talk about your articles.
I have several articles. Two of them are my coursework and my master's thesis. They are about metric learning: search, where the input is an image, and the output is other, similar images.
There's an article from Toloka where I used our original method of learning on crowdsourced markup , where for each example you get several noisy labels from markups are given to solve a scientific competition.
There is also a special article. After the first wave of the coronavirus epidemic, I came across information that there was a "British strain" that could cause a second wave. I decided to check this information and found that it was almost certainly true. It took me three months to write the article on my own. I had no previous experience of epidemiology, so it was very difficult to research the literature on the subject. It was particularly difficult because I was doing it alone. However, I persevered and wrote an article in which I used a predictive model to show that a strain with a virality coefficient like the British coronavirus strain would cause a wave of disease. I wanted to show that this was not the time to relax and remove restrictions.
There was a funny episode: In the middle of my research, I ran into a dead end and asked friends for help. They put me in touch with specialists from the Gamaleya Institute, real epidemiologists. I showed them my research and they said: "Great, that's what we do". I was shocked that in two months, with no experience in the field, I had done something that looked like real work.
After posting the article on arxiv, I contacted journalist friends, made a presentation, and started sending it out to the mass media. In the result, it turned out that the coronavirus was no longer a hot topic.
In the end, it was only possible to publish it on mail.ru news. You can read the publication on mail.ru here and a more technical version in this habr post.
👍 Thanks.
I would like to express special thanks to Boris for his answers and especially for his time.
🆒1
Aspiring Data Science pinned «#business Меня разрывает между десятком проектов и идей. Все хорошие, классные, интересные, сложные. По итогу не успеваю ни один довести до ума. Смотрю на список из 13 стартапов и понимаю, что это уже не программерская, а управленческая задача. Варианты…»