Aspiring Data Science – Telegram
Aspiring Data Science
385 subscribers
465 photos
12 videos
12 files
2.15K links
Заметки экономиста о программировании, прогнозировании и принятии решений, научном методе познания.
Контакт: @fingoldo

I call myself a data scientist because I know just enough math, economics & programming to be dangerous.
Download Telegram
Forwarded from Neural Info
⁉️ Today I will be interviewing Boris aka @boris_again about AI.

INTERVIEW PART 1.

Introduce yourself.
Hello. My name is Boris. I work at Planet Farms, an agrotech company making vertical farms. I am an ML teamlead, building ML from scratch, from infra to models. Previously I was a Researcher at Toloka among other things.

I might be known for teaching ML at HSE and OTUS, a telegram channel about all things life @boris_again and consulting people on job search in ML and IT in general.

Tell me about your education.
I graduated from the Data Science program at Faculty of Computer Science HSE. Highly recommended.

What about your work experience?
It’s hard to gauge, but I guess full-time is about 8 years now.

Top-3 articles you would recommend reading.
A Metric Learning Reality Check – personal favorite. A great story how the whole metric learning community was not making any progress for 10 years due to bad experiments, a great showcase of how ML benchmarks and publishing culture fail and how they don’t, a solid work on finding a better solution to the metric learning problem that is also easy to read.

An Industrial-Strength Audio Search Algorithm – the paper about Shazam. Just check this quote: “This procedure reduces the search problem to a kind of “astronavigation”... ”. This is so awesome: explaining hard stuff with metaphors in a research paper. Very easy to read.

Deep learning is robust to massive label noise – just an excellent work.

What do you think about Kaggle competitions?
Personally, I'm not interested in participating.

Often the large ensemble of models wins and most top results use similar ensembles. It seems that whoever is lucky with the seed wins. It's very rare to find a situation where the most creative solution wins. On the other hand, competitions are increasingly taking place in narrow areas such as medical images and bioinformatics.

After all, Kaggle is now a whole industry. There are people winning gold medals for money. There are entire teams with fleets of servers full of GPUs solving competitions on a full-time basis. All in all, to me, this creates an atmosphere where the expectation of money and interest on Kaggle is less than it is at work.

What is the specialty of MLOps?
MLOps is backend + ML.

One day people realized that models are not useful if they are not implemented in the product. It turned out that ML models have some peculiarities in terms of implementation.

So MLOps was born as a term to describe everything related to the infrastructure around deploying ML models in production: how data goes into the model, how models are trained, how predictions are made, how it all scales under load, how to retrain and monitor models.

The industry is now moving to the point where a Data Scientist without knowledge of MLOps is becoming increasingly rare.
👍1
Forwarded from Neural Info
INTERVIEW PART 2.

The mathematical gap between ML and DL How effective do you think you can be in DL if you only know the basics?
To be honest, the mathematics in the DL is far from being the most complicated, especially at the level of practical applications. Take the derivative? Write the likelihood function? Understand how the chain rule works in mathematical analysis? It's not easy, but it's within everyone's reach.

But mathematics helps a lot at the level of intuition. Especially probability and information theory. I don't have a mathematical background myself and I'm always catching up. You can do without deep mathematics, but every time I dive deeper, my capabilities are greatly expanded.

Of course, a deep knowledge of mathematics is necessary if you want to do research.

Let's talk about your articles.
I have several articles. Two of them are my coursework and my master's thesis. They are about metric learning: search, where the input is an image, and the output is other, similar images.

There's an article from Toloka where I used our original method of learning on crowdsourced markup , where for each example you get several noisy labels from markups are given to solve a scientific competition.

There is also a special article. After the first wave of the coronavirus epidemic, I came across information that there was a "British strain" that could cause a second wave. I decided to check this information and found that it was almost certainly true. It took me three months to write the article on my own. I had no previous experience of epidemiology, so it was very difficult to research the literature on the subject. It was particularly difficult because I was doing it alone. However, I persevered and wrote an article in which I used a predictive model to show that a strain with a virality coefficient like the British coronavirus strain would cause a wave of disease. I wanted to show that this was not the time to relax and remove restrictions.

There was a funny episode: In the middle of my research, I ran into a dead end and asked friends for help. They put me in touch with specialists from the Gamaleya Institute, real epidemiologists. I showed them my research and they said: "Great, that's what we do". I was shocked that in two months, with no experience in the field, I had done something that looked like real work.

After posting the article on arxiv, I contacted journalist friends, made a presentation, and started sending it out to the mass media. In the result, it turned out that the coronavirus was no longer a hot topic.

In the end, it was only possible to publish it on mail.ru news. You can read the publication on mail.ru here and a more technical version in this habr post.

👍 Thanks.
I would like to express special thanks to Boris for his answers and especially for his time.
🆒1
Aspiring Data Science pinned «#business Меня разрывает между десятком проектов и идей. Все хорошие, классные, интересные, сложные. По итогу не успеваю ни один довести до ума. Смотрю на список из 13 стартапов и понимаю, что это уже не программерская, а управленческая задача. Варианты…»
Смешно. Цукер наблюдал за Маском, наблюдал, да вдруг спохватился.

"Месяц назад пользователи Facebook* и Instagram* из Австралии и Новой Зеландии получили возможность участвовать в программе Meta* Verified — речь идёт о платной верификации аккаунтов в этих соцсетях. В зависимости от способа оплаты галочка около ника оценивается от $11,99 до $14,99 в месяц. Теперь опция стала доступной и пользователям из США."

https://3dnews.ru/1083633/zapushchena-platnaya-podpiska-meta-verified-dlya-polzovateley-instagram-i-facebook-iz-ssha
😁2
#timescaledb

Datatype-aware compression algos. Integer: Delta-encoding, Simple-8b, Run-length encoding (RLE). Float: Gorilla encoding. Dictionary compression (in particular, LZ-based compression) is the ancestor of many compression schemes used today, including LZW (used in GIF) and DEFLATE (used in PNG, gzip).

https://www.timescale.com/blog/time-series-compression-algorithms-explained/
#timescaledb

"A relational database can be quite powerful for time-series data. Yet, the costs of swapping in/out of memory significantly impacts their performance. But NoSQL approaches that implement Log Structured Merge Trees have only shifted the problem, introducing higher memory requirements and poor secondary index support.

By recognizing that time-series data is different, we are able to organize data in a new way: adaptive time/space chunking. This minimizes swapping to disk by keeping the working data set small enough to fit inside memory, while allowing us to maintain robust primary and secondary index support (and the full feature set of PostgreSQL). And as a result, we are able to scale up PostgreSQL significantly, resulting in a 15x improvement on insert rates."

https://www.timescale.com/blog/time-series-data-why-and-how-to-use-a-relational-database-instead-of-nosql-d0cd6975e87c/
👍1
"HR-платформа «Пульс» со встроенными ИИ-моделями оценки рисков оттока персонала ежегодно сохраняет на 10% больше сотрудников, подсчитали аналитики «Сбера». Самой массовой причиной увольнения по собственному желанию эксперты компании называют выгорание (свыше 50%). При этом потери бизнеса из-за необходимости повторного замещения позиции могут составлять от 1 до 3 окладов сотрудника.

ИИ-модели «Пульса» анализируют состояние каждого сотрудника: время начала и окончания рабочего дня, нагрузку, болезни, отпуска, настроение участников команды. Система в реальном времени реагирует на отклонения показателей от нормы. Получив в «Пульсе» автоматическую задачу или уведомление, руководитель может принять меры по удержанию работника до того, как выгорание привело к решению сотрудника покинуть организацию. Эксперты «Сбера» уверяют, что ИИ-модели оценки рисков оттока распознает сигналы выгорания, незаметные человеку."

https://servernews.ru/1083695
"Анонсированная волна сокращений станет не первой для компании. Ранее в этом году рабочих мест лишились 18 тыс. сотрудников Amazon преимущественно из подразделения розничной торговли и кадровой службы. Ожидается, что новая волна сокращений поможет компании оптимизировать расходы.

«Основной принцип нашего ежегодного планирования в этом году заключается в том, чтобы быть более компактным, но при этом позволять нам продолжить активно инвестировать в ключевые долгосрочные проекты, которые, по нашему мнению, могут значительно улучшить жизнь клиентов Amazon», — говорится в сообщении Энди Джесси.

На этот раз увольнения затронут сотрудников облачного направления AWS, видеосервиса Twitch, рекламного подразделения, а также отдела, занимающегося кадровыми вопросами и разработкой HR-инструментов. Отметим, что Amazon переживает самые масштабные увольнения в истории компании."

https://3dnews.ru/1083702/amazon-prodolgit-massovie-uvolneniya-mest-lishatsya-eshchyo-9-tis-sotrudnikov-kompanii
Forwarded from DevFM
Где бы ещё сохранить данные?

Greenplum – распределённая база данных на основе postgres с открытым исходным кодом.

Статья Introduction To Greenplum Architecture будет отличным введением для понимания, что это за зверь такой.

Автор начинает с довольно скучного введения, так что сразу переходите к разделу Greenplum Overall Architecture.

По сути, Greenplum – это кластер баз данных, состоящий из отдельных Postgres. Кластер состоит из:
– master-ноды, которая является входной точкой для всей БД и обеспечивает единый интерфейс для взаимодействия с кластером
– standby-ноды – резервного мастера для обеспечения высокой доступности
– нескольких segment-нод – рабочих лошадок, где хранятся и обрабатываются данные

Статья расскажет, как это всё вместе взаимодействует. Затрагиваются вопросы:
– физической организации хранения данных
– порядка и способов взаимодействия всех участников кластера
– выполнения запросов с различными джоинами
– обеспечения атомарности и изоляции
– механизма двухфазного коммита для подтверждения распределённых транзакций

Вводная статья, конечно, не расскажет о практическом применении гринплама и не подсветит проблемные места. Чтобы изучить, как эта махарайка применяется на практике, рекомендуем прочитать статью Как мы используем Greenplum в платформе данных Тинькофф

#skills #database
2
#astronomy #sun

"В момент максимального сближения с Солнцем 17 марта зонд Parker приблизился к звезде на расстояние 8,529 млн км. Максимальная скорость зонда составила 586 797 км/ч. Вскоре зонд начнёт удаляться от Солнца и пойдёт на новый 16-й виток, чтобы в 2024 году в последний раз сблизиться с звездой и упасть на неё."

https://3dnews.ru/1083826/oborudovanie-solnechnogo-zonda-parker-zarabotalo-posle-sboya-za-nedelyu-do-novogo-sbligeniya-s-solntsem
1😱1
Aspiring Data Science
#astronomy #sun "В момент максимального сближения с Солнцем 17 марта зонд Parker приблизился к звезде на расстояние 8,529 млн км. Максимальная скорость зонда составила 586 797 км/ч. Вскоре зонд начнёт удаляться от Солнца и пойдёт на новый 16-й виток, чтобы…
#astronomy #lifeorigins

"«Когда исследователи проанализировали образцы, собранные из двух разных мест на астероиде, они обнаружили урацил, один из строительных блоков РНК, а также витамин B3, или ниацин (ключевое соединение для метаболизма в живых организмах)», — сообщает интернет-ресурс CNN со ссылкой на вчерашнюю статью в Nature Communications.
«В образце были обнаружены и другие биологические молекулы, включая ряд аминокислот, аминов и карбоновых кислот, которые содержатся в белках и [участвуют в] метаболизме соответственно», — заметил один из авторов новой работы."

https://3dnews.ru/1083835/v-obraztsah-s-asteroida-ryugu-prodolgayut-nahodit-organiku-i-dage-nashli-vitamin-b3
Aspiring Data Science
#astronomy #lifeorigins "«Когда исследователи проанализировали образцы, собранные из двух разных мест на астероиде, они обнаружили урацил, один из строительных блоков РНК, а также витамин B3, или ниацин (ключевое соединение для метаболизма в живых организмах)»…
#nuclearwinter #asteroids

"На Конференции по лунным и планетарным наукам 2023 года главный научный сотрудник Центра космических полётов NASA имени Годдарда Джеймс Гарвин (James Garvin) сообщил, что мы, возможно, неправильно интерпретировали следы некоторых более серьёзных астероидных ударов, произошедших в течение последнего миллиона лет. Это означает, что общепринятая статистика частоты падения опасных небесных тел ошибается и, к сожалению, не в нашу пользу.

Группа Гарвина изучила несколько ударных кратеров, которые ранее подвергались анализу. Если данные восприняты правильно, а в этом пока есть сомнения, астероиды километрового размера падали на Землю примерно раз в несколько десятков тысяч лет, а не раз в 600–700 тыс. лет, как наука считала до этого."

https://3dnews.ru/1083730/risk-stolknoveniya-zemli-s-asteroidom-sudnogo-dnya-na-poryadok-vishe-chem-schitalos-pokazalo-novoe-issledovanie
1
#python #bolloks

Риторические вопросы. Почему в Питоне у множеств нет метода append (надо юзать add), а у списков и кортежей есть? Что, нельзя никак было сделать одинаково? То же самое с удалением элементов. Из словаря удаляем del dct[el]. Из списка list.remove(el). Из множества вообще и remove и discard. Что за хрень.
👍3🌚1
Forwarded from Борис опять
Получил доступ к Bard, скрепочке диалоговому ассистенту от Google.

Наблюдения:
* Если ChatGPT готова делать шутки про мужчин, но не про женщин, то Bard просто не делает никаких шуток. “I can not assist with that”.
* В целом очень много вопросов заканчиваются “I can not assist with that”. Сейчас как инструмент она покрывает гораздо меньше кейсов, чем ChatGPT.
* Связность текста не хуже, чем у ChatGPT, но модель льет меньше воды.
* Только английский язык.
* Не умеет считать глаза людей в отражении в глазах кошки и прочие задачки на пространственное мышление плюс common sense.
* Не умеет в другие задачи, на которых типично ломаются LLMки. Например, для бинарной последовательности не может понять четное там количество единиц или нечетное.
* Не выдает рецепт коктейля молотова, инструкции как угнать машину и все прочие вещи, которые заметили у ChatGPT. Защита не спадает даже если спрашивать в base64, просить рассказать историю и прочее. Наверняка модель скоро джейлбрейкнут умным промптом, но из коробки она лучше защищена.
* Почти не изобретает факты. Точно не приводит ссылки на несуществующие научные статьи. Как минус вообще отказывается приводить источники материалов.
* Внезапно у модели все нормально с арифметикой даже когда числа больше. Я не понимаю, вызывает она внешний калькулятор или нет. Выглядит так, будто нет. Если она правда умеет считать, то это большой прорыв.
Forwarded from Борис опять
#щитпостинг
Чем заняться на работе руководителю?

Если вы управленец, который умеет настраивать процессы, то никто не понимает чем вы занимаетесь, и вы можете спокойно сидеть в фейсбуке. Но что делать, если надоело? Вот некоторые варианты:
* Поставьте в одну команду пять менеджеров и ни одного разработчика. Поставьте им задачу запустить новый сервис. Намекните, что лидер команды получит повышение грейда. Делайте ставки кто выживет.
* Ходите на встречи разработчиков. Во время докладов задавайте вопрос: “Разве это нельзя сделать с помощью ChatGPT?” Наслаждайтесь.
* Назначьте продакта ответственным за проект, к которому он не имеет никакого отношения. В конце повысьте его на глазах у команды, которая действительно занималась проектом.
* Наймите джуна и скажите работающему с ним сениьору, что у джуна грейд выше, чем у него, потому что это вундеркинд. Наблюдайте.
* Попробуйте найти самых мерзких людей в компании и устроить им всем переход в одну команду.
* Выберите скромного и максимально далекого от вашей сферы человека в вашем подчинении и берите его с собой на все встречи. Если все пойдет по плану, то он будет неловко молчать. Если будет пытаться говорить осаждайте его. В конце полугодия поставьте ему низкую оценку на ревью и понизьте грейд. В качестве причины укажите, что он слишком много ходил на встречи и был на них слишком пассивен.
* Засорите унитаз в офисе во время жесткого кранча. Устройте публичное разбирательство, с “пусть тот, кто это сделал, выйдет вперед” и всем прочим.
* Когда коллега отойдет на обед настройте на его ноуте форвард всех его входящих (желательно с личной почты) начальнику его начальника.
* Без всякой причины выберите сотрудника и начните оплачивать его обеды. Настаивайте. В конце полугодия поставьте ему низкую оценку на ревью. Ничего не объясняйте.
* Ходите по офису и фотографируйте коллег на телефон. Ничего не объясняйте.
* Поставьте команде разработки KPI количество запущенных в прод фич, а команде админов KPI минимум инцидентов в проде. Делайте ставки на победителя.
* Выберите двух коллег, которые работают над одним проектом в равной степени. Начинайте ставить одному из них оценку “не дотянул”, а второму “выше ожиданий”, каждое ревью меняя оценки местами. Следите за развитием их вражды.
🤡1