Aspiring Data Science – Telegram
Aspiring Data Science
385 subscribers
465 photos
12 videos
12 files
2.15K links
Заметки экономиста о программировании, прогнозировании и принятии решений, научном методе познания.
Контакт: @fingoldo

I call myself a data scientist because I know just enough math, economics & programming to be dangerous.
Download Telegram
#politics #war

С интересом слежу за высказываниями феерического пропагандона Пучкова/гоблина. В этот раз он призывает покарать "Тимура и его команду" по всей строгости закона. И намекает, мол, он же не один воровал, у него подчинённые были... Про начальника пока не квакает, наверху ещё не решили, видимо. Где же эта сука плешивая была год тому, или когда там ФБК выпустили расследование про дворцы и роскошные авто Иванова? ) Что-то не дал ни одного комментария. А ответ прост - не было методички тогда, видно. Вот говорят - Соловьёв, мол, королевский пропагандон. А этот не уступает в ненависти и проплаченности, разве что у него нет эфирного времени, слава Богу.
Вывод данного персонажа, почему Иванова взяли за жабры, в отличие от других коррупционеров - наверное, оппозицию спонсировал. Тут уже по Фрейду.

Дальше любопытствующие могут ознакомиться с тем, как два теряющих человеческий облик зиганутых палача радуются, что США Украине предоставили меньше помощи, чем ожидалось, да и вообще общая помощь в $200 млрд оказалась неэффективной. Тактично умалчивая, конечно, что и Россия понесла сопоставимые расходы, и вместо разрушения и войны можно было бы на эти деньги, к примеру, построить (и поддерживать) современные бесплатные бассейн, тренажёрку, спортзал, стадион, да хотя бы блин нормальный туалет в КАЖДОМ маленьком городе и даже селе нашей страны (москвичи щас меня не поймут, наверное). Что интересно, у гоблача есть сын, но на СВО он его почему-то не отправляет - умирать в окопах за непонятные цели на чужой земле должны другие россияне, наверное. Обычное дело, кстати, пока что все зигующие, с которыми я беседовал, поддерживают войну сугубо гипотетически, и в окопы не рвутся (хотя должны бы, по идее).

Давайте посмотрим на ситуацию "с высоты птичьего полёта". Стоимость телескопа Джеймс Вебб, уникального и считающегося крайне дорогим инструмента, который для нас сейчас раскрывает тайны Вселенной, составила около $10 млрд. Разве не по-идиотски выглядит трата $400 млрд на локальные распри, захват соседской земли, когда у тебя сука весь космос на ладони, только лети, осваивай, изучай, заселяй. Если завтра прилетит крупный астероид со стороны Солнца, мы его просто вовремя не увидим (см ОмуаМуа), и мигнуть не успеем, как покроемся пеплом, погибнет вся наша цивилизация - у нас просто нет системы космической защиты от таких объектов. А за эти деньги её можно было сука СДЕЛАТЬ. Но питекантропы во власти тянут в средневековье не только страну, но и поневоле всю планету. Их горизонт планирования ограничен собственной жалкой жизнью.

https://oper.ru/news/read.php?t=1051626685
#astronomy

"Даже калибровочные снимки поразили учёных своей детализацией и возможностями. В процессе настройки бортовых систем и приборов обсерватория «Зонд Эйнштейна» обнаружила 19 февраля 2024 года первый переходный процесс и, позже, ещё 14 временных источников рентгеновского излучения, а также 127 вспышек звёзд. Можно только представить, какой поток ранее недоступной информации пойдёт с началом работы обсерватории через полтора месяца!"

https://3dnews.ru/1104048/kitayskiy-rentgenovskiy-teleskop-zond-eynshteyna-prislal-pervie-snimki-neba-i-evropeyskiy-pribor-na-bortu-toge-ne-podvyol
#pytorch #lightning #raschka

Знакомство с Pytorch Lightning от Себастиана Рашки (Units 1-10). Классный парень, автор известных книг по ML, автор либы mlxtend.

https://www.youtube.com/@PyTorchLightning/playlists
Не знаю, кем мир видит меня; в своих же собственных глазах я просто мальчик, играющий на берегу, отвлекающий себя от забот жизни поиском самых гладких галек и красивых ракушек, выброшенных из простирающегося передо мной величественного и неизведанного океана истины.


размышления сэра Исаака Ньютона
3
#pytorch #lightning

Понравился пример из доки Monte Carlo Dropout for predictions

class LitMCdropoutModel(L.LightningModule):
def __init__(self, model, mc_iteration):
super().__init__()
self.model = model
self.dropout = nn.Dropout()
self.mc_iteration = mc_iteration

def predict_step(self, batch, batch_idx):
# enable Monte Carlo Dropout
self.dropout.train()

# take average of `self.mc_iteration` iterations
pred = [self.dropout(self.model(x)).unsqueeze(0) for _ in range(self.mc_iteration)]
pred = torch.vstack(pred).mean(dim=0)
return pred


Статья
Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning.
👍1
#pytorch #lightning

В Лайтнинге обнаружился параметр тренера Trainer(benchmark=True)

Дока туманно намекает, что это некая оптимизация алгоритмов Куды. Удалось найти, каких именно:

static const algo_t algos[] = {
CUDNN_CONVOLUTION_FWD_ALGO_GEMM,
CUDNN_CONVOLUTION_FWD_ALGO_FFT,
CUDNN_CONVOLUTION_FWD_ALGO_FFT_TILING,
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_GEMM,
CUDNN_CONVOLUTION_FWD_ALGO_IMPLICIT_PRECOMP_GEMM,
CUDNN_CONVOLUTION_FWD_ALGO_DIRECT,
CUDNN_CONVOLUTION_FWD_ALGO_WINOGRAD,
CUDNN_CONVOLUTION_FWD_ALGO_WINOGRAD_NONFUSED,
}

Говорят, иногда хорошо ускоряет:


Oli
Olof Harrysson
Apr 2019

I find that torch.backends.cudnn.benchmark increases the speed for my YOLOv3 model by a lot, like 30-40%. Furthermore, it lowers the memory footprint after it completes the benchmark.

It even works when my input images vary in size between each batch, neat! I was thinking about having the network optimize on a few smaller torch.randn(...) to benchmark on, and then start the training. I hope that this could allow me to increase the batch size since the memory footprint is lower after the bechmark. What do you guys thing?


https://github.com/pytorch/pytorch/blob/1848cad10802db9fa0aa066d9de195958120d863/aten/src/ATen/native/cudnn/Conv.cpp#L486-L494
👍1
#pytorch #lightning #swa

А кто пробовал SWA?

Stochastic Weight Averaging (SWA) can make your models generalize better at virtually no additional cost. This can be used with both non-trained and trained models. The SWA procedure smooths the loss landscape thus making it harder to end up in a local minimum during optimization.

For a more detailed explanation of SWA and how it works, read this post by the PyTorch team.
#dl #gpu #hpu

Прикольно, Intel Gaudi1 заруливают NVIDIA A100 по цена/производительность. Вот бы ещё для IPU (Graphcore Intelligence Processing Unit ) такое сравнение найти.

8 NVIDIA A100 --> $0.98 / COCO epoch
8 Intel Gaudi1 HPU --> $0.73 / COCO epoch

Намекают, что Gaudi2 (уже вышли) вчетверо быстрее Gaudi1.

https://blog.roboflow.com/gpu-vs-hpu/