Ebm_base – Telegram
Ebm_base
3.72K subscribers
507 photos
11 videos
27 files
254 links
Альтернативное, дополнительное, неэкологичное пространство для рассказов о доказательной медицине, статистике, эпидемиологии и прочим ужасам 👀

Клоун, автор и организатор журнального клуба @Nik_Burlov

База: https://instagram.com/ebm_base
Download Telegram
Кто-то ещё ждёт результаты собеседований по ЖК? 😁
Скоро будут))) ну финальное собеседование)
🙏107🔥2
Ахахахаха
Пошел я колотить состояние

Upd. Или я его ещё не сколотил, потому что не прочитал эту самую необходимую? 🤔
😁11👍4
Попробуйте решить 😁
Forwarded from Maksim Kuznetsov
Симпатичная задчака по генетике/терверу. Xh - аллель гемофилии, вопрос: какова вероятность того, что женщина обведенная окружностью является носителем?
Решение из комментариев
Forwarded from Полина Мухортова
Вероятность иметь у женщины носительство при условии что дети здоровы = (вероятность иметь здоровых детей при носительстве * вероятность носительства) / вероятность иметь здоровых детей1

1вероятность иметь здоровых детей = (вероятность иметь здоровых детей при носительстве * вероятность носительства) + (вероятность иметь здоровых детей без носительства * вероятность не-носительства)

вероятность иметь 2 здоровых детей при носительстве = 0,5*0,5=0,25
вероятность иметь здоровых детей без носительства = 1
вероятность быть носителем = 50%, не-носителем - тож 50%

получилось что 0,25*0,5/(0,25*0,5+1*0,5) = 0,2
1👍11🤩1
Мое решение
Forwarded from Nik Burlov
Взял за основу эту схему

В общем сначала рассчитал получается вероятность рождения двух здоровых детей (знаменатель)
0.5 х 0.25 + 0.5 х 1 = 0.625

А затем мы делим на это вероятность быть больной и родить двух здоровых (числитель)

0.125/0.625 = 0.2 (20%)

Получается вероятность быть больной (точнее носителем гена) при условии двух здоровых детей
5👍6🔥1
Простите, но на мой взгляд, одно из самых конченных странных действий у блогера (ученого и якобы популяризатора) - это делать закрытый ПЛАТНЫЙ чат с эксклюзивной полезной информацией, в т.ч. направленной на практическое применение
Т.е. вместо того, чтобы это рассказывать и делать доступным всем, он создаёт когорту "избранных" (а критерий - способность заплатить ему)
Это пиздец какой-то - помните, что это лишь мое мнение (ваше может быть другим, даже можете высказать его)
10👍247🤔7🔥3❤‍🔥21
Так, эмоциональным контентом разогрели (шутка. или нет? 🤔)

Подкинем немного сложного контента (из этой статьи)
👍81
Стремлюсь быть как
КТО ТУТ ГОЛУБОЙ?

На широких просторах в интернете можно встретить такую фразу "OLS is BLUE"
Красивое? Показываю 🕵🏻‍♂️

OLS - это метод наименьших квадратов. Если грубо, то это даёт возможность оценить параметры линейной регрессии (коэффициенты b0, b1 и т.д., которые мы хотим получить в результатах, в табличке, рис.1) 😎

Но сегодня мы не об МНК поговорим, а о том, что такое быть BLUE (и почётно ли это?) 🤔

BLUE - best linear unbiased estimator (лучший линейный несмещенный оценщик)

Обсудим каждый компонент.

1) Best. Ну лучший и лучший. Главное, что лучший. 💸 Но в своем классе (линейных несмещенных оценщиков) при соблюдении определенных условий/допущений (нет автокорреляции, есть гомоскедастичность ошибок) {можно поправить мою неграмотность в этом месте}. 🫠

2) Linear. Линейность, ну тут вроде логично все. Есть же линяя на графике регрессии, вот из-за нее и линейность. 🤡
Но это линейность модели, а мы говорим о линейности оценщика. Пока мне сложно придумать как это объяснить простыми словами (биостатистики, HELP! Вдруг врачи решат это прочитать), но прикреплю скриншот с Вики (рис.2). 🧐

3) Unbiased. Несмещенность. Я пытался немного про это написать тут (а лучше заглянуть в комментарии, где Матвей дал ценные комментарии) и тут репосты Матвея и Максима (отмазался? 😀). Т.е. мы можем сказать, что мат ожидание разницы между точечной оценкой и реальным значение параметра в ГС равно 0. ☝🏻

4) Estimator. Оценщик. Смешно, но тут я немного в замешательстве, как его обозначить 🤷🏻‍♂️. Это правило/формула/статистика/секретныйшифр/призывдьявола. Но этот инструмент на основе данных позволяет нам получить значение оценки (estimate), которое можно использовать для какой-либо цели.

Круто ли, когда специалисты говорят "OLS is BLUE"?. Для МНК, конечно, это круто, но при соблюдении определенных допущений (как везде и всегда в статистике). ☝🏻

Предлагаю в комменты написать какие-нибудь другие фразы, мнемоники из статистики 😁
Рис.1 и 2.
Ebm_base pinned «КТО ТУТ ГОЛУБОЙ? ⠀ На широких просторах в интернете можно встретить такую фразу "OLS is BLUE" Красивое? Показываю 🕵🏻‍♂️ ⠀ OLS - это метод наименьших квадратов. Если грубо, то это даёт возможность оценить параметры линейной регрессии (коэффициенты b0, b1 и…»
Как связаны p-value и alpha?

В статьях значение alpha указывают как порог для p-value. Почему и как это отражается на данном графике? А что происходит в его неувеличенной части?

Какие у вас идеи?
3👍4💩32
Мы живём в интересном мире, но в конкретной реальности.
В рамках тестирования гипотез формулируется нулевая гипотеза (часто об отсутствии эффекта). И мне кажется, она чем-то похожа на кота Шрёдингера - пока мы не откроем коробку, не узнаем статус питомца.
Но при этом всём, мы с вами живём лишь в одной реальности, где нулевая гипотеза либо верна, либо неверна. Однако мы этого не знаем… И для этого проводим исследование, где тестируем насколько наши данные соответствуют нулевой гипотезе (в лучшем случае еще контролируем вероятности ошибок)

А теперь вернемся к графику (тут по 10000 симуляций на каждый MD при двух группах rnorm(n = 100)). По сути на нем мы можем увидеть как две реальности соприкасаются 😁
При true MD (истинная разница средних) равным 0 (начало графика, конкретная точка) нулевая гипотеза верна (я это знаю, т.к. сам это контролирую). А значит процент отклонений Н0 - это вероятность альфы (ложно-положительный результат).
Но как только true MD ≠ 0 (например, + 0,0001), то Н0 уже неверна (я это знаю). И теперь процент отклонений - это мощность (истинно-положительный).

И на разных порогах p-value в MD = 0 мы видим соответствующий процент отклонений Н0. А затем эти проценты растут (растет мощность), но при разных порогах скорость набора мощности разная. Как это увидеть? Можно построить распределение p-value для разных MD и увидеть, как оно смещается в сторону к 0 и логично, что при разных порогах разное количество нулевых гипотез надо отклонить.

Но для меня самый забавный именно момент с соприкосновением реальностей))

Однако есть небольшой нюанс! True MD = 0,0001 можно округлить до 0, а значит наша точка верной нулевой гипотезы превращается потихоньку в линию 😱 Главное не переборщить с округлением, а то можно получить мыло

Дополнительно я очень советую прочитать эту статью, написано интересно и несложно
1🔥7