Forwarded from Полина Мухортова
Вероятность иметь у женщины носительство при условии что дети здоровы = (вероятность иметь здоровых детей при носительстве * вероятность носительства) / вероятность иметь здоровых детей1
1вероятность иметь здоровых детей = (вероятность иметь здоровых детей при носительстве * вероятность носительства) + (вероятность иметь здоровых детей без носительства * вероятность не-носительства)
вероятность иметь 2 здоровых детей при носительстве = 0,5*0,5=0,25
вероятность иметь здоровых детей без носительства = 1
вероятность быть носителем = 50%, не-носителем - тож 50%
получилось что 0,25*0,5/(0,25*0,5+1*0,5) = 0,2
1вероятность иметь здоровых детей = (вероятность иметь здоровых детей при носительстве * вероятность носительства) + (вероятность иметь здоровых детей без носительства * вероятность не-носительства)
вероятность иметь 2 здоровых детей при носительстве = 0,5*0,5=0,25
вероятность иметь здоровых детей без носительства = 1
вероятность быть носителем = 50%, не-носителем - тож 50%
получилось что 0,25*0,5/(0,25*0,5+1*0,5) = 0,2
1👍11🤩1
Forwarded from Nik Burlov
Взял за основу эту схему
В общем сначала рассчитал получается вероятность рождения двух здоровых детей (знаменатель)
0.5 х 0.25 + 0.5 х 1 = 0.625
А затем мы делим на это вероятность быть больной и родить двух здоровых (числитель)
0.125/0.625 = 0.2 (20%)
Получается вероятность быть больной (точнее носителем гена) при условии двух здоровых детей
В общем сначала рассчитал получается вероятность рождения двух здоровых детей (знаменатель)
0.5 х 0.25 + 0.5 х 1 = 0.625
А затем мы делим на это вероятность быть больной и родить двух здоровых (числитель)
0.125/0.625 = 0.2 (20%)
Получается вероятность быть больной (точнее носителем гена) при условии двух здоровых детей
5👍6🔥1
Простите, но на мой взгляд, одно из самых конченных странных действий у блогера (ученого и якобы популяризатора) - это делать закрытый ПЛАТНЫЙ чат с эксклюзивной полезной информацией, в т.ч. направленной на практическое применение
Т.е. вместо того, чтобы это рассказывать и делать доступным всем, он создаёт когорту "избранных" (а критерий - способность заплатить ему)
Это пиздец какой-то - помните, что это лишь мое мнение (ваше может быть другим, даже можете высказать его)
Т.е. вместо того, чтобы это рассказывать и делать доступным всем, он создаёт когорту "избранных" (а критерий - способность заплатить ему)
10👍24❤7🤔7🔥3❤🔥2⚡1
Так, эмоциональным контентом разогрели (шутка. или нет? 🤔 )
Подкинем немного сложного контента (из этой статьи)
Подкинем немного сложного контента (из этой статьи)
👍8❤1
КТО ТУТ ГОЛУБОЙ?
⠀
На широких просторах в интернете можно встретить такую фразу "OLS is BLUE"
Красивое? Показываю 🕵🏻♂️
⠀
OLS - это метод наименьших квадратов. Если грубо, то это даёт возможность оценить параметры линейной регрессии (коэффициенты b0, b1 и т.д., которые мы хотим получить в результатах, в табличке, рис.1) 😎
⠀
Но сегодня мы не об МНК поговорим, а о том, что такое быть BLUE (и почётно ли это?) 🤔
⠀
❗BLUE - best linear unbiased estimator (лучший линейный несмещенный оценщик)❗
⠀
Обсудим каждый компонент.
⠀
1) Best. Ну лучший и лучший. Главное, что лучший. 💸 Но в своем классе (линейных несмещенных оценщиков) при соблюдении определенных условий/допущений (нет автокорреляции, есть гомоскедастичность ошибок) {можно поправить мою неграмотность в этом месте}. 🫠
⠀
2) Linear. Линейность, ну тут вроде логично все. Есть же линяя на графике регрессии, вот из-за нее и линейность. 🤡
Но это линейность модели, а мы говорим о линейности оценщика. Пока мне сложно придумать как это объяснить простыми словами (биостатистики, HELP! Вдруг врачи решат это прочитать), но прикреплю скриншот с Вики (рис.2). 🧐
⠀
3) Unbiased. Несмещенность. Я пытался немного про это написать тут (а лучше заглянуть в комментарии, где Матвей дал ценные комментарии) и тут репосты Матвея и Максима (отмазался? 😀). Т.е. мы можем сказать, что мат ожидание разницы между точечной оценкой и реальным значение параметра в ГС равно 0. ☝🏻
⠀
4) Estimator. Оценщик. Смешно, но тут я немного в замешательстве, как его обозначить 🤷🏻♂️. Это правило/формула/статистика/секретныйшифр/призывдьявола. Но этот инструмент на основе данных позволяет нам получить значение оценки (estimate), которое можно использовать для какой-либо цели.
⠀
Круто ли, когда специалисты говорят "OLS is BLUE"?. Для МНК, конечно, это круто, но при соблюдении определенных допущений (как везде и всегда в статистике). ☝🏻
⠀
Предлагаю в комменты написать какие-нибудь другие фразы, мнемоники из статистики 😁
⠀
На широких просторах в интернете можно встретить такую фразу "OLS is BLUE"
Красивое? Показываю 🕵🏻♂️
⠀
OLS - это метод наименьших квадратов. Если грубо, то это даёт возможность оценить параметры линейной регрессии (коэффициенты b0, b1 и т.д., которые мы хотим получить в результатах, в табличке, рис.1) 😎
⠀
Но сегодня мы не об МНК поговорим, а о том, что такое быть BLUE (и почётно ли это?) 🤔
⠀
❗BLUE - best linear unbiased estimator (лучший линейный несмещенный оценщик)❗
⠀
Обсудим каждый компонент.
⠀
1) Best. Ну лучший и лучший. Главное, что лучший. 💸 Но в своем классе (линейных несмещенных оценщиков) при соблюдении определенных условий/допущений (нет автокорреляции, есть гомоскедастичность ошибок) {можно поправить мою неграмотность в этом месте}. 🫠
⠀
2) Linear. Линейность, ну тут вроде логично все. Есть же линяя на графике регрессии, вот из-за нее и линейность. 🤡
Но это линейность модели, а мы говорим о линейности оценщика. Пока мне сложно придумать как это объяснить простыми словами (биостатистики, HELP! Вдруг врачи решат это прочитать), но прикреплю скриншот с Вики (рис.2). 🧐
⠀
3) Unbiased. Несмещенность. Я пытался немного про это написать тут (а лучше заглянуть в комментарии, где Матвей дал ценные комментарии) и тут репосты Матвея и Максима (отмазался? 😀). Т.е. мы можем сказать, что мат ожидание разницы между точечной оценкой и реальным значение параметра в ГС равно 0. ☝🏻
⠀
4) Estimator. Оценщик. Смешно, но тут я немного в замешательстве, как его обозначить 🤷🏻♂️. Это правило/формула/статистика/секретныйшифр/призывдьявола. Но этот инструмент на основе данных позволяет нам получить значение оценки (estimate), которое можно использовать для какой-либо цели.
⠀
Круто ли, когда специалисты говорят "OLS is BLUE"?. Для МНК, конечно, это круто, но при соблюдении определенных допущений (как везде и всегда в статистике). ☝🏻
⠀
Предлагаю в комменты написать какие-нибудь другие фразы, мнемоники из статистики 😁
Мы живём в интересном мире, но в конкретной реальности.
В рамках тестирования гипотез формулируется нулевая гипотеза (часто об отсутствии эффекта). И мне кажется, она чем-то похожа на кота Шрёдингера - пока мы не откроем коробку, не узнаем статус питомца.
Но при этом всём, мы с вами живём лишь в одной реальности, где нулевая гипотеза либо верна, либо неверна. Однако мы этого не знаем… И для этого проводим исследование, где тестируем насколько наши данные соответствуют нулевой гипотезе (в лучшем случае еще контролируем вероятности ошибок)
А теперь вернемся к графику (тут по 10000 симуляций на каждый MD при двух группах rnorm(n = 100)). По сути на нем мы можем увидеть как две реальности соприкасаются 😁
При true MD (истинная разница средних) равным 0 (начало графика, конкретная точка) нулевая гипотеза верна (я это знаю, т.к. сам это контролирую). А значит процент отклонений Н0 - это вероятность альфы (ложно-положительный результат).
Но как только true MD ≠ 0 (например, + 0,0001), то Н0 уже неверна (я это знаю). И теперь процент отклонений - это мощность (истинно-положительный).
И на разных порогах p-value в MD = 0 мы видим соответствующий процент отклонений Н0. А затем эти проценты растут (растет мощность), но при разных порогах скорость набора мощности разная. Как это увидеть? Можно построить распределение p-value для разных MD и увидеть, как оно смещается в сторону к 0 и логично, что при разных порогах разное количество нулевых гипотез надо отклонить.
Но для меня самый забавный именно момент с соприкосновением реальностей))
Однако есть небольшой нюанс! True MD = 0,0001 можно округлить до 0, а значит наша точка верной нулевой гипотезы превращается потихоньку в линию 😱 Главное не переборщить с округлением, а то можно получить мыло
Дополнительно я очень советую прочитать эту статью, написано интересно и несложно
В рамках тестирования гипотез формулируется нулевая гипотеза (часто об отсутствии эффекта). И мне кажется, она чем-то похожа на кота Шрёдингера - пока мы не откроем коробку, не узнаем статус питомца.
Но при этом всём, мы с вами живём лишь в одной реальности, где нулевая гипотеза либо верна, либо неверна. Однако мы этого не знаем… И для этого проводим исследование, где тестируем насколько наши данные соответствуют нулевой гипотезе (в лучшем случае еще контролируем вероятности ошибок)
А теперь вернемся к графику (тут по 10000 симуляций на каждый MD при двух группах rnorm(n = 100)). По сути на нем мы можем увидеть как две реальности соприкасаются 😁
При true MD (истинная разница средних) равным 0 (начало графика, конкретная точка) нулевая гипотеза верна (я это знаю, т.к. сам это контролирую). А значит процент отклонений Н0 - это вероятность альфы (ложно-положительный результат).
Но как только true MD ≠ 0 (например, + 0,0001), то Н0 уже неверна (я это знаю). И теперь процент отклонений - это мощность (истинно-положительный).
И на разных порогах p-value в MD = 0 мы видим соответствующий процент отклонений Н0. А затем эти проценты растут (растет мощность), но при разных порогах скорость набора мощности разная. Как это увидеть? Можно построить распределение p-value для разных MD и увидеть, как оно смещается в сторону к 0 и логично, что при разных порогах разное количество нулевых гипотез надо отклонить.
Но для меня самый забавный именно момент с соприкосновением реальностей))
Однако есть небольшой нюанс! True MD = 0,0001 можно округлить до 0, а значит наша точка верной нулевой гипотезы превращается потихоньку в линию 😱 Главное не переборщить с округлением, а то можно получить мыло
Дополнительно я очень советую прочитать эту статью, написано интересно и несложно
1🔥7