久久综合久久美丽坚合_特级a毛片免费无码看_国产成人啪精品视频网站_87亚洲午夜福利网

心肺復(fù)蘇模型

R信息解析:追隨top期刊手把手教你做1個(gè)臨床預(yù)判模型

R信息解析:追隨top期刊手把手教你做1個(gè)臨床預(yù)判模型

發(fā)布日期:2022-11-15 作者:康為 點(diǎn)擊:

臨床預(yù)判模型也是大家較為感興致的,今日就帶著大家看一篇臨床預(yù)判模型的文章,以及用1個(gè)例子給大家過一遍作法。

這篇文章來自護(hù)理行業(yè)高級期刊的文章,文章名在以下

Ballesta-Castillejos A, Gómez-Salgado J, Rodríguez-Almagro J, Hernández-Martínez A. Development and validation of a predictive model of exclusive breastfeeding at hospital discharge: Retrospective cohort study. Int J Nurs Stud. 2021 May;117:103898. doi: 10.1016/j.ijnurstu.2021.103898. Epub 2021 Feb 7. PMID: 33636452.

文章作家做了個(gè)入院時(shí)純潔母乳豢養(yǎng)的預(yù)判模型,信息來自2個(gè)隊(duì)列,1個(gè)隊(duì)列做模型,此外1個(gè)拿來驗(yàn)證。樣件量的計(jì)算用的是“10個(gè)樣件1個(gè)變量”的規(guī)范,預(yù)判結(jié)局變量是個(gè)二分類,變量篩選的方式仍然是單原因有意思的都?xì)w入預(yù)判模型中,詳細(xì)的建模方式是logistic回歸模型。接著用AUC進(jìn)行模型的評價(jià)。

在結(jié)果報(bào)表上,作家報(bào)表了一切的有意思的預(yù)判原因,每個(gè)原因會展現(xiàn)OR和OR的置信區(qū)間,還有總體模型的評估指標(biāo),含蓋展現(xiàn)了模型的ROC曲線,和AUC,作家還展現(xiàn)了不同幾率階截?cái)嘀迪碌哪P偷腟ensitivity, Specificity, PPV, NPV, LR+, LR-。如圖:


1.jpg


作家全部文章是用SPSS做出去的,今日給大家寫寫論文中的各類指標(biāo)全是什么意思并且怎樣用R話語做出去論文中須要報(bào)表的各類指標(biāo)。理論鋪墊

首先給大家寫靈敏度(Sensitivity)與特異度(Specificity),這2個(gè)物品全是對于二分類結(jié)局來講的,大家先瞅瞅以下的圖:


2.jpg


咱們真正的結(jié)果有兩類也許,模型的預(yù)判也有兩類也許,上圖的AD表示模型預(yù)判對的個(gè)案數(shù)目,如此靈敏度就是:在真的有病了,你的模型有多大也許檢查出去,表示為

Sensitivity: A/(A+C) × 100

在論文中就是這個(gè)母親真的是純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的純潔母乳豢養(yǎng)。

特異度就是:我是真的真的沒病,你的模型有多大也許說我真的沒病,表示為:

Specificity: D/(D+B) × 100

在論文中就是這個(gè)母親真的不會去純潔母乳豢養(yǎng)的,模型有多大也許辨認(rèn)為真的不僅純母乳豢養(yǎng)。

有類學(xué)友說,我知曉個(gè)模型預(yù)判確切率不就好了嗎,用(A+D)/(A+B+C+D)來評價(jià)模型不就好了嗎?搞如此麻煩。。

不可如此想的,例如你如今有1個(gè)傻瓜模型,這個(gè)模型傻到它只會將一切的人都預(yù)判為沒病,恰好這個(gè)模型被用在了1個(gè)常態(tài)人群中,接著咱們發(fā)掘這個(gè)傻瓜模型的準(zhǔn)確率也是100%,這個(gè)就很離譜,因此并模型預(yù)判確切性是不可廣泛評價(jià)模型體現(xiàn)的,須要借助Sensitivity, Specificity。

咱們再看 PPV, NPV這2個(gè)指標(biāo):

Positive Predictive Value: A/(A+B) × 100

Negative Predictive Value: D/(D+C) × 100

看上面的公式,相信大家都看得出這2個(gè)實(shí)則就是模型的陰性預(yù)判確切性和陽性預(yù)判確切性,也能夠從特定角度闡明模型的體現(xiàn)。

再看LR+和 LR-,這2個(gè)就是陰性似然比 (positive likelihood ratio, LR+)和 陽性似然比

(positive likelihood ratio, LR+),似然比的概念請考慮下一段英文描繪:

Likelihood ratio (LR) is the ratio of two probabilities: (i) probability that a given test result may be expected in a diseased individual and (ii) probability that the same result will occur in a healthy subject.

如此:(LR+) = sensitivity / (1 - specificity),意義就是真陰性率與假陰性率之比。闡明模型準(zhǔn)確判定陰性的也許性是錯(cuò)誤判定陰性也許性的倍數(shù)。比值越大,實(shí)驗(yàn)結(jié)果陰性時(shí)為真陰性的幾率越大。

(LR-) = (1 - sensitivity) / specificity,意義就是假陽性率與真陽性率之比。表示錯(cuò)誤判定陽性的也許性是準(zhǔn)確判定陽性也許性的倍數(shù)。其比值越少,實(shí)驗(yàn)結(jié)果陽性時(shí)為真陽性的也許性越大。

因此大家記?。宏幮运迫槐仍酱笤胶?,陽性似然比越少越好。

最終再把上面的一切的內(nèi)容總結(jié)1個(gè)表獻(xiàn)給可惡的粉絲們,嘿嘿。以下就是1個(gè)分類結(jié)局預(yù)判變量須要報(bào)表的許多模型評價(jià)指標(biāo):


3.jpg


再回過頭想想咱們所謂的陰性或者陽性,假設(shè)用logistics回歸做的話自身這個(gè)陰性陽性的鑒別全是能夠設(shè)定的,由于咱們的模型擬合出去的是呼應(yīng)幾率,就是Logit公式里面的那個(gè)p值,你能夠以p=0.5為咱們鑒別陰陰性的cutoff,固然你還能夠以0.9或者0.1為cutoff,cutoff不同自然咱們模型靈敏度和特異度就不同了,就是說靈敏度和特異度是緊隨cutoff不同而改變著的,因此要安穩(wěn)地評價(jià)模型體現(xiàn)還須要此外的指標(biāo),這個(gè)時(shí)候咱們就引出了1個(gè)很首要的概念:ROC曲線和曲線以下積AUC。在實(shí)戰(zhàn)中解讀ROC曲線

我如今手上有信息如下:


4.jpg


我要做1個(gè)default的預(yù)判模型,default是個(gè)二分類變量,取值為“No” 和“Yes”,為了簡潔我預(yù)判原因只參考1個(gè)balance。因而我創(chuàng)建1個(gè)logistics模型:

model_glm = glm(default ~ balance, data = default_trn, family = "binomial")

咱們將預(yù)判為Yes的幾率為0.1的時(shí)候成為cutoff值,區(qū)分預(yù)判結(jié)局(p<0.1的時(shí)候?yàn)镹o,p>0.1的時(shí)候?yàn)閅es),一樣地咱們還能夠?qū)utoff設(shè)置為0.5,0.9。接著咱們分別看一看模型的靈敏度和特異度:

test_pred_10 = get_logistic_pred(model_glm, data = default_tst, res = "default", 

                                                                 pos = "Yes", neg = "No", cut = 0.1)

test_pred_50 = get_logistic_pred(model_glm, data = default_tst, res = "default", 

                                                                 pos = "Yes", neg = "No", cut = 0.5)

test_pred_90 = get_logistic_pred(model_glm, data = default_tst, res = "default", 

                                                                 pos = "Yes", neg = "No", cut = 0.9)

test_tab_10 = table(predicted = test_pred_10, actual = default_tst$default)

test_tab_50 = table(predicted = test_pred_50, actual = default_tst$default)

test_tab_90 = table(predicted = test_pred_90, actual = default_tst$default)


test_con_mat_10 = confusionMatrix(test_tab_10, positive = "Yes")

test_con_mat_50 = confusionMatrix(test_tab_50, positive = "Yes")

test_con_mat_90 = confusionMatrix(test_tab_90, positive = "Yes")

metrics = rbind(

   

   c(test_con_mat_10$overall["Accuracy"], 

       test_con_mat_10$byClass["Sensitivity"], 

       test_con_mat_10$byClass["Specificity"]),

   

   c(test_con_mat_50$overall["Accuracy"], 

       test_con_mat_50$byClass["Sensitivity"], 

       test_con_mat_50$byClass["Specificity"]),

   

   c(test_con_mat_90$overall["Accuracy"], 

       test_con_mat_90$byClass["Sensitivity"], 

       test_con_mat_90$byClass["Specificity"])

)


rownames(metrics) = c("c = 0.10", "c = 0.50", "c = 0.90")

metrics

運(yùn)作代碼后獲得呼應(yīng)幾率不同cutoff值的狀況下模型的靈敏度和特異度,如下圖:


5.jpg


能夠看見咱們設(shè)定的呼應(yīng)幾率的cutoff值不同,就是判定陰陽的規(guī)范不同,咱們獲得的模型的靈敏度和特異度就是不同的。

以上不過為了再次給大家直觀地闡明咱們的模型的靈敏度和特異度是取決于咱們的呼應(yīng)幾率界值的,你判定陰陽的規(guī)范會直接牽連模型的靈敏度和特異度,因而,咱們換個(gè)思想,針對1個(gè)模型,咱們將靈敏度成為橫坐標(biāo),特異度成為縱坐標(biāo),接著cutoff輕易取,咱們生成一條曲線,這就參考了一切的cutoff狀況了,就能夠安穩(wěn)地評價(jià)模型的體現(xiàn)了,這條曲線就是ROC曲線。

如此咱們希望的是1個(gè)模型它的靈敏度高的時(shí)候,特異度也能高,表現(xiàn)到曲線上就是曲線下的面積可以越大越好。預(yù)判模型R話語實(shí)操

此部份給大家寫怎樣做出論文中的各類指標(biāo),并且怎樣繪出ROC曲線。

仍然是用上一部份的信息,仍然是做balance預(yù)判default的模型:

model_glm = glm(default ~ balance, data = default_trn, family = "binomial")

模型流出結(jié)果如下:


6.jpg


結(jié)果中有流出模型的截距和balance的β值,咱們能夠用如下代碼獲得balance的OR值并且置信區(qū)間:

exp(cbind(OR = coef(model_glm), confint(model_glm)))

運(yùn)作上面的代碼就能夠獲得balance的OR值和OR的置信區(qū)間:


7.jpg


同時(shí)咱們有遠(yuǎn)古的真正值,咱們模型擬合好了以后能夠用該模型進(jìn)行預(yù)判,獲得預(yù)判值,生成攪渾矩陣:

model_glm_pred = ifelse(predict(model_glm, type = "response") > 0.5, "Yes", "No")

在矩陣中就能夠獲得哪類是遠(yuǎn)古信息真正的No和Yes,哪類是模型預(yù)判出去的No和Yes:


8.jpg


上面就是咱們自身信息做出去的攪渾矩陣,接著大家就能夠直接帶公式計(jì)算出須要報(bào)表的模型的Sensitivity, Specificity, PPV, NPV, LR+, LR-了。

同時(shí)大家能夠用pROC包中的roc函數(shù)一行代碼繪制出ROC曲線并獲得曲線以下積,例如我做的模型,寫出代碼如下:

test_roc = roc(default_tst$default ~ test_prob, plot = TRUE, print.auc = TRUE)

就能夠獲得ROC曲線和曲線以下積了:


9.jpg


上面的一切操控全是能夠在SPSS中完結(jié)的,論文作家也是用SPSS做的。大家感興致去閱讀原論文哈。小結(jié)

今日結(jié)合刊登文章給大家寫了分類結(jié)局的預(yù)判模型須要報(bào)表哪類指標(biāo),指標(biāo)的意思并且怎樣用R做1個(gè)分類結(jié)局的預(yù)判模型,感激大家耐煩看完,自身的文章都寫的很細(xì),首要代碼都在原文中,期望大家都能夠自身做一做,請轉(zhuǎn)發(fā)本文到同伙圈后私信答復(fù)“信息鏈接”獲得一切信息和自己采集的學(xué)習(xí)資料。假設(shè)對您有用請先記得珍藏,再點(diǎn)贊分享。

也歡迎大家的看法和倡議,大家想了解什么統(tǒng)計(jì)方式都能夠在文章下留言,說不定我看到了就會給你寫教學(xué)哦,有疑問歡迎私信。

假設(shè)你是1個(gè)大學(xué)本科生或研發(fā)生,假設(shè)你正在由于你的統(tǒng)計(jì)功課、信息解析、模型建立,科研統(tǒng)計(jì)設(shè)計(jì)等憂愁,假設(shè)你在應(yīng)用SPSS, R,Python,Mplus, Excel中碰到任意問題,都能夠聯(lián)絡(luò)我。由于我能夠給您供應(yīng)最佳的,最全面和耐煩的信息解析服務(wù)。

假設(shè)你對Z檢查,t檢查,方差解析,多元方差解析,回歸,卡方檢查,有關(guān),多程度模型,構(gòu)造方程模型,中介調(diào)整,量表信效度等等統(tǒng)計(jì)方法有任意問題,請私信我,獲得全面和耐煩的引導(dǎo)。

If you are a student and you are worried about you statistical #Assignments, #Data #Analysis, #Thesis, #Reports, #Composing, #Quizzes, Exams.. And if you are facing problem in #SPSS, #R-Programming, #Excel, Mplus, then contact me. Because I could provide you the best services for your Data Analysis.

Are you confused with statistical Techniques like z-test, t-test, ANOVA, MANOVA, Regression, Logistic Regression, Chi-Square, Correlation, Association, SEM, multilevel model, mediation and moderation etc. for your Data Analysis...??

Then Contact Me. I will solve your Problem...

加油吧,打工人!往期精彩

R信息解析:用R話語做meta解析

 R信息解析:用R話語做潛類型解析LCA

 R信息解析:什么是人群歸因分?jǐn)?shù)Population Attributable Fraction

 R信息解析:手把手教你畫列線圖(Nomogram)及理解結(jié)果

 R信息解析:偏向性評分匹配完好實(shí)例(R實(shí)行)

 R文本發(fā)掘:感情解析

 R信息解析:怎樣用R做驗(yàn)證性因子解析及繪圖,實(shí)例操練

 R信息解析:有調(diào)整的中介

 R信息解析:怎樣用R做多重插補(bǔ),實(shí)例操練

 R信息解析:多分類邏輯回歸

 R文本發(fā)掘:中文詞云形成,以2021新年賀辭為例

 R信息解析:臨床預(yù)判模型的樣件量討論及R實(shí)行

 R信息解析:混合效應(yīng)模型實(shí)例

 R信息解析:隨機(jī)截距交叉滯后RI-CLPM與傳統(tǒng)交叉滯后CLPM

 R信息解析:多程度模型全面闡明

 R信息解析:怎樣做潛在剖面解析Mplus

 R信息解析:主成份解析及可視化

 R信息解析:生存解析的作法與闡明續(xù)

 R信息解析:競爭危害模型的作法妥協(xié)釋二

 R信息解析:怎樣做邏輯斯蒂回歸

 R信息解析:開拓性因子解析

 R信息解析:交叉滯后模型非專業(yè)闡明

 R信息解析:線性回歸的作法和優(yōu)化實(shí)例

 R信息解析:多元邏輯斯蒂回歸的作法

 R信息解析:非專業(yè)講解潛變量增長模型

 R信息解析:競爭危害模型的作法妥協(xié)釋

 R信息解析:中介功效與調(diào)整功效的解析與闡明

 R信息解析:混合效應(yīng)模型的可視解除釋,再不懂就真沒方法

 R信息解析:潛增長模型LGM的作法妥協(xié)釋,及其與混合模型對照

 信息可視化——R話語分組較為時(shí)圖形增加P值和明顯性程度

 R信息解析:構(gòu)造方程模型繪圖并且模型較為,實(shí)例操練 



本文網(wǎng)址:http://www.veggoos.com/news/1887.html

相關(guān)標(biāo)簽:預(yù)判模型,總體模型,模型預(yù)判,傻瓜模型,這個(gè)模型,評價(jià)模型,模型評價(jià),模型靈敏度,logistics模型,1個(gè)模型,1個(gè)模型它,模型流出,流出模型,程度模型,方程模型,效應(yīng)模型實(shí)例,危害模型,滯后模型,增長模型,效應(yīng)模型,模型LGM,混合模型

最近瀏覽:

相關(guān)產(chǎn)品:

相關(guān)新聞:

在線客服
分享