Логистическая регрессия, когда ответ является пропорцией (с использованием JAGS)


Я пытаюсь вписать модель логистической регрессии в JAGS, но у меня есть данные в виде (# success y, # attempts n), а не двоичной переменной. В R можно подогнать модель к данным, таким как эти, используя glm(y/n ~ ) с аргументом "веса", но я не уверен, как подогнать это в JAGS.

Вот простой пример, который, я надеюсь, отвечает на то, что я пытаюсь спросить. Обратите внимание, что я использую пакет rjags. Спасибо за любую помощь!
y <- rbinom(10, 500, 0.2)
n <- sample(500:600, 10)
p <- y/n
x <- sample(0:100, 10) # some covariate

data <- data.frame(y, n, p, x)

model <- "model{
# Specify likelihood
for(i in 1:10){
    y[i] ~ dbin(p[i], n[i])
    logit(p[i]) <- b0 + b1*x
}

# Specify priors
b0 ~ dnorm(0, 0.0001)
b1 ~ dnorm(0, 0.0001)
}"
1 8

1 ответ:

Вам вообще не нужно вычислять p в вашем наборе данных. Просто пусть это будет логический узел в вашей модели. Я предпочитаю интерфейс R2jags, который позволяет указать модель ошибок в виде функции R ...

jagsdata <- data.frame(y=rbinom(10, 500, 0.2),
                   n=sample(500:600, 10),
                   x=sample(0:100, 10))
model <- function() {
    ## Specify likelihood
    for(i in 1:10){
        y[i] ~ dbin(p[i], n[i])
        logit(p[i]) <- b0 + b1*x[i]
    }
    ## Specify priors
    b0 ~ dnorm(0, 0.0001)
    b1 ~ dnorm(0, 0.0001)
}

Теперь запустите его:

library("R2jags") 
jags(model.file=model,data=jagsdata,
     parameters.to.save=c("b0","b1"))