Логистическая регрессия, когда ответ является пропорцией (с использованием JAGS)
Я пытаюсь вписать модель логистической регрессии в JAGS, но у меня есть данные в виде (# success y, # attempts n), а не двоичной переменной. В R можно подогнать модель к данным, таким как эти, используя glm(y/n ~ ) с аргументом "веса", но я не уверен, как подогнать это в JAGS.
Вот простой пример, который, я надеюсь, отвечает на то, что я пытаюсь спросить. Обратите внимание, что я использую пакет rjags. Спасибо за любую помощь!y <- rbinom(10, 500, 0.2)
n <- sample(500:600, 10)
p <- y/n
x <- sample(0:100, 10) # some covariate
data <- data.frame(y, n, p, x)
model <- "model{
# Specify likelihood
for(i in 1:10){
y[i] ~ dbin(p[i], n[i])
logit(p[i]) <- b0 + b1*x
}
# Specify priors
b0 ~ dnorm(0, 0.0001)
b1 ~ dnorm(0, 0.0001)
}"
1 ответ:
Вам вообще не нужно вычислять
p
в вашем наборе данных. Просто пусть это будет логический узел в вашей модели. Я предпочитаю интерфейсR2jags
, который позволяет указать модель ошибок в виде функции R ...jagsdata <- data.frame(y=rbinom(10, 500, 0.2), n=sample(500:600, 10), x=sample(0:100, 10)) model <- function() { ## Specify likelihood for(i in 1:10){ y[i] ~ dbin(p[i], n[i]) logit(p[i]) <- b0 + b1*x[i] } ## Specify priors b0 ~ dnorm(0, 0.0001) b1 ~ dnorm(0, 0.0001) }
Теперь запустите его:
library("R2jags") jags(model.file=model,data=jagsdata, parameters.to.save=c("b0","b1"))