Публикувах бележник на Python тук: http://nbviewer.ipython.org/gist/awellis/9067358
Опитвам се да създам пробит регресионен модел с помощта на PyMC 3, използвайки генерирани данни за възстановяване на известните параметри (вижте бележника). Оценката за прихващане е почти ок, но оценката на наклона е далеч от марката.
Моят модел изглежда така:
with pm.Model() as model:
# priors
alpha = pm.Normal('alpha', mu=0, tau=0.001)
beta = pm.Normal('beta', mu=0, tau=0.001)
# linear predictor
theta_p = (alpha + beta * x)
# logic transform (just for comparison - this seems to work ok)
# def invlogit(x):
# import theano.tensor as t
# return t.exp(x) / (1 + t.exp(x))
# theta = invlogit(theta_p)
# Probit transform: this doesn't work
def phi(x):
import theano.tensor as t
return 0.5 * (1 + t.erf(x / t.sqr(2)))
theta = phi(theta_p)
# likelihood
y = pm.Bernoulli('y', p=theta, observed=y)
with model:
# Inference
start = pm.find_MAP() # Find starting value by optimization
print("MAP found:")
print("alpha:", start['alpha'])
print("beta:", start['beta'])
print("Compare with true values:")
print("true_alpha", true_alpha)
print("true_beta", true_beta)
with model:
step = pm.NUTS()
trace = pm.sample(2000,
step,
start=start,
progressbar=True) # draw posterior samples
Единственият начин изглежда да работи е да се използва Theano за дефиниране на phi(x), като се използва функцията за грешка, подобно на примера за логистична регресия от хранилището на PyMC.
Може ли някой да ме насочи в правилната посока? Има ли по-добър/лесен начин да направите това?