Efeitos negativos da regressão binomial na média e no parâmetro de dispersão

0
Voto

Minha variável dependente está superdispersa. Portanto, desejo aplicar uma regressão binomial negativa generalizada aos meus dados. Além disso, desejoexaminar os efeitos dos indicadores sobre o parâmetro de média e dispersão, como nestes dois artigos:

Minha variável dependente está superdispersa. Portanto, desejo aplicar uma regressão binomial negativa generalizada aos meus dados. Além disso, desejoexaminar os efeitos dos indicadores sobre o parâmetro de média e dispersão, examinar os efeitos dos indicadores sobre o parâmetro de média e dispersão, como nestes dois artigos:

Na página 128: Fleming, Lee (2001): Recombinant Uncertainty in Technological Search. Em Management Science 47 (1), pp. 117–132. DOI: 10.1287/mnsc.47.1.117.10671.

Na página 128: Fleming, Lee (2001): Recombinant Uncertainty in Technological Search. Em Management Science 47 (1), pp. 117–132. DOI: 10.1287/mnsc.47.1.117.10671.

Na página 719: Verhoeven, Dennis; Bakker, Jurriën; Veugelers, Reinhilde (2016): Medindo a inovação tecnológica com indicadores baseados em patentes. Em Research Policy 45 (3), pp. 707-723. DOI: 10.1016/j.respol.2015.11.010.

Na página 719: Verhoeven, Dennis; Bakker, Jurriën; Veugelers, Reinhilde (2016): Medindo a inovação tecnológica com indicadores baseados em patentes. Em Research Policy 45 (3), pp. 707-723. DOI: 10.1016/j.respol.2015.11.010.

Ambos os autores fizeram a regressão no STATA, portanto não posso confiar no código deles, pois quero fazer em Python (ou se não for possível, no SPSS).

Ambos os autores fizeram a regressão no STATA, portanto, não posso confiar no código deles, pois quero fazê-lo em Python (ou se não for possível, em SPSS).

Meu código Python atual processa a regressão e mostra os coeficientes de regressão. No entanto, não vejo a opção de gerar o efeito na média e na dispersão:

Meu código Python atual processa a regressão e mostra os coeficientes de regressão. No entanto, não vejo a opção de obter o efeito sobre a média e a dispersão:
expr="""CIT_REC ~ SCIENCE_NOV  
+ APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS"""

y_train, X_train=dmatrices(expr, df_train, return_type='dataframe')

X_train=sm.add_constant(X_train)

poisson_training_results=sm.GLM(y_train, X_train, family=sm.families.Poisson()).fit()
#print(poisson_training_results.summary())

import statsmodels.formula.api as smf
df_train['BB_LAMBDA']=poisson_training_results.mu

df_train['AUX_OLS_DEP']=df_train.apply(lambda x: ((x['CIT_REC'] -x['BB_LAMBDA'])**2 -x['CIT_REC'])/x['BB_LAMBDA'], axis=1)

ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1"""
aux_olsr_results=smf.ols(ols_expr, df_train).fit()
print(aux_olsr_results.params)

nb2_training_results=sm.GLM(y_train, X_train,family=sm.families.NegativeBinomial(alpha=aux_olsr_results.params[0])).fit()
print(nb2_training_results.summary())
expr="""CIT_REC ~ SCIENCE_NOV + APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS""" y_train, X_train=dmatrices(expr, df_train, return_type='dataframe') X_train=sm.add_constant(X_train) poisson_training_results=sm.GLM(y_train, X_train, family=sm.families.Poisson()).fit() #print(poisson_training_results.summary()) import statsmodels.formula.api as smf df_train['BB_LAMBDA']=poisson_training_results.mu df_train['AUX_OLS_DEP']=df_train.apply(lambda x: ((x['CIT_REC'] -x['BB_LAMBDA'])**2 -x['CIT_REC'])/x['BB_LAMBDA'], axis=1) ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1""" aux_olsr_results=smf.ols(ols_expr, df_train).fit() print(aux_olsr_results.params) nb2_training_results=sm.GLM(y_train, X_train,family=sm.families.NegativeBinomial(alpha=aux_olsr_results.params[0])).fit() print(nb2_training_results.summary()) expr="""CIT_REC ~ SCIENCE_NOV + APY + PBY + IPC_A + IPC_B + IPC_C + IPC_D + IPC_E + IPC_F + IPC_G + IPC_H + IPC_Y + NUM_CLAIMS + NUM_ID_CLAIMS + NUM_DP_CLAIMS + COMPL_CLAIMS""" y_train, X_train=dmatrices (expr, df_train, return_type='dataframe') X_train=sm.add_constant (X_train) poisson_training_results=sm.GLM (y_train, X_train, family=sm.families.Poisson ()). fit () #print (poisson_training_results.summary ()) import statsmodels.formula.api as smf df_train['BB_LAMBDA']=poisson_training_results.mu df_train['AUX_OLS_DEP']=df_train.apply (lambda x: ((x['CIT_REC'] -x['BB_LAMBDA']) ** 2 -x['CIT_REC'])/x['BB_LAMBDA'], eixo=1) ols_expr="""AUX_OLS_DEP ~ BB_LAMBDA -1""" aux_olsr_results=smf.ols (ols_expr, df_train) .fit () imprimir (aux_olsr_results.params) nb2_training_results=sm.GLM (y_train, X_train, family=sm.families.NegativeBinomial (alpha=aux_olsr_results.params[0])). fit () imprimir (nb2_training_results.summary ())

Esta é a saída atual.

Esta é a saída atual.
                 Generalized Linear Model Regression Results                  
==============================================================================
Dep. Variable:                CIT_REC   No. Observations:               120332
Model:                            GLM   Df Residuals:                   120316
Model Family:        NegativeBinomial   Df Model:                           15
Link Function:                    log   Scale:                          1.0000
Method:                          IRLS   Log-Likelihood:            -3.7912e+05
Date:                Thu, 08 Oct 2020   Deviance:                       74180.
Time:                        10:45:42   Pearson chi2:                 2.05e+05
No. Iterations:                    14                                         
Covariance Type:            nonrobust                                         
=================================================================================
                    coef    std err          z      P>|z|      [0.025      0.975]
---------------------------------------------------------------------------------
Intercept       228.8814      3.172     72.148      0.000     222.664     235.099
SCIENCE_NOV       3.3563      0.532      6.309      0.000       2.314       4.399
APY               0.0129      0.008      1.663      0.096      -0.002       0.028
PBY              -0.1385      0.008    -17.227      0.000      -0.154      -0.123
IPC_A            26.0610      0.353     73.732      0.000      25.368      26.754
IPC_B            25.3848      0.352     72.015      0.000      24.694      26.076
IPC_C            24.7705      0.356     69.669      0.000      24.074      25.467
IPC_D            24.6420      0.382     64.585      0.000      23.894      25.390
IPC_E            25.0614      0.357     70.161      0.000      24.361      25.762
IPC_F            25.3837      0.358     70.980      0.000      24.683      26.085
IPC_G            25.6531      0.352     72.802      0.000      24.962      26.344
IPC_H            25.7289      0.354     72.631      0.000      25.035      26.423
IPC_Y            26.1960      0.367     71.351      0.000      25.476      26.916
NUM_CLAIMS       -0.5566      0.178     -3.123      0.002      -0.906      -0.207
NUM_ID_CLAIMS     0.5767      0.178      3.235      0.001       0.227       0.926
NUM_DP_CLAIMS     0.5758      0.178      3.230      0.001       0.226       0.925
COMPL_CLAIMS     -0.0002   2.56e-05     -7.709      0.000      -0.000      -0.000
=================================================================================
Generalized Linear Model Regression Results ============================================================================== Dep. Variable: CIT_REC No. Observations: 120332 Model: GLM Df Residuals: 120316 Model Family: NegativeBinomial Df Model: 15 Link Function: log Scale: 1.0000 Method: IRLS Log-Likelihood: -3.7912e+05 Date: Thu, 08 Oct 2020 Deviance: 74180. Time: 10:45:42 Pearson chi2: 2.05e+05 No. Iterations: 14 Covariance Type: nonrobust ================================================================================= coef std err z P>|z| [0.025 0.975] --------------------------------------------------------------------------------- Intercept 228.8814 3.172 72.148 0.000 222.664 235.099 SCIENCE_NOV 3.3563 0.532 6.309 0.000 2.314 4.399 APY 0.0129 0.008 1.663 0.096 -0.002 0.028 PBY -0.1385 0.008 -17.227 0.000 -0.154 -0.123 IPC_A 26.0610 0.353 73.732 0.000 25.368 26.754 IPC_B 25.3848 0.352 72.015 0.000 24.694 26.076 IPC_C 24.7705 0.356 69.669 0.000 24.074 25.467 IPC_D 24.6420 0.382 64.585 0.000 23.894 25.390 IPC_E 25.0614 0.357 70.161 0.000 24.361 25.762 IPC_F 25.3837 0.358 70.980 0.000 24.683 26.085 IPC_G 25.6531 0.352 72.802 0.000 24.962 26.344 IPC_H 25.7289 0.354 72.631 0.000 25.035 26.423 IPC_Y 26.1960 0.367 71.351 0.000 25.476 26.916 NUM_CLAIMS -0.5566 0.178 -3.123 0.002 -0.906 -0.207 NUM_ID_CLAIMS 0.5767 0.178 3.235 0.001 0.227 0.926 NUM_DP_CLAIMS 0.5758 0.178 3.230 0.001 0.226 0.925 COMPL_CLAIMS -0.0002 2.56e-05 -7.709 0.000 -0.000 -0.000 ================================================================================= Resultados da regressão do modelo linear generalizado ======================================================================================== Dep. Variável: CIT_REC No. Observações: 120332 Modelo: GLM Df Residuais: 120316 Família do modelo: NegativeBinomial Df Model: 15 Função de ligação: log Escala: 1,0000 Método: IRLS Log-Probabilidade: -3,7912e + 05 Data: quinta, 8 de outubro de 2020 Desvio: 74180. Hora: 10:45:42 Pearson chi2: 2.05e + 05 Não. Iterações: 14 Tipo de covariância: não robusto =========================================================================================== coef std err z P>| z|[0,025 0,975] --------------------------------------------------------------------------------- Interceptar 228,8814 3,172 72,148 0,000 222,664 235,099 SCIENCE_NOV 3,3563 0,532 6,309 0,000 2,314 4,399 APY 0,0129 0,008 1,663 0,096 -0,002 0,028 PBY -0,1385 0,008 -17,227 0,000 -0,154 -0,123 IPC_A 26,0610 0,353 73,732 0,000 25,368 26,754 IPC_B 25,3848 0,352 72,015 0,000 24,694 26,076 IPC_C 24,7705 0,356 69,669 0,000 24,074 25,467 IPC_D 24,6420 0,382 64,585 0,000 23,894 25,390 IPC_E 25,0614 0,357 70,161 0,000 24,361 25,762IPC_F 25,3837 0,358 70,980 0,000 24,683 26,085 IPC_G 25,6531 0,352 72,802 0,000 24,962 26,344 IPC_H 25,7289 0,354 72,631 0,000 25,035 26,423 IPC_Y 26,1960 0,367 71,351 0,000 25,476 26,916 NUM_CLAIMS -0,5566 0,178 -3,123 0,002 -0,906 -0,207 NUM_ID_CLAIMS 0,5767 0,178 3,235 0,001 0,227 0,926 NUM_DP_CLAIMS 0,5758 0,178 3,230 0,001 0,226 0,925 COMPL_CLAIMS -0.0002 2.56e-05 -7.709 0.000 -0.000 -0.000 ===========================================================================================

Editar:perguntei aos autores que receberam a seguinte mensagem. Usamos o comando stata ‘nbreg’ e especificamos ‘lnalpha (vars)’ como uma opção para modelar a dispersão. Existe uma função semelhante em python ou SPSS?

Editar:Editar: perguntei aos autores que receberam a seguinte mensagem. Usamos o comando stata ‘nbreg’ e especificamos ‘lnalpha (vars)’ como uma opção para modelar a dispersão. Existe uma função semelhante em python ou SPSS?

Fonte

glm python statsmodels regression

-StupidWolf

1 -StupidWolf

-Nils_Denter

Esperando a resposta

Você pode interessar

© 2021   OlaMundo.Org