Docsity
Docsity

Prepare-se para as provas
Prepare-se para as provas

Estude fácil! Tem muito documento disponível na Docsity


Ganhe pontos para baixar
Ganhe pontos para baixar

Ganhe pontos ajudando outros esrudantes ou compre um plano Premium


Guias e Dicas
Guias e Dicas

Gujarati usando stata, Manuais, Projetos, Pesquisas de Economia

manual para auxiliar a rodar as regressões do livro de econometria básica do gujarati

Tipologia: Manuais, Projetos, Pesquisas

2012
Em oferta
30 Pontos
Discount

Oferta por tempo limitado


Compartilhado em 20/02/2012

gea-z-m-2
gea-z-m-2 🇧🇷

1 documento

Pré-visualização parcial do texto

Baixe Gujarati usando stata e outras Manuais, Projetos, Pesquisas em PDF para Economia, somente na Docsity! GUJARATI USANDO STATA Por: GEÁSI MORAIS Este manual foi desenvolvido no intuito de auxiliar os estudantes de graduação que estão cursando a disciplina econometria. Todas as rotinas aqui expostas acompanham os procedimentos do livro Econometria Básica do autor Damodar N. Gujarati, usando o Software Stata 11. Estimação da função consumo (I.3.3) com dados da tabela I.1 reg y x Source | SS df MS Number of obs = 15 -------------+------------------------------ F( 1, 13) = 8144.59 Model | 3351406.23 1 3351406.23 Prob > F = 0.0000 Residual | 5349.35306 13 411.488697 R-squared = 0.9984 -------------+------------------------------ Adj R-squared = 0.9983 Total | 3356755.58 14 239768.256 Root MSE = 20.285 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .706408 .0078275 90.25 0.000 .6894978 .7233182 _cons | -184.0779 46.26183 -3.98 0.002 -284.0205 -84.13525 ------------------------------------------------------------------------------ Estimação da regressão 3.6.1 A regressão 3.6.1 é estimada com dados da tabela 3.2 reg y x Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 8) = 202.87 Model | 8552.72727 1 8552.72727 Prob > F = 0.0000 Residual | 337.272727 8 42.1590909 R-squared = 0.9621 -------------+------------------------------ Adj R-squared = 0.9573 Total | 8890 9 987.777778 Root MSE = 6.493 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .5090909 .0357428 14.24 0.000 .4266678 .591514 _cons | 24.45455 6.413817 3.81 0.005 9.664256 39.24483 ------------------------------------------------------------------------------ A covariância de beta 1 e beta 2 é obtida por meio da matriz de variância e covariância (var-cov): . mat a = e(V) . mat list a symmetric a[2,2] x _cons x .00127755 _cons -.2171832 41.137052 Onde os elementos da diagonal principal são as variância de beta 1 (variância do termo de intercepto, a constante) e a variância de beta 2 (a variância do coeficiente de x, o coeficiente angular). Total | 375916.436 54 6961.41549 Root MSE = 66.856 ------------------------------------------------------------------------------ despalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- desptot | .4368088 .0783226 5.58 0.000 .2797135 .593904 _cons | 94.20878 50.85635 1.85 0.070 -7.796134 196.2137 ------------------------------------------------------------------------------ No mesmo exemplo é testado a hipótese de que o verdadeiro beta2 seja igual a 0.5: H0: beta 2=0.5 test desptot=0.5 ( 1) desptot = .5 F( 1, 53) = 0.65 Prob > F = 0.4234 Pelo teste F (t^2) não a hipótese H0 não é rejeitada, ou seja, o verdadeiro beta2 é igual a 0.5. Logo em seguida é feito o teste Jarque Bera de Normalidade dos termos de erro: H0: os termos de erro tem distribuição normal: Para teste esta hipótese é preciso primeiro gerar os resíduos da regressão acima. O comando para gerar os resíduos é: predict residuos, r A palavra resíduos pode ser substituída por qualquer outro nome que você queira dar para o série de resíduos O comando para fazer o teste Jarque Bera é: jb6 residuos Jarque-Bera normality test: .2576 Chi(2) .8792 Jarque-Bera test for Ho: normality: (residuos) O valor da estatística JB é 0.2576 e a probabilidade de obter esse número é aproximadamente 88%, o que nos leva a não rejeitar a hipótese H0 de normalidade dos termos de erro. No livro também tem a média dos resíduos e outras medidas, a síntese do comando no Stata para isso é summarize ou simplesmente sum. sum Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------- despalim | 55 373.3455 83.4351 196 610 desptot | 55 639.0364 116.1595 382 801 residuos | 55 1.76e-07 66.23382 -153.7664 171.5859 desse modo, obtemos o número de observações, a media, o desvio padrão, o mínimo e o máximo e todas as variáveis que temos. Para obter essas medidas de uma variável especifica basta digitar o nome da variável depois do comando sum. sum residuos Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------- residuos | 55 1.76e-07 66.23382 -153.7664 171.5859 Estimação da equação 6.1.12 com base nos dados da tabela 6.1 reg y x, noconst Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 9) = 32.38 Model | 12364.2629 1 12364.2629 Prob > F = 0.0003 Residual | 3437.14716 9 381.90524 R-squared = 0.7825 -------------+------------------------------ Adj R-squared = 0.7583 Total | 15801.4101 10 1580.14101 Root MSE = 19.542 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | 1.089912 .1915512 5.69 0.000 .6565926 1.523231 ------------------------------------------------------------------------------ A única diferença no comando para fazer a regressão sem intercepto é o acréscimo de uma virgula e a palavra noconst. A regressão com intercepto é: reg y x Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 1, 8) = 20.12 Model | 8616.40362 1 8616.40362 Prob > F = 0.0020 Residual | 3425.2855 8 428.160687 R-squared = 0.7155 -------------+------------------------------ Adj R-squared = 0.6800 Total | 12041.6891 9 1337.96546 Root MSE = 20.692 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | 1.069084 .2383154 4.49 0.002 .5195275 1.61864 _cons | 1.279718 7.68856 0.17 0.872 -16.45013 19.00957 ------------------------------------------------------------------------------ Estimação da regressão 6.5.5 com base nos dados da tabela 6.3 Para estimar a regressão 6.5.5 que é um modelo log-log (ou log-linear), temos que primeiro transforma as variáveis para ln (logaritmo natural). O comando no Stata é: gen lndespalim = ln(despalim) gen lndesptot = ln(desptot) O comando acima está logaritmizando as variáveis, isto pode ser feito numa planilha do Excel antes de por os dados no Stata. O comanda gen significa que eu vou gerar uma nova variável através de uma operação matemática. A palavra lndespalim é o nome da nova variável pode ser qualquer outro. E o lado direito da igualdade é a operação em si, ln(despalim) significa que estou tirando o logaritmo natural da variável despalim. O mesmo raciocino para a variável desptot. Depois de gerara as variáveis podemos rodar a regressão: reg lndespalim lndesptot Source | SS df MS Number of obs = 55 -------------+------------------------------ F( 1, 53) = 37.21 Model | 1.16070799 1 1.16070799 Prob > F = 0.0000 Residual | 1.65334333 53 .031195157 R-squared = 0.4125 -------------+------------------------------ Adj R-squared = 0.4014 Total | 2.81405132 54 .052112062 Root MSE = .17662 ------------------------------------------------------------------------------ lndespalim | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lndesptot | .7363261 .1207125 6.10 0.000 .4942075 .9784448 _cons | 1.154333 .777959 1.48 0.144 -.4060553 2.714721 ------------------------------------------------------------------------------ Estimação da regressão 6.7.2 com base nos dados da tabela 6.4 Do mesmo modo que geramos a variável no modelo log-log, temos que gerar a variável inversa no modelo reciproco: gen inverpnb = 1/pnb onde inverpnb é nome que queremos dar pra variável que será gerada e 1/pnb é a operação que vai gera a nova variável, ou seja a inversa do PNB. Depois basta fazer a regressão normalmente: reg mi inverpnb Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 1, 62) = 52.61 Model | 166946.595 1 166946.595 Prob > F = 0.0000 Residual | 196731.405 62 3173.08717 R-squared = 0.4591 -------------+------------------------------ Adj R-squared = 0.4503 Total | 363678 63 5772.66667 Root MSE = 56.33 ------------------------------------------------------------------------------ mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- inverpnb | 27273.16 3759.999 7.25 0.000 19757.03 34789.3 _cons | 81.79436 10.83206 7.55 0.000 60.14138 103.4473 ------------------------------------------------------------------------------ Estimação da regressão 6.7.5 com base nos dados da tabela 6.5 Primeiro você observa que o lado esquerdo da equação, a variável dependente esta em primeira diferença, assim é preciso criar essa variável no Stata. Porém para criar uma variável em primeira diferença o Stata precisa saber que estamos trabalhando com uma série temporal. O comando para declara que estamos trabalhando com uma serie temporal é: tsset ano, yearly time variable: ano, 1960 to 1998 delta: 1 year Agora que estamos de posse dos resíduos das duas regressões podemos rodar a regressão 7.3.5: reg u1 u2, noconst Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 1, 63) = 8.21 Model | 13847.3245 1 13847.3245 Prob > F = 0.0057 Residual | 106315.625 63 1687.54961 R-squared = 0.1152 -------------+------------------------------ Adj R-squared = 0.1012 Total | 120162.95 64 1877.54609 Root MSE = 41.08 ------------------------------------------------------------------------------ u1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- u2 | -.0056466 .0019712 -2.86 0.006 -.0095857 -.0017075 ------------------------------------------------------------------------------ Observe que a regressão dos resíduos é sem o intercepto (noconst). Estimação da regressão 7.6.2 com base nos dados da tabela 6.4: O procedimento para estima uma regressão múltipla é o mesmo para regressão simples, basta acrescentar a nova variável no modelo: reg mi pnb taf Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 2, 61) = 73.83 Model | 257362.373 2 128681.187 Prob > F = 0.0000 Residual | 106315.627 61 1742.87913 R-squared = 0.7077 -------------+------------------------------ Adj R-squared = 0.6981 Total | 363678 63 5772.66667 Root MSE = 41.748 ------------------------------------------------------------------------------ mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408 taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177 _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236 ------------------------------------------------------------------------------ Estimação das regressões 7.8.8 e 7.8.9 com base nos dados da tabela 7.1 7.8.8 . reg y x Source | SS df MS Number of obs = 11 -------------+------------------------------ F( 1, 9) = 17.69 Model | .29297476 1 .29297476 Prob > F = 0.0023 Residual | .1490797 9 .016564411 R-squared = 0.6628 -------------+------------------------------ Adj R-squared = 0.6253 Total | .44205446 10 .044205446 Root MSE = .1287 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | -.479529 .1140218 -4.21 0.002 -.7374642 -.2215939 _cons | 2.691124 .1216225 22.13 0.000 2.415995 2.966253 ------------------------------------------------------------------------------ 7.8.9 . gen lny = ln(y) . gen lnx = ln(x) . reg lny lnx Source | SS df MS Number of obs = 11 -------------+------------------------------ F( 1, 9) = 26.27 Model | .066054476 1 .066054476 Prob > F = 0.0006 Residual | .02263302 9 .00251478 R-squared = 0.7448 -------------+------------------------------ Adj R-squared = 0.7164 Total | .088687496 10 .00886875 Root MSE = .05015 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnx | -.2530461 .049374 -5.13 0.001 -.3647379 -.1413543 _cons | .7774176 .0152421 51.00 0.000 .7429375 .8118977 ------------------------------------------------------------------------------ Estimação da regressão 7.9.4 com base nos dados da tabela 7.3 gen lny = ln(y) . gen lnx2 = ln(x2) . gen lnx3 = ln(x3) . reg lny lnx2 lnx3 Source | SS df MS Number of obs = 15 -------------+------------------------------ F( 2, 12) = 48.07 Model | .538038027 2 .269019013 Prob > F = 0.0000 Residual | .067158351 12 .005596529 R-squared = 0.8890 -------------+------------------------------ Adj R-squared = 0.8705 Total | .605196377 14 .043228313 Root MSE = .07481 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnx2 | 1.498767 .5398018 2.78 0.017 .3226405 2.674894 lnx3 | .4898585 .1020435 4.80 0.000 .2675249 .7121922 _cons | -3.338459 2.449504 -1.36 0.198 -8.675471 1.998552 ------------------------------------------------------------------------------ Estimação da regressão 7.10.6 com base nos dados da tabela 7.4 Para estimamos essa regressão temos primeiro que gerar as variáveis x2 e x3. No Stata o procedimento é: . gen x2 = x^2 . gen x3 = x^3 One x2 e x3 são os nomes das variáveis x2 e x3, que pode ser qualquer outro. Depois de gerada as variáveis podemos rodar o modelo normalmente: reg y x x2 x3 Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 3, 6) = 1202.22 Model | 38918.1562 3 12972.7187 Prob > F = 0.0000 Residual | 64.7438228 6 10.7906371 R-squared = 0.9983 -------------+------------------------------ Adj R-squared = 0.9975 Total | 38982.9 9 4331.43333 Root MSE = 3.2849 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | 63.47766 4.778607 13.28 0.000 51.78483 75.17049 x2 | -12.96154 .9856646 -13.15 0.000 -15.37337 -10.5497 x3 | .9395882 .0591056 15.90 0.000 .794962 1.084214 _cons | 141.7667 6.375322 22.24 0.000 126.1668 157.3665 ------------------------------------------------------------------------------ Estimação da regressão 8.2.1 com base nos dados da tabela 6.4 reg mi pnb taf Source | SS df MS Number of obs = 64 -------------+------------------------------ F( 2, 61) = 73.83 Model | 257362.373 2 128681.187 Prob > F = 0.0000 Residual | 106315.627 61 1742.87913 R-squared = 0.7077 -------------+------------------------------ Adj R-squared = 0.6981 Total | 363678 63 5772.66667 Root MSE = 41.748 ------------------------------------------------------------------------------ mi | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- pnb | -.0056466 .0020033 -2.82 0.006 -.0096524 -.0016408 taf | -2.231586 .2099472 -10.63 0.000 -2.651401 -1.81177 _cons | 263.6416 11.59318 22.74 0.000 240.4596 286.8236 ------------------------------------------------------------------------------ Fazendo o teste t (equação 8.4.1) test pnb=0 ( 1) pnb = 0 F( 1, 61) = 7.95 Prob > F = 0.0065 Na saída temos o favor F=7.95, que é igual a t^2=(-2.8187)^2 Fazendo o teste Jarque Bera de normalidade dos resíduos. Primeiro temos que gerar a series de resíduos: predict resid, r onde resid, é o nome da série de resíduos que vamos gerar, pode ser qualquer outro. A hipótese H0: os erros tem distribuição normal . jb6 resid Jarque-Bera normality test: .5594 Chi(2) .756 Jarque-Bera test for Ho: normality: (resid) Pelo valor da probabilidade, 0.756, não podemos rejeitar a hipótese H0 de normalidade dos temos de erro. O valo F=1.12, com probabilidade 0.3421, nos leva a não rejeitar a hipótese H0. Ou seja, os coeficientes de lnx4 e lnx5 são iguais a zero. Desse modo o modelo no qual essas variáveis são excluídas é melhor (regressão 8.7.24). Exemplo 8.5, teste MWD TESTE MWD H0: Modelo linear H1: modelo log-log Etapas: I. Estimação do modelo linear e obtenção dos valores estimados de Y (yf). reg y x2 x3 Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 2, 13) = 21.84 Model | 48239727.6 2 24119863.8 Prob > F = 0.0001 Residual | 14356628.4 13 1104356.03 R-squared = 0.7706 -------------+------------------------------ Adj R-squared = 0.7354 Total | 62596356 15 4173090.4 Root MSE = 1050.9 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | -3782.196 572.4548 -6.61 0.000 -5018.909 -2545.482 x3 | 2815.251 947.5113 2.97 0.011 768.2777 4862.225 _cons | 9734.218 2888.06 3.37 0.005 3494.944 15973.49 ------------------------------------------------------------------------------ Para obter os valores do y estimado, o comando é semelhante ao que usamos para obter os resíduos, a diferença é que no lugar de r que acrescentamos depois da virgula, colocamos xb depois da virgula. No Stata: . predict yf, xb Observe na planilha do Stata foi criada uma nova coluna com o nome yf (que pode ser qualquer outro nome) dos y estimados. II. Estimação do modelo log-log e obtenção dos valores estimados de LnY (lnf). gen lny=ln(y) gen lnx2=ln(x2) gen lnx3=ln(x3) reg lny lnx2 lnx3 Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 2, 13) = 17.50 Model | 1.0300302 2 .515015098 Prob > F = 0.0002 Residual | .382568648 13 .029428358 R-squared = 0.7292 -------------+------------------------------ Adj R-squared = 0.6875 Total | 1.41259884 15 .094173256 Root MSE = .17155 ------------------------------------------------------------------------------ lny | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnx2 | -1.760718 .298206 -5.90 0.000 -2.404953 -1.116484 lnx3 | 1.33978 .5273242 2.54 0.025 .2005655 2.478995 _cons | 9.227759 .5683903 16.23 0.000 7.999826 10.45569 ------------------------------------------------------------------------------ Para obter o lny estimado o procedimento é o mesmo que no passo anterior, a diferença vai ser apenas o nome que vamos dar para a variável. No Stata: predict lnf, xb observe novamente que foi criada uma nova coluna na planilha do Stata para os lny estimados. III. Calculo de Z1 = (Lnyf - lnf). Para calcularmos z1, temos primeiro que tira o logaritmo da variável yf. No Stata: gen lnyf = ln(yf) Agora podemos calcular z1: gen z1= lnyf-lnf IV. Regredimos o modelo linear acrescentando a variável Z1. Rejeita-se H0 se o coeficiente de Z1 for estatisticamente significativo segundo o teste t habitual. Como neste caso t não é significativo não rejeitamos o modelo linear como sendo o melhor. . reg y x2 x3 z1 Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 3, 12) = 13.44 Model | 48240240.9 3 16080080.3 Prob > F = 0.0004 Residual | 14356115.1 12 1196342.92 R-squared = 0.7707 -------------+------------------------------ Adj R-squared = 0.7133 Total | 62596356 15 4173090.4 Root MSE = 1093.8 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | -3783.062 597.286 -6.33 0.000 -5084.437 -2481.688 x3 | 2817.715 993.3304 2.84 0.015 653.4343 4981.996 z1 | 85.27798 4116.827 0.02 0.984 -8884.518 9055.074 _cons | 9727.57 3023.018 3.22 0.007 3140.978 16314.16 ------------------------------------------------------------------------------ V. Calculo de Z2 = (antilog de lnf - yf). Antes de gera Z2 temos que calcular o antilogaritmo de lnf. O comando no Stata é: gen antilnf=exp(lnf) onde antilnf é o nome da variável que vamos criar, pode ser qualquer outro. E o lado direito é operação que queremos realizado, ou seja, o antilogaritmo da variável lnf. Agora podemos calcular Z2: gen z2= antilnf - yf VI. Regressão log-log acrescentando a variável Z2. Rejeita-se H1 se o coeficiente Z2 for estatisticamente significativo segundo o teste t. Como Z2 não é significativo a nível de 10%, não rejeitamos o modelo log-log como sendo o melhor. Porém se consideramos o nível de 12% podemos rejeitar a hipótese H1, ou seja, rejeitamos o modelo log-log é melhor. reg lny lnx2 lnx3 z2 Estimação da regressão 9.8.4 com os dados da tabela 9.6 Primeiro temos que gerar (Xi – Xi*). Sabendo que Xi*=5.500. No stata: gen x2=x-5500 onde x2 é o nome da nova variável que representa essa diferença. Agora temos que gerar a variável (Xi – Xi*)Di=x2*Di. No Stata, tem-se: gen x2d=x2*d onde x2d e a variável que queremos ((Xi – Xi*)Di) Agora basta rodar a regressão normalmente: reg y x x2d Source | SS df MS Number of obs = 10 -------------+------------------------------ F( 2, 7) = 129.61 Model | 8832644.9 2 4416322.45 Prob > F = 0.0000 Residual | 238521.502 7 34074.5002 R-squared = 0.9737 -------------+------------------------------ Adj R-squared = 0.9662 Total | 9071166.4 9 1007907.38 Root MSE = 184.59 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .2791258 .0460081 6.07 0.001 .1703338 .3879177 x2d | .0945 .0825524 1.14 0.290 -.1007054 .2897054 _cons | -145.7167 176.7341 -0.82 0.437 -563.6265 272.1932 ------------------------------------------------------------------------------ MULTICOLINEARIDADE. Com base nos dados da tabela 10.7 fizemos uma rotina para detecção de multicolinearidade em um modelo de regressão linear. Fizemos a seguinte regressão, não esquecendo que a variável x6 é o tempo. reg y x1 x2 x3 x4 x5 x6 Source | SS df MS Number of obs = 15 -------------+------------------------------ F( 6, 8) = 295.77 Model | 155088615 6 25848102.4 Prob > F = 0.0000 Residual | 699138.24 8 87392.28 R-squared = 0.9955 -------------+------------------------------ Adj R-squared = 0.9921 Total | 155787753 14 11127696.6 Root MSE = 295.62 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x1 | -2.051082 8.70974 -0.24 0.820 -22.13578 18.03361 x2 | -.0273342 .0331748 -0.82 0.434 -.1038355 .0491671 x3 | -1.952293 .4767006 -4.10 0.003 -3.051567 -.8530199 x4 | -.9582393 .2162271 -4.43 0.002 -1.45686 -.4596187 x5 | .0513397 .233968 0.22 0.832 -.4881915 .5908709 x6 | 1585.156 482.6832 3.28 0.011 472.086 2698.225 _cons | 67271.28 23237.42 2.89 0.020 13685.68 120856.9 ------------------------------------------------------------------------------ 1. R2 alto, mas poucas razões t significativas. O primeiro sinal de que um modelo apresenta multicolinearidade é o R2 elevado e alguns t não significativo. Como podemos ver na saída do Stata, apresentada acima, a nossa regressão apresenta sinais de multicolinearidade. 2. Altas correlações entre pares de regressores. Outra regra pratica que se sugere é que, se os coeficientes de correlação entre dois regressores forem altos, digamos, maiores que 0.8, então, a multicolinearidade é um problema sério. Para obter as correlações simples, o comando no Stata é: . corr x1 x2 x3 x4 x5 x6 (obs=16) | x1 x2 x3 x4 x5 x6 -------------+------------------------------------------------------ x1 | 1.0000 x2 | 0.9916 1.0000 x3 | 0.6206 0.6043 1.0000 x4 | 0.4647 0.4464 -0.1774 1.0000 x5 | 0.9792 0.9911 0.6866 0.3644 1.0000 x6 | 0.9911 0.9953 0.6683 0.4172 0.9940 1.0000 Se observarmos as correlações entre as variáveis, temos mais um sinal de multicolinearidade no modelo, pois os pares de regressores são altamente correlacionados. 3. Regressões auxiliares. Pela regra prática de Klien. A multicolinearidade só será um problema sério se o R 2 obtido em pelo menos uma das regressões auxiliares for maior que o R 2 geral, isto é, aquele obtido na regressão de Y contra todos os regressores. Sabemos que o R2 da regressão principal é 0.9955 (R-squared = 0.9955), se encontrarmos um valor maior que este em alguma regressão auxiliar temos problema de multicolinearidade. A primeira regressão auxiliar é x1 como variável dependente contra as demais variáveis dependentes. No Stata, temos: reg x1 x2 x3 x4 x5 x6 Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 5, 10) = 269.06 Model | 173397.547 5 34679.5095 Prob > F = 0.0000 Residual | 1288.89024 10 128.889024 R-squared = 0.9926 -------------+------------------------------ Adj R-squared = 0.9889 Total | 174686.438 15 11645.7625 Root MSE = 11.353 ------------------------------------------------------------------------------ x1 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x2 | .0025613 .0009484 2.70 0.022 .0004481 .0046746 x3 | .0319216 .0151299 2.11 0.061 -.00179 .0656331 x4 | .008802 .0074785 1.18 0.266 -.0078611 .0254651 x5 | -.0175496 .006331 -2.77 0.020 -.0316561 -.0034432 x6 | -9.992189 16.66535 -0.60 0.562 -47.12491 27.14054 _cons | 2044.583 533.3698 3.83 0.003 856.1613 3233.005 ------------------------------------------------------------------------------ Na saida acima tem-se que o R2 da primeira regressão auxiliar é menor que o da regressão principal. Porém, ainda temos que fazer outras regressões auxiliar. A segunda regressão auxiliar a variável depende é x2, a variável independente são as demais (com exceção do y). reg x2 x3 x4 x5 x6 x1 Source | SS df MS Number of obs = 16 -------------+------------------------------ F( 5, 10) = 3575.03 Model | 1.4811e+11 5 2.9621e+10 Prob > F = 0.0000 Residual | 82856688.7 10 8285668.87 R-squared = 0.9994 -------------+------------------------------ Adj R-squared = 0.9992 Total | 1.4819e+11 15 9.8794e+09 Root MSE = 2878.5 ------------------------------------------------------------------------------ x2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x3 | -13.7898 1.500185 -9.19 0.000 -17.13242 -10.44718 x4 | -2.998116 1.787322 -1.68 0.124 -6.980518 .9842857 x5 | 5.62436 1.180367 4.76 0.001 2.994339 8.254381 x6 | 10902.88 2570.756 4.24 0.002 5174.877 16630.88 x1 | 164.6571 60.96993 2.70 0.022 28.80766 300.5066 _cons | -480986 148413.8 -3.24 0.009 -811672.6 -150299.5 ------------------------------------------------------------------------------ Com base na saída do Stata para segunda regressão auxiliar, já podemos concluir, pela regra pratica de Klien que a multicolinearidade esta presente, pois o R2 dessa regressão é maior que o da regressão principal (0.9992>0.9926) -------------+---------------------- Mean VIF | 519.90 Como podemos verificar na saída do Stata, praticamente todos os FIV são maiores que 10, indicando a presença de multicolinearidade. HETEROCEDASTICIDADE Teste de Park Exemplo 11.1 com base nos dados da tabela 11.1 Obtemos primeiro a regressão 11.5.3 reg y x Source | SS df MS Number of obs = 9 -------------+------------------------------ F( 1, 7) = 5.44 Model | 619377.506 1 619377.506 Prob > F = 0.0523 Residual | 796278.05 7 113754.007 R-squared = 0.4375 -------------+------------------------------ Adj R-squared = 0.3572 Total | 1415655.56 8 176956.944 Root MSE = 337.27 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .2329993 .0998528 2.33 0.052 -.0031151 .4691137 _cons | 1992.062 936.6123 2.13 0.071 -222.6741 4206.798 ------------------------------------------------------------------------------ Agora obtemos os resíduos da regressão acima: predict u, r onde u é o nome que foi dado para os resíduos. Temos que gerar os resíduos ao quadrado: gen u2=u^2 temos que gerar o logaritmo dos resíduos ao quadrado: gen lnu2=ln(u2) A variável depende (x) também tem que ser logaritmizada: gen lnx = ln(x) Por fim rodamos a regressão 11.5.4: reg lnu2 lnx Source | SS df MS Number of obs = 9 -------------+------------------------------ F( 1, 7) = 0.45 Model | .95900152 1 .95900152 Prob > F = 0.5257 Residual | 15.0546945 7 2.15067064 R-squared = 0.0599 -------------+------------------------------ Adj R-squared = -0.0744 Total | 16.013696 8 2.001712 Root MSE = 1.4665 ------------------------------------------------------------------------------ lnu2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- lnx | -2.802023 4.196131 -0.67 0.526 -12.7243 7.12025 _cons | 35.82686 38.3227 0.93 0.381 -54.79192 126.4456 ------------------------------------------------------------------------------ A hipótese nula do teste é: H0: Homocedástico Se o beta 2 for estatisticamente significativo, podemos rejeitar a hipótese nula, e considerar que a heterocedasticidade está presente nos dados. No nosso exemplo o valor da probabilidade não foi significativo, assim não rejeitamos a hipótese nula de variância constante nos erros. Teste de Glejser Exemplo 11.2 Esse exemplo é uma continuação do exemplo anterior. Como já temos os resíduos da equação anterior, o teste de Glejser trabalhar com os resíduos em valor absoluto. Assim vamos gerar os resíduos em valor absoluto usando o Stata: gen absu = abs(u) Depois regredimos os resíduos em valor absoluto contra o x: reg absu x Source | SS df MS Number of obs = 9 -------------+------------------------------ F( 1, 7) = 0.09 Model | 4724.55491 1 4724.55491 Prob > F = 0.7718 Residual | 363925.371 7 51989.3388 R-squared = 0.0128 -------------+------------------------------ Adj R-squared = -0.1282 Total | 368649.926 8 46081.2408 Root MSE = 228.01 ------------------------------------------------------------------------------ absu | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | -.0203497 .0675047 -0.30 0.772 -.179973 .1392736 _cons | 407.476 633.1895 0.64 0.540 -1089.779 1904.731 ------------------------------------------------------------------------------ Assim como no teste de Park, a hipótese nula do teste de Glejser é: H0: variância constante dos termos de erro E como o beta2 não foi estatisticamente significativo, não rejeitamos a hipótese nula, assim o modelo é homocedástico. Observe que o teste de Glejser recomenda que usemos outras formas funcionais para a variável independente (o X). Para isso é preciso primeiro que geremos tais variáveis. Para gerar a raiz quadrada de x, o comando é: gen sqrtx = sqrt(x) ou simplesmente: gen raizdex = x^0.5 onde o lado direito destas equações é a operação matemática que estamos realizando e o lado esquerdo, o gen é o comando para gerar a variável, e sqrtx, raizdex são os nomes que escolhemos para as variáveis. Também podemos gerar o inverso de x e o inverso da raiz de x: gen inversox=1/x gen inveraizdex = 1/raizdex Depois de gerada as variáveis podemos fazer o teste de Glejser paras essas formas funcionais. A segunda forma recomendada por Glejser é: qui reg y x o comando acima estima a regressão sem mostrar a saída no Stata, fizemos isso pois o teste é baseado na é pega a ultima equação que o Stata estimou. Agora podemos fazer o teste de White: whitetst White's general test statistic : 5.330902 Chi-sq( 2) P-value = .0696 A saída do Stata, indica que valor observado de qui-quadrado, 5.33 é significativo ao nível de 1%, assim a hipótese nula de homocedasticidade é rejeitada. Teste de Koenker-Bassett (KB) A hipótese nula deste teste é que β2 da regressão auxiliar (resíduos estimados ao quadrado contra Y estimado ao quadrado), seja estatisticamente igual a zero. Se ela não for rejeitada, podemos concluir que não há heterocedasticidade. A hipótese nula pode ser testada pelo teste t ou F. Com base nos dados da tabela 11.3 vamos fazer o procedimento do teste KB. Primeiro estima-se a equação principal. reg y x Source | SS df MS Number of obs = 30 -------------+------------------------------ F( 1, 28) = 496.72 Model | 41886.7134 1 41886.7134 Prob > F = 0.0000 Residual | 2361.15325 28 84.3269018 R-squared = 0.9466 -------------+------------------------------ Adj R-squared = 0.9447 Total | 44247.8667 29 1525.78851 Root MSE = 9.183 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .6377846 .0286167 22.29 0.000 .579166 .6964031 _cons | 9.290307 5.231386 1.78 0.087 -1.4257 20.00632 ------------------------------------------------------------------------------ Segundo, geramos a serie de y estimado e dos resíduos estimados: predict yest, xb predict u, r O primeiro comando digitado gerou a série de y estimado, cujo nome é yest, que poderia ser qualquer outro. O segundo comando é foi para gerar a serie de resíduos, cujo nome é u. O terceiro passo do teste KB é elevar ambas as series ao quadrado: gen yest2=yest^2 gen u2=u^2 Por fim estimamos a regressão dos residuos estimados ao quadrado contra os y estimados ao quadrado: . reg u2 yest2 Source | SS df MS Number of obs = 30 -------------+------------------------------ F( 1, 28) = 6.05 Model | 65278.445 1 65278.445 Prob > F = 0.0204 Residual | 302289.99 28 10796.0711 R-squared = 0.1776 -------------+------------------------------ Adj R-squared = 0.1482 Total | 367568.435 29 12674.7736 Root MSE = 103.9 ------------------------------------------------------------------------------ u2 | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- yest2 | .0051234 .0020835 2.46 0.020 .0008554 .0093913 _cons | -1.897135 37.87253 -0.05 0.960 -79.47551 75.68124 ------------------------------------------------------------------------------ A hipótese nula do teste é que os erros são homocedástico. H0: homocedasticidade. Observando o valor da probabilidade do beta2 verificamos que ele é significativo, isso nos levar a rejeitar a hipótese nula de variância constante, concluímos então que o modelo é heterocedástico. AUTOCORRELAÇÃO Teste d de Durbin Watson Estimando as equações 12.5.1 e 12.5.2 com os dados da tabela 12.4. Antes de estimarmos as regressões temos que lembrar que o problema da autocorrelação, envolve um horizonte temporal, sendo assim é necessário declarara no Stata que estamos trabalhando com dados de serie temporal. O comando é: . tsset ano time variable: ano, 1959 to 1998 delta: 1 unit Agora vamos rodar a regressão 12.5.1: reg y x Source | SS df MS Number of obs = 40 -------------+------------------------------ F( 1, 38) = 876.55 Model | 6274.75662 1 6274.75662 Prob > F = 0.0000 Residual | 272.021913 38 7.1584714 R-squared = 0.9584 -------------+------------------------------ Adj R-squared = 0.9574 Total | 6546.77854 39 167.866116 Root MSE = 2.6755 ------------------------------------------------------------------------------ y | Coef. Std. Err. t P>|t| [95% Conf. Interval] -------------+---------------------------------------------------------------- x | .7136594 .0241048 29.61 0.000 .6648619 .7624569 _cons | 29.51926 1.942346 15.20 0.000 25.58718 33.45133 ------------------------------------------------------------------------------ Na saída acima temos os betas, os erros-padrão, o R2 e a variância dos termos de erro. Para obtermos o valor da estatística de Durbin-Watson, o comando é: . estat dwatson Durbin-Watson d-statistic( 2, 40) = .1229045 . estat bgodfrey, lags(5) small Breusch-Godfrey LM test for autocorrelation --------------------------------------------------------------------------- lags(p) | F df Prob > F -------------+------------------------------------------------------------- 5 | 6.490 ( 5, 33 ) 0.0003 --------------------------------------------------------------------------- H0: no serial correlation estat bgodfrey, lags(6) small Breusch-Godfrey LM test for autocorrelation --------------------------------------------------------------------------- lags(p) | F df Prob > F -------------+------------------------------------------------------------- 6 | 5.412 ( 6, 32 ) 0.0006 --------------------------------------------------------------------------- H0: no serial correlation Assim, pode-se concluir que a hipótese H0 de ausência de autocorrelação é rejeita. MODELO LOGIT DADOS INDIVIDUAIS. Os comandos para estimação do modelo logit são bastante simples. Por exemplo para estimar a regressão 15.8.1 com os dados da tabela 15.7, cujos resultados se encontram na tabela 15.8, basta digitar a palavra logit seguido pelas variáveis, a primeira será a variável dependente, seguida pelas demais variáveis do modelo, assim: logit grade gpa tuce psi Iteration 0: log likelihood = -20.59173 Iteration 1: log likelihood = -13.259768 Iteration 2: log likelihood = -12.894606 Iteration 3: log likelihood = -12.889639 Iteration 4: log likelihood = -12.889633 Iteration 5: log likelihood = -12.889633 Logistic regression Number of obs = 32 LR chi2(3) = 15.40 Prob > chi2 = 0.0015 Log likelihood = -12.889633 Pseudo R2 = 0.3740 ------------------------------------------------------------------------------ grade | Coef. Std. Err. z P>|z| [95% Conf. Interval] -------------+---------------------------------------------------------------- gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432 tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988 psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195 _cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613 ------------------------------------------------------------------------------ Se quisermos podemos omitir as iterações que aparecem na saída do Stata, basta digitar a palavra nolog do comando acima. logit grade gpa tuce psi, nolog Logistic regression Number of obs = 32 LR chi2(3) = 15.40 Prob > chi2 = 0.0015 Log likelihood = -12.889633 Pseudo R2 = 0.3740 ------------------------------------------------------------------------------ grade | Coef. Std. Err. z P>|z| [95% Conf. Interval] -------------+---------------------------------------------------------------- gpa | 2.826113 1.262941 2.24 0.025 .3507938 5.301432 tuce | .0951577 .1415542 0.67 0.501 -.1822835 .3725988 psi | 2.378688 1.064564 2.23 0.025 .29218 4.465195 _cons | -13.02135 4.931325 -2.64 0.008 -22.68657 -3.35613 ------------------------------------------------------------------------------ Interpretação. Conforme o Gujarati, a interpretação é: Cada coeficiente angular dessa equação é um coeficiente angular parcial e mede a variação no logit estimado para uma variação unitária do valor do regressor dado (mantendo todos os demais constantes). Assim o coeficiente GPA de 2,8261 significa que, mantidas as demais variáveis constantes , se o GPA aumenta de uma unidade, o logit estimado aumenta, em media, cerca de 2,83 unidades, sugerindo uma relação positiva entre os dois. Como se ver todos os demais regressores tem um efeito positivo sobre o logit, embora estatisticamente o efeito de TUCE não seja significativo. Contudo, todos os regressores em conjunto têm um impacto na nota final, já que a estatística QV(estatística da razão d verossimilhança) é de 15,4 cujo valor p é de cerca de 0,0015, que é muito pequeno. Se quisermos o logit estimado de cada observação o comando é: . predict logit, xb . list logit +-----------+ | logit | |-----------| 1. | -3.600734 | 2. | -2.760413 | 3. | -1.467914 | 4. | -3.627206 | 5. | .2814147 | |-----------| 6. | -3.320985 | 7. | -3.603596 | 8. | -2.912093 | 9. | -2.079284 | 10. | .8165872 | |-----------| 11. | -3.685518 | 12. | -1.450027 | 13. | -.7434988 | 14. | -1.429278 | 15. | -.5710702 | |-----------| 16. | -3.469803 | 17. | -2.870596 | 18. | -3.215453 | 19. | .363438 | 20. | .6667984 | |-----------| 21. | -2.727399 | 22. | 2.252283 | 23. | -1.142986 | 24. | 1.751095 | 25. | 1.645563 | |-----------| 26. | -.075504 | 27. | .5555431 | 28. | -.8131546 | 29. | 1.670963 | 30. | 2.850418 | |-----------| 31. | .1166004 | 32. | -2.080255 | +-----------+ Onde a palavra logit no comando acima poderia ser qualquer outra que fosse de nosso interesse para nomear a serie dos logit estimado. O Count R2 da equação 15.8.2, é gerada no Stata através da tabela de classificação, cujo comando é: . estat class Logistic model for grade -------- True -------- Classified | D ~D | Total -----------+--------------------------+----------- + | 8 3 | 11 - | 3 18 | 21 -----------+--------------------------+----------- Total | 11 21 | 32 Classified + if predicted Pr(D) >= .5 True D defined as grade != 0 -------------------------------------------------- Sensitivity Pr( +| D) 72.73% Specificity Pr( -|~D) 85.71% Positive predictive value Pr( D| +) 72.73% Logistic regression Number of obs = 32 LR chi2(3) = 15.40 Prob > chi2 = 0.0015 Log likelihood = -12.889633 Pseudo R2 = 0.3740 ------------------------------------------------------------------------------ grade | Odds Ratio Std. Err. z P>|z| [95% Conf. Interval] -------------+---------------------------------------------------------------- gpa | 16.87972 21.31809 2.24 0.025 1.420194 200.6239 tuce | 1.099832 .1556859 0.67 0.501 .8333651 1.451502 psi | 10.79073 11.48743 2.23 0.025 1.339344 86.93802 ------------------------------------------------------------------------------ Observe que excluímos do comando o or (odds ratio) e no lugar de logit colocamos logistic. O nolog como de praxy é para omitir as iterações. A Probabildade De Ocorrer Y Para obter a probabilidade de ocorre Y, tem-se o comando prvalue, que calcula a probabilidade de ocorrência de Y no ponto médio da amostra: . prvalue logistic: Predictions for grade Confidence intervals by delta method 95% Conf. Interval Pr(y=1|x): 0.2528 [ 0.0464, 0.4592] Pr(y=0|x): 0.7472 [ 0.5408, 0.9536] gpa tuce psi x= 3.1171875 21.9375 .4375 prvalue, x(gpa=3.92 tuce=29 psi=0) Observe que essa probabilidade foi obtida no ponto médio da amostra. Isso pode ser confirmado pode comando sum, que nos mostra a média das variáveis: . sum Variable | Obs Mean Std. Dev. Min Max -------------+-------------------------------------------------------- gpa | 32 3.117188 .4667128 2.06 4 tuce | 32 21.9375 3.901509 12 29 psi | 32 .4375 .5040161 0 1 grade | 32 .34375 .4825587 0 1 Imagine que desejamos calcular a probabilidade de um estudante em particular obter nota A. Vejamos o caso do estudante numero 10 da tabela (GPA=3.92, TUCE=29, PSI=0). Colocamos os dados desse estudante no modelo logit obtemos 0,8174 (já sabemos desse valor pelo logit estimado, quando rodamos a regressão logit). Substituindo em valor em z na equação abaixo obtemos a probabilidade deste estudante obter um A: Obtemos, 0,69351, que é a probabilidade do estudante 10 com suas características de GPA, TUCE e PSI passar com A na matéria. No Stata esse valor pode ser obtido diretamente através de: . prvalue, x(gpa=3.92 tuce=29 psi=0) logit: Predictions for grade Confidence intervals by delta method 95% Conf. Interval Pr(y=1|x): 0.6935 [ 0.2102, 1.1769] Pr(y=0|x): 0.3065 [-0.1769, 0.7898] gpa tuce psi x= 3.92 29 0 A Probabilidade de cada observação é : Predict [nome que queremos dar], p List [nome que queremos dar] Observe que foi criada uma nova coluna na planilha do Stata com as probabilidades de cada observação. predict probabilidade, p . list probabilidade +----------+ | probab~e | |----------| 1. | .026578 | 2. | .0595013 | 3. | .1872599 | 4. | .0259016 | 5. | .569893 | |----------| 6. | .0348582 | 7. | .026504 | 8. | .051559 | 9. | .1111266 | 10. | .6935114 | |----------| 11. | .0244704 | 12. | .1899974 | 13. | .3222395 | 14. | .1932112 | 15. | .3609899 | |----------| 16. | .0301837 | 17. | .0536264 | 18. | .0385883 | 19. | .5898724 | 20. | .6607859 | |----------| 21. | .0613758 | 22. | .9048473 | 23. | .2417725 | 24. | .8520909 | 25. | .8382905 | |----------| 26. | .481133 | 27. | .6354207 | 28. | .3072187 | 29. | .8417042 | 30. | .9453403 | |----------| 31. | .5291171 | 32. | .1110308 | +----------+ Observe a probabilidade do aluno 10 obter um A é idêntico ao cálculo feito anteriormente, assim o calculo a probabilidade para um indivíduos com dadas características é mais vantajoso calcular quando o tamanha da amostra é grande, pois como nosso caso com apenas 32 observações, listar todas é mais vantajoso. Efeito marginal (EM). É o calculo da variação da probabilidade. mfx – calcula o efeito marginal no ponto médio da amostra. mfx Marginal effects after logistic y = Pr(grade) (predict) = .25282025 ------------------------------------------------------------------------------ variable | dy/dx Std. Err. z P>|z| [ 95% C.I. ] X ---------+-------------------------------------------------------------------- gpa | .5338589 .23704 2.25 0.024 .069273 .998445 3.11719 tuce | .0179755 .02624 0.69 0.493 -.033448 .069399 21.9375 psi*| .4564984 .18105 2.52 0.012 .10164 .811357 .4375 ------------------------------------------------------------------------------ (*) dy/dx is for discrete change of dummy variable from 0 to 1 somente os coeficientes associados às variáveis X2 e X2^2 não são estatisticamente significativos. O Pseudo R2 (R2 de McFadden) é de 0,4032. Efeito Marginal (EM). A interpretação dos coeficientes é feita através da análise dos efeitos marginais juntamente com os sinais. O cálculo do efeito marginal no modelo probit é: Que nos dá a probabilidade de Y=1 no ponto médio da amostra. Para variáveis binárias o efeito marginal é a mudança em P(Y=1) quando Dj passa de 0 para 1. Este é o caso da variável X1 no modelo estimado. O efeito marginal de X1 deve ser calculado pela diferença de probabilidade dada por: (*) dy/dx is for discrete change of dummy variable from 0 to 1 lnx3 1.298364 .74552 1.74 0.082 -.162832 2.75956 2.4528 x22 -.0012291 .0008 -1.54 0.124 -.002795 .000336 1859.07 x2 .1027698 .06852 1.50 0.134 -.031523 .237063 41.3333 x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 .566667 variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X = .63860415 y = Pr(y) (predict) Marginal effects after probit . mfx No Probit, o cálculo do EM para os casos em que as variáveis aparecem na forma polinomial ou logarítmica deve se executado da seguinte forma: 1º) Calcular as médias das todas variáveis dependentes e salvar num escalar; (*) dy/dx is for discrete change of dummy variable from 0 to 1 lnx3 .5941804 .44992 1.32 0.187 -.287638 1.476 2.4528 x22 -.0005625 .0005 -1.13 0.257 -.001536 .000411 1859.07 x2 .0470314 .04193 1.12 0.262 -.035147 .12921 41.3333 x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 0 variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X = .90314598 y = Pr(y) (predict) Marginal effects after probit means used for x2 x22 lnx3 warning: no value assigned in at() for variables x2 x22 lnx3; . mfx, at(x1=0) (*) dy/dx is for discrete change of dummy variable from 0 to 1 lnx3 1.292208 .78173 1.65 0.098 -.239954 2.82437 2.4528 x22 -.0012233 .00072 -1.70 0.088 -.00263 .000183 1859.07 x2 .1022825 .0617 1.66 0.097 -.018639 .223204 41.3333 x1* -.5466662 .17106 -3.20 0.001 -.881934 -.211398 1 variable dy/dx Std. Err. z P>|z| [ 95% C.I. ] X = .35647976 y = Pr(y) (predict) Marginal effects after probit means used for x2 x22 lnx3 warning: no value assigned in at() for variables x2 x22 lnx3; . mfx, at(x1=1) 2º) Usar o comando nlcom com a função normalden que calcula valores da densidade normal padrão, para calcular os efeitos marginais das variáveis. Efeito marginal de x2: nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2] +2*_b[x22]*mx2)) . . scalar mlnx3 = r(mean) lnx3 30 2.452803 .196993 1.94591 2.772589 Variable Obs Mean Std. Dev. Min Max . su lnx3 . scalar mx3 = r(mean) x3 30 11.83333 2.229633 7 16 Variable Obs Mean Std. Dev. Min Max . su x3 . scalar mx22= r(mean) x22 30 1859.067 1101.952 441 4489 Variable Obs Mean Std. Dev. Min Max . su x22 . scalar mx2 = r(mean) x2 30 41.33333 12.48263 21 67 Variable Obs Mean Std. Dev. Min Max . su x2 . scalar mx1=r(mean) x1 30 .5666667 .5040069 0 1 Variable Obs Mean Std. Dev. Min Max . su x1 _nl_1 .0011607 .0105056 0.11 0.912 -.0194298 .0217512 y Coef. Std. Err. z P>|z| [95% Conf. Interval] _nl_1: normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2) . nlcom(normalden(_b[_cons]+_b[x1]*mx1+_b[x2]*mx2+_b[x22]*mx22+_b[lnx3]*mlnx3)*(_b[x2]+2*_b[x22]*mx2))
Docsity logo



Copyright © 2024 Ladybird Srl - Via Leonardo da Vinci 16, 10126, Torino, Italy - VAT 10816460017 - All rights reserved