Monday 4 September 2017

F Limer Test In Stata Forex


Estou tentando fazer um teste F sobre o significado conjunto de efeitos fixos (variáveis ​​dummy individuais específicas) em uma regressão OLS de dados de painel (em R), no entanto, não encontrei uma maneira de conseguir isso por um grande número de efeitos fixos . Idealmente, eu usaria uma função no pacote plm, no entanto, não encontrei nada que especificamente faça esse teste. Isso é algo que o Stata faz automaticamente ao usar o comando xtreg, fe. Em Stata, os resultados se parecem com isto: Novamente, estou tentando reproduzir o resultado do Stata em R para um grande número de variáveis ​​falsas, talvez especificadas pelo fator (us. state) usando lm () ou modelo fe usando plm (). Aqui está um exemplo reproduzível: o que é equivalente ao seguinte dentro da regressão usando o pacote plm. Assim, o teste seria o teste de que todas as variáveis ​​dummy do estado são conjuntamente diferentes de zero (conjuntamente significativo). Esta é uma restrição linear no modelo irrestrito (reg1 e reg1.fe acima). Este teste F é melhor explicado no documento a seguir (ver slides 5-7). Aqui está uma das minhas fracas tentativas de criar uma matriz R para o teste F com hipótese nula: Rb q onde b é a matriz de coeficientes (beta hat) e q é um vetor de zeros. Isso não funciona E, eu espero que haja uma abordagem simplificada para testar a significância conjunta de todas as variáveis ​​dummy de efeito fixo. Primeiro, gostaria de sugerir que sua pergunta poderia ser melhorada por (1) fornecendo um exemplo reprodutível e (2) descrevendo o teste preciso ao qual você se refere quando diz o teste F. Um link para o Stata docs talvez F seja a distribuição, então pode haver um teste de gazillion chamado teste F. Se o seu interesse substantivo reside na determinação de se o modelo de efeitos fixos se ajusta aos dados de forma significativamente melhor do que o OLS sem efeitos fixos, você sempre pode usar um teste de razão de verossimilhança. Tenho certeza de que existem várias implementações em R, mas o fornecido pelo pacote lmtest é bastante conveniente. Heres um exemplo usando um conjunto de dados distribuído com o pacote plm (você parece ter instalado, então deve ser fácil de tentar). Eu acho que a função pFtest () do plm39s pode fazer o que você deseja (veja a resposta editada). O resultado não é exatamente o mesmo que o resultado do seu Stata, provavelmente devido ao fato de que o primeiro parâmetro da distribuição F é diferente. Mas quando eu encaixo ambos os modelos individualmente com lm ​​(), obtenho graus de liberdade de 543 e 498 (diferença de 45), então R parece estar aqui. Veja se você obtém os mesmos graus de liberdade no Stata quando se encaixa no pool e nos modelos individualmente. O problema com softwares de código fechado como o Stata é que nunca saberemos exatamente como eles calculam o teste F. Ndash Vincent 30 de maio 11 às 3:50 Eu realmente não acho que esse teste seja útil. Em vez de estimar o que você chama de efeito fixo (o Ill chamar modelo de não agrupamento), por que não um modelo hierárquico. O modelo hierárquico (ou modelo de agrupamento parcial) permitirá que suas estimativas diminuam para o significado comum para estados, mas sem impor Eles sejam iguais. Mais importante, se você precisar avaliar quanto estados variam, você precisará usar a variância estimada entre estado e intra-estado. Se a variação entre o estado for baixa (perto de zero), não está ganhando muito usando um modelo hierárquico e as interceptações são aproximadamente iguais. Se a variância for muito grande (no limite, quando vai para o infinito), o modelo hierárquico adiciona pouco e você pode executar um modelo separado para cada estado. Você pode estimar um modelo hierárquico em R com o pacote lme4. Usando seus dados: O desvio padrão estimado da intercepção por estados é 4.39 e o desvio padrão por indivíduo é 4.19.Stata: análise de dados e software estatístico Kristin MacDonald, StataCorp Os comandos de estimativa fornecem no teste ou no teste z para a hipótese nula de que um coeficiente É igual a zero. O comando de teste pode realizar testes de Wald para hipóteses lineares simples e compostas nos parâmetros, mas esses testes de Wald também se limitam a testes de igualdade. Testes T unilares Para realizar testes unilaterais, você pode primeiro executar o teste de Wald de dois lados correspondente. Então você pode usar os resultados para calcular a estatística de teste e p-valor para o teste unilateral. Letrsquos diz que você executa a seguinte regressão: se você deseja testar o coeficiente de peso. Peso beta. É negativo (ou positivo), você pode começar realizando o teste de Wald para a hipótese nula de que este coeficiente é igual a zero. O teste Wald apresentado aqui é um teste F com 1 grau de liberdade numerador e 71 graus de liberdade do denominador. A distribuição Studentrsquos t está diretamente relacionada à distribuição F em que o quadrado da distribuição Studentrsquos t com d graus de liberdade é equivalente à distribuição F com 1 grau de liberdade do numerador e graus de liberdade do denominador. Enquanto o teste F tiver 1 grau de liberdade do numerador, a raiz quadrada da estatística F é o valor absoluto da estatística t para o teste unilateral. Para determinar se esta estatística t é positiva ou negativa, você precisa determinar se o coeficiente ajustado é positivo ou negativo. Para fazer isso, você pode usar a função sign (). Em seguida, usando a função ttail () juntamente com os resultados retornados do comando de teste, você pode calcular os valores de p para os testes de um lado da seguinte maneira: No caso especial em que você está interessado em testar se um coeficiente é Maior que, menor ou igual a zero, você pode calcular os valores de p diretamente da saída de regressão. Quando o coeficiente estimado é positivo, como para o peso. Você pode fazê-lo da seguinte maneira: p-valor 0,008 (dado na saída de regressão) p-valor 0,5672 0,284 Por outro lado, se você deseja realizar um teste como H 0. Peso beta lt 1, você não pode calcular o valor p diretamente dos resultados de regressão. Aqui você teria que fazer o teste de Wald primeiro. Testes unilaterais z Na saída para determinados comandos de estimativa, você encontrará que as estatísticas z são relatadas em vez de t estatísticas. Nesses casos, quando você usa o comando de teste, você receberá um teste de Qui-quadrado em vez de um teste F. A relação entre a distribuição normal padrão e a distribuição do qui-quadrado é semelhante à relação entre a distribuição de Studentrsquos t e a distribuição F. De fato, a raiz quadrada da distribuição de qui-quadrado com 1 grau de liberdade é a distribuição normal padrão. Portanto, os testes z de um lado podem ser realizados de forma semelhante aos testes t unilaterais. Por exemplo, Aqui o comando de teste retorna r (chi2). Que pode ser usado juntamente com a função normal () para calcular os valores de p apropriados. Finalmente, se você quer realizar um teste de desigualdade para dois de seus coeficientes, como H 0. Beta idade gt beta grau. Você primeiro executaria o seguinte teste de Wald: então, calcule o valor de p apropriado: novamente, essa abordagem (realizando um teste de Wald e usando os resultados para calcular o valor de p para um teste de um verso) é apropriada apenas quando o Wald F A estatística possui 1 grau de liberdade no numerador ou a estatística de Wald Chi-quadrado tem 1 grau de liberdade. As relações de distribuição discutidas acima não são válidas se esses graus de liberdade forem maiores que 1.

No comments:

Post a Comment