Estou tentando fazer um teste F sobre o significado conjunto de efeitos fixos (variáveis dummy individuais específicas) em uma regressão OLS de dados de painel (em R), no entanto, não encontrei uma maneira de conseguir isso por um grande número de efeitos fixos . Idealmente, eu usaria uma função no pacote plm, no entanto, não encontrei nada que especificamente faça esse teste. Isso é algo que o Stata faz automaticamente ao usar o comando xtreg, fe. Em Stata, os resultados se parecem com isto: Novamente, estou tentando reproduzir o resultado do Stata em R para um grande número de variáveis falsas, talvez especificadas pelo fator (us. state) usando lm () ou modelo fe usando plm (). Aqui está um exemplo reproduzível: o que é equivalente ao seguinte dentro da regressão usando o pacote plm. Assim, o teste seria o teste de que todas as variáveis dummy do estado são conjuntamente diferentes de zero (conjuntamente significativo). Esta é uma restrição linear no modelo irrestrito (reg1 e reg1.fe acima). Este teste F é melhor explicado no documento a seguir (ver slides 5-7). Aqui está uma das minhas fracas tentativas de criar uma matriz R para o teste F com hipótese nula: Rb q onde b é a matriz de coeficientes (beta hat) e q é um vetor de zeros. Isso não funciona E, eu espero que haja uma abordagem simplificada para testar a significância conjunta de todas as variáveis dummy de efeito fixo. Primeiro, gostaria de sugerir que sua pergunta poderia ser melhorada por (1) fornecendo um exemplo reprodutível e (2) descrevendo o teste preciso ao qual você se refere quando diz o teste F. Um link para o Stata docs talvez F seja a distribuição, então pode haver um teste de gazillion chamado teste F. Se o seu interesse substantivo reside na determinação de se o modelo de efeitos fixos se ajusta aos dados de forma significativamente melhor do que o OLS sem efeitos fixos, você sempre pode usar um teste de razão de verossimilhança. Tenho certeza de que existem várias implementações em R, mas o fornecido pelo pacote lmtest é bastante conveniente. Heres um exemplo usando um conjunto de dados distribuído com o pacote plm (você parece ter instalado, então deve ser fácil de tentar). Eu acho que a função pFtest () do plm39s pode fazer o que você deseja (veja a resposta editada). O resultado não é exatamente o mesmo que o resultado do seu Stata, provavelmente devido ao fato de que o primeiro parâmetro da distribuição F é diferente. Mas quando eu encaixo ambos os modelos individualmente com lm (), obtenho graus de liberdade de 543 e 498 (diferença de 45), então R parece estar aqui. Veja se você obtém os mesmos graus de liberdade no Stata quando se encaixa no pool e nos modelos individualmente. O problema com softwares de código fechado como o Stata é que nunca saberemos exatamente como eles calculam o teste F. Ndash Vincent 30 de maio 11 às 3:50 Eu realmente não acho que esse teste seja útil. Em vez de estimar o que você chama de efeito fixo (o Ill chamar modelo de não agrupamento), por que não um modelo hierárquico. O modelo hierárquico (ou modelo de agrupamento parcial) permitirá que suas estimativas diminuam para o significado comum para estados, mas sem impor Eles sejam iguais. Mais importante, se você precisar avaliar quanto estados variam, você precisará usar a variância estimada entre estado e intra-estado. Se a variação entre o estado for baixa (perto de zero), não está ganhando muito usando um modelo hierárquico e as interceptações são aproximadamente iguais. Se a variância for muito grande (no limite, quando vai para o infinito), o modelo hierárquico adiciona pouco e você pode executar um modelo separado para cada estado. Você pode estimar um modelo hierárquico em R com o pacote lme4. Usando seus dados: O desvio padrão estimado da intercepção por estados é 4.39 e o desvio padrão por indivíduo é 4.19.Stata: análise de dados e software estatístico Kristin MacDonald, StataCorp Os comandos de estimativa fornecem no teste ou no teste z para a hipótese nula de que um coeficiente É igual a zero. O comando de teste pode realizar testes de Wald para hipóteses lineares simples e compostas nos parâmetros, mas esses testes de Wald também se limitam a testes de igualdade. Testes T unilares Para realizar testes unilaterais, você pode primeiro executar o teste de Wald de dois lados correspondente. Então você pode usar os resultados para calcular a estatística de teste e p-valor para o teste unilateral. Letrsquos diz que você executa a seguinte regressão: se você deseja testar o coeficiente de peso. Peso beta. É negativo (ou positivo), você pode começar realizando o teste de Wald para a hipótese nula de que este coeficiente é igual a zero. O teste Wald apresentado aqui é um teste F com 1 grau de liberdade numerador e 71 graus de liberdade do denominador. A distribuição Studentrsquos t está diretamente relacionada à distribuição F em que o quadrado da distribuição Studentrsquos t com d graus de liberdade é equivalente à distribuição F com 1 grau de liberdade do numerador e graus de liberdade do denominador. Enquanto o teste F tiver 1 grau de liberdade do numerador, a raiz quadrada da estatística F é o valor absoluto da estatística t para o teste unilateral. Para determinar se esta estatística t é positiva ou negativa, você precisa determinar se o coeficiente ajustado é positivo ou negativo. Para fazer isso, você pode usar a função sign (). Em seguida, usando a função ttail () juntamente com os resultados retornados do comando de teste, você pode calcular os valores de p para os testes de um lado da seguinte maneira: No caso especial em que você está interessado em testar se um coeficiente é Maior que, menor ou igual a zero, você pode calcular os valores de p diretamente da saída de regressão. Quando o coeficiente estimado é positivo, como para o peso. Você pode fazê-lo da seguinte maneira: p-valor 0,008 (dado na saída de regressão) p-valor 0,5672 0,284 Por outro lado, se você deseja realizar um teste como H 0. Peso beta lt 1, você não pode calcular o valor p diretamente dos resultados de regressão. Aqui você teria que fazer o teste de Wald primeiro. Testes unilaterais z Na saída para determinados comandos de estimativa, você encontrará que as estatísticas z são relatadas em vez de t estatísticas. Nesses casos, quando você usa o comando de teste, você receberá um teste de Qui-quadrado em vez de um teste F. A relação entre a distribuição normal padrão e a distribuição do qui-quadrado é semelhante à relação entre a distribuição de Studentrsquos t e a distribuição F. De fato, a raiz quadrada da distribuição de qui-quadrado com 1 grau de liberdade é a distribuição normal padrão. Portanto, os testes z de um lado podem ser realizados de forma semelhante aos testes t unilaterais. Por exemplo, Aqui o comando de teste retorna r (chi2). Que pode ser usado juntamente com a função normal () para calcular os valores de p apropriados. Finalmente, se você quer realizar um teste de desigualdade para dois de seus coeficientes, como H 0. Beta idade gt beta grau. Você primeiro executaria o seguinte teste de Wald: então, calcule o valor de p apropriado: novamente, essa abordagem (realizando um teste de Wald e usando os resultados para calcular o valor de p para um teste de um verso) é apropriada apenas quando o Wald F A estatística possui 1 grau de liberdade no numerador ou a estatística de Wald Chi-quadrado tem 1 grau de liberdade. As relações de distribuição discutidas acima não são válidas se esses graus de liberdade forem maiores que 1.
No comments:
Post a Comment