Friday 10 November 2017

Meta Regression In Stata Forex


9.6.4 160 Meta-regressão Se os estudos forem divididos em subgrupos (ver Seção 9.6.2), isso pode ser visto como uma investigação de como uma característica de estudo categórico está associada aos efeitos de intervenção na meta-análise. Por exemplo, os estudos em que o ocultamento da sequência de alocação eram adequados podem produzir resultados diferentes daqueles em que era inadequado. Aqui, a ocultação da seqüência de alocação, adequada ou inadequada, é uma característica categórica ao nível do estudo. A meta-regressão é uma extensão para análise de subgrupos que permite o efeito de características contínuas e categóricas a serem investigadas e, em princípio, permite que os efeitos de múltiplos fatores sejam investigados simultaneamente (embora isso raramente seja possível devido a números inadequados de Estudos) 160 (Thompson 2002). A meta-regressão geralmente não deve ser considerada quando há menos de dez estudos em uma meta-análise. As meta-regressões são semelhantes, em essência, a regressões simples, nas quais uma variável de resultado é prevista de acordo com os valores de uma ou mais variáveis ​​explicativas. Na meta-regressão, a variável de resultado é a estimativa do efeito (por exemplo, uma diferença média, uma diferença de risco, uma relação de chance de log ou uma relação de risco log). As variáveis ​​explicativas são características de estudos que podem influenciar o tamanho do efeito de intervenção. Estes são geralmente denominados modificadores de efeito potenciais ou covariáveis. As meta-regressões geralmente diferem de regressões simples de duas maneiras. Em primeiro lugar, estudos maiores têm mais influência no relacionamento do que estudos menores, uma vez que os estudos são ponderados pela precisão de sua respectiva estimativa de efeito. Em segundo lugar, é aconselhável permitir a heterogeneidade residual entre os efeitos de intervenção não modelados pelas variáveis ​​explicativas. Isso dá origem ao termo meta-regressão de efeitos aleatórios, uma vez que a variabilidade extra é incorporada da mesma maneira que em uma meta-análise de efeitos aleatórios (Thompson, 1999). O coeficiente de regressão obtido a partir de uma análise de meta-regressão descreverá como a variável de resultado (efeito de intervenção) muda com um aumento de unidade na variável explicativa (o modificador de efeito potencial). A significância estatística do coeficiente de regressão é um teste de existência de uma relação linear entre efeito de intervenção e variável explicativa. Se o efeito de intervenção for uma medida de razão, o valor transformado em log do efeito de intervenção deve sempre ser usado no modelo de regressão (ver Seção 9.2.7) e a exponencial do coeficiente de regressão dará uma estimativa da variação relativa em Efeito de intervenção com um aumento de unidade na variável explicativa. A meta-regressão também pode ser usada para investigar diferenças para as variáveis ​​explicativas categóricas, como é feito em análises de subgrupos. Se houver subgrupos J, membros de subgrupos específicos são indicados usando as variáveis ​​dummy J 1 (que só podem tomar valores de zero ou um) no modelo de meta-regressão (como na modelagem de regressão linear padrão). Os coeficientes de regressão estimarão como o efeito de intervenção em cada subgrupo difere de um subgrupo de referência nomeado. O valor de P de cada coeficiente de regressão indicará se essa diferença é estatisticamente significante. A meta-regressão pode ser realizada usando a macro metaré disponível para o pacote estatístico Stata. Análise de Revisão 13 Para encontrar o erro padrão da estimativa, tomamos a soma de todos os termos residuais quadrados e dividimos por (n - 2) e, em seguida, peguei A raiz quadrada do resultado. Nesse caso, a soma dos resíduos quadrados é 0.090.160.642.250.04 3.18. Com cinco observações, n - 2 3, e SEE (3.183) 12 1.03. A computação para erro padrão é relativamente semelhante à do desvio padrão para uma amostra (n - 2 é usado em vez de n - 1). Dá alguma indicação da qualidade preditiva de um modelo de regressão, com números SEE mais baixos indicando que possíveis previsões são possíveis. No entanto, a medida de erro padrão não indica a medida em que a variável independente explica variações no modelo dependente. Coeficiente de Determinação Como o erro padrão, esta estatística dá uma indicação de quão bem um modelo de regressão linear serve como um estimador de valores para a variável dependente. Ele funciona medindo a fração da variação total na variável dependente que pode ser explicada pela variação na variável independente. Neste contexto, a variação total é constituída por duas frações: Variação total variação explicada variação inexplicável variação total variação total O coeficiente de determinação. Ou variação explicada como porcentagem da variação total, é o primeiro desses dois termos. Às vezes é expresso como 1 - (variação total de variação inexplicada). Para uma regressão linear simples com uma variável independente, o método simples para calcular o coeficiente de determinação é a quadratura do coeficiente de correlação entre as variáveis ​​dependente e independente. Uma vez que o coeficiente de correlação é dado por r, o coeficiente de determinação é popularmente conhecido como R 2. ou R-quadrado. Por exemplo, se o coeficiente de correlação for 0.76, o R-quadrado é (0.76) 2 0.578. Os termos R-quadrados são geralmente expressos em porcentagens, portanto 0,578 seria 57,8. Um segundo método de computação deste número seria encontrar a variação total na variável dependente Y como a soma dos desvios quadrados da média da amostra. Em seguida, calcule o erro padrão da estimativa seguindo o processo descrito na seção anterior. O coeficiente de determinação é então calculado por (variação total na variação Y inexplicável em Y) variação total em Y. Este segundo método é necessário para regressões múltiplas, onde há mais de uma variável independente, mas para nosso contexto, seremos fornecidos O r (coeficiente de correlação) para calcular um R-quadrado. O que R 2 nos diz são as mudanças na variável dependente Y que são explicadas por mudanças na variável independente X. R 2 de 57.8 nos diz que 57.8 das mudanças no resultado Y de X também significa que 1 - 57.8 ou 42.2 de As mudanças em Y são inexplicadas por X e são o resultado de outros fatores. Assim, quanto maior o R-quadrado, melhor a natureza preditiva do modelo de regressão linear. Coeficientes de regressão Para um coeficiente de regressão (interceptar a, ou inclinação b), um intervalo de confiança pode ser determinado com as seguintes informações: 13 Um valor de parâmetro estimado de uma amostra 13 Erro padrão da estimativa (SEE) 13 Nível de significância para o t - Distribuição 13 Graus de liberdade (que é tamanho de amostra - 2) 13 Para um coeficiente de inclinação, a fórmula para o intervalo de confiança é dada por btc SEE, onde tc é o valor t crítico no nosso nível significativo escolhido. Para ilustrar, faça uma regressão linear com retornos de fundos mútuos como variável dependente e índice SampP 500 como variável independente. Durante cinco anos de retornos trimestrais, o coeficiente de inclinação b é de 1,18, com um erro padrão da estimativa de 0,147. A distribuição t dos alunos para 18 graus de liberdade (20 trimestres - 2) com um nível de significância de 0,05 é 2.101. Estes dados nos fornecem um intervalo de confiança de 1,18 (0,147) (2,101), ou uma faixa de 0,87 a 1,49. Nossa interpretação é que há apenas uma chance de que a inclinação da população seja inferior a 0,87 ou superior a 1,49 - estamos confiantes de que esse fundo é pelo menos 87 tão volátil quanto o SampP 500, mas não mais de 149 como Volátil, com base em nossa amostra de cinco anos. Teste de hipóteses e coeficientes de regressão Os coeficientes de regressão são freqüentemente testados usando o procedimento de teste de hipóteses. Dependendo do que o analista pretenda provar, podemos testar um coeficiente de inclinação para determinar se explica chances na variável dependente e na medida em que explica as mudanças. Os Betas (coeficientes de inclinação) podem ser determinados acima ou abaixo de 1 (mais voláteis ou menos voláteis do que o mercado). Alphas (o coeficiente de intercepção) pode ser testado em uma regressão entre um fundo mútuo e o índice de mercado relevante para determinar se há evidência de um alfa suficientemente positivo (sugerindo valor agregado pelo gerente do fundo). A mecânica do teste de hipóteses é semelhante aos exemplos que usamos anteriormente. Uma hipótese nula é escolhida com base em um valor não igual a maior ou menor do que o caso, com a alternativa que satisfaz todos os valores não cobertos no caso nulo. Suponha que, em nosso exemplo anterior, regredimos um retorno de fundos mútuos no SampP 500 por 20 trimestres, nossa hipótese é que esse fundo mútuo é mais volátil do que o mercado. Um fundo igual em volatilidade para o mercado terá declive b de 1,0, portanto, para este teste de hipóteses, apresentamos a hipótese nula (H 0), caso o declive seja menor ou maior a 1,0 (ou seja, H 0: l 1,0 ). A hipótese alternativa H a tem b gt 1.0. Sabemos que este é um caso maior do que o caso (ou seja, um atinente) - se assumimos um nível de significância de 0,05, t é igual a 1,734 em graus de liberdade n - 2 18. Exemplo: Interpretando um teste de hipótese De nossa amostra, nós Tinha estimado b de 1,18 e erro padrão de 0,147. Nossa estatística de teste é calculada com esta fórmula: t coeficiente estimado - coeficiente de hipótese. Erro padrão (1.18 - 1.0) 0.147 0.180.147, ou t 1.224. Para este exemplo, nossa estatística de teste calculada está abaixo do nível de rejeição de 1.734, portanto não podemos rejeitar a hipótese nula de que o fundo é mais volátil do que o mercado. Interpretação: a hipótese de que b gt 1 para este fundo provavelmente precisa de mais observações (graus de liberdade) para ser comprovada com significância estatística. Além disso, com 1,18 apenas um pouco acima de 1,0, é bem possível que este fundo não seja tão volátil quanto o mercado, e estávamos corretos para não rejeitar a hipótese nula. Exemplo: Interpretação de um coeficiente de regressão O exame CFA provavelmente dará as estatísticas resumidas de uma regressão linear e pedirá interpretação. Para ilustrar, assuma as seguintes estatísticas para uma regressão entre um fundo de crescimento de pequena capitalização e o índice Russell 2000: 13 Coeficiente de correlação 13 As duas abreviaturas a entender são RSS e SSE: 13 RSS. Ou a soma de regressão dos quadrados, é a quantidade de variação total na variável dependente Y que é explicada na equação de regressão. O RSS é calculado calculando cada desvio entre um valor Y predito e o valor Y médio, esquadrinhando o desvio e somando todos os termos. Se uma variável independente explica nenhuma das variações em uma variável dependente, então os valores previstos de Y são iguais ao valor médio e RSS 0. 13 SSE. Ou a soma do erro quadrado dos resíduos, é calculado ao encontrar o desvio entre um Y predito e um Y real, o quadrado do resultado e a adição de todos os termos. 13 TSS, ou variação total, é a soma de RSS e SSE. Em outras palavras, esse processo ANOVA quebra a variância em duas partes: uma que é explicada pelo modelo e um que não é. Essencialmente, para que uma equação de regressão tenha alta qualidade preditiva, precisamos ver um RSS elevado e um SSE baixo, o que tornará a relação (RSS1) SSE (n - 2) alta e (com base em uma comparação com um F - Valor estatisticamente significativo. O valor crítico é retirado da distribuição F e é baseado em graus de liberdade. Por exemplo, com 20 observações, os graus de liberdade seriam n - 2 ou 18, resultando em um valor crítico (da tabela) de 2.19. Se o RSS fosse 2,5 e a SSE fosse 1,8, então a estatística de teste calculada seria F (2,5 (1,818) 25, que está acima do valor crítico, o que indica que a equação de regressão possui qualidade preditiva (b é diferente de 0) Estimativa de estatísticas econômicas Com modelos de regressão Os modelos de regressão são freqüentemente utilizados para estimar as estatísticas econômicas, como a inflação e o crescimento do PIB. Suponha que a seguinte regressão seja feita entre a inflação anual estimada (X ou variável independente) eo número real (Y ou variável dependente): Usando isso Modelo, o número de inflação previsto seria calculado com base no modelo para os seguintes cenários de inflação: 13 Estimativa de inflação 13 Inflação baseada no modelo 13 As previsões baseadas neste modelo parecem funcionar melhor para estimativas de inflação típicas e sugerem que estimativas extremas tendem a Supera a inflação - por exemplo, uma inflação real de apenas 4,46 quando a estimativa foi de 4,7. O modelo parece sugerir que as estimativas são altamente preditivas. Embora para avaliar melhor este modelo, precisamos ver o erro padrão eo número de observações em que se baseia. Se conhecemos o valor verdadeiro dos parâmetros de regressão (inclinação e interceptação), a variância de qualquer valor previsto de Y seria igual ao quadrado do erro padrão. Na prática, devemos estimar os parâmetros de regressão, portanto nosso valor previsto para Y é uma estimativa baseada em um modelo estimado. Quão confiável podemos estar em tal processo. Para determinar um intervalo de predição, use as seguintes etapas: 1. Preditar o valor da variável dependente Y com base na observação independente X. 2. Calcular a variância do erro de predição, usando o Seguinte equação: 13 Onde: s 2 é o erro padrão quadrado da estimativa, n é o número de observações, X é o valor da variável independente usada para fazer a predição, X é o valor médio estimado da variável independente e sx 2 é a variância de X. 3. Escolha um nível de significância para o intervalo de confiança. 4. Construa um intervalo de confiança de (1 -), usando a estrutura Y t c s f. Este é outro caso em que o material se torna muito mais técnico do que o necessário e pode-se ficar atolado na preparação, quando na realidade a fórmula para a variação de um erro de previsão provavelmente não será coberta. Priorize - não desperdice horas preciosas de estudo memorizando. Se o conceito for testado, provavelmente será dada a resposta para a Parte 2. Simplesmente sabe como usar a estrutura na Parte 4 para responder a uma pergunta. Por exemplo, se a observação X prevista for 2 para a regressão Y 1.5 2.5X, teríamos um Y predito de 1.5 2.5 (2), ou 6.5. Nosso intervalo de confiança é 6.5 t c s f. O t-stat é baseado em um intervalo de confiança escolhido e graus de liberdade, enquanto sf é a raiz quadrada da equação acima (para variância do erro de predição. Se esses números são tc 2.10 para confiança 95 e sf 0.443, o intervalo É 6.5 (2.1) (0.443), ou 5.57 a 7.43. Limitações da análise de regressão Concentre-se em três limitações principais: 1. Instabilidade de parâmetros - Esta é a tendência para que as relações entre as variáveis ​​mudem ao longo do tempo devido a mudanças na economia ou nos mercados , Entre outras incertezas. Se um fundo mútuo produzisse um histórico de retorno em um mercado onde a tecnologia era um setor de liderança, o modelo pode não funcionar quando os mercados estrangeiros e de capitais pequenos são líderes. 2. Divulgação pública do relacionamento - Em um mercado eficiente , Isso pode limitar a eficácia desse relacionamento em períodos futuros. Por exemplo, a descoberta de que os valores baixos de preço a valor de estoque superam o alto valor de preço por valor significa que esses estoques podem ser mais elevados e baseados em valores As abordagens de vestuário não manterão o mesmo relacionamento que no passado. 3. Violação dos relacionamentos de regressão - Anteriormente, resumimos os seis pressupostos clássicos de uma regressão linear. No mundo real, essas premissas são muitas vezes pouco realistas - por ex. Assumindo que a variável independente X não é aleatória.

No comments:

Post a Comment