| Resumo Na análise de regressão busca-se responder por que determinada variável está variando e como ela está variando. Como uma primeira abordagem recorre-se a um modelo bastante simples, que é a função do primeiro grau, ou seja, Y = aX + b. A partir daí, é necessário estabelecer um critério para determinação dos parâmetros a e b. Esse método será o de mínimos quadrados, o que significa dizer que os valores obtidos serão aqueles que minimizarão a soma dos quadrados dos erros, entendendo como erros (ou resíduos) as diferenças entre os valores reais / observados de Y e aqueles valores estimados a partir da construção do modelo e substituição dos valores de X. A reta assim obtida será a melhor reta possível, o que não é sinônimo de ser uma boa reta (ou uma reta suficientemente aderente à realidade). Assim, é necessário avaliar o quanto o modelo explica (ou justifica) a variabilidade original de Y. A medida construída para isto é o coeficiente de determinação, que revelará qual o percentual de explicação da variabilidade de Y deve-se à variabilidade de X (dentro do modelo determinado). O próximo passo é interpretar os valores dos parâmetros a e b, sendo que a será o valor de Y, quando X = 0 (o que não necessariamente tem um significado prático) e b será o impacto sobre a variável Y quando X variar de uma unidade (no mesmo sentido se for um valor positivo e em sentidos contrários, caso seja negativo).
Caso o valor do coeficiente de determinação não seja
julgado satisfatório, é conveniente "especular"
as possíveis razões, que basicamente podem ser: insuficiência
de dados, erro de especificação do modelo (pode não
ser uma reta), erro de especificação da variável
explicativa (pode ter sido escolhida uma variável explicativa inadequada
ou insuficiente para, sozinha, explicar a variabilidade de Y) ou fatores
subjetivos / de difícil mensuração. |
Copyright © 2012 AIEC..
|