| Resumo Na análise de regressão busca-se responder porque determinada variável está variando e como ela está variando. Como uma primeira abordagem recorre-se a um modelo bastante simples, que é a função do primeiro grau, ou seja, Y = a + bX. A partir daí, é necessário estabelecer um critério para determinação dos parâmetros a e b. Este método será o de mínimos quadrados, o que significa dizer que os valores obtidos serão aqueles que minimizarão a soma dos quadrados dos erros, entendendo como erros (ou resíduos) as diferenças entre os valores reais / observados de Y e aqueles valores estimados a partir da construção do modelo e substituição dos valores de X. Esta reta, assim obtida, será a melhor reta possível, o que não é sinônimo de ser uma boa reta (ou uma reta suficientemente aderente à realidade). Assim é necessário avaliar o quanto o modelo explica (ou justifica) da variabilidade original de Y. A medida construída para isto é o coeficiente de determinação, que revelará qual o percentual de explicação da variabilidade de Y deve-se à variabilidade de X (dentro do modelo determinado). O próximo passo é interpretar os valores dos parâmetros a e b, sendo que a será o valor de Y, quando X = 0 (o que não necessariamente tem um significado prático) e b será o impacto sobre a variável Y quando X variar de uma unidade (no mesmo sentido se for um valor positivo e em sentidos contrários, caso seja negativo). Caso
o valor do coeficiente de determinação não seja julgado
satisfatório, é conveniente "especular" as possíveis
razões, que basicamente podem ser: insuficiência de dados,
erro de especificação do modelo (pode não ser uma
reta), erro de especificação da variável explicativa
(pode ter sido escolhida uma variável explicativa inadequada ou
insuficiente para, sozinha, explicar a variabilidade de Y) ou fatores
subjetivos / de difícil mensuração. |
Copyright
© 2003 AIEC..
|