Regrsión Múltiple
 
Descripción:

Al trabajar con problemas reales, es necesario recurrir a modelos más complejos, aunque todavía lineales, en los que una variable dependiente se explica por dos o más variables independientes. utilizamos regresión múltiple cuando estudiamos la posible relación entre varias variables independientes (predictorias o explicativas) y otra variable dependiente (criterio, explicada, respuesta) .

Aplicaciones de la regresión múltiple

Es cierto que la regresión multiple se utiliza para la predicción de respuestas a partir de variables explicativas. Pero no es ésta realmente la aplicación que se le suele dar en investigación. los usos que con mayor frecuencia se le dan son:

- Identificación de variables explicativas: Ayuda a crear un modelo donde se seleccionen las variables que puedan influir en la respuesta, descartando aquellas q no aporten información.

- Detección de iteraciones entre variables independientes que afectan a la variable respuesta. Un ejemplo de iteración clasico es el de estudiar la respuesta de un paciente al alcohol y a un babiturico, y observar que cuando se ingieren ambos, el efecto es mucho mayor del esperado como suma de los dos.

- Identificación de variables confusoras. Es un problema difícil el de su detección, pero de interés en investigaión no experimental, ya que el investigador no tiene control sobre las variables independientes.

Restricciones y limitaciones

Linealidad: se supone que la variable respuesta depende linealmente de la variables explicativas.
Normalidad y equidistribusión de los residuos: se llaman residuos a las diferencias entre los valores calculados por el modelo y lo realmente observados en la variable dependiente. No es suficiente con que los residuos sean pequeños. La validez del modelo requiere que los mismo se distribuyan de modo normal y con la misma dispersión para cada combinación de valores de las variables independientes. Claro que esta condición en la practica es inverificable, puesto que para cada combinación de variables independientes tendremos normalmente ninguna o una respuesta.
Numero de variables independientes: Podemos estar tentedos en incluir en el modelo cualquier cosa que tengamos en una base de datos, con la esperanza de que cuantas más variables incluyamos, más posibilidades hay de exito. se corre el riesgo de cometer el primer error. Otra razón es que si se espera ajustar unas pocas observaciones usando muhcas variables, muy probablemente consigamos una aproximación muy artificial, y además muy sensible a los valores obserados. La inclusión de una nueva observación puede cambiar completamente el valor de los coeficientes del modelo. Esto podria llevar a que todas las variables independientes se conviertan en no significativas. Una regla que se suele recomendar es la de incluir almenos 20 observaciones por cada variables independiente que se estime a priori interesantes en el modelo, números inferiores nos llevarán posiblemente a no poder obtener conclusiones y tener errores del segundo tipo.
-Colinealidad: Si dos variables independientes están estrechamente relacionadas y ambas son incluidas en el modelo, muy probablemente ninguna de las dos sea considerada significativa.
-Obeservaciones anómalas: Está muy relacionada con la cuestión de los residuos, pero merece destacarlo aparte. Se debe poder especial cuidado en indentificarlas, pues tienen gran influencia en el resultado. A veces, son sólo errores en la entrada de datos, pero de gran consecuencia en el análisis.

Ventajas:

- Brinda una estimación del efecto que sobre Y tiene un
cambio arbitrario de ΔX.
- Resuelve el problema de sesgo por variable omitida, si
una variable omitida puede ser medida e incluida en el
análisis.
- Puede tratar relaciones no lineales (efectos que varían con
las X’s)

El modelo para solucionar la regresión múltiple es y=βo+ β1x1+β2x2+...+βp-1xp-1