If you're seeing this message, it means we're having trouble loading external resources on our website.

Si estás detrás de un filtro de páginas web, por favor asegúrate de que los dominios *.kastatic.org y *.kasandbox.org estén desbloqueados.

Contenido principal

Ideas intuitivas detrás de la R cuadrada

Cuando aprendimos sobre el coeficiente de correlación, r, nos centramos en lo que significaba en lugar de cómo calcularlo, ya que los cálculos son largos y generalmente las computadoras los resuelven por nosotros.
Vamos a hacer lo mismo con r2 y concentrarnos en cómo interpretar lo que significa.
En cierto modo, r2 mide qué tanto se elimina del error de predicción al usar la regresión por mínimos cuadrados.

Predicciones sin usar regresión

Usamos la regresión lineal para predecir y dado un valor de x. Pero supongamos que tenemos que predecir un valor de y sin un valor correspondiente de x.
Sin utilizar la regresión en la variable x, nuestra estimación más razonable sería simplemente predecir el promedio de los valores de y.
Este es un ejemplo donde la recta de predicción es simplemente la media de los datos de y:
Observa que esta recta no parece ajustarse muy bien a los datos. Una forma de medir el ajuste de la recta es calcular la suma de los residuos al cuadrado, esto nos da un sentido general de cuánto error de predicción tiene un modelo dado.
Así que sin la regresión por mínimos cuadrados, la suma de los cuadrados es 41.1879
¿Usar la regresión por mínimos cuadrados reduciría el error en la predicción? Si es así, ¿por cuánto? ¡Veámoslo!

Predicciones con el uso de la regresión

Aquí te presentamos los mismos datos con la recta de regresión por mínimos cuadrados correspondiente y el resumen estadístico:
Ecuaciónrr2
y^=0.5x+1.50.8160.6659
Esta recta parece ajustar los datos bastante bien, pero para medir qué tanto mejor se ajusta, podemos fijarnos otra vez en la suma de los cuadrados de los residuos:
Al usar la regresión por mínimos cuadrados se redujo la suma de los cuadrados de los residuos de 41.1879 a 13.7627.
Así que con la regresión por mínimos cuadrados eliminamos una cantidad considerable del error de predicción. Pero, ¿qué tanto?

La R cuadrada mide qué tanto error de predicción eliminamos

Sin usar la regresión, el modelo tenía una suma total de cuadrados de 41.1879. Mediante la regresión por mínimos cuadrados se redujo a 13.7627.
Por lo que la reducción total es de 41.187913.7627=27.4252.
Podemos representar esta reducción como un porcentaje de la cantidad original del error de predicción:
41.187913.762741.1879=27.425241.187966.59%
Si te fijas más arriba, verás que r2=0.6659.
R-cuadrada nos dice qué porcentaje del error de predicción en la variable y se elimina al usar la regresión por mínimos cuadrados en la variable x.
Como resultado, a r2 también se le llama coeficiente de determinación.
En muchas definiciones formales, r2 nos dice qué porcentaje de variabilidad en la variable y está contabilizada por la regresión en la variable x.
Parece bastante notable que simplemente elevar r al cuadrado nos dé esa medida. Demostrar esta relación entre r y r2 es bastante complejo y está fuera del alcance de un curso introductorio de estadística.

¿Quieres unirte a la conversación?

  • Avatar blobby green style para el usuario diegojeffhardy2000
    Está del cocol que pongan lecciones y no sea obligatorio que el maestro las deje con secuencia. Yo ni había visto nada de regresión lineal y tuve que pagar porque me ayudaran para exlicármelo porque no entendí nada de lo que aquí ponen como sacar la ecuación de recta ni r ni r2
    (3 votos)
    Avatar Default Khan Academy avatar para el usuario
¿Sabes inglés? Haz clic aquí para ver más discusiones en el sitio en inglés de Khan Academy.