IA

Regresión Lineal: la abuela de toda la IA moderna

Regresión Lineal: la abuela de toda la IA moderna
Regresión Lineal: la abuela de toda la IA moderna

En el artículo anterior montamos una cocina llena de catadores y la llamamos red neuronal. Hoy vamos a conocer al bisabuelo de todos esos catadores. Un señor viejísimo, con bastón, que lleva más de 200 años sirviendo sopas y que —aunque nadie lo diga— está sentado en la primera mesa de toda red neuronal moderna.

Se llama regresión lineal. Y si entiendes esto, entiendes el ladrillo invisible sobre el que se construye desde tu GPS hasta ChatGPT.

El problema más antiguo del mundo: predecir

Imagínate que eres dueño de una heladería. Llevas un año anotando dos cosas cada día: la temperatura y cuántos helados vendiste. Al final del año miras la libreta y sale esto:

  • Días fríos (15°C): 20 helados

  • Días templados (22°C): 80 helados

  • Días calurosos (30°C): 180 helados

  • Días bochornosos (35°C): 250 helados

Ahora mañana dan 28°C. ¿Cuántos helados comprarás para el stock?

Tu cabeza ya está haciendo regresión lineal sin saberlo. Estás pensando: "bueno, 28 está entre 22 y 30… pues tiraré entre 80 y 180, digamos 140". Lo que tu cerebro acaba de hacer es trazar una línea imaginaria entre los puntos y leerla.

Eso, exactamente eso, es regresión lineal: encontrar la mejor línea recta que pasa cerca de todos tus datos, y usarla para adivinar lo que todavía no has visto.

La línea mágica

Coge papel y lápiz, dibuja unos ejes. En el horizontal pones la temperatura. En el vertical, los helados vendidos. Marca los cuatro puntos de arriba.

Verás que no están perfectamente alineados —la vida nunca lo está— pero siguen una tendencia clara: a más calor, más helados. Si ahora trazas una línea recta que pase lo más cerca posible de los cuatro puntos, tienes tu modelo.

Esa línea tiene dos cosas que describir:

  1. Dónde empieza. Si hiciera 0°C, ¿cuántos helados venderías? La línea te da una respuesta, aunque sea cero o incluso negativa (lo cual no tiene sentido físico, pero matemáticamente se vale).

  2. Cuánto sube. Por cada grado más, ¿cuántos helados extra vendes? Ese número es la pendiente de la línea, y es el rey del modelo.

Con esas dos cifras —dónde empieza y cuánto sube— ya puedes predecir cualquier día: "hoy hace 28°C, la línea me dice 140 helados, compro 150 por si acaso".

Ya está. Eso es regresión lineal. Parece una tontería, pero este señor viejito es el esqueleto de toda la IA moderna. Ahora te cuento por qué.

¿Y si hay más de una cosa que influye?

Claro, las ventas de helado no sólo dependen de la temperatura. También influye si es fin de semana, si llueve, si hay un festivo, si el Real Madrid juega en casa. Cinco cosas distintas.

Pues la regresión lineal escala sin inmutarse. En vez de una pendiente, tendrás cinco pendientes, una para cada factor:

  • Temperatura: +15 helados por cada grado extra.

  • Fin de semana: +50 helados si es sábado o domingo.

  • Lluvia: −80 helados si está lloviendo.

  • Festivo: +30 helados.

  • Partido del Madrid: −10 helados (la gente se queda en el bar).

Para predecir mañana, sumas todo: "hace 25°C, es sábado, no llueve, no es festivo, no hay partido → tantos helados".

¿Te suena? Esto es exactamente lo que hace una neurona del artículo anterior. Aquellos catadores que recibían varios ingredientes, los multiplicaban por sus "manías" (los pesos), y escupían una nota final. Una neurona es, literalmente, una regresión lineal con un filtro de drama al final.

Por eso decía que la regresión lineal es la abuela. La heredan todos.

El verdadero arte: encontrar la línea

Hasta aquí todo es intuitivo. Pero viene la pregunta del millón: ¿cómo sabemos cuál es "la mejor" línea?

Porque por cuatro puntos pueden pasar infinitas líneas. Unas pasarán más cerca, otras más lejos. Alguien tiene que elegir.

La idea, elegantísima, es esta: mides cuánto se equivoca cada línea, y te quedas con la que menos se equivoca.

¿Cómo mides el error? Sencillo: para cada día de tu libreta, miras qué predice la línea y qué pasó en realidad. La diferencia, al cuadrado (para que los errores por arriba y por abajo cuenten igual), es el error de ese día. Sumas los errores de todos los días y ya tienes el "error total" de esa línea concreta.

Ahora lo único que haces es ir probando líneas, ajustando cuánto sube y dónde empieza, hasta que el error total sea lo más pequeño posible. A ese proceso los matemáticos le ponen un nombre muy serio —método de los mínimos cuadrados— pero la idea es la del vendedor de alfombras regateando: "¿y si la línea sube un poco más? ¿y un poco menos? Ah, así se equivoca menos, me quedo con esta".

Esta forma de ir probando y ajustando poco a poco es exactamente el espíritu de backpropagation, que veremos en el próximo artículo. Pero aplicado a millones de "pendientes" en vez de a cinco.

Por qué esto es tan importante para entender la IA

Si has entendido la heladería, has entendido más IA de la que crees. Porque casi todo lo que hace un modelo gigantesco moderno se reduce, en el fondo, a una cascada de regresiones lineales con filtros entre medias. Grande, sí. Miles de capas, sí. Pero el ladrillo es este.

Fíjate en los paralelismos:

Concepto en la heladeríaConcepto en una red neuronalTemperatura, día de la semana, lluvia…Entradas / inputs"+15 helados por grado", "−80 si llueve"…Pesos / weightsHelados previstos para mañanaSalida / outputProbar líneas hasta minimizar el errorEntrenamiento / trainingLa diferencia entre lo previsto y lo realFunción de pérdida / loss

Los cinco conceptos que has aprendido en la heladería son, palabra por palabra, los cinco conceptos que aparecen en cualquier paper de IA. Sólo que en vez de cinco factores habrá 175 mil millones de ellos. Pero el juego es el mismo: ajustar pendientes hasta que el modelo acierte.

Lo que la regresión lineal NO puede hacer (y por qué aparecen las redes)

Con todo lo bonito que es, el abuelo tiene un límite serio: sólo sabe trazar líneas rectas. Y la vida real muchas veces no es recta.

Piensa en la relación entre las horas de sueño y tu rendimiento al día siguiente. Con 3 horas, fatal. Con 7, perfecto. Con 15, también fatal (te sientes grogui). Eso no es una línea: es una curva, con un óptimo en el medio.

La regresión lineal se atasca aquí. No importa qué pendiente pongas, una recta nunca va a capturar una relación "bien hasta cierto punto, luego mal".

La solución es poner muchas regresiones lineales en cadena, con filtros no lineales entre ellas, y dejar que, entre todas, dibujen cualquier curva por retorcida que sea. Y eso es, punto por punto, una red neuronal.

Así de bonito es el chiste: una red neuronal es sólo un montón de regresiones lineales apiladas con astucia. Si entiendes una sola, entiendes todas. Y si entiendes el truco de ponerlas en capas con no linealidad en medio, entiendes por qué funcionan cuando ninguna sola podría.

Una frase para llevarte a casa

Si sólo te queda algo de este artículo, que sea esto:

Regresión lineal es adivinar con la mejor línea recta posible. Y una red neuronal es lo mismo, pero con miles de líneas trabajando en equipo para dibujar curvas imposibles.

Comentarios (0)

Sé el primero en comentar.

Deja un comentario

Protegido con reCAPTCHA — Privacidad · Términos

Historias relacionadas