
La profesora argentina, María Ines Baragatti, tiene una forma particular de enseñar matemáticas utilizando razonamientos aparentemente sencillos que le sirven para explicar conceptos matemáticos complejos. En uno de sus videos, para introducir la definición de «función matemática» se apoya en el concepto de máquina; de esta manera una función, sin entrar en conceptos complejos como continuidad, dominio, crecimiento o decrecimiento, sería una máquina que programamos para que calcule algo. El engranaje interno es visible y lógico; por tanto, el resultado predecible. Ante un conjunto de valores de entrada obtenemos un conjunto de valores de salida, cumpliéndose que la relación entre estos se mantiene siempre en cualquier circunstancia. Esta es la característica que hace confiables a las funciones matemáticas, de la misma manera que a los algoritmos informáticos, pues son, en su fundamento, funciones matemáticas que manejando datos de entrada, reproducen siempre los mismos datos de salida.
Frente a las certezas que teníamos hasta ahora el paradigma actual de la Inteligencia Artificial desafía la visión clásica de las matemáticas al contraponer ahora el concepto Black Box. Todos podemos comprobar cómo ante dos instrucciones (prompts) parecidas en el contexto pero no en la forma, los resultados no son los mismos; incluso ante prompts idénticos podemos obtener respuestas que, si bien son parecidas, difieren en algunos aspectos.
Una Caja Negra (Black Box) es un sistema donde sabemos qué entra (nuestras preguntas o datos) y lo que sale (las respuestas de la IA), pero el proceso que ocurre en el medio es un misterio, incluso para quienes diseñaron el sistema.
Esta opacidad se debe a que la IA no sigue un algoritmo tradicional, sino que ha creado su propia lógica interna extremadamente compleja tras analizar miles de millones de ejemplos. En esa «oscuridad» matemática, la máquina no aplica reglas lógicas humanas, sino que ajusta trillones de conexiones numéricas. Por eso, ante dos prompts casi idénticos, la máquina puede transitar caminos internos ligeramente distintos, devolviéndonos resultados que varían. En la Caja Negra, hemos intercambiado la comprensión por la intuición artificial: la máquina «acierta», pero no puede explicarnos cómo lo ha hecho. La IA opera bajo una lógica inductiva (probabilidades).
La máquina no lee palabras. Primero, rompe cada frase en piezas pequeñas (tokens) que convierte en una serie de coordenadas numéricas. Cada token se convierte en un punto exacto dentro de un mapa gigante. Esos números viajan a través de cientos de capas de una "red neuronal". En lugar de hacer una cuenta sencilla, la IA realiza millones de cálculos al mismo tiempo. Para decidir qué responder, la IA usa sus "pesos", que son como niveles de importancia que ella misma aprendió, es aquí donde el proceso se vuelve «opaco».
En nuestro día a día, la naturaleza «caprichosa» o irreproducible de la IA no suele representar un peligro crítico. Cuando usamos estas herramientas para redactar un correo o resumir un texto, aceptamos que la máquina actúe como un copiloto creativo cuyos resultados debemos supervisar y validar. En este contexto, la Caja Negra es un asistente útil, aunque sea un tanto impredecible.
Sin embargo, el panorama cambia drásticamente cuando trasladamos esta tecnología a terrenos más sensibles. En todas las ramas de la ciencia, la medicina o la ingeniería, el método científico exige reproducibilidad: la seguridad de que, ante las mismas condiciones, obtendremos siempre los mismos resultados.
El gran reto de la próxima década no será solo hacer que la IA sea más potente, sino lograr que sea más transparente. Solo recuperando esa reproducibilidad podremos dotar de una verdadera seguridad a los datos obtenidos y devolverle a la tecnología la confianza plena que un día nos dieron las matemáticas clásicas.
¿Te ha gustado este artículo? Compártelo