Un símil para entender como «razona» ChatGPT

Vamos a intentar entender como «razona» (aceptando «razonar» en un sentido muy amplio) ChatGPT sin usar matemáticas ni términos técnicos.

Para ello vamos a usar un pequeño problema de programación, usaremos el siguiente código en javascript para calcular 5000 tiradas de dados y luego calcular la media y el histograma (número de veces que ha salido cada cara):

var a = []; 
for(var i = 0; i < 5000; i++){ 
    a.push(Math.trunc(Math.random()*6)+1); 
} 

let media=0;
let histograma=[0,0,0,0,0,0];
a.forEach(function(n){
    media += n; 
    histograma[n-1]++;
    });
media /= a.length;
console.log(a.length);
console.log(media);
console.log(histograma);

Si le preguntáramos a un humano que nos dijera que resultado va dar este código tiene dos formas de enfrentarse a este problema:

  • Mirar paso a paso que hace cada linea de código. Apunetnado en un papael el resultado de la ejecución de cada una tratando de imitar a como le ejecutaria un ordenador
  • Tomar atajos mentales, ver por encima que es lo que hace cada parte del código y junto con su experiencia intuir como funciona.

En este caso el segundo método» seria algo así como:

«Un bucle que se repite 500 veces»

«Dentro se calcula un numero del 1 al 6 ambos incluidos»

«Luego hay otro bucle y una variable llamada media y otra llamada histograma»

«Calcula la media y el histograma de 5000 tiradas»

«Por lo que se de probabilidad, todas las caras han de salir aproximadamente el mismo número de veces. en este caso 5000/6»

«La media probabilidad de tirar un dado (caso similar y muy conocido) sera de alrededor de 3.5»

Pues bien esa es la forma que usa ChatGPT para dar una respuesta. Usa su «intuición» a partir de la cantidad de ejemplos con los que ha sido entrenada. Con una diferencia. Nuestro programador humano se ha saltado partes de código al ver el nombre de las variables. ChatGPT no hace eso, procesa todas las lineas de código por lo que sus «intuiciones» son mejores.

Vamos a pedirle a ChatGPT que resuelva este mismo problema.

Actúa como si fueras una consola de Javascript y muestra únicamente (sin ningún comentario tuyo) los resultados de simular la ejecución de los distintos códigos que voy a pasarte: 

var a = []; 
for(var i = 0; i < 5000; i++){ 
    a.push(Math.trunc(Math.random()*6)+1); 
} 

let media=0;
let histograma=[0,0,0,0,0,0];
a.forEach(function(n){
    media += n; 
    histograma[n-1]++;
    });
media /= a.length;
console.log(a.length);
console.log(media);
console.log(histograma);

El resultado que debería mostrar es el numero de elementos calculados, la media y el histograma:

5000
3.5194
[ 807, 855, 865, 838, 849, 796 ]

Es un buen resultado, pero le falla que si sumas todos los valores del histograma sale 5010 en lugar de 5000. Sin embargo es imposible que haya calculado 5000 números aleatorios ChatGPT no tiene capacidad para hacer eso. Ha tenido que usar unaforma muy parecida a la nuestro programador.

Esto explica un curioso fenomeno que se produce con ChartGPT, que a veces, cuando es incapaz de resolver un problema, si le pides que lo resuelva paso a paso es capaz de llegar a la respuesta correcta.

Todo esto me recuerda al libro «Pensar rápido, pensar despacio» de Daniel Kahneman donde presenta una perspectiva interesante sobre el funcionamiento de la mente humana, sobre la forma en que tomamos decisiones. Describe dos sistemas cognitivos que trabajan en conjunto: el Sistema 1 y el Sistema 2.

El Sistema 1 es el que toma decisiones rápidas e inconscientes. Es automático, frecuente, emocional, estereotipado y subconsciente. Este sistema se encarga de procesar información de forma intuitiva y generar rápidamente juicios y decisiones. Aunque este sistema suele ser muy útil para tomar decisiones cotidianas, no siempre es confiable ya que a veces puede ser influenciado por prejuicios o sesgos cognitivos.

El Sistema 2, por otro lado, es el que toma decisiones más conscientes y racionales. Es lento, requiere esfuerzo, poco frecuente, lógico, calculador y consciente. Este sistema se encarga de analizar la información de forma crítica, evaluar alternativas y tomar decisiones basadas en la razón. Sin embargo, también puede ser susceptible a errores si se utiliza de manera inadecuada o si no se tiene la información suficiente.

Es importante destacar que ambos sistemas trabajan juntos y son necesarios para tomar decisiones efectivas. El Sistema 1 proporciona intuiciones y respuestas rápidas, mientras que el Sistema 2 se encarga de validarlas y tomar decisiones más conscientes y racionales. A veces, los juicios del Sistema 1 pueden ser engañosos o incompletos, y es entonces cuando el Sistema 2 entra en acción para corregirlos. Comprender la forma en que estos sistemas trabajan juntos nos puede ayudar a tomar decisiones más efectivas y evitar errores cognitivos comunes.

ChatGPT usaría por defecto el Sistema 1 (curiosamente tachado de emocional). Al pedirle que resuelva el problema paso a paso estaría cambiando al Sistema 2.

El problema de usar el Sistema 1 es que está sujeto a errores ya que en lugar de reflexionar sobre el problema elemento por elemento se usan heurísticas y suposiciones aprendidas de nuestra experiencia. Lo cual puede llevar a errores.

Hay que entender todo como una metáfora, no como si ChatGPT de verdad razonara usando uno de estos sistemas. Pero creo que como intuición puede servir para hacernos una idea «no técnica» de como funciona.

Puedes ver un vídeo sobre este tema en mi canal de Youtube:

Haz click para ver el vídeo en Youtube