Uno de los grandes problemas con respecto a las inteligencias artificiales (y más concretamente a los LLM), es que la mayoría de las personas no cuestionan lo que les responde un LLM y automáticamente consideran que es cierto. Y esto, muchas veces es debido a la falta de información sobre lo que realmente es y cómo funciona un LLM. ¿Pueden realmente pensar? ¿Saben razonar como un humano? ¿O qué es lo que hacen para llegar a sus conclusiones?
¿Qué significa «pensar» y «razonar»?
Antes de continuar, y para responder estas preguntas, debemos tener claro qué es pensar y qué es razonar, porque la respuesta a esta pregunta es fundamental para saber lo que hace realmente un LLM.
Según la RAE, pensar tiene varias acepciones (las he simplificado):
- Formar ideas o juicios
- Razonar *
- Opinar sobre algo
- Planear hacer algo
- Echar pienso a los animales
- Recordar algo ✅
- Considerar algo al actuar ✅
Según la RAE, razonar también tiene varias acepciones:
- Argumentar o justificar cosas ✅
- Pensar *
- Exponer razones o argumentos ✅
Bajo mi humilde punto de vista, dependiendo de qué signifique para ti «pensar» y qué signifique para ti «razonar», los LLM pueden ser capaces de ello o no. Por ejemplo, para mí, si somos literales, un LLM cumple las acepciones 6 y 7 de pensar, y las 1 y 3 de razonar. Además, al tener una referencia circular (la acepción 2 de ambas), al cumplir una, puede cumplir también la otra.
Sin embargo, el resto de acepciones implican una intencionalidad que los LLM no tienen. Por ejemplo, un LLM no forma ideas o juicios (sólo adopta ajenos como suyos), ni tampoco es capaz de opinar ni planear algo. Curiosamente, en muchas ocasiones, un humano también suele adoptar ideas o juicios ajenos como propios, sin analizarlos detenidamente.
Una muestra de lo absurdo que puede ser esto según nuestro razonamiento: Pensar puede ser «5) Echar pienso a los animales». Razonar puede ser «2) Pensar». Por lo tanto, un dispensador de pienso puede ser capaz de pensar y razonar.
¿Qué entendemos como pensar y razonar?
Si nos abstraemos un poco, es habitual tener una idea generalizada de estos conceptos:
- 1️⃣ Pensar: Proceso interno capaz de generar ideas, conectar experiencias y planificar el futuro.
- 2️⃣ Razonar: Proceso en el que se aplica lógica y conocimiento para llegar a conclusiones coherentes.
Pero hay dos detalles importantes a tener en cuenta:
- 1️⃣ Ser conscientes: Una calculadora puede procesar datos, pero «no sabe» que lo hace. Pensar implica una intención y autoconciencia.
- 2️⃣ Antropomorfización: La gente suele atribuir rasgos humanos a cosas que se parecen o actúan como nosotros. Lo hacemos con los animales y con las máquinas. A veces, hasta con las personas.
La historia de Eliza
Alrededor de 1964, Joseph Weizenbaum inventó ELIZA, un programa informático hecho en LISP que utilizaba el procesamiento del lenguaje natural para simular ser un chat con un psicólogo.
El programa se basaba en la filosofía del psicólogo Carl Rogers (psicología rogeriana) para emular una conversación, aparentando empatía e interesándose por lo que el usuario escribía en el chat, haciéndolo sentir querido y escuchado. Además, detectaba ciertas palabras clave o frases:
- 🟧 Frases comodín: «Oh, que interesante eso sobre ####. Por favor, continua»
- 🟦 Frases envolventes: «Has dicho #### Hablame más sobre eso»
En esa época, una máquina manteniendo una conversación aparentemente inteligente era algo muy impresionante, pero aunque era técnicamente interesante, sólo era una simple ilusión. El mismo Joseph fue el primero en llevarse las manos a la cabeza tras ver el fanatismo que se empezaba a crear en torno a su programa: personas que les contaban secretos y detalles íntimos o que confiaban más en ELIZA que en personas reales.
Esto fue en los 60. ¿Nos recuerda a algo hoy en día?
¿Cómo «piensan» los LLM realmente?
Las inteligencias artificiales (LLM) realmente no piensan en el sentido humano del término, aunque pueda parecerlo y su comportamiento pueda engañarnos. Su funcionamiento básico se basa en predecir la siguiente palabra más probable en una secuencia, entrenados con cantidades masivas de texto.
En la práctica, cuando escribes una pregunta, el modelo no entiende la pregunta. Lo que hace es calcular, en base a sus datos de entrenamiento, que combinación de palabras sería más coherente como respuesta. El resultado suena inteligente porque el entrenamiento incluye millones de ejemplos de pensamiento humano: libros, artículos, conversaciones, código de programación, etc.
Se suele decir que los LLM son loros estocásticos, es decir:
- Loro porque sólo repiten patrones sin saber lo que significan.
- Estocástico (azar) porque introducen un grado de probabilidad/aleatoriedad para no sonar mecánicos ni dar siempre la misma respuesta.
Lo interesante es que, aunque en el fondo sólo manipulan estadística y probabilidad, el resultado imita procesos que asociamos al pensamiento humano: razonar, explicar, debatir, o incluso hasta crear cosas nuevas. Esa ilusión surge porque nuestro cerebro trabaja por patrones, que es justo lo que hace un LLM: reconocer patrones.
Los LLM no poseen intencionalidad. No forman juicios propios ni buscan conseguir ciertas metas. Responden sólo cuando se les pide y su opinión no es más que una combinación de textos previos. Eso sí, es sorprendente lo que pueden llegar a hacer simplemente utilizando predicción de patrones de su entrenamiento.
Razonamiento humano vs LLM
Por último, vamos a ver una ligera comparación del razonamiento de un humano respecto al de un LLM:
Razonamiento | Humano | LLM |
---|---|---|
Intencionalidad | Razona con un objetivo: resolver cosas, conseguir algo... | Sin objetivo, busca lo más probable |
Comprensión | Sabe qué significa lo que usa (o debería 😋) | Sólo manipula datos, no sabe qué significan |
Creatividad | Puede inventar conceptos nuevos | Mezcla ideas, sin intención de crear algo nuevo |
Contexto | Usa memoria, experiencia, emociones, cultura... | Se limita a los datos con los que fue entrenado |
Así que, recuerda, cuando hablas con ChatGPT realmente no te está entendiendo. Simplemente, está buscando coincidencias en sus datos de entrenamiento, y te responde con una respuesta aparentemente inteligente, pero en realidad es pura estadística, altamente relacionada con lo que buscas.
La paradoja viene aquí: muchos humanos tampoco piensan con demasiada intencionalidad. También adoptan ideas sin analizarlas o repiten convencidos lo que escucharon. La diferencia es que sí que pueden decidir hacerlo.