Unos investigadores de Apple acaban de publicar un preprint en el que demuestran cómo los actuales modelos extensos de lenguaje (LLM, Large Language Model) no 'piensan'-'razonan', y hay gente burlándose de lo evidente. Pero es que no era tan evidente.
Los LLM son modelos de lenguaje con red neuronal. Son un montón de código entrenado con ingentes cantidades de texto mediante diferentes modos de entrenamiento, y que constan de una red neuronal con miles de millones de parámetros.
GPT es un LLM, y ChatCPG es un programa que usa este LLM. Y, aunque podamos mofarnos del estudio de Apple, lo cierto es que demostrar que estos sistemas (aún, quizá nunca) piensan es clave. Sin estos estudios, realizar la afirmación de "Los GPT no piensan" es muy atrevido. Y para muestra, este pequeño debate de hace unos meses:
Los sistemas conversacionales están adquiriendo una complejidad tal que burlarse de sus competencias para razonar o pensar está dejando de hacer gracia. Y no, no piensan, ni razonan. Pero a veces no hace falta nada de eso para mantener conversaciones de cierto nivel (como la de arriba).
El paper: https://arxiv.org/pdf/2410.05229
Estamos viendo la cuarta versión del sistema ChatGPT. Pensad en la versión cuatro de cualquier cosa. Windows NT, Android Ice Cream Sandwich, iPhone 4. Comparado con las versiones actuales son herramientas casi prehistóricas. Pero los modelos de lenguaje LLM no son como el software o el hardware que hemos visto en la ofimática doméstica. De GPT-2 a GPT-3 hubo un salto gitante, y de GPT-3 a GPT-4 el salto se hizo aún mayor.
Hablar con una quinta versión, algo que quizá podamos hacer en uno o dos años, nos planteará dudas sobre si hablamos realmente con un loro estocástico o lo hacemos con una persona. En realidad, lo hacemos con una caja china, pero de una complejidad tal que realmente poco importa filosóficamente que 'razone' o 'piense' si la conversación podríamos tenerla con un humano. Y GPT-4 ya genera esa duda.
La clave de todo esto es que no podemos reírnos de la forma en que obtenemos conocimientos. Creer que estos modelos no piensan NO es suficiente. Hay que demostrarlo. Si no se demuestra, no vale.
@euklidiadas yo diría que es al contrario, quien realiza una afirmación extraordinaria ("este trozo de código piensa") es quien tiene que aportar pruebas extraordinarias, y no al revés.
@euklidiadas yo por más chatbots generativos que miro sigo sin ver ningún atisbo de inteligencia detrás, son lo mismo que el Eliza de hace unos 30 años o 40 pero con un diccionario más grande y unos contrapesos para dar más prioridad a un tipo de respuesta, pero se sigue sintiendo como un teclado predictivo glorificado.