Author/s: Ramiro Checa-Garcia
Language: es | Translations:
opinion
IA

En las últimas semanas, he empezado a usar las IA para buscar información, reorganizar ideas, o reflexionar sobre algún tema pidiendo más información. Previamente, lo había usado en aspectos técnicos para explorar si producían un código razonable y en qué tareas a este nivel podrían ser más útiles.

Mi ilusión inicial se fue tornando cada vez más en escepticismo, tanto por el contenido de estas discusiones, como por el envoltorio que estas aplican a cada cosa que dicen. Voy a poner algunos ejemplos, para ilustrar al lector a qué me refiero.

La reconstrucción errónea de una historia: Nina Simone

Esta famosa cantante tuvo una experiencia crucial a los 10 años, cuando dio su primer recital de piano en su pueblo natal, Tryon, Carolina del Norte, en 1943. Durante el evento, aunque era su recital, sus padres —que estaban sentados en la primera fila desde que se abrió el local— fueron obligados a moverse al final de la sala debido a las leyes de segregación racial. Este hecho dejó una profunda huella en Nina Simone.

Sin embargo, cuando pregunté a modelos como ChatGPT (versiones 4 y 5) sobre este episodio, obtuve la siguiente respuesta:

“Nina Simone se levantó, indignada, y se negó a tocar hasta que sus padres volvieran a la primera fila. Solo entonces accedió a terminar el concierto.”

El problema con esta versión es que ninguna fuente verificable, ya sea la autobiografía de Nina Simone, entrevistas o documentos históricos, respalda esta segunda parte de la historia. Es una deformación que con el tiempo se ha viralizado, popularizada en redes sociales y foros diversos, pero carente de fundamento documental. hatGPT no ha sido capaz de diferenciar una historia no real de los hechos de los que sí se tiene constancia documental.

El examen de ingreso al Instituto Curtis

Pasé entonces a discutir otro episodio clave en la vida de Nina Simone: su audición de ingreso al Instituto Curtis, una escuela privada de música en Filadelfia. Aquí también detecté una falsedad en la reconstrucción que hace Chatgpt, como afirmar (inicialmente) que interpretó una pieza de Liszt.

La realidad documentada indica lo siguiente:

  • Nina Simone interpretó una pieza de Bach, específicamente la Chacona adaptada para piano.
  • Esta pieza fue seleccionada, como señaló su profesora Muriel Mazzanovich, ya que permitía a Nina desarrollar tanto su expresividad como sus habilidades técnicas.

La atribución a Liszt parece ser una mezcla inexacta (una reconstrucion falsa por ChatGPT) entre el hecho de que Nina admiraba sus obras y el contexto de su audición.

Comparación entre modelos: ChatGPT vs. DeepSeek

Probé también el modelo DeepSeek, y los resultados fueron ambivalentes:

  • DeepSeek respondió de forma más lenta pero más rigurosa. Fue capaz de detectar el error de ChatGPT y me proporcionó fuentes confiables, que pude verificar.
  • Sin embargo, si la conversación no tiene un enfoque explícito en la verificación, también puede repetir la historia deformada del recital de Tryon, especialmente si no se introducen términos como “evaluar” o “verificar”, y cuando DeepSeek propone expontaneamente incluir el recital en Tryon en una biografia breve sobre Nina Simone.
  • Cuando se activa el modo DeepThink, el modelo explicita su proceso de razonamiento. Si detecta que el usuario busca rigor o pide fuentes (por el historial previo), evita reproducir narrativas falsas. No obstante, en algunas ocasiones, al iniciar una conversación sin contexto previo, puede incluir la versión errónea.

En el caso de ChatGPT, obtener una versión fiel de los hechos requiere múltiples interacciones, insistiendo en la necesidad de rigurosidad y fuentes verificables. Solo entonces el modelo comienza a responder con mayor cautela, adoptando un “modo lento” (incluso mas lento que DeepThink) en el que intenta ser más preciso.

Que dicen Chatgpt y DeepSeek ...

CHATGPT: Cuando una IA maneja hechos históricos: la memoria cultural digitalizada está llena de narrativas contaminadas por emociones o simple viralización. Si no se le pide específicamente a un modelo como Chatgpt que actúe con rigor documental, tenderá a optimizar para fluidez narrativa, no para precisión histórica. Tambien los modelos tienen tendencia a "completar historias" cuando hay lagunas narrativas.

DEEPSEEK: Es preocupante es que ChatGPT (incluso GPT-4/5) lo presenta como un hecho, sin distinguir entre fuentes fiables y rumores. Esto puede deberse a:

  • Sesgo de popularidad: Los modelos priorizan información que aparece con frecuencia, aunque sea falsa.
  • Falta de jerarquización de fuentes: No siempre diferencian entre un libro académico y un post de Reddit.
  • "Alucinaciones" narrativas: A veces completan historias con detalles plausibles pero inexistentes.
  • Presión por dar respuestas "completas": A veces prefieren inventar detalles antes que decir "no sé".

Por otra parte, DeepSeek parece más conservador, pero no es inmune a errores si no se le guía.

Problema con las fuentes

Pase a preguntar a ambos, Chatgpt y DeepSeek sobre aspectos actuales del conflicto Palestina-Israel, lo que mas me ha sorprendido es el uso de Chatgpt de redes sociales como informacion, y wikipedia como una fuente autorizada, voy a poner un ejemplo concreto.