¿Todo lo que dice la IA es cierto? ¿De dónde saca la información?

¿Todo lo que dice la IA es cierto? ¿De dónde saca la información?
106 apps y juegos en oferta: descarga estas apps gratis en Android por tiempo limitado

La inteligencia artificial (IA) se ha convertido en una herramienta habitual para millones de usuarios que la emplean para buscar información, resolver dudas, crear contenido o incluso tomar decisiones.

Entre los modelos más conocidos se encuentra ChatGPT, desarrollado por OpenAI, que promete mantener conversaciones naturales y aportar respuestas a todo tipo de cuestiones.

Pero ¿todo lo que dice es cierto? ¿De dónde saca realmente sus datos la inteligencia artificial? Y, sobre todo, ¿podemos fiarnos de ella?

En este artículo abordamos cómo funciona un modelo de lenguaje como ChatGPT, cuáles son sus fuentes de información, por qué puede equivocarse, qué medidas existen para minimizar los errores y cómo podemos verificar los contenidos que genera.

¿Cómo funciona un modelo de lenguaje como ChatGPT?

Los modelos de lenguaje generativos, como ChatGPT, no funcionan como buscadores tradicionales ni como enciclopedias. En lugar de eso, utilizan redes neuronales entrenadas con enormes cantidades de texto para predecir la siguiente palabra en una secuencia.

Dicho de forma sencilla: ChatGPT responde basándose en probabilidades estadísticas, no en hechos comprobados.

Este sistema ha sido entrenado con millones de textos extraídos de Internet y otras fuentes. De hecho, se ha acusado a Microsoft de robar el contenido para entrenar su IA, y el resto de las empresas tienen prácticas similares.

La IA aprende patrones lingüísticos, estructuras gramaticales, asociaciones semánticas y estilos de redacción. No “sabe” en el sentido humano del término, sino que replica combinaciones de palabras que ha visto antes.

Por eso, muchos expertos coinciden en que estos modelos no comprenden el mundo: simplemente generan contenido coherente en función de lo que han aprendido. Algunos lo han descrito como un “loro estocástico”: un imitador sofisticado, pero sin conciencia ni comprensión.

¿De dónde saca la IA su información?

OpenAI no ha publicado en detalle todas las fuentes utilizadas para entrenar a ChatGPT, pero sí ha confirmado que se han utilizado corpus masivos de texto disponibles públicamente, así como algunos conjuntos de datos licenciados.

Entre las fuentes más comunes se encuentran: Common Crawl, Wikipedia, libros digitalizados, muchos de ellos de dominio público, noticias y artículos procedentes de medios online, y páginas técnicas y científicas.

De hecho, hay herramientas para comprobar si han entrenado la inteligencia artificial con tus datos sin haberles dado permiso.

Esto significa que el modelo ha sido entrenado tanto con contenidos fiables como con otros más cuestionables, como blogs personales o foros no moderados. Además, su conocimiento está limitado por la fecha de corte de su entrenamiento (en el caso de GPT-3.5 y GPT-4, hasta finales de 2021).

¿Es fiable lo que dice la IA?

No, del todo. A pesar de su sofisticación, la IA no verifica la veracidad de sus respuestas. Genera contenido plausible y bien redactado, pero puede equivocarse. Y lo hace con frecuencia.

De hecho, OpenAI reconoce que sus modelos pueden cometer errores y generar afirmaciones falsas o inexactas expresadas con aparente seguridad. Por ejemplo, puede inventarse una cita, atribuir un dato a una fuente inexistente o responder con una fecha errónea. En muchos casos, la IA no tiene la capacidad de decir “no lo sé”.

Esto se debe a que el modelo fue diseñado para generar respuestas útiles, no necesariamente verdaderas. Como resultado, puede ofrecer una respuesta que suene convincente, aunque carezca de fundamento.

¿Por qué se equivoca la IA?

Las principales razones por las que ChatGPT puede fallar son:

  1. No razona, predice: Su objetivo es generar una respuesta que parezca coherente, no comprobar si es cierta.
  2. Datos sesgados o erróneos: Si los textos con los que fue entrenado contienen errores, el modelo puede reproducirlos.
  3. Ausencia de contexto actualizado: No está conectado a fuentes en tiempo real, por lo que desconoce eventos recientes o cambios importantes.
  4. Falta de especialización: Aunque puede hablar de muchos temas, no tiene conocimientos profundos como los que aportaría un experto humano.

¿Cómo se controlan los errores?

Para reducir estas inexactitudes, OpenAI ha implementado varios mecanismos:

  1. RLHF (Aprendizaje por refuerzo con retroalimentación humana): Después del entrenamiento inicial, entrenadores humanos revisan y califican respuestas, ayudando al modelo a aprender a priorizar las más útiles, veraces y seguras.
  2. Filtrado de datos: Se eliminan textos con lenguaje ofensivo, desinformación o contenido tóxico, aunque esta depuración no es perfecta.
  3. Evaluación constante: Los modelos se someten a pruebas de veracidad y coherencia y se actualizan periódicamente para mejorar sus resultados.
  4. Pruebas con expertos: Especialistas en seguridad, derechos digitales o ética ayudan a identificar puntos débiles del modelo y proponen mejoras.

Pese a todo, los propios desarrolladores reconocen que no existe una garantía de precisión total, y que la supervisión humana sigue siendo imprescindibles.

¿Se puede confiar en ChatGPT?

ChatGPT es una herramienta útil, pero no infalible. Es capaz de redactar borradores, responder preguntas generales, generar ideas o resumir textos, pero no debe tomarse como una fuente de autoridad ni como sustituto de la verificación humana.

Incluso Sam Altman, CEO de OpenAI, ha advertido sobre el uso excesivo de la IA: “Hay gente que no toma decisiones sin preguntarle a ChatGPT. Eso me parece realmente malo y peligroso”.

En este sentido, expertos como Josep Curto, de la UOC, recomiendan utilizar la IA como apoyo, pero nunca como única fuente de información. “Hay que comprobar la fiabilidad de los datos obtenidos”, recuerda.

¿Qué podemos hacer como usuarios?

Utilizar la IA con sentido crítico:

  1. Contrasta la información con fuentes fiables (medios de comunicación, estudios académicos, sitios oficiales).
  2. No compartas sin comprobar: aunque suene convincente, la IA puede equivocarse.
  3. Utiliza ChatGPT como un punto de partida, no como una verdad absoluta.
  4. Consulta a especialistas humanos para temas técnicos, legales o médicos.

La inteligencia artificial generativa ha revolucionado la manera en que interactuamos con la tecnología. Nos permite escribir, aprender y crear más rápido que nunca.

Sin embargo, es importante tener presente que ChatGPT y modelos similares son herramientas estadísticas que generan texto. No tienen conciencia, no verifican lo que dicen y pueden equivocarse con facilidad. Por eso, la responsabilidad última recae siempre en el usuario: en su capacidad para contrastar, dudar y comprobar.

Modo privacidad en ChatGPT: cómo activarlo

El Grupo Informático es un medio de comunicación digital especializado en tecnología, con análisis y noticias sobre móviles, informática y el mundo digital desde 2006. Conoce más sobre el equipo de El Grupo Informático y nuestra política editorial. Puedes seguirnos en Facebook, X, Instagram, WhatsApp, Telegram o recibirnos en tu correo para no perderte las últimas noticias de tecnología.
  • Ver Comentarios
Sobre el autor
María Peinado
@maria_peinado22 | LinkedIn

Graduada en Periodismo por la Universidad Complutense de Madrid y apasionada del mundo audiovisual, las redes sociales y las entrevistas. Cuando no trabajo, me encontrarás devorando series y películas como si no hubiera un mañana, leyendo un buen libro o haciendo scroll infinito por X.