Skip to main content
European Commission logo print header

Article Category

Article available in the following languages:

¿El texto es real o falso? La ciencia ayuda a distinguirlo

Un nuevo estudio afirma que el entrenamiento puede ayudar a distinguir entre un texto generado por inteligencia artificial (IA) y otro escrito por una persona.

Investigación fundamental icon Investigación fundamental

Las herramientas tecnológicas de IA como ChatGPT están acaparando los titulares. Los chatbots diseñados para ofrecer servicios en el mundo real no van a desaparecer: desde escribir poesía en un estilo que recuerda a la Inglaterra del siglo XVI hasta redactar artículos de investigación científica. De hecho, estos no tan malos agentes seguirán mejorando en su oficio. ¿Seremos capaces de no dejarnos engañar por los modelos de procesamiento del lenguaje natural que se están convirtiendo en un elemento fundamental de nuestra sociedad?

Engáñame una vez

Un equipo de investigación de la Facultad de Ingeniería y Ciencias Aplicadas de la Universidad de Pensilvania (Estados Unidos) ha llevado a cabo el mayor estudio humano sobre la detección de la IA para aportar algo de ayuda. Recopilaron datos del juego de entrenamiento en línea «Real or Fake Text?» creado por la misma universidad. Los resultados se presentaron en un artículo con revisión por pares en el marco de una reunión de la Asociación para el Avance de la Inteligencia Artificial, celebrada en febrero. El estudio demostró que podemos aprender a detectar textos escritos por personas y textos generados por máquinas. «Hemos demostrado que las personas pueden entrenarse para reconocer textos generados por máquinas», afirma en un artículo Chris Callison-Burch, profesor asociado del Departamento de Informática y Ciencias de la Información (ICI). «Las personas parten de una serie de suposiciones sobre qué tipo de errores cometería una máquina, pero estas suposiciones no son necesariamente correctas. Con el tiempo, si se nos facilitan suficientes ejemplos e instrucciones explícitas, podemos aprender a detectar los tipos de errores que cometen las máquinas en la actualidad».

El entrenamiento hace mucho

«Hoy en día, la IA es asombrosamente buena produciendo textos muy fluidos y gramaticalmente correctos», explica Liam Dugan, coautor del estudio y doctorando en el ICI. «Sin embargo, comete errores. Hemos demostrado que las máquinas cometen distintos tipos de errores —por ejemplo, de sentido común, pertinencia, razonamiento y lógica— que podemos aprender a detectar». «Hay motivos válidos para que la gente esté preocupada por la IA», añadió Callison-Burch, quien dirigió la investigación. «Nuestro estudio aporta pruebas que disipan esas preocupaciones. En cuanto podamos aprovechar nuestro optimismo sobre los generadores de texto mediante IA, podremos dedicar nuestra atención a la capacidad de estas herramientas para ayudarnos a escribir textos más imaginativos e interesantes». «En este momento tengo la sensación de que dichas tecnologías son más adecuadas para la escritura creativa», añade el investigador. «Las noticias, los trabajos de final de grado o el asesoramiento jurídico constituyen malos casos de uso porque no se garantiza la veracidad de los hechos». Dugan ve lo positivo en todo ello: «Existen interesantes caminos positivos en los que se puede impulsar esta tecnología. Aunque las personas se fijan en los ejemplos más preocupantes, como el plagio y las noticias falsas, ahora sabemos que podemos entrenarnos para ser mejores lectores y escritores». Entonces, ¿qué tan bueno puede ser? Para saberlo, juegue a cualquiera de las cuatro categorías del juego (relatos breves, artículos periodísticos, recetas de cocina o discursos presidenciales), que contienen miles de textos. Y recuerde que mientras perfecciona sus habilidades de reconocimiento, también está contribuyendo con la investigación científica.

Palabras clave

IA, ChatGPT, chatbot, texto, texto generado por máquinas, texto escrito por personas, procesamiento del lenguaje natural