¿Cómo detectaremos los textos hechos con ChatGPT y similares?
ChatGPT, que también se incluye en el nuevo Bing, es una herramienta extremadamente útil para generar textos fácilmente o realizar consultas rápidas. Esta y otras IAs similares, sin embargo, tienen un inconveniente. Son tan precisas, que en muchas ocasiones es prácticamente imposible saber si un texto está hecho con ChatGPT o si, en cambio, lo ha escrito un ser humano, algo que podría traer consigo contenido engañoso o manipulativo. De hecho, ya hemos visto como muchos profesores se han posicionado en contra de la IA porque lleva a sus alumnos a utilizarla para, entre otras cosas, hacer los deberes. Pero, ¿cómo detectaremos los textos hechos con ChatGPT y similares?
A día de hoy, saber si un texto está hecho con ChatGPT o un modelo de IA similar es una tarea muy complicada. Sobre todo, si tenemos en cuenta el lenguaje tan natural que tienen este tipo de herramientas. Por ejemplo, podríamos detectar los textos hechos con ChatGPT buscando contenido inexacto o incorrecto. Y es que la IA no es perfecta y, en muchas ocasiones, comete errores, sobre todo en aquellos textos relacionados con las finanzas.
Existen herramientas capaces de detectar textos hechos con ChatGPT
Compañías que han desarrollado modelos capaces de generar texto, como OpenAI, también están trabajando en IAs que puedan detectar textos hechos con ChatGPT. Son, en realidad, herramientas muy sencillas de usar. El usuario tan solo debe copiar el texto, pegarlo en la plataforma y esperar a que esta detecte si está hecho con ChatGPT, Bard u otro modelo parecido.
Este tipo de herramientas, sin embargo, no son totalmente fiables. Por ejemplo, la que anunció recientemente OpenAI solo identifica correctamente el 26 % del texto escrito por IA. Además, un 9 % de las veces da falsos positivos. Es decir, puede que ese texto lo haya escrito un humano, pero la plataforma lo etiqueta como escrito por una IA.
La herramienta capaz de detectar textos hechos con ChatGPT o similares, eso sí, puede mostrar diferentes resultados dependiendo de la precisión a la hora de comprobar si algo lo ha escrito una IA. Por ejemplo, si no puede distinguir si es algo generado por un humano o por un modelo de inteligencia artificial, etiquetará el resultado como “posible”. Si, en cambio, la plataforma tiene más seguro que ese texto está hecho con ChatGPT o similares, lo etiquetará como “muy improbable”.
Lamentablemente, es muy poco probable que este tipo de herramientas sean capaces de detectar textos hechos con ChatGPT si estos son muy predecibles. Por ejemplo, es extremadamente complicado saber si una lista con los nombres de las provincias de España ordenados alfabéticamente, lo ha escrito una IA o un humano.
A futuro, la única forma de detectarlo será incorporando, de alguna manera, marcas de agua o metadatos, de la misma manera que las imágenes a menudo llevan datos EXIF. Pero hecha la ley, hecha la trampa. No sería una sorpresa que surgieran formas de retirar esos metadatos asociados, de la misma manera que se pueden editar los datos EXIF de una fotografía. Es ahí donde autoridades y principales actores en el campo de la inteligencia artificial tendrán que seguir trabajando en paralelo al avance de los modelos.
Artículo cortesía de Blog Think Big/ Por: Rubén Chicharro