La inteligencia artificial ha hecho muchas cosas buenas este año, pero también nos ha llevado a una encrucijada en Internet. Ahora es prácticamente imposible identificar los textos generados con IA de los escritos por un ser humano.

Un par de años atrás, los bots eran los que cometían más errores gramaticales. Su lenguaje artificial se distinguía a kilómetros por la falta de coherencia en sus palabras. Sin embargo, hoy en día la IA escribe mejor que los humanos. 

Como prueba de ello tenemos al famoso ChatGPT de OpenAI que, en más de una ocasión, se ha utilizado para escribir ensayos académicos, artículos o libros. Desde su lanzamiento a finales de noviembre, nos ha quedado claro que el ser humano ya no puede competir con la tecnología. Pero, ¿quizás la IA podría reconocerse a sí misma?

Usar una IA para identificar otra IA

Mujer al teclado / Vía Pixabay

Internet está saturado de información, y eso en gran parte se lo debemos a las inteligencia artificial. No se sabe con exactitud cuántos artículos han escrito los bots, pero se estima que son cientos de miles. Esto debido a que más de un millón de personas usan a diario algoritmos para obtener el mejor texto posible.

Los investigadores han intentado identificar los textos generados con IA de varias formas. Primero, analizando ciertas características como la fluidez, la repetición de ciertas palabras, patrones en los signos de puntuación y la longitud de las frases. Luego, con softwares ortográfricos para encontrar errores poco comunes o, por el contrario, frases muy académicas. Y finalmente, usando la intuición para encontrar textos sospechosamente “perfectos”.

«Los modelos de lenguaje muy rara vez cometen erratas. Una errata en el texto es un buen indicador de que fue escrito por una persona».

Daphne Ippolito, científica de aprendizaje profundo de Google Brain.

Sin embargo, ninguno de sus esfuerzos ha dado frutos. Llegados a este punto, la única solución viable para ellos es utilizar otros modelos de lenguaje basados en IA para detectar a sus pares.

¿Cómo? Simple, entrenando a estos modelos con algunos textos escritos por personas y otros creados intencionalmente por máquinas para que aprendan a diferenciar ambos.

Entrenando a la inteligencia artificial 

Inteligencia artificial / Vía Pixabay

Hoy en día existen varios modelos de lenguaje que podrían frenar el anonimato de otros modelos IA, como GPT-2 Output Detector Demo. En pruebas controladas, este algoritmo ha obtenido mejores resultados que muchas herramientas de detección convencionales que no pueden analizar chatbots o asistentes virtuales.

El problema es que no todos pueden utilizar estos modelos de detección, pues requieren de ordenadores potentes para funcionar. Por lo tanto, no todas las empresas podrían identificar textos generados con IA. Mucho menos las personas que estén navegando por Internet.

Además, los científicos no saben hasta cuándo será útil esa IA, pues los modelos de lenguaje que generan artículos se vuelven más precisos cada día. Así que, muy pronto necesitaremos mejores herramientas para aprender a detectar los signos de escritura de una IA.

Un grupo de IBM ya esta trabajando en ello. Ellos planean construir una herramienta denominada Giant Language Model Test Room (GLTR) para ayudar a las personas resaltando fragmentos que podrían haberse generado por un programa de ordenador.

Así mismo, otro par de investigadores están diseñando un juego para entrenar al ojo humano ante errores típicos de la inteligencia artificial. Esto en caso de que los modelos de detección no puedan identificar los textos generados con IA.

En este sentido, el futuro se ve prometedor pero no deberíamos bajar la guardia.

¿Por qué es importante identificar los textos generados con IA?

IA al teclado / Vía Pixabay

Si bien es cierto que modelos como el ChatGPT nos ayudan a diario, generando mensaje precisos en un par de segundos, no deberíamos dejar que estos textos se apoderen de Internet. Y esto no lo decimos para defender a los periodistas y redactores humanos.

La IA escribe rápido y escribe bien, pero no sabe qué significa nada de lo que ha escrito. Estos modelos predicen la siguiente palabra más probable en una frase. Por lo tanto, no saben si es correcto o falso lo que están diciendo. 

Ahí está el problema. En un mundo cada vez más polarizado, estas herramientas de inteligencia artificial podrían distorsionar aún más la información que consumimos. De hecho, ya lo hacen y las consecuencias son devastadoras.

Los investigadores de la Universidad de Cornell descubrieron que las personas encontraron creíbles los artículos de noticias falsas generados por GPT-2 en un 66% de ocasiones. Es por eso que los expertos creen que necesitamos formas de diferenciar entre texto escrito por personas y por IA. Esto con la finalidad de contrarrestar los posibles usos indebidos de esta tecnología.

Así que, respondiendo a la pregunta inicial, todo parece indicar que solo la IA podrá identificar textos generados con IA en el futuro.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *