Hoy en día, la inteligencia artificial puede escribir poemas, líneas de código, artículos de investigación y también guiones para películas. Es cada vez más difícil distinguir un texto escrito por un ser humano de uno generado por un algoritmo. Y aunque a muchos de nosotros esto no nos parezca mal, para los profesores es una verdadera tortura. 

Cientos de estudiantes se están aprovechando ahora de extensiones como ChatGPT, que elabora respuestas detalladas sobre cualquier tema, para hacer sus tareas: ensayos, esquemas o redacciones con impecable gramática. Pero OpenAI, la empresa a cargo de este modelo GPT-3.5, tiene la solución: usar marcas de agua en los textos generados por IA.

De esta manera, ninguna inteligencia artificial podrá suplantar el estilo de escritura de una persona, y ninguna persona podrá hacer plagios académicos con ayuda de las nuevas tecnologías.

¿Cómo serán estas marcas de agua para la IA?

Un investigador llamado Scott Aaronson aseguró que, de hecho, OpenAI ya está trabajando en la marca de agua. Esta será imperceptible al ojo humano, pero no a ciertas herramientas informáticas. Por lo tanto, con ayuda de un computador, los maestros podrán detectar si un texto ha sido escrito por el ChatGPT o por su estudiante. 

Para comprender cómo funcionará esta herramienta, es necesario saber primero por qué los sistemas como ChatGPT funcionan tan bien como lo hacen. 

Cada entrada y salida generada por esta IA es una cadena de tokens, que pueden ser palabras o signos de puntuación. En esencia, ChatGPT está generando palabras constantemente mediante una función llamada distribución de probabilidad, que le ayuda a decidir el siguiente token teniendo en cuenta el anterior. Es por eso que nunca genera dos respuestas similares aunque la pregunta sea la misma. 

Esto es importante porque la marca de agua que planea usar OpenAI en esta IA no es como la de Getty Images o iStock. No se trata de una palabra semitransparente en medio del texto, sino de un “envoltorio”.

Créditos: Iblogs

¿A qué nos referimos con esto? Simple, OpenAI selecciona el siguiente token en lugar del ChatGPT. Como resultado, el texto generado no parece verse afectado, pero cualquiera que posea la clave podría descubrir que fue escrito por una IA.

¿Realmente necesitamos marcar al ChatGPT?

El ChatGPT fue lanzado este año, por lo que todavía es pronto para saber si será o no un problema en el ámbito académico. Sin embargo, OpenAI considera que es mejor prevenir futuros problemas con una marca de agua para IA. Sobre todo, ahora que tal tecnología está en auge.

Por mucho que nos duela admitirlo, los algoritmos no son perfectos. Por ejemplo, ChatGPT solo ha recopilado datos hasta 2021, por lo tanto, es probable que sus respuestas sobre eventos actuales estén incompletas. Y como él, hay otros cientos de modelos GPT con el mismo error. 

En este sentido, es importante para los usuarios finales saber si el contenido que están leyendo justo ahora en realidad fue escrito por humanos. 

No obstante, tal como parece que solo OpenAI tendrá acceso a estas claves criptográficas para revelar la marca de agua de una IA. Por lo tanto, muchos piensan que esta medida estadística será suficiente a largo plazo. Después de todo, estas marcas de agua solo podrían detectar si un texto ha sido generado por el ChatGPT. Pero, ¿y si los usuarios buscan o crean mejores algoritmos para hacer su tarea?

Sin duda, los próximos años serán difíciles para la inteligencia artificial, los profesores y los estudiantes. 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *