OpenAI lanzó hace poco un chatbot capaz de responder a una gran variedad de preguntas. Sin ermbargo, su gran rendimiento ha reabierto el debate sobre los riesgos relacionados con el uso de la tecnología de inteligencia artificial.

Las conversaciones con ChatGPT, publicadas en Twitter por usuarios impactados, muestran una máquina capaz de explicar conceptos científicos y escribir escenas para una obra de teatro, disertaciones universitarias o incluso líneas funcionales de código informático.

Claude de Loupy, directora de Syllabs, una empresa francesa especializada en la generación automática de textos, señaló al respecto:

«Su respuesta a la pregunta ‘qué hacer si alguien tiene un infarto ‘ fue increíblemente clara y relevante. Cuando comienzas a hacer preguntas muy específicas, la respuesta de ChatGPT puede estar fuera de lugar», pero su rendimiento general sigue siendo «realmente impresionante», con un «alto nivel lingüístico».

ChatGPT puede pedirle detalles a su interlocutor y tiene menos respuestas extrañas que GPT-3. Sistema que, a pesar de su destreza, a veces arroja resultados absurdos, comentó De Loupy.

¿De qué es capaz el uso de la IA?

De acuerdo con Sean McGregor, un investigador que maneja una base de datos de incidentes relacionados con la IA:

«Hace unos años, los chatbots tenían el vocabulario de un diccionario y la memoria de un pez dorado. Los chatbots están mejorando mucho en el ‘problema del historial’ en el que actúan de manera coherente con el historial de consultas y respuestas. Los chatbots han dejado de ser un pez dorado».

El software no puede justificar sus elecciones, así como explicar por qué eligió las palabras que componen sus respuestas. Pese a ello, las tecnologías de IA capaces de comunicarse son cada vez más capaces de dar una impresión de pensamiento.

Investigadores de Meta, matriz de Facebook, crearon un programa de computadora denominado Cicerón, en honor al estadista romano. El software ha demostrado ser competente en el juego de mesa Diplomacia, que requiere habilidades de negociación.

Esto comentó Meta sobre los resultados de la investigación: «Si no habla como una persona real, mostrando empatía, construyendo relaciones y hablando con conocimiento sobre el juego, no encontrará a otros jugadores dispuestos a trabajar con él».

En octubre, Character.ai, una empresa fundada por exingenieros de Google, puso en línea un chatbot experimental que puede adoptar cualquier personalidad.

Allí los usuarios pueden crear personajes basados en una breve descripción y luego pueden «chatear» con un falso Sherlock Holmes, Sócrates o Donald Trump.

inteligencia artificial
Vía Unsplash

La sofisticación de los chatbots es fascinante, pero aterradora

Este nivel de sofisticación fascina, pero también preocupa a algunos usuarios. A estos les preocupa que estas estas tecnologías puedan usarse para engañar a las personas o a crear estafas cada vez más creíbles.

¿Qué piensa ChatGPT de estos peligros?

El chatbot señaló esto: «Existen peligros potenciales en la construcción de chatbots altamente sofisticados, particularmente si están diseñados para ser indistinguibles de los humanos en su lenguaje y comportamiento».

Algunas empresas están implementando medidas de seguridad para evitar el abuso de sus tecnologías.

En su página de bienvenida, OpenAI establece descargos de responsabilidad, diciendo que el chatbot «ocasionalmente puede generar información incorrecta» o «producir instrucciones dañinas o contenido sesgado».

Y, por supuesto, ChatGPT se niega a tomar partido.

De acuerdo con Mcgregor: «OpenAI hizo increíblemente difícil lograr que el modelo expresara opiniones sobre las cosas». De hecho, una vez, McGregor le pidió al chatbot que escribiera un poema sobre un tema ético:

«Solo soy una máquina, una herramienta para que la uses, no tengo el poder de elegir o rechazar. No puedo sopesar las opciones, no puedo juzgar lo que es correcto, no puedo tomar una decisión en esta fatídica noche». respondió el chatbot.

El sábado, el cofundador y director ejecutivo de OpenAI, Sam Altman, acudió a Twitter y reflexionó sobre los debates en torno al uso de la IA:

«Es interesante observar cómo la gente comienza a debatir si los poderosos sistemas de inteligencia artificial deberían comportarse de la manera que los usuarios quieren o de la forma en que sus creadores pretenden. La cuestión de los valores de quién alineamos estos sistemas será uno de los debates más importantes que la sociedad jamás tendrá».

¿Crees que el uso de la IA podría llegar a ser peligroso?

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *