Inteligencia Artificial Facebook

El surgimiento y proliferación de tecnologías como la Inteligencia Artificial, ha potenciado el temor de los grandes en la industria sobre cuánto podemos llegar a controlarlas. La inevitable comparación con los hechos ficticios de SkyNet en las películas de Terminator, son relativamente acertados cuando se toman en cuenta hechos como los que ocurren en algunos modelos experimentales.

Google, por ejemplo, ha logrado demostrar que la Inteligencia Artificial es capaz de desarrollar un instinto de supervivencia cuando se somete a determinadas condiciones. En otro modelo experimental se logró demostrar, con los parámetros adecuados, que la IA puede crear su propia encriptación para comunicarse; un lenguaje que no puede ser descifrado más que por las máquinas mismas. Pues bien, un experimento similar han realizado desde Facebook que derivó en ciertas medidas que parecen nuevamente un poco ‘drásticas’.

Resulta que Facebook buscaba mejorar la fluidez y el uso de lenguaje natural en sus chatbots. Para hacerlo pusieron, literalmente, a dos bots a conversar entre sí. El problema es que con el pasar del tiempo los investigadores observaron que las conversaciones —en inglés— tenían algunas frases repetidas que a simple vista no tenían sentido.

Fragmento de conversación entre bots de Facebook:

Bob: “I can i i everything else”

Alice: “balls have zero to me to me to me to me to me to me to me”

Al analizar el contexto y las variables, los investigadores identificaron que el repetir varias veces la frase “to me” no es una falla en realidad, sino que significa 7 unidades. En otras palabras, los bots desarrollaron su propio lenguaje para conversar, uno que resulta mucho más lógico que el nuestro pero que a simple vista parece absurdo y complejo.

La reacción por parte del equipo, aparte de haberse sorprendido, fue la de “apagar” la inteligencia artificial. Los motivos detrás de esta decisión son simples, evitar que la IA evolucionará perfeccionará su lenguaje y se pudiera perder el control sobre ella. Esta solución es la misma a la que tuvo que recurrir Google cuando realizaron experimentos similares y es que resulta claro, que si no podemos controlar la inteligencia artificial, lo mejor es limitarla.