Aunque siempre comentamos los grandes avances y aportes que brinda la IA, no todo el mundo está de acuerdo con su desarrollo a profundidad. Filósofos y estudiosos con visiones críticas sobre el tema, apuntan a las diversas maneras en que las máquinas podrían salir de nuestras manos. En ese sentido, queremos mostrar los diferentes argumentos esgrimidos sobre la preocupación que genera el destino de la IA.

En el campo filosófico y teórico de esta rama de la tecnología hay muchas opiniones que se enfrentan al hecho de un futuro con máquinas completamente a nuestro servicio.

El miedo a los robots en occidente y la preocupación por el destino de la IA

Cuando observamos el campo de la Inteligencia Artificial, vemos como desde Asia los avances son alucinantes. Incluso, en países como Japón y China han comenzado a remplazar al personal humano en algunas tareas. Si bien en occidente los avances también son significativos, en esta parte del mundo existe un recelo importante ante la IA y la autonomía de las máquinas. Esto tiene mucho que ver con el aspecto antropológico de cada cultura.

Mientras en Asia, el budismo y el sintoísmo ha hecho permear la creencia de que todo lo que nos rodea puede tener un alma, en Europa y América es diferente. Si volteamos la mirada al proceso de conquista americana, por ejemplo, encontraremos la duda de los colonizadores sobre si los pueblos aborígenes tenían alma o no.

Problemas de control y el peligro de la IA

En ese sentido, mientras en Asia se han abierto debates acerca de si los robots deberían tener derechos, en occidente tenemos la imagen de un Terminator buscando eliminarnos. Por ello, la preocupación sobre el destino de la IA tiene argumentos en contra como el del filósofo Nick Bostrom de Oxford quien dice que la humanidad desarrollando IA es como un niño jugando con una bomba. Incluso, comenta que la perspectiva de darle sensibilidad e inteligencia a las máquinas es más peligroso que el cambio climático.

Stuart Russel, pionero en el campo de la IA habla también sobre lo que ha llamado “Problema de Control”. Según este concepto, resulta muy complicado especificar completamente un objetivo para una máquina sin generar problemas. Esto se detalla mejor en el llamado “Problema del Clip” de Nick Bostrom. De acuerdo con esta teoría, podemos darle a una máquina el objetivo de construir clips. No obstante, olvidar decirle en qué momento parar, podría derivar en una catástrofe.

Esta teoría también se basa mucho en la leyenda judía del Golem, una especie de autómata creado por un rabino capaz de cumplir las tareas que se le encomendaban. Un día, la esposa del rabino ordenó al Golem sacar agua del río y al no saber cuándo parar, acabó inundando la ciudad.

El problema real en el desarrollo de la IA

Sin embargo, como podemos apreciar en los planteamientos anteriores, el asunto no tiene que ver con la IA directamente, sino con su entrenamiento. Recientemente, ha habido casos como el de Facebook cuya IA detecta a los hombres negros como simios en los videos. ¿Cómo puede ocurrir esto? Es simple, la IA no se genera por sí misma, sino que es entrenada con un amplísimo espectro de datos.

En ese sentido, el problema realmente apunta a quienes se encuentran detrás del desarrollo de esta tecnología. Emprender proyectos de IA con criterios sesgados en cualquier aspecto, derivará inevitablemente en un sistema cuyos resultados serán incorrectos y tan problemáticos como el caso de Facebook.

De esta manera, la preocupación sobre el destino de la IA debe pesar más sobre quienes se encuentran al frente de estos proyectos que sobre la tecnología en sí. Pese a ello, es de tomar en cuenta que vivimos en un mundo con valores heterogéneos. Por esta razón, es complicado para filósofos y teóricos de esta disciplina lograr establecer un marco de valores que regularice todo el aspecto ético y moral en el entrenamiento de la IA.

Escribir un comentario