La inteligencia artificial (IA) se ha ido convirtiendo cada vez más en una aliada de nuestro día a día. Sin embargo, los miedos y preocupaciones sobre el uso de esta no se han aplacado por completo. Ahora, esta tarea podría ser un incluso más complicada, ya que la ciencia ha determinado que, efectivamente, controlar una IA súperdesarrollada sería prácticamente imposible para la humanidad.

La investigación que ha llevado a estas conclusiones se liberó este enero en el Journal of Artificial Intelligence Research. Detrás de su realización, estuvieron los científicos Manuel Alfonseca, Manuel Cebrian, Antonio Fernandez Anta, Lorenzo Coviello, Andrés Abeliuk y Iyad Rahwan.

¿Qué hace que controlar una IA súperdesarrollada sea imposible?

Para poder entender por qué la inteligencia artificial súperdesarrollada sería imposible de controlar, es necesario profundizar en su naturaleza. En general, según las proyecciones, esta se tratará de programas altamente desarrollados y multifacéticos.

Por este motivo, el alcance de sus procesos, deducciones y conclusiones estará muy lejos del entendimiento humano. En consecuencia, la IA se movilizará en terrenos matemáticos y teóricos que nosotros raramente tocamos o a los que simplemente no podemos llegar.

Por esto se ha concluido que, una IA súperdesarrollada del futuro, muy seguramente realizaría procesos y llegaría a conclusiones más allá de las capacidades humanas. Por lo que, siendo así, nos queda preguntarlos: ¿cómo podíamos controlarla si ni siquiera la entendemos?

No podemos controlar lo que no podemos entender

Esta es la principal conclusión a la que llegaron los investigadores. Básicamente, realizan esta afirmación bajo la premisa de que, si la IA se maneja en terrenos que son desconocidos para nosotros, nos será imposible predecir sus resultados.

Debido a esto, no sabremos a dónde irán los procesos mentales de la IA, ni cómo han hecho para llegar hasta allí. Por lo que, en resumen, no seremos capaz de entender lo que presenta la inteligencia artificial súperdesarrollada, haciendo la tarea de controlarla simplemente imposible debido a la falta de herramientas y conocimientos necesarios.

Como un ejemplo de esto, los investigadores mencionan la típica ley de “Evitar el daño a los humanos a toda costa”. Aunque parezca en esencia sencilla y limitante, esto solo lo es desde la perspectiva del razonamiento humano y tecnológico de ahora. Pero, la IA súperdesarrollada podrá tener una visión más amplia y sacar conclusiones que ni siquiera nos imaginamos. Por lo que, ni siquiera podremos saber qué entenderá ella realmente con esta regla ni cómo la ejecutará.

No podemos saber a qué conclusión llegará la IA (o si siquiera alcanzará una)

Los cálculos utilizados para poder determinar si la IA súperdesarrollada se podría controlar en el futuro o no nacieron de una propuesta matemática de 1936. Esta llegó al mundo de la mano del matemático Alan Turing. Su postulado implicaba que, con ciertos cálculos, era posible determinar qué tipo de respuesta final daría una computadora o si se quedaría un ciclo (halt) eterno buscando una solución.

La desde entonces conocida como propuesta de halting sería imposible de utilizar en una IA. Ya en la actualidad esta no se puede aplicar a todos los programas y ordenadores que existen.

Ahora, una inteligencia artificial súperdesarrollada podría tenerlos a todos dentro de su interfaz, usándolos a todos de formas que no nos esperamos y que somos incapaces de entender o predecir. Incluso, una de las respuestas posibles sería la falta de una, ya que el algoritmo se quedaría en una búsqueda eterna (que tampoco podríamos ver venir).

Pero… ¿es realmente necesario controlarla en primer lugar?

Dentro de su estudio los investigadores también abordan esta pregunta dentro de su estudio. Después de todo, si creamos la IA para ayudar a resolver problemas humanos con más eficiencia y rapidez, ¿por qué debemos limitarla entonces a las capacidades de nuestras mentes? Y, si lo hacemos, entonces para qué creamos estos programas en primer lugar.

Para los investigaores, es vital que desde ahora se contesten estas preguntas y se tracen verdaderos puntos hacia los cuales dirigir el desarrollo de la inteligencia artificial. Hasta el momento, el crecimiento de la IA ha sido exponencial, pero descontrolado. En un futuro, tal vez sea necesario que se creen más regulaciones sobre en dónde puede o no actuar la IA.

Asimismo, también se tienen que tener unos objetivos y seguimiento claros del desarrollo de la inteligencia artificial. Esto ya que, solo con ellos se podrá al menos saber cuándo habremos logrado crear una IA súperdesarrollada. Debido a que, incluso esta predicción se encuentra fuera de nuestras capacidades.

¿Por esto hay que temer a la IA? No necesariamente. Si no nos crees a nosotros, entonces te recomendamos escuchar las razones escritas directamente por una inteligencia artificial sobre por qué los humanos no debemos preocuparnos por su llegada.

Referencia:

Superintelligence Cannot be Contained: Lessons from Computability Theory: https://doi.org/10.1613/jair.1.12202

Escribir un comentario