Alternativas Para Evitar Que Robots Lastimen Humanos

Al convertir a los robots en sirvientes, es necesario lidiar con situaciones cada vez más complicadas en relación a la ética y la seguridad. Las películas de ciencia ficción ya han asomado una posible solución, siendo la más emblemática la propuesta de Isaac Asimov, con sus tres leyes de la robótica, que nos ayudarían a evitar un ataque por parte de estas máquinas.

Sin embargo, desde el año 2005, científicos de la Universidad de Hertfordshire, en el Reino Unido, están trabajando en una alternativa. Ella plantea que, en vez de emplear leyes para restringir el comportamiento del robot, lo ideal es programar el robot para diversificar las maneras en que pueden ayudarnos en cualquier escenario. Este principio se detalla en una publicación de la revista Fronteras.

Los científicos de Hertfordshire demostraron que las leyes de Asimov tienen muchas limitaciones cuando se trata de situaciones realmente extremas que atentan contra la seguridad de las personas. En este sentido, limitar a un robot a cumplir ciertas reglas puede convertirle en una máquina incapaz de interactuar con la persona de una manera eficaz y aprovechable en todo sentido.

El empoderamiento de los robots

La propuesta se basa en el ‘empoderamiento’, y tal como lo ha explicado Christoph Salge, científico de Hertfordshire, representa todo lo contrario a imposibilitar o limitar al robot. Según Salge, estar capacitado es ‘tener el poder de actuar y ser consciente de poder hacerlo’, por ello, ha buscado junto a su equipo traducir este concepto al lenguaje programable de las máquinas.

Al realizar algunas pruebas basadas en este criterio de empoderamiento, los científicos descubrieron sorpresivamente que los robots actuaban de forma “natural” o intuitiva. Afirman que para lograrlo, no se requiere de un avanzado programa de inteligencia artificial.

La aplicación del empoderamiento, en lugar de las reglas predeterminadas de comportamiento, permitiría al robot analizar el contexto y evaluar escenarios como nunca antes pensamos. Por ejemplo, en vez de que un robot evite empujar a un humano, debe ser capaz de empujarlo para evitar que un objeto caiga sobre él.

A pesar de que el proyecto aún se encuentra en desarrollo, Salge espera que su equipo de investigación pueda desarrollar un criterio de comportamiento seguro en todos los aspectos, que controle el comportamiento de los robots y los mantenga en el punto más equilibrado de la ética.