Ia Google Confunde Tortuga Rifle

La Inteligencia Artificial (IA) es quizá el avance tecnológico de mayor relevancia en nuestros días, no solo por lograr hazañas que en el pasado parecían solo un chiste, sino porque los riesgos que conllevan sus malas aplicaciones, ha provocado la reacción de grandes líderes tecnológicos y políticos a escala global.

De la misma manera en que nosotros podemos ser engañados a través de una ilusión óptica, algo con lo que no sería engañado un ordenador o ciertas especies de animales, ahora se ha comprobado que es posible engañar a las máquinas, gracias a un reciente estudio llevado a cabo por estudiantes del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés), y que ha sido publicado en LabSix.

Los sistemas basados en IA han sido capaces de realizar detecciones y reconocer objetos mediante una serie de reglas que han sido programadas. En caso de que estos patrones sean sometidos a un exhaustivo estudio, se incrementa la posibilidad de crear una imagen que represente “algo” para nosotros como seres humanos, y sea otra cosa muy distinta para un ordenador.

Pues bien, el ejemplo más claro de esto, ha sido una tortuga falsa que fue creada a través de una impresora 3D, y con la que los estudiantes del MIT lograron engañar a la IA de Google, que la identificó como un ‘rifle’. En concreto, se trata de una serie de imágenes que fueron creadas con el fin de engañar el software de visión de la IA, incluyendo patrones para que el sistema se equivoque.

Según indica el estudio, solo con un leve giro de la imagen, o incluso al hacer ‘zoom’, la IA podría reconocerla correctamente, sin embargo, esto representaría un gran problema para una IA dedicada a las labores policiales, por ejemplo, o incluso para coches autónomos que identifiquen a una persona como una señal pintada en el pavimento.

Los estudiantes del MIT también crearon una pelota de béisbol que puede ser confundida con una taza de café; y un gato que fue confundido con un ‘guacamole’. En algunos casos, los investigadores lograron que el error se generará desde distintos ángulos, a pesar de que casi siempre existe una postura en la que la IA regresa a su condición normal, es decir, el esperado.

Google permitirá realizar donaciones de caridad a través de Google Play Store

El objetivo con este estudio, no fue concluir que los sistemas basados en IA y aprendizaje profundo son negativos, sino que se pretende mostrar las debilidades de esta tecnología para que sus desarrolladores tomen las previsiones adecuadas antes de implementarlas a nivel comercial.

Más en TekCrispy