Google Proyecto Maven Articulo Principios Ia Sundar Pichai
FOTO:Jim Cooke (Gizmodo)

Ante la polémica generada, luego que los empleados de Google se manifestaran en contra de la participación de la compañía en el Proyecto Maven del Pentágono, asegurando que va en contra del principio “Don’t be evil” de la empresa, sus directivos no solo confirmaron que no continuarían participando en el mismo, sino que publicaron una serie de “Principios de ética en IA (Inteligencia Artificial)”, para dejar en claro cuál es el principal objetivo de sus proyectos de IA.

En un extenso artículo publicado por Sundar Pichai, CEO de Google, anunciaron siete principios, en los que se basarán para realizar sus proyectos en el futuro, según Pichai, estos actuarán como estándares o mandamientos que dirigirán la investigación y desarrollo de sus productos.

Entre los principios nombrados, relacionados principalmente con los beneficios de la IA en el ámbito industrial, educativo, político y social, el CEO afirma: “trataremos de evitar impactos injustos en las personas, particularmente aquellos relacionados con características sensibles tales como raza, etnia, género, nacionalidad, ingresos, orientación sexual, capacidad y creencias políticas o religiosas.” Además aseguró que continuarán desarrollando sistemas de IA lo suficientemente prudentes, y “trataremos de desarrollarlos de acuerdo con las mejores prácticas en la investigación de seguridad de IA.”

Asimismo, Pichai hizo incapié en las áreas donde no aplicarán sus proyectos de IA, entre las que se enumeran:

Armas u otras tecnologías cuyo principal propósito o implementación es causar o facilitar directamente lesiones a las personas.

Tecnologías que causen o pueden causar un daños

Tecnologías que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas.

Tecnologías cuyo propósito infringe los principios ampliamente aceptados del derecho internacional y los derechos humanos.

Aunque, el CEO de Google aseguró que no trabajarían con armas, aclaró: “si bien no estamos desarrollando IA para su uso en armas, continuaremos nuestro trabajo con gobiernos y militares en muchas otras áreas. Estos incluyen seguridad cibernética, capacitación, reclutamiento militar, atención médica para veteranos y búsqueda y rescate.”

Cabe destacar que en este apartado estaría incluído el Proyecto Maven, ya que, recordemos que se enfoca en el uso de drones militares que emplean algoritmos basados en técnicas de Inteligencia Artificial, como aprendizaje profundo y machine learning (aprendizaje automático), para identificar de manera más precisa personas u objetos en video en zonas en conflicto bélico, (contradiciendo lo dicho anteriormente de no aplicar la IA en “Tecnologías que recopilan o usan información para la vigilancia que viola las normas internacionalmente aceptadas.”)

Esto no deja en claro si la compañía finalizará realmente el contrato con el Proyecto Maven en 2019, tal y como lo afirmaron los representantes de Google a Gizmodo. Si bien, falta mucho para la finalización del contrato con la milicia estadounidense, no está claro si Google hará cumplir estos principios en un futuro inmediato, o tras la finalizacion del acuerdo. Sin duda, esto deja mucha tela que cortar.

Más en TekCrispy