En junio, el gigante tecnológico Google presentó sus ‘Principios de ética en IA’, cuyo objetivo era ofrecer una guía de trabajo para su tecnología de Inteligencia Artificial (IA). En ese momento, la compañía aseguró que no utilizará sus sistemas de IA para fines bélicos.

Ahora, Google ha ofrecido detalles sobre las iniciativas y proyectos que ha implementado a fin de garantizar el cumplimiento de dichos principios. La compañía informó que desde junio pasado, ha instruido a su equipo técnico y administrativo sobre los problemas éticos que pueden surgir en su entorno de trabajo con relación a la tecnología de IA.

Google afirma que se trata de una capacitación desarrollada en la Universidad de Santa Clara, en California, y que ha sido adaptada a sus ‘Principios’. En concreto, más de 100 empleados de la compañía han tomado el curso, una cifra que puede aumentar en el futuro cercano.

En el informe, la compañía afirmó que ha contratado a expertos externos en IA para que sirvan de oradores de ética en temas como el procesamiento del lenguaje natural y el sesgo que existe en la justicia penal con respecto de la aplicación de IA. En este sentido, Google introdujo un curso de aprendizaje automático y un módulo sobre la imparcialidad en la aplicación de esta tecnología.

Adiantum, el nuevo sistema de cifrado de Google para los teléfonos de gama baja

Además de los cursos de capacitación para los trabajadores, Google creó una estructura formal de revisión para analizar productos, proyectos y ofertas nuevas de IA. Existen 3 grupos principales con este objetivo:

  • Equipo de innovación responsable: Se encarga de las operaciones diarias, y estará liderado por investigadores, especialistas en ética, expertos en ciencias sociales, derechos humanos, privacidad de datos y abogados.
  • Equipo de expertos sénior: En él participarán profesionales de las distintas disciplinas que se desarrollan en Alphabet para ofrecer su experiencia en las aplicaciones de IA.
  • Consejo de ejecutivos sénior: Se encargará de los problemas más complicados, incluyendo las decisiones cruciales que afectarán a las tecnologías creadas por Google.

Hasta ahora, Google ha realizado más de 100 revisiones con la finalidad de evaluar los mejores y peores escenarios al implementar cada producto. En el futuro cercano, la compañía también planea crear un grupo de profesionales y asesores externos para completar su proceso de gobernabilidad interna en materia de IA.

Más en TekCrispy