Investigadores de Google Brain, Intel, OpenAI y los principales laboratorios de investigación de EE. UU. y Europa se encuentran trabajando en conjunto para presentar un nuevo proyecto orientado a los principios de ética de la inteligencia artificial (IA).

Con el pasar de los años la IA se ha vuelto una tecnología que día a día va innovando en diversas áreas, sin embargo, existe una parte negativa de esta y es la existencia de los “sesgos”.

IA, sesgos como recompensa

Sin embargo, como parte de un cambio y un aporte positivo a la IA, estos especialistas han creado lo que llaman una ‘caja de herramientas‘ que ayudará a convertir de forma práctica los principios de ética de la IA.

Desde la fuente señalan que este kit para organizaciones llega con una especialidad, la de crear modelos de IA donde se incluya el pagar a los desarrolladores por encontrar sesgos en la IA, una actividad que no es nueva, pues anteriormente se han ofrecido recompensas de errores en software de seguridad.

Mitigar los sesgos de género, color, entre otros

En la actualidad, nos topamos con muchos equipos dotados de IA que contribuyen de forma positiva en el reconocimiento de personas, objetos y/o animales, sin embargo, no todos los sistemas efectúan este reconocimiento de forma ética.

Pues, algunos de estos sistemas ofrecen diagnósticos erróneos al inclinarse por una opción frente a otras, como el caso de algunos sistemas de IA que se orientan por seleccionar a los usuarios de piel oscura solo por este hecho.

Generar bases más solidad en la IA

Es por ello, que estas compañías plantean el hecho de crear estas recompensas por sesgos y otras ideas para garantizar de forma efectiva que la IA ofrezca resultados efectivos, algo que podría contribuir de forma significativa en la confianza pública y el bienestar social.