Un reporte de Wired señala que Google y Microsoft advirtieron a inversores acerca de los riesgos a los que puede exponerse una marca debido a un algoritmo de inteligencia artificial con fallos o a la mala implementación del mismo.

Durante la presentación anual de los formularios 10-K ante la Comisión Nacional del Mercado de Valores de Estados Unidos, las tecnológicas Alphabet Inc. y Microsoft señalaron a sus inversores que la tecnología de IA podría crear problemas éticos y legales para los negocios de la compañía.

Formularios 10-K

Los formularios 10-K son documentos estandarizados que las empresas tienen la obligación legal de presentar cada año, con el fin de dar a conocer a sus inversionistas el estatus de sus finanzas y la visión general de su negocio.

En este sentido, tanto Alphabet –-compañía matriz de Google-– y Microsoft hicieron lo propio. Sin embargo, lo que llama la atención es que en esta ocasión las tecnológicas que han sido pioneras en el uso de inteligencia artificial advirtieron a los inversores acerca de los problemas que pueden traer estas tecnologías cuando no se usan de manera correcta.

En el caso de Alphabet, en el apartado “Factores de riesgo” explican lo siguiente:

Los nuevos productos y servicios, incluidos aquellos que incorporan o utilizan inteligencia artificial y aprendizaje automático, pueden plantear nuevos o exacerbar los desafíos éticos, tecnológicos, legales y de otra índole existentes, que pueden afectar negativamente nuestras marcas y la demanda de nuestros productos y servicios. y afectar negativamente nuestros ingresos y resultados operativos.

Por su parte, en el 10-K de Microsoft, presentado en agosto pasado explican:

Los algoritmos de AI pueden ser defectuosos. Los conjuntos de datos pueden ser insuficientes o contener información sesgada. Las prácticas de datos inapropiadas o controvertidas de Microsoft u otros podrían impedir la aceptación de las soluciones de AI.

Estas deficiencias podrían socavar las decisiones, predicciones o análisis que producen las aplicaciones de AI, lo que nos somete a daños competitivos, responsabilidad legal y daños a la marca o la reputación.

Algunos escenarios de IA presentan problemas éticos. “Si habilitamos u ofrecemos soluciones de inteligencia artificial que sean controvertidas debido a su impacto en los derechos humanos, la privacidad, el empleo u otros problemas sociales, podemos experimentar daños a la marca o la reputación.

Generalmente, este apartado factores de riesgo se usa para alertar o informar a los inversionistas sobre los problemas que podrían afectar una marca, pero en esta ocasión se ha utilizado por las compañías para concientizar sobre la inteligencia artificial y sus posibles efectos adversos, quizás porque estos fallos han incrementado desde el último año.

Facebook lanza nueva herramienta de experimentación de aprendizaje automático

Entre los proyectos que han ocasionado inconvenientes están el software sesgado de reconocimiento facial de Amazon, Facebook con el escándalo de Cambridge Analytica, por mencionar algunas, cabe destacar que estas empresas no han hecho comentario alguno acerca de los riesgos de esta tecnología.

Más en TekCrispy