Las películas nos han demostrado que los robots pueden salirse de control y causar problemas a nivel mundial. Es cierto que esto todavía se encuentra en un futuro muy lejano, pero nunca es tarde para preguntarnos cómo hacer que una IA sea más confiable. Tal cuestionamiento nos los demuestra el informe Estado de IA responsable de 2021 de FICO. Allí se encontró que el 65% de las empresas no pueden explicar cómo se toman las decisiones o predicciones específicas del modelo de IA.

Muchos estudios han demostrado que las tomas de decisiones impulsada por la IA conducen potencialmente a resultados sesgados. Ello va desde perfiles raciales en algoritmos policiales predictivos hasta decisiones de contratación sexistas.

La velocidad del desarrollo de la IA superó con creces el impulso de la regulación. Pero, en la carrera por adoptar la IA, muchas empresas se dieron cuenta que los reguladores se están poniendo al día. De hecho, se han presentado varias demandas contra empresas por desarrollar o simplemente usar algoritmos de IA sesgados.

Las empresas están sintiendo la presión por adoptar una IA más confiable

IA empresa
Vía Pexels

Hace poco, la UE presentó la Directiva de responsabilidad de la IA, este es un proyecto de ley que facilitará demandar a las empresas por los daños causado. Esto es parte de un impulso más amplio para evitar que las empresas desarrollen e implementen IA dañina. El proyecto de ley agrega una capa adicional a la Ley de IA propuesta. Aquí se requerirán controles adicionales para los usos de IA de «alto riesgo», tales como el uso de la vigilancia, el reclutamiento o la atención médica. Y es probable que el proyecto de ley se convierta en ley en los próximos años.

EE. UU. tardó un poco más en adoptar algunas políticas de protección. Pese a ello, la Casa Blanca también publicó el plan para una Declaración de derechos de IA a principios de este mes. En dicho texto, se describe cómo se deben proteger a los consumidores de la IA dañina:

  • La inteligencia artificial debe ser segura y efectiva.
  • Los algoritmos no deben discriminar.
  • La privacidad de los datos debe ser protegida.
  • Los consumidores deben saber cuándo se utiliza la IA.
  • Los consumidores deberían poder optar por no usarlo y hablar con un ser humano en su lugar.

Con o sin regulaciones estrictas de IA, varias empresas e instituciones con sede en EE. UU. ya han enfrentado demandas por prácticas de IA no éticas.

Pero la confianza hacia la IA se está terminando

Cabe señalar que la confianza pública en la IA se está desvaneciendo. Un estudio realizado por Pew Research Center preguntó a 602 innovadores tecnológicos, desarrolladores, líderes empresariales y políticos: «Para 2030, ¿la mayoría de los sistemas de IA que utilizan organizaciones de todo tipo emplearán principios éticos centrados principalmente en el bien público?» El 68% no lo cree así.

Esto arroja una luz sombría sobre el futuro de la IA, pero no todo está perdido. El Índice de Adopción de IA Global de IBM encontró que el 85% de los profesionales de TI están de acuerdo en que es más probable que los consumidores elijan una empresa que sea transparente sobre cómo se construyen, administran y utilizan sus modelos de IA.

Muchas de las empresas que dan los pasos para adoptar prácticas éticas de IA podrían lograr muchas cosas. Entonces, ¿por qué tardan en dar el paso? El problema puede ser simple: muchas no saben por dónde empezar.

¿Por dónde comenzar para hacer que una IA sea más confiable?

IA confiable
Vía Pexels

Priya Krishnan, director del equipo de administración de productos de datos e IA en IBM, tiene algunas ideas para descubrir cómo puede crear un modelo de IA más sólido y confiable. De acuerdo con Krishnan: “la gobernanza de la IA es el proceso de definición de políticas y establecimiento de responsabilidades para guiar la creación y el despliegue de sistemas de IA en una organización”.

También Krishnan añade esto: “Antes de la gobernanza, la gente pasaba directamente de los experimentos a la producción en IA. Pero luego se dieron cuenta, ‘bueno, espera un minuto, esta no es la decisión que espero que tome el sistema. ¿Por qué está pasando esto?’ No podían explicar por qué la IA estaba tomando ciertas decisiones”.

Una gobernanza confiable de IA trata de asegurarse de que las empresas estén al tanto de lo que están haciendo sus algoritmos y tengan la documentación para respaldarlo. Esto significa rastrear y registrar cómo se entrena un algoritmo, los parámetros utilizados en el entrenamiento y cualquier métrica utilizada durante las fases de prueba.

Tener esto en su lugar facilita que las empresas comprendan lo que sucede debajo de la superficie de sus sistemas de inteligencia artificial. Incluso les permite extraer fácilmente la documentación en el caso de una auditoría. Krishnan señala que esta transparencia también ayuda a romper los silos de conocimiento dentro de una empresa.

Las regulaciones aún se están desarrollando, pero la adopción de la gobernanza de la IA ahora es un paso importante para lo que Krishnan llama «preparación para el futuro»:

“[Las regulaciones están] llegando rápido y fuerte. Ahora la gente está produciendo documentos manuales con fines de auditoría después del hecho”.

Si las empresas comienzan a documentarse, esto les ayudará a prepararse para las próximas regulaciones.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *