Un panel compuesto por expertos en inteligencia artificial ha publicado un reporte titulado “Gathering Strength, Gathering Storms: The One Hundred Year Study on Artificial Intelligence (AI100)”. Este aborda los posibles riesgos de la inteligencia artificial y su avance en la sociedad.

El proyecto ha recibido el apoyo de la Stanford University Institute for Human-Centered Artificial Intelligence y ahora mismo representa la mayor conglomeración de expertos en inteligencia artificial. El panel está compuesto por científicos, informáticos, psicólogos, sociólogos y otras disciplinas.

Buenas noticias

De acuerdo con Techxplore, este es el segundo reporte del panel que ha ido sumando nuevos miembros desde el 2016. Por suerte, hay más noticias positivas que negativas, la mayoría de los miembros considera que el avance de la IA es positivo para todos y considera que hace más mal que bien.

Entre los avances que reportados mencionan el diagnóstico de enfermedades por parte de IAs que incluso rivalizan con el diagnóstico de un médico preparado. Además, la mejoría de los algoritmos, traductores y bots capaces de comprender el lenguaje y su contexto es cada vez más impresionante. Sobre todo porque ahora estos pueden escribir textos parecidos a los de un humano.

Por otro lado, los riesgos no pasan por la trama de una película de ciencia ficción distópica en donde una IA toma el control del mundo. Sin embargo, sí hay que prestar atención a algunos detalles.

Los Deepfakes son cada vez más convincentes.

Atentos a los riesgos

Lo primero que mencionan es el uso inadecuado de la IA, los videos “deepfakes” en donde la cara de una persona aparece en videos sexuales es uno de los más preocupantes. Estos videos se hacen con la idea de hacer daño o chantajear a personas que deben proteger una reputación, y la IA tiene un papel relevante en la creación de estos videos.

Los expertos también señalan que la IA tiene un “aire de neutralidad” que no es demasiado sano. Los usuarios tendemos a creer que lo que refleja el algoritmo son “datos fríos” o imparciales, por lo que no los discutimos. Sin embargo no debemos pensar que lo que diga la IA sea considerado “objetivo”, ya que puede estar simplemente parcializada por sus creadores o estadísticas sin contexto.

También mencionan que hay un riesgo relevante en la discriminación que algunas IAs tienen con algunas razas. Hablamos sobre esto recientemente cuando el algoritmo de Facebook etiquetó a personas negras como “primates”. Por suerte, los expertos consideran que, salvo excepciones, los que están detrás de estas IAs, trabajan día a día para minimizar estos riesgos.

En el futuro, el panel concluye que los gobiernos, el mundo académico y la industria deberán desempeñar roles más amplios para asegurarse de que la IA evolucione para servir al bien mayor.

Escribir un comentario