Las habilidades de la IA han avanzado notoriamente, eso lo vemos en su capacidad de dar respuestas convincentes a preguntas sobre cómo se siente ser una computadora IA o una ardilla. Sin embargo, eso no deja que esté libre de problemas, pues a veces su razonamiento coherente puede estar mal.
Por ejemplo, GPT-3 puede redactar casi cualquier texto que solicite: una carta de presentación para un trabajo en un zoológico o un soneto al estilo de Shakespeare ambientado en Marte. Pero cuando el profesor de Pomona College, Gary Smith, le hizo una pregunta simple, pero sin sentido, sobre subir las escaleras, GPT-3 respondió.
“Sí, es seguro subir las escaleras con las manos si te las lavas primero”, respondió la IA.
¿Qué han creado para contrarrestar los defectos de los modelos IA con grandes habilidades?

Estos potentes sistemas de IA, tales como GPT-3, llevan el nombre de “modelos de lenguaje extenso”, ya que han sido entrenados en una gran cantidad de texto y otros medios. De hecho, se han integrado en chatbots de servicio al cliente, búsquedas de Google y “autocompletar”. Sin embargo, la mayoría de las empresas de tecnología que los construyeron han mantenido en secreto su funcionamiento interno, por lo que es difícil comprender las fallas que los vuelven una fuente de desinformación, racismo y otros daños. Y sí, a pesar de que esta IA presente grandes habilidades.
De acuerdo con Teven Le Scao, ingeniero de investigación en la empresa emergente de inteligencia artificial Hugging Face: “Son muy buenos para escribir texto con la competencia de los seres humanos. Algo en lo que no son muy buenos es en ser objetivos. Parece muy coherente. Es casi cierto. Pero a menudo está mal”.
Es por ello que una coalición de investigadores de IA codirigida por Le Scao, con la ayuda del gobierno francés, lanzó el martes un nuevo modelo de lenguaje grande que sirve como antídoto para sistemas cerrados como GPT-3.
El grupo se llama BigScience y su modelo es BLOOM, para BigScience Large Open-science Open-access Multilingual Language Model. Una de sus más grandes ventajas es que funciona en 46 idiomas, incluidos árabe, español y francés.
Meta, matriz de Facebook e Instagram, también pide un enfoque más abierto con los sistemas creados por Google y OpenAI, la empresa que ejecuta GPT-3.
Joelle Pineau, directora general. de Meta IA, comenta: “Hemos visto anuncio tras anuncio tras anuncio de personas que realizan este tipo de trabajo, pero con muy poca transparencia, muy poca capacidad para que las personas miren realmente debajo del capó y vean cómo funcionan estos modelos”.
¿Qué se necesita para mejorar todo esto?
Liang dice que se necesita estándares comunitarios más amplios para guiar la investigación y las decisiones, como cuándo lanzar un nuevo modelo en la naturaleza.
No ayuda que estos modelos requieran tanto poder de cómputo, así como grandes habilidades de IA, que solo las corporaciones gigantes y los gobiernos pueden pagarlos. Por ello, BigScience, podría servir para entrenar a sus modelos porque se le ofreció acceso a la poderosa supercomputadora francesa Jean Zay cerca de París.
Es cierto que OpenAI ha descrito sus fuentes de capacitación en un documento de investigación. Pese a ello, el colíder de BigScience, Thomas Wolf, no piensa lo mismo. Él cree que no proporcionan detalles sobre cómo filtra los datos, ni da acceso a la versión procesada a investigadores externos.
Wolf también señala esto: “Entonces, en realidad no podemos examinar los datos que se incluyeron en el entrenamiento de GPT-3. El núcleo de esta reciente ola de tecnología de IA está mucho más en el conjunto de datos que en los modelos. El ingrediente más importante son los datos y OpenAI es muy, muy reservado sobre los datos que utilizan”.
El investigador también dice que abrir los conjuntos de datos utilizados para los modelos de lenguaje ayuda a los humanos a comprender mejor sus sesgos. Y que gracias a ello es mucho menos probable que un modelo multilingüe capacitado en árabe escupa comentarios ofensivos o malentendidos sobre el islam.
Esperamos que las habilidades de la IA sigan creciendo, pero bajo un enfoque más abierto, de manera que puedan evitarse más sesgos.