Estamos en el momento perfecto de año año para rememorar todo lo que nos enseñó la IA y el aprendizaje profundo en 2022. Durante este año vimos un progreso interesante en ambas ramas. Por ejemplo, en el aprendizaje profundo, sobre todo en los modelos generativos. Pero, como suele ocurrir, a medida que aumentan las capacidades de los modelos de aprendizaje profundo, también lo hace la confusión que los rodea.

Y es que la comunidad científica está dividida sobre qué hacer con estos avances. En un extremo, vemos a algunos científicos decir que los modelos sofisticados son sensibles y debemos atribuirles personalidad . Otros grupo ha sugerido que los enfoques actuales de aprendizaje profundo conducirán a la inteligencia general artificial (AGI). Por último, un grupo de científicos han estudiado las fallas de los modelos actuales y señalan que, aunque son útiles, incluso los sistemas más avanzados sufren el mismo tipo de fallas que los modelos anteriores.

Durante el 2022 la IA y el aprendizaje profundo nos demostraron que tienen fallas

Una de las fallas más reconocibles podemos encontrarla en sistemas como ChatGPT, este puede producir texto gramaticalmente correcto y consistente, pero con fallas en la lógica y los hechos. Un ejemplo: comete errores graves en problemas lógicos simples y hace declaraciones falsas e inconsistentes.

De acuerdo con el lingüista y científico cognitivo Noam Chomsky, los enfoques actuales para avanzar en los sistemas de aprendizaje profundo, que se basan en agregar datos de entrenamiento, crear modelos más grandes y usar una «programación inteligente», solo incrementarán los errores que cometen estos sistemas.

Por tanto, nos parece pertinentes mencionarles lo que descubrió el investigador de AI Gary Marcus. Este presentó cuatro aspectos clave de la cognición que faltan en los sistemas de aprendizaje profundo:

  • Abstracción: Los sistemas de aprendizaje profundo como ChatGPT luchan con conceptos básicos como contar y clasificar elementos.
  • Razonamiento: Cuando vemos modelos de lenguaje extenso, observamos que no logran razonar sobre cosas básicas, tales como colocar objetos en contenedores. «La genialidad de ChatGPT es que puede responder a la pregunta, pero desafortunadamente no puedes contar con las respuestas», dijo Marcus.
  • Composicionalidad: Los seres humanos entienden el lenguaje en términos de totalidades compuestas de partes. Pero la IA actual continúa luchando con esto, lo que se puede observar cuando se les pide a modelos como DALL-E que dibujen imágenes que tengan estructuras jerárquicas.
  • Realidad: “Los humanos mantienen activamente modelos mundiales imperfectos pero confiables. Los modelos de lenguaje grande no lo hacen y eso tiene consecuencias”, dijo Marcus. También agregó: “No se pueden actualizar gradualmente dándoles nuevos datos. Por lo general, deben volver a capacitarse para incorporar nuevos conocimientos. Alucinan”.

Si logran superar estas deficiencias, tendríamos un gran avance ene stas áreas.

IA persona
Vía Pexels

IA y el razonamiento de sentido común

Las redes neuronales profundas seguirán cometiendo errores en casos adversos y extremos, señaló Yejin Choi, profesor de ciencias de la computación en la Universidad de Washington.

Según Choi: “El verdadero problema al que nos enfrentamos hoy es que simplemente no conocemos la profundidad o amplitud de estos casos contradictorios o extremos. Mi idea es que esto va a ser un verdadero desafío que mucha gente podría estar subestimando. La verdadera diferencia entre la inteligencia humana y la IA actual sigue siendo muy amplia”.

Choi también comentó que la brecha entre la inteligencia humana y la artificial se debe a la falta de sentido común. Ella lo describió como «la materia oscura del lenguaje y la inteligencia y las reglas tácitas de cómo funciona el mundo». Todo esto influye en la forma que las personas usan e interpretan el idioma.

De acuerdo con Choi, el sentido común es trivial para los humanos y difícil para las máquinas porque las cosas obvias nunca se dicen. Si observamos de cerca, hay miles de excepciones a cada regla y no existe una verdad universal en los asuntos de sentido común.

El investigador y neurocientífico de IA, Dileep George, enfatiza que la simulación mental para el razonamiento del sentido común a través del lenguaje es crucial. El conocimiento para este tipo de razonamiento se adquiere a través de la experiencia sensorial, señala George. Y este conocimiento se almacena en el sistema perceptivo y motor. Usamos el lenguaje para sondear este modelo y desencadenar simulaciones en la mente.

El científico cuestionó algunas de las ideas actuales para crear modelos mundiales para sistemas de IA. En la mayoría de estos, la percepción es un preprocesador que crea una representación sobre la cual se construye el modelo del mundo. Aquí lo explica:

“Es poco probable que funcione porque se necesita acceder a muchos detalles de la percepción sobre la marcha para poder ejecutar la simulación. La percepción tiene que ser bidireccional y tiene que usar conexiones de retroalimentación para acceder a las simulaciones”

La arquitectura para la próxima generación de sistemas de IA

IA transparente
Vía Pexels

Muchos científicos están de acuerdo en las deficiencias de los sistemas de IA actuales, pero difieren en el camino a seguir.

David Ferrucci, fundador de Elemental Cognition y ex miembro de IBM Watson, dijo que no podemos cumplir nuestra visión de IA si no podemos hacer que las máquinas «expliquen por qué están produciendo el resultado que están produciendo».

Por otro lado, el científico de IA Ben Goertzel enfatizó que “los sistemas de redes neuronales profundas que actualmente dominan el panorama comercial actual de IA no progresarán mucho hacia la construcción de sistemas AGI reales”.

Goertzel, quien es mejor conocido por acuñar el término AGI, dijo que mejorar los modelos actuales como GPT-3 con verificadores de hechos no solucionará los problemas que enfrenta el aprendizaje profundo y no los hará capaces de generalizarse como la mente humana.

Francesca Rossi, becaria de IBM y líder global de ética de IA en el Centro de Investigación Thomas J. Watson, propuso una arquitectura de IA que se inspira en la ciencia cognitiva y el «Marco de pensamiento rápido y lento» de Daniel Kahneman.

Jürgen Schmidhuber, director científico de The Swiss AI Lab IDSIA y uno de los pioneros de las técnicas modernas de aprendizaje profundo, dijo que muchos de los problemas planteados sobre los sistemas de IA actuales se han abordado en sistemas y arquitecturas introducidos en las últimas décadas. Schmidhuber sugirió que resolver estos problemas es una cuestión de costo computacional y que, en el futuro, podremos crear sistemas de aprendizaje profundo que puedan hacer metaaprendizaje y encontrar nuevos y mejores algoritmos de aprendizaje.

Como puedes ver, la IA y el aprendizaje profundo fueron un tema de debate para muchos científicos en 2022. Lo interesante es que este no es el fin de tales disertaciones, pues 2023 seguirá lleno de este tipo de debates. Quizás hasta sean más intensos y con el objetivo de plantear soluciones específicas.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *