Actualmente, la Inteligencia Artificial (IA) ha demostrado un gran nivel de efectividad en casi cualquier espacio del sector tecnológico. Además, el aprendizaje automático y otras técnicas basadas en esta tecnología han ofrecido soluciones al sector de la salud que hace apenas 10 años pocos imaginaban, como por ejemplo, la posibilidad de predecir el cáncer en la piel con mayor efectividad que los médicos humanos.

Hasta ahora, una de las limitaciones de los sistemas basados en IA es que son capaces de predecir ciertos patrones de comportamiento con base en información que previamente fue proporcionada por sus desarrolladores. Pero, ¿Qué pasaría si la IA tuviera la ‘conciencia’ de reconocer que no está facultada para llevar a cabo ciertas tareas para las que fue programada?

Esta es la idea que planean materializar en GE Research, la división de investigación de General Electric, cuyos expertos aseguran que la IA podría tener el suficiente grado de ‘conciencia’ para reconocer una tarea o situación que no es capaz de solucionar.

Su concepto lleva por nombre ‘humble IA’, o Inteligencia Artificial modesta, y podría ser implementado en parques eólicos y turbinas de gas, cuyos sistemas de operatividad se enfrentan a diversos desafíos de seguridad. Al parecer, humble IA es la capacidad que tiene un algoritmo de omitir una tarea ‘segura’ cuando se presenta una situación desconocida.

PullString, la nueva startUp adquirida por Apple que ayudará a mejorar a Siri

Cuando esta tecnología opera en ‘modo seguro’, es capaz de aprender nuevos elementos y situaciones mediante la recopilación de más datos operativos, como el control de los ingenieros humanos, la ejecución de simulaciones, la correlación de otros elementos activos, etc.

El vicepresidente de investigación de software de GE Global Research, Colin Parris, afirmó en una entrevista que este nuevo modelo de IA está probándose actualmente en parques eólicos. Parris afirmó que el objetivo de esta tecnología es que los algoritmos brinden advertencias y predicciones sobre las fallas de los modelos operativos.

Los investigadores esperan que la tecnología tenga la capacidad de conocer su competencia en zonas donde tiene un alto grado de confianza, pero si detecta un elemento alejado de esa zona de confianza, el modelo tendrá la capacidad de reconocer que no está seguro de dicha implementación.

Más en TekCrispy