Qué es la “caja negra” de la inteligencia artificial, un misterio que desconcierta a los expertos

Cortesía

 

Mientras el aprendizaje profundo (deep-learning) educa a las máquinas para procesar datos como el cerebro humano, la llamada “caja negra” que esconde las arbitrarias predicciones de los algoritmos de inteligencia artificial (IA) preocupa cada vez más a los expertos en este campo.

Por: Clarín





La “caja negra” aparece cuando los desarrolladores de estos sistemas dejan de comprender lo que ocurre en los callejones que abre la IA en su recorrido lógico, algo que obstaculiza el control de sus acciones.

Incluso, muchos temen que esta falta de transparencia de lugar a consecuencias irreversibles, especialmente si esta inteligencia sintética consigue habilidades para las que no fue preparada o adquiere total autonomía.

La alarma se encendió semanas atrás, cuando un grupo de ingenieros de Google estaba programando un software de IA y se sorprendieron al descubrir que, sin ninguna iniciación previa, había aprendido a conectar un nuevo idioma.

El director ejecutivo de Google, Sundar Pichai, indicó que esta capacidad de los programas de IA de generar habilidades u ofrecer respuestas de forma inesperada es lo que se conoce como la “caja negra”.

Lejos de entrar en pánico, Pichai agregó “tampoco creo que entendamos completamente cómo funciona la mente humana”. Y llamó a los especialistas de distintas áreas para que se sumen a la discusión, con el objeto de volver el proceso menos nebuloso.

Puedes leer la nota completa en Clarín