El director del Instituto de Investigación en Inteligencia Artificial (IIIA), Ramón López de Mántaras, afirma que la Inteligencia Artificial está basada en "técnicas sofisticadas" que están muy relacionadas con "la estadística y la probabilidad pero son como cajas negras que dan un resultado" válido pero sin matices. En este sentido, señala que sobre este resultado "no se puede pedir explicaciones al sistema como un médico pediría explicaciones a un colega, ni tampoco se puede argumentar, ni establecer un diálogo que pueda ayudar a afinar el diagnostico o a rechazarlo".

"Esta ausencia de capacidad explicativa" - aclara el investigador- "se está revelando como un problema en este tipo de aproximación a la IA". Antes, indica López, esta cuestión era menos problemático porque la I A "basada en el conocimiento es menos caja negra, las cosas son más transparentes y existe la posibilidad de indagar, pedir explicaciones y ver porqué el sistema ha llegado a una conclusión y no a otra".

Por tanto, ahora el investigador indica que los científificos están trabajando para dar "mayor capacidad explicativa a esta I A más moderna". Cita como ejemplo, al CEO de Netflix, Reed Hastings, quién reivindica que " en su empresa, aunque usan big data no se elimina al ser humano del bucle de decisión".