La inteligencia artificial ha revolucionado el campo de la informática, al punto de reproducir comportamientos similares al de los seres humanos. Sin embargo, así como los software de inteligencia artificial pueden reproducir conductas humanas, también pueden desarrollar patologías, como es el caso de “Norman”, el algoritmo de inteligencia artificial que desarrolló inteligencia psicopática. “Norman” existe gracias a un equipo especializado del Instituto Tecnológico de Massachusetts (MIT, por sus siglas en inglés)- Su objetivo es evaluar lo que ocurriría si la inteligencia artificial es programada para explorar los recovecos más oscuros del internet, como por ejemplo, la deep web.

El entrenamiento de este software

El entrenamiento del software Norman fue muy particular. Durante su desarrollo, Norman fue programado con imágenes de accidentes extraídos del sitio web Reddit, para luego de procesarlas, ser puesto a prueba como sujeto de interpretación del test de Rorscharch, conocido por sus manchas de tinta. Esto hizo que figuras abstractas, visualizadas por un software en conjunto como flores, abejas o pájaros, fuesen interpretadas por Norman como personas atropelladas, electrocutadas, o disparadas en la cabeza.

El grupo de científicos del MIT llegó a la conclusión, basado en este estudio, que lo más importante para desarrollar esta clase de inteligencia artificial es la data que se utiliza, ya que estos dan forma al pensamiento del algoritmo.

Esto significa que la información suministrada a un software en su desarrollo es capaz de crear un sesgo discriminativo y en base a ese sesgo, emitir respuestas a los usuarios.

Softwares con sesgo artificial

El estudio profundiza en la importancia de utilizar una data confiable y transparente al momento de desarrollar software de inteligencia artificial, programados para interactuar con los seres humanos, ya que la información utilizada puede generar desde interacciones conflictivas con los usuarios, hasta el mal manejo y el aprovechamiento consecuente por parte de personas sin escrúpulos.

Norman no es el único software cuya programación da como resultado un sesgo discriminativo, en base a la información procesada. Durante el año 2016, “Tay”, un chatbot diseñado por Microsoft desarrolló una personalidad racista y xenófoba, demostrando que la inteligencia artificial puede aprender de los humanos que la programan, o por lo menos, reduplicar sus respuestas. Este tipo de inteligencia artificial ha empezado a implementarse velozmente, tanto en dispositivos electrónicos como en sistemas de mensajería, aplicaciones guiadas por voz y salas de chat.