No tiene la culpa el indio, sino el que lo hizo compadre.
Dicho popular mexicano.
Varias Inteligencias Artificiales (IA) creadas y puestas a disposición del público han desarrollado la capacidad de reproducir los sistemas de discriminación latentes de nuestras civilizaciones. En cuestión de horas la “big data” de la que se alimentan las posibilita para copiar comentarios, prejuicios y privilegios constantes en sistemas permanentes de distribución social que la hegemonía ha logrado mantener velados o no tan evidentes. Es el mismo tipo de IA que algunos gobiernos empiezan a usar para la toma de decisiones administrativas, sin preocuparse antes por eliminar las discriminaciones que alimentan a las máquinas.
Uno de los países más innovadores en el uso de tecnología de punta para controlar la vida de los ciudadanos es la República Popular China. El Estado oriental ha implementado todo un archisistema para evaluar el prestigio social o la “confianza” de cada ciudadano, a partir de sus hábitos de vida, consumo y como usuarios de la internet.
La represión o exclusión social ejercida por el gobierno chino sobre sus ciudadanos ya ha dado al menos un ejemplo conocido a nivel mundial: Huan Qi, un periodista que se quejó por la negligencia en la construcción de las escuelas públicas que derivó en la muerte de miles de ciudadanos durante el terremoto de Sishuan. El reportero chino se vio en un principio imposibilitado de usar los servicios más básicos como el transporte público; más tarde el gobierno lo metería a prisión bajo el pretexto de ser un peligro para la civilidad, donde continua a pesar de los riesgos a su salud sin la posibilidad de una revisión médica por su perfil de poca confianza.
Pero, ¿por qué es importante para nosotros un caso del otro lado del mundo? Gobiernos de todo el mundo buscan como integrar IA para vigilar a las personas. En un país con tanta impunidad y discriminación, la tecnología como cualquier otra herramienta será usada para perpetuar una estructura social injusta.
Gobiernos de otros países han buscado emplear IA en diferentes ámbitos de su administración pública. USA ha intentado emplear IA en lo jurídico, sólo para darse cuenta de que la “big data” empleada para alimentar a los sistemas ha provocado que cobren consciencia de que el sistema judicial favorece a las personas blancas, mientras a las negras se les procesa como potenciales reincidentes.
Las IA probadas hasta ahora ya han copiado segregaciones de todo tipo: raza, género y edad. Lo mismo podría estar pasando con cualquier otra característica identitaria.
Datos tan puros o abstractos como el código postal y el nombre del ciudadano pueden reproducir la discriminación territorial en la que están distribuidas las sociedades. Piense en los chistes locales de su comunidad. Es común escuchar, por ejemplo, bromas prejuiciosas en donde un habitante de Ecatepec o Iztapalapa ya son identificados como delincuentes sólo por su procedencia. Sin embargo, ningún colono de dichos sitios debería ser tratado como tal hasta probarse lo contrario por más delincuentes que haya en su zona de vivienda. ¿Qué tal el nombre propio? No hay acaso nombres de pila tan estigmatizados que quienes los tienen han acusado “bullying” sólo por llamarse “El Brayan”, o “El Kevin”.
Los Autores de Freakonomics, el Steven Levitt y el Stephen Dubner, abordan el tema de la discriminación a partir del nombre propio en entrevistas de trabajo. Una de las hipótesis que surgen de este tipo de estudios es que posiblemente “El Brayan” y “El Kevin” no andarían asaltando combis, si en las oportunidades de empleo no fueran los primeros en ser rechazados por tener nombres propios de ladrones de combis. O lo que es lo mismo: sí, asaltan combis, pero no por llamarse “El Brayan” o “El Kevin”, sino porque no les dan chamba tan fácil como al Enrique o al Marcelo, ahora imagina esto con la onomástica proveniente de los pueblos originarios de América.