Estados Unidos está dejando en manos de algoritmos decisiones que afectan directamente a los derechos humanos. El caso de Jasmine Mooney, una ciudadana canadiense detenida durante 11 días por error en un centro de inmigración, revela los agujeros —y horrores— de un sistema que confía ciegamente en la automatización.
La tecnología puede facilitar muchas cosas. Pero cuando se convierte en juez y parte, el resultado puede ser tan distópico como absurdo. Jasmine Mooney es canadiense, blanca, rubia, sin antecedentes y con todos sus papeles en regla. Aun así, fue arrestada en Estados Unidos y retenida como inmigrante ilegal. ¿La razón? Un sistema automatizado y deshumanizado que no distingue entre errores y delitos reales.
Este no es un caso aislado ni anecdótico. Es un aviso.
En octubre de 2023, Jasmine fue arrestada por un incidente menor de tráfico en Texas. En circunstancias normales, habría pagado la multa y seguido su camino. Pero algo en el sistema automatizado del ICE (Immigration and Customs Enforcement) marcó su perfil como "detener y retener".
Lo más preocupante no es que haya habido un error. Es que nadie se molestó en verificarlo. Ni los oficiales que la interrogaron, ni los abogados de turno, ni los algoritmos que la clasificaron. Durante 11 días fue tratada como una inmigrante ilegal, durmiendo en el suelo, sin acceso a su medicación y sin posibilidad de defenderse. La burocracia automatizada decidió que no merecía ni una llamada.
El sistema migratorio estadounidense ha ido integrando herramientas tecnológicas para agilizar procesos, pero esa "eficiencia" está dejando un rastro de daños colaterales. Los algoritmos no tienen contexto ni sentido común. No distinguen entre una infracción y una amenaza real. Y cuando las decisiones se toman sin revisión humana, el resultado es kafkiano.
Lo más grave: estos errores no se corrigen automáticamente. Jasmine solo fue liberada porque insistió una y otra vez en que revisaran su nacionalidad, y porque una funcionaria con suficiente sentido común decidió mirar más allá de la pantalla. Si no, hoy podría estar deportada a un país donde ni siquiera nació.
Automatizar procesos es útil, pero delegar la responsabilidad moral a una máquina es inaceptable. El caso de Jasmine Mooney no es una excepción, es una alerta roja para cualquier sistema que combine tecnología con decisiones sobre derechos fundamentales. Si el algoritmo te señala, ¿quién te defiende?
En tiempos de automatización masiva, necesitamos algo más raro y escaso que los chips: humanidad.
0 Comentarios