
Vídeos relacionados:
Un error en el uso de inteligencia artificial (IA) dentro del Servicio de Inmigración y Control de Aduanas de Estados Unidos (ICE) provocó que numerosos nuevos reclutas fueran enviados a oficinas de campo sin haber recibido el entrenamiento adecuado, según reveló NBC News, citando a dos funcionarios de las fuerzas del orden familiarizados con el caso.
El problema ocurrió mientras ICE aceleraba un ambicioso plan para incorporar 10,000 nuevos agentes, utilizando una herramienta de IA para clasificar solicitudes de empleo y determinar qué aspirantes contaban con experiencia previa en fuerzas del orden.
Un error en la clasificación de los reclutas
La herramienta automatizada fue diseñada para identificar candidatos con experiencia policial y asignarlos al llamado programa LEO (Law Enforcement Officer), un curso reducido que exige cuatro semanas de entrenamiento en línea.
Sin embargo, la IA cometió un fallo clave: clasificó erróneamente como agentes del orden a personas que no lo eran, simplemente porque en sus currículos aparecía la palabra “officer”.
Según uno de los funcionarios citados por NBC News, fueron incluidos en el programa corto aspirantes que se describían como “compliance officer” o incluso personas que solo manifestaban su aspiración de convertirse en agentes de ICE, sin haber pertenecido nunca a fuerzas policiales locales o federales.
“Estaban usando IA para escanear los currículos y descubrieron que muchas de las personas identificadas como LEO no lo eran”, explicó uno de los funcionarios.
Lo más leído hoy:
Entrenamiento insuficiente para tareas sensibles
Los aspirantes sin experiencia policial deberían haber cursado un entrenamiento presencial de ocho semanas en la Academia de ICE, ubicada en el Federal Law Enforcement Training Center (FLETC), en Georgia. Este programa incluye formación en leyes migratorias, manejo de armas de fuego, procedimientos operativos y pruebas de aptitud física.
Debido al error, un número significativo de reclutas recibió solo la capacitación reducida, pese a no contar con los requisitos para ello, y fue enviado a oficinas de campo.
Aunque los funcionarios aclararon que las oficinas locales de ICE suelen proporcionar formación adicional antes de desplegar a los agentes, reconocieron que el fallo representó un riesgo serio en un contexto operativo altamente sensible.
Correcciones tardías y falta de respuesta oficial
El error fue detectado a mediados del otoño, cuando ya había transcurrido más de un mes desde el inicio del proceso acelerado de contratación. Tras identificar la falla, ICE comenzó a revisar manualmente los currículos y a tomar medidas correctivas.
“Ahora tienen que traerlos de vuelta al FLETC”, indicó uno de los funcionarios, en referencia a la necesidad de completar el entrenamiento presencial completo.
El Departamento de Seguridad Nacional (DHS), del cual depende ICE, no respondió a las solicitudes de comentarios realizadas por NBC News.
Preocupaciones sobre el uso de IA en seguridad
El caso vuelve a poner sobre la mesa las preocupaciones sobre el uso de inteligencia artificial en procesos críticos, especialmente en agencias encargadas de funciones policiales y migratorias. La dependencia excesiva de sistemas automatizados, sin una supervisión humana adecuada, puede derivar en errores con consecuencias operativas y de seguridad.
Mientras ICE continúa ajustando su proceso de contratación, el episodio deja al descubierto los riesgos de priorizar la rapidez sobre el rigor, en una agencia que maneja detenciones, deportaciones y uso de la fuerza como parte de sus funciones cotidianas.
Preguntas frecuentes sobre el uso de inteligencia artificial y el entrenamiento de agentes de ICE
CiberCuba te lo explica: Toca la pregunta para ver la respuesta 👇
¿Por qué ICE envió agentes sin el entrenamiento adecuado?
Un error en la inteligencia artificial utilizada por ICE clasificó incorrectamente a los candidatos como agentes del orden por la presencia de la palabra "officer" en sus currículos, lo que resultó en que fueran enviados a un programa de entrenamiento reducido inadecuado para personas sin experiencia policial.
¿Qué riesgos implica el uso de inteligencia artificial en el reclutamiento de ICE?
El uso de inteligencia artificial sin supervisión humana adecuada puede derivar en errores significativos con consecuencias operativas y de seguridad, especialmente en agencias encargadas de funciones policiales y migratorias. La clasificación errónea de candidatos y el despliegue de agentes sin la preparación necesaria son ejemplos de estos riesgos.
¿Cómo está ICE corrigiendo el error en el entrenamiento de sus agentes?
ICE ha comenzado a revisar manualmente los currículos y a tomar medidas correctivas, incluyendo el retorno de los aspirantes al Federal Law Enforcement Training Center (FLETC) para completar el entrenamiento presencial completo necesario.
¿Qué otras preocupaciones existen sobre el uso de inteligencia artificial por parte de ICE?
Además de los problemas de reclutamiento, existen preocupaciones sobre violaciones de derechos humanos, privacidad y libertad de expresión debido al uso de IA para rastrear y analizar la actividad de usuarios en redes sociales, lo que podría facilitar la localización y captura de inmigrantes sin antecedentes penales.
¿Cómo ha afectado la estrategia de reclutamiento de ICE a la opinión pública?
La estrategia de reclutamiento masivo y el uso de herramientas de inteligencia artificial han generado críticas sobre el impacto en la seguridad y los derechos de las comunidades inmigrantes. Encuestas recientes muestran que la mayoría de los estadounidenses considera que las acciones de ICE hacen que las ciudades sean menos seguras, y hay preocupaciones sobre el perfilamiento racial y la xenofobia.
Archivado en: