el gobierno de EE.UU. para "espiar con IA sin límites", como se describe en tu consulta. Sin embargo, investigaciones recientes revelan que Meta ha facilitado el acceso a sus modelos de IA abiertos, como Llama, para agencias gubernamentales estadounidenses, incluyendo usos en seguridad nacional y defensa. Esto incluye colaboraciones con el Departamento de Defensa y agencias como la NSA, donde se ha relajado restricciones previas para permitir aplicaciones en inteligencia, ciberseguridad y operaciones militares. Críticos argumentan que esto podría habilitar vigilancia masiva, aunque Meta insiste en que sus modelos son de código abierto y no están diseñados para espionaje directo. Por ejemplo, en septiembre de 2025, la Administración de Servicios Generales (GSA) aprobó Llama para uso federal, permitiendo a agencias desplegarlo en tareas como revisiones de contratos y soporte IT, pero con extensiones a contextos de seguridad. En noviembre de 2024, Meta permitió explícitamente el uso de Llama por agencias de seguridad nacional de EE.UU. y aliados (como Reino Unido, Canadá, Australia y Nueva Zelanda), excluyendo prohibiciones previas sobre aplicaciones militares o de espionaje para estos actores. Esto ha generado preocupaciones sobre "creep mission" (expansión gradual de usos), donde herramientas de IA podrían integrarse en vigilancia sin supervisión adecuada, potencialmente afectando a ciudadanos estadounidenses.
- Vigilancia masiva y erosión de libertades civiles: Palantir permite a agencias como ICE (Inmigración y Control de Aduanas) y el Departamento de Defensa de EE.UU. crear perfiles detallados de personas usando datos de redes sociales, registros bancarios, historiales médicos y más. Esto puede llevar a "deportaciones por algoritmo" sin debido proceso, afectando a inmigrantes y ciudadanos por igual. En Gaza, se ha usado para "asesinatos selectivos" por parte de Israel, incluyendo a periodistas palestinos.
- Sesgos y abusos: Los algoritmos pueden perpetuar discriminación racial al basarse en datos no representativos, llevando a perfiles erróneos. Críticos como Robert Reich advierten que, bajo administraciones autoritarias, podría usarse para intimidar opositores políticos o disidentes.
- Expansión futura: Con contratos federales, podría integrarse con biometría y ADN para vigilancia permanente, facilitando distopías donde el disenso se suprime. Un ex empleado de Palantir ha alertado sobre amenazas a la democracia por datos masivos.
- Invasión total de privacidad: Puede leer mensajes, rastrear ubicaciones, activar micrófonos/cámaras y robar contraseñas en iOS y Android. Infecta vía apps como WhatsApp o iMessage, permitiendo vigilancia 24/7 sin conocimiento. Ha sido usado contra periodistas, activistas y funcionarios, facilitando ejecuciones extrajudiciales o desapariciones.
- Abusos por gobiernos: Aunque se vende para combatir crimen/terrorismo, se ha abusado para espiar disidentes en países autoritarios. En 2024-2025, se detectaron infecciones en miles de dispositivos, incluyendo ejecutivos y periodistas. Un relator de la ONU advirtió sobre su impacto en derechos humanos, incluyendo efecto chilling en la libertad de expresión.
- Dificultad de detección: Es casi imposible detectarlo sin herramientas avanzadas, y su proliferación aumenta riesgos para ciudadanos comunes si cae en manos equivocadas.
- Vigilancia masiva sin garantías: Recopila emails, chats, videos y metadatos de millones, incluyendo comunicaciones de estadounidenses incidentalmente. Ha sido declarado inconstitucional por algunos tribunales por violar la Cuarta Enmienda. Facilita perfiles sin supervisión efectiva, con auditorías "superficiales".
- Efecto chilling en libertades: Reduce la libertad de expresión al crear temor a la vigilancia, permitiendo interferencia en sociedad civil y potencial para abusos autoritarios. Snowden lo llamó "peligroso y criminal".
- Expansión global: Afecta datos que pasan por EE.UU., incluyendo de no ciudadanos, y se ha extendido a aliados como GCHQ en Reino Unido.
- Mission creep y sesgos raciales: Herramientas como Mobile Fortify (app de reconocimiento facial) escanean sin consentimiento, llevando a detenciones erróneas de ciudadanos, especialmente personas de color por sesgos en IA. Integra datos de redes sociales y ALPR (lectores de placas), compartidos con Border Patrol, afectando privacidad y libertad de expresión.
- Abusos y falta de accountability: Monitoreo de protestas y críticos, con "efecto chilling" en activismo. Coaliciones como EFF demandan su cese por violaciones a derechos. Bajo Trump, se intensificó, potencialmente afectando a millones.
- Riesgos más amplios: Sin regulaciones federales fuertes, podría normalizar vigilancia poblacional, con falsos positivos llevando a deportaciones injustas.