LA INTELIGENCIA ARTIFICIAL DEL GOBIERNO
PONE UNA DIANA EN TU ESPALDA
Estados Unidos y Canadá, dirigidos por los
liberales sometidos al Foro Económico Mundial, se acercan a la implantación del
crédito social al estilo chino y a la tecnología de IA predictiva, que supone para el gobierno una autoridad central de nivel soviético y pone una diana en
las espaldas de los ciudadanos.
En poco tiempo, todos los ciudadanos y hogares
estadounidenses serán marcados y se les asignará una puntuación de amenaza.
Sin haber cometido nunca un delito a sabiendas ni haber sido
condenado, usted y sus conciudadanos probablemente han sido evaluados por
comportamientos que el gobierno podría considerar tortuosos, peligrosos o
preocupantes; se le ha
asignado una puntuación de amenaza basada en sus asociaciones,
actividades y puntos de vista; y ha sido catalogado en una
base de datos gubernamental basada en la forma en que la policía y
otros organismos gubernamentales deberían abordarle en función de su nivel
particular de amenaza.
Es sólo cuestión de tiempo antes de que te encuentres acusado injustamente, investigado y confrontado a la policía en base a un algoritmo de datos o una evaluación de riesgos desarrollada por un programa informático dirigido por la inteligencia artificial.
Tomemos el caso
de Michael Williams, que pasó casi un año en prisión por un delito que
no cometió. Williams conducía cuando un coche que pasaba por allí disparó
contra su vehículo, matando a su pasajero de 25 años, Safarian Herring, que
había hecho autostop.
A pesar del hecho de que Williams no tenía ningún móvil, de
que no había ningún testigo ocular del tiroteo, de que no se encontró ningún
arma en el coche y de que el propio Williams llevó a Herring al hospital, la
policía acusó al hombre de 65 años de asesinato en primer grado basándose
en ShotSpotter,
un programa de detección de disparos que había captado una fuerte detonación en
su red de micrófonos de vigilancia y trianguló el ruido para que coincidiera
con un vídeo de seguridad silencioso que mostraba el coche de Williams atravesando
una intersección. El caso fue finalmente desestimado por falta de pruebas.
Aunque los programas de detección de disparos como
ShotSpotter están ganando popularidad entre las fuerzas del orden, los fiscales
y los tribunales, están plagados
de fallos, ya que confunden "los contenedores de basura, los
camiones, las motos, los helicópteros, los fuegos artificiales, la
construcción, la recogida de basura y las campanas de las iglesias con
disparos".
Tal y como constató una investigación de Associated Press,
"el
sistema puede pasar por alto disparos en directo justo debajo de sus micrófonos,
o clasificar erróneamente los sonidos de los fuegos artificiales o de los
coches que hacen ruido como los disparos".
En una comunidad, ShotSpotter funcionó
menos del 50% de las veces.
Luego está el elemento humano de la corrupción que se suma
invariablemente a la mezcla. En algunos casos, "los empleados han alterado
los sonidos detectados por el sistema para decir que eran
disparos". Los informes forenses preparados por los empleados de
ShotSpotter también "se han utilizado en los tribunales para afirmar
falsamente que un acusado disparó contra la policía, o para proporcionar un
recuento dudoso del número de disparos supuestamente efectuados por los
acusados".
La misma empresa propietaria de ShotSpotter tiene
también un
programa de policía predictiva que tiene como objetivo utilizar los datos de
detección de disparos para "predecir" los delitos antes de que se
produzcan. Los presidentes Biden y Trump han impulsado un mayor uso de
estos programas predictivos para combatir la violencia armada en las
comunidades, a pesar de que no se ha comprobado que reduzcan la violencia armada
o aumenten la seguridad de las comunidades.
La justificación que tiene esta fusión de vigilancia
generalizada, de tecnologías de predicción del comportamiento, de explotación
de datos, de la tecnología precognitiva y de los programas de denuncia del
vecindario y de las familias se supone que permite al gobierno tomar medidas
preventivas para combatir la delincuencia (o cualquier cosa que el gobierno
haya decidido prohibir en un momento dado).
Se trata de la precriminalidad, sacada del reino de las películas
de ciencia ficción distópicas como Minority Report, que pretende prevenir los
crímenes antes de que se produzcan, pero en realidad no es más que otra forma
de poner a los ciudadanos en el punto de mira del gobierno para confinar la
nación.
Incluso los servicios sociales intervienen con algoritmos
informáticos que intentan predecir qué hogares pueden ser culpables de abuso y
negligencia infantil.
Basta con que un robot de IA señale un hogar por posible
negligencia para que se investigue a una familia, se la declare culpable y se
coloque a los niños en régimen de acogida.
Hay que tener en cuenta que la negligencia potencial puede
ir desde un alojamiento inadecuado hasta una higiene deficiente, pero es
diferente de los abusos físicos o sexuales.
Según un informe de investigación de Associated Press, una
vez que los incidentes de negligencia potencial se comunican a una línea
telefónica de protección infantil, los informes son sometidos a un proceso de
selección que recopila "datos personales recogidos de los registros de
nacimiento Medicaid, de toxicomanía, de salud mental, de prisión y de libertad
condicional, entre otros conjuntos de datos gubernamentales".
El algoritmo calcula después el riesgo potencial del niño y
le atribuye una puntuación de 1 a 20 para predecir el
riesgo de que el niño sea colocado en un hogar de acogida en los dos años
siguientes a la investigación. "Cuanto
mayor sea la cifra, mayor será el riesgo. Los
trabajadores sociales utilizan entonces su poder discrecional para decidir si
investigan o no".
Otros modelos de predicción utilizados en todo el país se
esfuerzan por "evaluar
el riesgo de muerte y lesiones graves de un niño, determinar si debe ser
colocado en un centro de acogida y, en caso afirmativo, dónde".
Por increíble que parezca, no hay forma de que una familia
sepa si la tecnología predictiva de la IA es la responsable del hecho de que se
la haya señalado, investigado y separado de sus hijos. Como señala AP,
"las familias y sus abogados nunca podrán estar seguros del papel que
desempeñó el algoritmo en sus vidas, porque no
están autorizados a conocer las puntuaciones.
Una cosa que sí sabemos, sin embargo, es que el
sistema apunta de manera desproporcionada a las familias negras y pobres con el
fin de realizar una intervención, una
interrupción y un eventual desplazamiento, porque la mayoría de los datos
utilizados se extraen de las comunidades de bajos ingresos y de las minorías.
La tecnología también está lejos de ser infalible. Sólo en
un condado un problema
técnico hizo que los trabajadores sociales obtuvieran puntuaciones incorrectas, subestimando
o sobreestimando el riesgo de un niño.
Sin embargo, falible o no, el programa de pruebas
predictivas de IA es ampliamente utilizado en todo el país por los organismos
gubernamentales para controlar y seleccionar a las familias para ser
investigadas. Las consecuencias de esta vigilancia excesiva, según Aysha
Schomburg, Comisionada Adjunta de la Oficina de la Infancia de Estados Unidos,
son las "separaciones
familiares masivas".
El impacto de este tipo de herramientas predictivas de IA se
hace sentir en casi todos los ámbitos de la vida.
Con el pretexto de ayudar a las agencias gubernamentales
sobrecargadas a trabajar más eficientemente, las tecnologías de IA predictivas
y de vigilancia se están utilizando para clasificar, segregar e informar sobre
la población sin tener en cuenta los derechos de privacidad o garantías
procesales.
Toda esta clasificación, tamizado y cálculo se realizan de
forma rápida, secreta e incesante con la ayuda de la tecnología de IA
y un estado de vigilancia que rastrea todos tus movimientos.
Esto se vuelve particularmente peligroso cuando el gobierno
toma medidas preventivas para combatir la delincuencia o los abusos, o lo que sea
que haya decidido prohibir en un momento dado.
Así, los agentes del gobierno -con la ayuda de ojos y oídos
automatizados, un creciente arsenal de software, hardware y técnicas de alta
tecnología, la propaganda gubernamental que insta a los estadounidenses a
convertirse en espías y soplones, así como las redes sociales y los software de
detección de comportamientos- tejen una pegajosa red de evaluaciones de
amenazas, advertencias de detección de comportamientos, "palabras"
marcadas e informes de actividades "sospechosas" destinadas a atrapar
a potenciales enemigos del Estado.
¿Es usted un veterano del ejército que sufre un trastorno de
estrés postraumático? ¿Has expresado opiniones controvertidas, desanimadas o
enojadas en las redes sociales? ¿Te relacionas con personas que tienen
antecedentes penales o que suscriben teorías conspirativas? ¿Te han visto
enfadado en la tienda de comestibles? ¿Tu aspecto es descuidado en público? ¿Tu
conducta es irregular? ¿Los anteriores ocupantes de su casa han tenido problemas
con la policía?
Todos estos detalles y otros más son utilizados por la
tecnología de IA para crear un perfil tuyo que tendrá un impacto en tu relación
con el gobierno.
Esto es el estado policial americano envuelto en un paquete
opresivo de precrimen y crimen prepensado, y el resultado final es la muerte de
las garantías procesales.
En resumen, el debido procedimiento se diseñó como un
baluarte contra los abusos del gobierno. Las garantías procesales prohíben al
gobierno privar a cualquier persona de "la vida, la libertad y la
propiedad" sin garantizar primero que los derechos de la persona han sido
reconocidos y respetados y que se le ha dado la oportunidad de conocer los
cargos que se le imputan y de defenderse contra los mismos.
Con el advenimiento de los programas
policiales predictivos de IA financiados por el gobierno,
que vigilan y marcan a una persona como una amenaza potencial que debe ser
investigada y tratada como peligrosa, no puede haber ninguna garantía de
procedimiento debido: ya te han convertido en sospechoso.
Para liberarte de las consecuencias de esa evaluación de la
amenaza, la responsabilidad de demostrar tu inocencia recae sobre ti.
¿Ves el problema?
En el pasado, cada uno tenía derecho a la presunción de
inocencia hasta que se demostrara su culpabilidad, y la carga de la prueba
correspondía a los acusadores. Desde entonces, esta presunción de inocencia ha
sido anulada por un estado de vigilancia que nos convierte a todos en
sospechosos y una criminalización excesiva que nos hace a todos potencialmente
culpables de una u otra infracción.
Si se combina la tecnología de IA predictiva con la
vigilancia y la sobrecriminalización, añádase una policía militarizada que
irrumpe en las puertas en mitad de la noche para cumplir una orden judicial
rutinaria, y tendrás suerte de salir con vida.
Pero atención: una vez que has sido detectado por una cámara
de vigilancia, marcado por un programa de detección predictiva de IA, y
colocado en una lista de vigilancia del gobierno -ya sea una lista de
vigilancia de negligencia infantil, una lista de vigilancia de salud mental,
una lista de vigilancia de disidentes, una lista de vigilancia de terroristas,
o una lista de vigilancia de armas con bandera roja- no hay manera evidente de
salir de ella, tanto si necesitas estar en ella como si no.
Te seguirán allá donde vayas, te señalarán como una amenaza
potencial y te tratarán en consecuencia.
Si aún no tienes miedo, deberías tenerlo.
Hemos hecho que sea demasiado fácil para el gobierno
identificar, etiquetar, apuntar, desescalar y detener a cualquier persona que
consideren una amenaza potencial por una variedad de razones que van desde la
enfermedad mental a tener un fondo militar desafiante de su autoridad a
simplemente estar en la lista de personas no gratas del gobierno.
No hay comentarios:
Publicar un comentario