16.5.22

Para seguirte allá donde vayas, señalarte como una amenaza y tratarte en consecuencia

 LA INTELIGENCIA ARTIFICIAL DEL GOBIERNO  

PONE UNA DIANA EN TU ESPALDA

Estados Unidos y Canadá, dirigidos por los liberales sometidos al Foro Económico Mundial, se acercan a la implantación del crédito social al estilo chino y a la tecnología de IA predictiva, que supone para el gobierno una autoridad central de nivel soviético y pone una diana en las espaldas de los ciudadanos.

En poco tiempo, todos los ciudadanos y hogares estadounidenses serán marcados y se les asignará una puntuación de amenaza.

Sin haber cometido nunca un delito a sabiendas ni haber sido condenado, usted y sus conciudadanos probablemente han sido evaluados por comportamientos que el gobierno podría considerar tortuosos, peligrosos o preocupantes; se le ha asignado una puntuación de amenaza  basada en sus asociaciones, actividades y puntos de vista; y ha sido catalogado en una base de datos gubernamental basada en la forma en que la policía y otros organismos gubernamentales deberían abordarle en función de su nivel particular de amenaza.

Es sólo cuestión de tiempo antes de que te encuentres acusado injustamente, investigado y confrontado a la policía en base a un algoritmo de datos o una evaluación de riesgos desarrollada por un programa informático dirigido por la inteligencia artificial.

Tomemos el caso de Michael Williams, que pasó casi un año en prisión por un delito que no cometió. Williams conducía cuando un coche que pasaba por allí disparó contra su vehículo, matando a su pasajero de 25 años, Safarian Herring, que había hecho autostop.

A pesar del hecho de que Williams no tenía ningún móvil, de que no había ningún testigo ocular del tiroteo, de que no se encontró ningún arma en el coche y de que el propio Williams llevó a Herring al hospital, la policía acusó al hombre de 65 años de asesinato en primer grado basándose en ShotSpotter, un programa de detección de disparos que había captado una fuerte detonación en su red de micrófonos de vigilancia y trianguló el ruido para que coincidiera con un vídeo de seguridad silencioso que mostraba el coche de Williams atravesando una intersección. El caso fue finalmente desestimado por falta de pruebas.

Aunque los programas de detección de disparos como ShotSpotter están ganando popularidad entre las fuerzas del orden, los fiscales y los tribunales, están plagados de fallos, ya que confunden "los contenedores de basura, los camiones, las motos, los helicópteros, los fuegos artificiales, la construcción, la recogida de basura y las campanas de las iglesias con disparos".

Tal y como constató una investigación de Associated Press, "el sistema puede pasar por alto disparos en directo justo debajo de sus micrófonos, o clasificar erróneamente los sonidos de los fuegos artificiales o de los coches que hacen ruido como los disparos".

En una comunidad, ShotSpotter funcionó menos del 50% de las veces.

Luego está el elemento humano de la corrupción que se suma invariablemente a la mezcla. En algunos casos, "los empleados han alterado los sonidos detectados por el sistema para decir que eran disparos". Los informes forenses preparados por los empleados de ShotSpotter también "se han utilizado en los tribunales para afirmar falsamente que un acusado disparó contra la policía, o para proporcionar un recuento dudoso del número de disparos supuestamente efectuados por los acusados".

La misma empresa propietaria de ShotSpotter tiene también un programa de policía predictiva que tiene como objetivo utilizar los datos de detección de disparos para "predecir" los delitos antes de que se produzcan. Los presidentes Biden y Trump han impulsado un mayor uso de estos programas predictivos para combatir la violencia armada en las comunidades, a pesar de que no se ha comprobado que reduzcan la violencia armada o aumenten la seguridad de las comunidades.

La justificación que tiene esta fusión de vigilancia generalizada, de tecnologías de predicción del comportamiento, de explotación de datos, de la tecnología precognitiva y de los programas de denuncia del vecindario y de las familias se supone que permite al gobierno tomar medidas preventivas para combatir la delincuencia (o cualquier cosa que el gobierno haya decidido prohibir en un momento dado).

Se trata de la precriminalidad, sacada del reino de las películas de ciencia ficción distópicas como Minority Report, que pretende prevenir los crímenes antes de que se produzcan, pero en realidad no es más que otra forma de poner a los ciudadanos en el punto de mira del gobierno para confinar la nación.

Incluso los servicios sociales intervienen con algoritmos informáticos que intentan predecir qué hogares pueden ser culpables de abuso y negligencia infantil.

Basta con que un robot de IA señale un hogar por posible negligencia para que se investigue a una familia, se la declare culpable y se coloque a los niños en régimen de acogida.

Hay que tener en cuenta que la negligencia potencial puede ir desde un alojamiento inadecuado hasta una higiene deficiente, pero es diferente de los abusos físicos o sexuales.

Según un informe de investigación de Associated Press, una vez que los incidentes de negligencia potencial se comunican a una línea telefónica de protección infantil, los informes son sometidos a un proceso de selección que recopila "datos personales recogidos de los registros de nacimiento Medicaid, de toxicomanía, de salud mental, de prisión y de libertad condicional, entre otros conjuntos de datos gubernamentales".

El algoritmo calcula después el riesgo potencial del niño y le atribuye una puntuación de 1 a 20 para predecir el riesgo de que el niño sea colocado en un hogar de acogida en los dos años siguientes a la investigación. "Cuanto mayor sea la cifra, mayor será el riesgo. Los trabajadores sociales utilizan entonces su poder discrecional para decidir si investigan o no".

Otros modelos de predicción utilizados en todo el país se esfuerzan por "evaluar el riesgo de muerte y lesiones graves de un niño, determinar si debe ser colocado en un centro de acogida y, en caso afirmativo, dónde".

Por increíble que parezca, no hay forma de que una familia sepa si la tecnología predictiva de la IA es la responsable del hecho de que se la haya señalado, investigado y separado de sus hijos. Como señala AP, "las familias y sus abogados nunca podrán estar seguros del papel que desempeñó el algoritmo en sus vidas, porque no están autorizados a conocer las puntuaciones.

Una cosa que sí sabemos, sin embargo, es que el sistema apunta de manera desproporcionada a las familias negras y pobres con el fin de realizar una intervención, una interrupción y un eventual desplazamiento, porque la mayoría de los datos utilizados se extraen de las comunidades de bajos ingresos y de las minorías.

La tecnología también está lejos de ser infalible. Sólo en un condado un problema técnico hizo que los trabajadores sociales obtuvieran puntuaciones incorrectas,  subestimando o sobreestimando el riesgo de un niño.

Sin embargo, falible o no, el programa de pruebas predictivas de IA es ampliamente utilizado en todo el país por los organismos gubernamentales para controlar y seleccionar a las familias para ser investigadas. Las consecuencias de esta vigilancia excesiva, según Aysha Schomburg, Comisionada Adjunta de la Oficina de la Infancia de Estados Unidos, son las "separaciones familiares masivas".

El impacto de este tipo de herramientas predictivas de IA se hace sentir en casi todos los ámbitos de la vida.

Con el pretexto de ayudar a las agencias gubernamentales sobrecargadas a trabajar más eficientemente, las tecnologías de IA predictivas y de vigilancia se están utilizando para clasificar, segregar e informar sobre la población sin tener en cuenta los derechos de privacidad o garantías procesales.

Toda esta clasificación, tamizado y cálculo se realizan de forma rápida, secreta e incesante con la ayuda de la tecnología de IA y un estado de vigilancia que rastrea todos tus movimientos.

Esto se vuelve particularmente peligroso cuando el gobierno toma medidas preventivas para combatir la delincuencia o los abusos, o lo que sea que haya decidido prohibir en un momento dado.

Así, los agentes del gobierno -con la ayuda de ojos y oídos automatizados, un creciente arsenal de software, hardware y técnicas de alta tecnología, la propaganda gubernamental que insta a los estadounidenses a convertirse en espías y soplones, así como las redes sociales y los software de detección de comportamientos- tejen una pegajosa red de evaluaciones de amenazas, advertencias de detección de comportamientos, "palabras" marcadas e informes de actividades "sospechosas" destinadas a atrapar a potenciales enemigos del Estado.

¿Es usted un veterano del ejército que sufre un trastorno de estrés postraumático? ¿Has expresado opiniones controvertidas, desanimadas o enojadas en las redes sociales? ¿Te relacionas con personas que tienen antecedentes penales o que suscriben teorías conspirativas? ¿Te han visto enfadado en la tienda de comestibles? ¿Tu aspecto es descuidado en público? ¿Tu conducta es irregular? ¿Los anteriores ocupantes de su casa han tenido problemas con la policía?

Todos estos detalles y otros más son utilizados por la tecnología de IA para crear un perfil tuyo que tendrá un impacto en tu relación con el gobierno.

Esto es el estado policial americano envuelto en un paquete opresivo de precrimen y crimen prepensado, y el resultado final es la muerte de las garantías procesales.

En resumen, el debido procedimiento se diseñó como un baluarte contra los abusos del gobierno. Las garantías procesales prohíben al gobierno privar a cualquier persona de "la vida, la libertad y la propiedad" sin garantizar primero que los derechos de la persona han sido reconocidos y respetados y que se le ha dado la oportunidad de conocer los cargos que se le imputan y de defenderse contra los mismos.

Con el advenimiento de los programas policiales predictivos de IA financiados por el gobierno,  que vigilan y marcan a una persona como una amenaza potencial que debe ser investigada y tratada como peligrosa, no puede haber ninguna garantía de procedimiento debido: ya te han convertido en sospechoso.

Para liberarte de las consecuencias de esa evaluación de la amenaza, la responsabilidad de demostrar tu inocencia recae sobre ti.

¿Ves el problema?

En el pasado, cada uno tenía derecho a la presunción de inocencia hasta que se demostrara su culpabilidad, y la carga de la prueba correspondía a los acusadores. Desde entonces, esta presunción de inocencia ha sido anulada por un estado de vigilancia que nos convierte a todos en sospechosos y una criminalización excesiva que nos hace a todos potencialmente culpables de una u otra infracción.

Si se combina la tecnología de IA predictiva con la vigilancia y la sobrecriminalización, añádase una policía militarizada que irrumpe en las puertas en mitad de la noche para cumplir una orden judicial rutinaria, y tendrás suerte de salir con vida.

Pero atención: una vez que has sido detectado por una cámara de vigilancia, marcado por un programa de detección predictiva de IA, y colocado en una lista de vigilancia del gobierno -ya sea una lista de vigilancia de negligencia infantil, una lista de vigilancia de salud mental, una lista de vigilancia de disidentes, una lista de vigilancia de terroristas, o una lista de vigilancia de armas con bandera roja- no hay manera evidente de salir de ella, tanto si necesitas estar en ella como si no.

Te seguirán allá donde vayas, te señalarán como una amenaza potencial y te tratarán en consecuencia.

Si aún no tienes miedo, deberías tenerlo.

Hemos hecho que sea demasiado fácil para el gobierno identificar, etiquetar, apuntar, desescalar y detener a cualquier persona que consideren una amenaza potencial por una variedad de razones que van desde la enfermedad mental a tener un fondo militar desafiante de su autoridad a simplemente estar en la lista de personas no gratas del gobierno.

anguillesousroche

http://www.verdadypaciencia.com/2022/05/has-sido-detectado-como-una-amenaza-la-tecnologia-de-ia-del-gobierno-te-pone-una-diana-en-tu-espalda.html  

No hay comentarios:

Publicar un comentario