***Bello Sábado para todxs.
Suele resultar cansadora y repugnante la consabida monserga de toda urraca y/o carcamán que piden mano dura y te dicen que de nada debés preocuparte porque si sos honesto no hay nada que temer, pues...sí que lo hay.
Cada vez más los estados y las empresas privadas cruzan el límite de los derechos a la intimidad que tenemos los ciudadanos.
Los métodos de control social se van modernizando con nuevas herramientas que...uno ya no sabe adónde está el límite.
Pero a pesar de ésta tecnología que veremos en los informes, éstas tienen un porcentaje de fallo o error.
Lo que puede ser una palabra; *error* o un porcentaje*%*, es nada más y nada menos que arruinarte la vida.
No olvido un día de compras en el centro de la ciudad, de repente un hombre comienza a gritar y a señalar con el dedo a un jóven;
*¡¡¡Policía, policía ese, ese que está ahí me robó la billetera, aprésenlo!!!*
De inmediato tres agentes le cayeron encima al chico que pedía a gritos que lo soltaran, que era inocente, pero los poli, muy rápidos y gustosos de meter trompadas, le entraron a dar como en bolsa..., trompadas, patadas, torsiones de brazos y piernas.
En el lenguaje del barrio; *lo hicieron mierda*.
Después, pidieron al dueño del local que revisara las cámaras, y se pudo ver que en realidad el ladrón...había sido el que señaló al jóven...pero ya estaba muy lejos.
Por eso, si bien la cámara absolvió al muchacho, la astucia humana del ladrón y el ;*por las dudas* de la policía y su tremebunda golpiza al chico, a éste de todo eso no lo salvó nadie.
Límites, usos, y abusos de la tecnología;
-Entusiastas de los deportes que vayáis a Tokio para los Juegos Olímpicos de 2020, tened cuidado:
Japón quiere instalar cientos de miles de cámaras de reconocimiento facial para identificar a todo el mundo presente.
El software, usado inicialmente cuando Tokio albergó los juegos paraolímpicos en 2018, tiene la intención de eliminar, en tiempo real, a la gente sospechosa de ser terroristas potenciales y a cualquiera con antecedentes delictivos o una situación de inmigración cuestionable.
Japón no está solo en la utilización de esta tecnología.
Los niños de los colegios suecos son fotografiados para verificar la asistencia.
China, por su parte, ya tiene 176 millones de cámaras de vigilancia facial y espera haber instalado un total de 450 millones para el próximo año.
Lo que es más, muchas tiendas en EE UU dependen de las cámaras de reconocimiento facial para identificar =y a veces prohibir la entrada= a las personas condenadas por hurto.
Los supermercados que quieren verificar que los consumidores tienen la edad suficiente para comprar cigarrillos y cerveza también las utilizan.
Sí, suena como una reencarnación del Gran Hermano del siglo XXI, pero el software de reconocimiento facial ha estado en desarrollo desde los 60 y ahora es omnipresente. La tecnología cartografía los rasgos faciales de un individuo usando algoritmos matemáticos.
Una vez almacenadas, estas imágenes, llamadas *huellas faciales*, pueden utilizarse para verificar la identidad de una persona.
Se puede tomar las fotos utilizando drones así como cámaras más convencionales, desde una distancia de alrededor de 15 metros, lo que recibe críticas por poder tener un impacto aterrador en las protestas, asambleas y discursos públicos, ya que la gente que es grabada normalmente no tiene ni idea de que esto está ocurriendo.
El material también puede dar lugar a identificación errónea y, peor, falsas detenciones.
De hecho, los oponentes de la biométrica denuncian que a menudo se identifica incorrectamente a la gente de color.
Por ejemplo, un estudio que usaba el software Rekognition de Amazon llevó a que 28 congresistas de EE UU afroamericanos, incluido John Lewis =congresista de Georgia e histórico activista por los derechos civiles=, fueran confundidos erróneamente con sospechosos de delitos.
Su tasa de error es del 39%.
De igual forma, investigadores del Instituto de Tecnología de Massachusets y de la Universidad de Toronto descubrieron que las mujeres de piel oscura a menudo eran identificadas erróneamente como hombres.
LOS INTERESES EMPRESARIALES PREDOMINAN
Esto es un negocio, un gran negocio.
Tomemos FaceFirst, un líder en la vigilancia en el comercio.
La empresa afirma que puede analizar una cara sobre una base de datos de 25 millones de personas en menos de un segundo, una oportunidad para las tiendas deseosas de agarrar a los ladrones, que solo en 2016 les costaron casi 44.000 millones de euros.
Pero ¿dónde consiguieron fotos de 25 millones de personas?
Buena pregunta.
Una de las respuestas a esta pregunta proviene de EverAlbum.com, una empresa de Silicon Valley que ha vendido millones de fotos al Ejército de EE UU y a las agencias de seguridad de todo el país.
Las imágenes habían sido extraídas de gente confiada que había pagado a EverAlbum para crear álbumes de fotos para ellos, lo que se anunció como una forma de compartir y conmemorar momentos familiares valiosos.
Ninguno había dado su consentimiento a que se compartieran sus materiales.
No es sorprendente que el márketing de EverAlbum suene completamente bondadoso:
*Ever es una compañía dedicada a ayudarte a capturar y redescubrir los recuerdos de tu vida*, presume la web de la empresa.
*Ever automáticamente crea libros con tus recuerdos, disponiéndolos en bonitos formatos con diseño profesional.
Es muy fácil editar y hacer el pedido*.
Business Insider tenía tanto entusiasmo por la empresa que la calificó como una de las principales start-ups de 2016.
La empresa, de 49 trabajadores, tiene unos ingresos estimados anuales de 4,8 millones de euros.
También ha conseguido más de 25 millones de dos grandes inversores desde 2016.
Se ha informado de que otra empresa estadounidense, Vigilant Solutions, propiedad de Thomson Reuters, vendió millones de matrículas digitalizadas al Servicio de Inmigración y Control de Aduanas =sin permiso de los conductores cuyas matrículas estaban incluidas=, cobrando 5,4 millones de dólares en 2018.
En total, los informes indican que Vigilant tiene la capacidad de recopilar entre 150 y 200 millones matrículas digitalizadas al mes.
Lo que es aún más malicioso, el reconocimiento facial y táctil se ponen a la venta como características de seguridad por parte de algunos fabricantes de teléfonos móviles, que los ofrecen como opciones para desbloquear tu dispositivo =por ejemplo, el iPhone X se puede desbloquear mediante el reconocimiento facial=.
Mientras tanto, los anuncios que destacan la capacidad de reconocimiento facial para encontrar a un niño o persona mayor extraviado recurren a nuestras emociones, ya que nadie quiere que sus seres queridos se encuentren en riesgo.
Pero la promesa de que, con el toque de una pantalla o una foto o una cara, todos podemos vivir vidas de seguridad inviolable y absoluta viene con limitaciones que pueden comprometer nuestros derechos civiles y privacidad.
Estas preocupaciones han llevado a ciudades de todo EE UU a empezar a preguntar si la así llamada seguridad debería invalidar los derechos humanos y la esperanza de privacidad.
APROBANDO RESTRICCIONES LOCALES
Activistas californianos han mostrado el camino para desafiar la tecnología de reconocimiento facial.
Tracy Rosenberg es directora ejecutiva de la Media Alliance =Alianza por los Medios de Comunicación=, una organización que tiene como objetivo hacer que los medios sigan siendo accesibles y responsables.
También es miembro activa de Oakland Privacy =Privacidad en Oakland=, una coalición que hace seguimiento de las actividades de vigilancia en esa ciudad.
Rosenberg dijo a Truthout que los esfuerzos para restringir la vigilancia en el Área de la Bahía datan de 2013 y fueron una consecuencia de Occupy.
Los activistas, informa, se movilizaron cuando se enteraron de que el Departamento de Seguridad Nacional había financiado el Centro de Alerta de Dominio-DAC, una medida de seguridad que buscaba supervisar la actividad en el Puerto de Oakland pero que rápidamente ha aumentado su vigilancia mucho más allá del puerto.
*La comunidad se molestó bastante cuando descubrió lo amplia que era la vigilancia de nuestras comunidades y empezaron a organizarse*, dice Rosenberg.
*Para 2014, hicimos que la vigilancia volviera solo al puerto, pero para 2015, el DAC básicamente murió.
Tras esta victoria, decidimos que necesitábamos ser más proactivos y menos reactivos, y desarrollamos un protocolo basado en la transparencia para demandar el control de toda la tecnología de vigilancia*.
Al unirse los activistas, descubrieron que el tema era todavía más serio que lo que pensaban:
las empresas privadas, como Vigilant, estaban dando información a las fuerzas de seguridad.
Cinco años después, Aaron Peskin, miembro del Consejo de Supervisores de San Francisco, ayudó a llevar una medida Privacy First =La Privacidad Primero= a la votación de 2018, que buscaba incorporar los principios de la privacidad en la carta municipal.
Menos de un año después, introdujo la primera prohibición completa del país sobre el uso del software de reconocimiento facial por las fuerzas de orden público y otro personal municipal.
Lee Hepner, un auxiliar legislativo de Peskin, dice que su jefe empezó a promover la propuesta Privacy First después de que su oficina descubriera un tipo diferente de invasión de la privacidad.
*Descubrimos que después de que alguien desbloquea un patinete en la calle, la empresa puede conseguir el historial de crédito de esa persona y después compartir la información que revela con otras agencias.
Esto se hacía sin el conocimiento del usuario*, dice Hepner.
*Nadie sabía que cuando desbloqueaban un scooter, involuntariamente estaban dando su información a una multitud de empresas.
Nos mostró lo extenso que era el tema de la privacidad.
Teníamos que actuar*.
Privacy First fue aprobada con más de un 50% de los votos, informa Hepner.
San Francisco no está sola.
Para cuando la medida se convirtió en ley, otras ciudades de California, incluidas Berkeley, Oakland, Palo Alto y Santa Clara, así como Nashville, en Tennessee, Seattle, en Washington, y Cambridge, Lawrence y Somerville, en Massachusetts, habían aprobado la Ordenanza Detener la Vigilancia Secreta, una demanda de transparencia respecto a cómo y cuándo se puede usar tecnología y se pueden compartir datos.
*San Francisco lo hizo en mayo, pero es la única ciudad hasta la fecha que ha añadido una prohibición de que las agencias gubernamentales usen la tecnología de reconocimiento facial*, dice Hepner.
*Nuestra ley dice que el software de reconocimiento facial representa una línea que las agencias gubernamentales no pueden cruzar porque los perjuicios superan a los beneficios*.
Aunque no se restringe que los ciudadanos y negocios privados de San Francisco usen tecnología de reconocimiento facial, las más de 50 agencias de San Francisco gobernadas por la regulación tienen hasta septiembre de 2019 para notificar al Consejo de Supervisores municipal sobre la vigilancia que utilizan.
*Realmente no sabemos hasta qué punto se está utilizando la tecnología de vigilancia por parte de departamentos municipales*, dice Hepner.
*Por ejemplo, acabamos de descubrir que nuestro sistema de refugio para personas sin hogar usa biométrica de huellas dactilares.
Esto puede ser un freno para personas que entran en los refugios porque las personas con una orden de detención pendiente pueden tener miedo de las repercusiones si entran en un refugio*.
APROBANDO CONTROLES DE VIGILANCIA
La Fundación Frontera Electrónica-EFF, un grupo por los derechos digitales con 29 años de historia, señala que hay dos formas principales en que las comunidades otorgan protecciones ante la vigilancia a los vecinos:
la aprobación de Control Comunitario de la Vigilancia Policial-CCOPS, y de Ordenanzas de Regulación de Equipos de Vigilancia-SERO.
Ambos tienen la intención de frenar el seguimiento.
*En algunos lugares, las leyes estatales evitan que los ayuntamientos controlen a los departamentos de policía en ese Estado*, explica Nathan Sheard, organizador de apoyo de base de EFF.
*Pero en lugares donde se han aprobado CCOPS y SERO, las agencias de policía tienen que someter una política de uso a un consejo de supervisores o ayuntamientos*, añade.
A estas instituciones se les encarga entonces llevar a cabo un análisis de la vigilancia y evaluar su impacto, especialmente cuando se trata de poblaciones históricamente marginadas y ya con una alta presencia policial.
También deben dar a los miembros de la comunidad tiempo para revisar la propuesta y permitir el debate público.
Tras completarse estos pasos, el órgano de gobierno decide si las fuerzas de orden público pueden adquirir el equipo de vigilancia solicitado o seguir usando el que ya tienen.
Sheard dice que este proceso es una medida de transparencia clave, pero no soluciona todo el problema.
Incluso si la vigilancia y el impacto son iguales para todo el mundo =una perspectiva improbable=, los aspectos negativos de la vigilancia no desaparecerán.
*Las empresas que crean software de vigilancia están trabajando para abordar las disparidades raciales y de género que existen, pero incluso si tuviera una tasa de precisión del 100%, ¿querrían los progresistas apoyarlo?*, pregunta Sheard.
*Creo que la respuesta es no*.
VÍCTIMA DE IDENTIFICACIÓN ERRÓNEA DE APPLE DEMANDA A APPLE
Ousmane Bah, un estudiante de universidad del Bronx de 19 años, conoce de primera mano el trauma que la identificación errónea puede causar.
El año pasado, fue incorrectamente identificado como el hombre que robó numerosos lápices de Apple =instrumentos cuyo precio oscila entre 88 y 111 euros cada uno y que se usan con el iPad Pro= de tiendas de Connecticut, Massachusetts, Nueva Jersey y Nueva York.
Bah cree que él acabó bajo el radar de Apple después de que alguien usara su permiso de aprendizaje de conducción =que Bah dice que había perdido= como identificación después de ser atrapado por robo.
De alguna forma, el nombre Ousmane Bah se vinculó entonces a las imágenes fotográficas tomadas en las tiendas Apple del ladrón o, quizás, ladrones.
Aunque la mayoría de los cargos contra Bah fueron desechados cuando la policía determinó que las fotos de vigilancia eran de una persona completamente diferente, el abogado Subhan Tariq dice que Bah está demandando a Apple =una compañía que vale más que el 1% del PIB mundial= por valor de mil millones de dólares en daños ya que sigue sufriendo una ansiedad perjudicial como resultado del arresto.
*Se supone que los daños punitivos deben servir como disuasión*, dijo Tariq a Truthout.
*Se supone que deben impedir que el mismo tipo de conducta vuelva a ocurrir en el futuro*.
Apple ha presentado una moción para rechazar la demanda y una audiencia tuvo lugar en junio.
Mientras tanto, los activistas continúan movilizándose contra el reconocimiento facial y otra vigilancia biométrica.
Como la Unión Estadounidense por las Libertades Civiles dice en su página web;
*tienes derecho a esperar que tu vida no se convertirá en un libro abierto cuando no has hecho, y no eres sospechoso de hacer, nada malo*.
La siguiente es vieja, pero bien vale el caso citarla;
-Desde la pasada semana, los clientes de Caixabank pueden sacar dinero *por la cara*.
La entidad española ha sido pionera en establecer el sistema de reconocimiento facial para identificar a sus clientes en sus cajeros.
El requisito para poder utilizar el servicio es registrar digitalmente el resto en una oficina de Caixabank.
El sistema, fabricado por otra compañía española, Facephi, toma más de 15.000 puntos de referencia para impedir suplantaciones de identidad.
Los sistemas de seguridad biométricos saltan al sector de la banca después de asentarse en el segmento de los smartphones, aunque su seguridad aún está en duda.
El reconocimiento facial es un sistema muy utilizado por empresas, gobiernos y agentes de seguridad.
Según un estudio de Goode Intelligence, la apuesta de Caixabank en España es el inicio de un negocio bien visto por el sector bancario, ya que pronostica que en los próximos dos años cerca de 160 millones de dispositivos contarán con reconocimiento biométrico para la actividad bancaria.
Nadie olvida cuando profanaron la tumba del General Perón y le amputaron las manos, se las llevaron.
Al parecer, el tenebroso hecho tenía que ver con la presunción de los profanadores, de que el General tenía fortunas guardadas en una caja fuerte que sólo se podía abrir mediante un lector de geometría de las manos del General.
Después de ver los números de la nota anterior...*160 millones de dispositivos contarán con reconocimiento biométrico para la actividad bancaria*, yo me pregunto si los ladrones...no comenzarán a cortar cabezas...y no de muertos...sino de vivos...
Otra que es vieja;
-La política de Seguridad de Cambiemos avanza con medidas de control social en los diferentes distritos que gobierna.
Mientras que en la provincia de Buenos Aires creó un registro para los asistentes a eventos masivos, en la CABA implementará un sistema de reconocimiento facial con inteligencia artificial-IA que, según Diego Santilli, vicejefe de Gobierno a cargo el Ministerio de Seguridad, anunció que *se pondrá en marcha entre el 22 y 23 de abril*.
*Es sólo para aquellas personas que están siendo buscadas por la Justicia*, aseguró Santilli, pero no aclaró que todas las personas serán escaneadas por la miríada de cámaras de seguridad repartidas a lo largo y ancho de las calles ciudad.
*El software adquirido coteja el rostro con esa base de datos de personas buscadas por la justicia.
Si hay coincidencia salta un alerta en el monitor del operador del centro de monitoreo y se pone en acción el despliegue policial*, puntualizó el funcionario porteño.
Todos los rostros serán contrastados , algoritmo mediante, con esa base de datos.
Especialistas alertaron sobre el peligro de implementar este sistema tipo Gran Hermano y agregaron la altísima falibilidad de esta tecnología.
Además, no consideran que China sea un ejemplo a seguir dadas las características de su sistema político.
Un sistema de reconocimiento similar se utilizó en Inglaterra para un partido de fútbol y dio un 92% de falsos positivos, especificó un especialista.
Cómo se actuará en estos casos es una aclaración que el contador Santilli no creyó necesario explicar.
Los funcionarios de Cambiemos en los diferentes distritos demuestran una curiosa y peligrosa inclinación por usar tecnología en contextos en los que hay más reservas que seguridades, como el caso del voto electrónico y ahora en materia de Seguridad.
La fuerte tendencia a privatizar servicios, es decir, quién controlará y tendrá acceso al sistema, es otro de las graves preocupaciones de organizaciones de Derechos Humanos respecto de iniciativas como el sistema de reconocimiento facial.
Y al final...lo hicieron...;
-*Todos los días hacemos correr por un sistema de cámaras la base de prófugos.
En Buenos Aires hay 7.000 cámaras de seguridad en vía pública y principales estaciones y nodos de la red de subtes y 300 operan con esta licencia, que van a ser rotativas. Hoy por ejemplo en una hora y media, se detectaron 11 personas a través de las cámaras y pudimos detener a 7 que ya fueron puestos a disposición de la Justicia.
Porque claro, una vez que la cámara reconoce a alguien, se manda una alerta y después hay todo un operativo para detenerlo*, explicó Santilli.
Muy peligroso todo ésto, dicen en la jerga judicial que *es preferible un culpable suelto que un inocente preso*, algo así pasó en ésta ciudad hace mucho tiempo;
-Un sector de Rosario fue escenario de violaciones a estudiantes universitarias.
El agresor entraba a sus departamentos, o las engañaba pidiéndoles papel y lápiz para dejar notas en viviendas vecinas.
Antes de violarlas, se cubría la cara con una remera y después robaba objetos de poco valor.
El tribunal que condenó a Riboldi se basó en la denuncia del padre de una ex novia del joven que vio el identikit y lo encontró muy parecido.
Las pruebas no eran conluyentes a pesar de que el acusado clamaba por su inocencia.
La fiscal pidió 12 años, y la sentencia se fijó en siete.
Más de un año después de estar en prisión, la policía encontró a un joven que atacó sexualmente a una joven con la modalidad anterior, y éste confesó toda la verdad, admitiendo que el convicto no era el culpable de los delitos que se le atribuían.
La Justicia ordenó a la provincia de Santa Fe que le pague una indemnización de $76.000 a Riboldi por los daños ocasionados por su encarcelamiento injusto durante más de un año, aunque Riboldi apelará esa decisión por considerarla insuficiente.
No more comments..
Fuerte abrazo
Gilgamesh***
Fuentes;
-elsaltodiario
-hoy
-tiempoar
-filo
-infobae
sábado, 13 de julio de 2019
* Facializados *
Publicado por
Gilgamesh
en
14:25
Enviar por correo electrónico
Escribe un blog
Compartir en X
Compartir con Facebook
Compartir en Pinterest
Etiquetas:
ARGENTINA
,
DETRAS DE ESCENA
,
ESPAÑA
,
ESTADOS UNIDOS
,
INGENIERÍA SOCIAL
,
JUSTICIA
,
TECNOLOGÍA
Suscribirse a:
Enviar comentarios
(
Atom
)
6 comentarios :
Plus One.
Con unas gafas de sol, se le pone un palito a la rueda.....
Gracias.
Fuerte abrazo cumpa.
Habrá que salir con sombrero y gafas dejarse barba larga y pelo largo (los que aun tienen) jajaja
Buen día
Amigos no den ideas jeje capaz que luego meten una ley que todos debemos de traer un corte de cabello tipo militar jeje, obvio tendrían mucha resistencia jeje.
Abrazos
LEHAIM; gracias amigo, jeje, abrazo.
Alquimista; jeje, la barba puede ser pero el pelo..mmm, abrazo.
Mario; jaja, es cierto amigo, abrazo.
jajaaj
Como dice el dicho! el tiempo pasa, se pierden los pelos pero no la maña!
jajaa fuera de joda, violadores y pedofilos en las altas esferas de poder y lo mismo en la base de la piramide! como se nota que este es un sistema que esta diseñado por degenerados, autistas del poder y vacios de alma!
Psy Rod; así parece ser amigo, aunque los únicos que suelen ir en cana son los depravados de la base, los de la cúspide..casi nunca, jeje. Abrazo, gracias amigo.
Publicar un comentario