Póñase-se connosco

China

Vixilancia biométrica masiva: un novo estudo advirte da vixilancia chinesa
métodos en Europa

COMPARTIR:

publicado

on

Utilizamos o teu rexistro para proporcionar contido do xeito que consentiches e mellorar a nosa comprensión. Podes cancelar a subscrición en calquera momento.

Mañá, 4 de febreiro, o Grupo Verdes/Alianza Libre Europea no Parlamento Europeo presentará un novo estudo sobre o impacto da vixilancia biométrica masiva, como o software de recoñecemento facial, nos dereitos humanos en Europa. Citando casos alarmantes de Francia, Reino Unido e Romanía, o estudo mostra claramente os riscos e perigos destas tecnoloxías.

É o primeiro estudo que analiza de xeito exhaustivo o impacto do software de recoñecemento facial e do comportamento nos dereitos humanos nas democracias liberais desde unha perspectiva de política democrática, pintando un panorama distópico. Antes da presentación pública de mañá, xa estamos facilitando aos correspondentes a análise completa [1] así como un resumo [2] hoxe.

Tamén hoxe abriranse os Xogos Olímpicos de inverno en Pequín, China, nun contexto de graves problemas de dereitos humanos. Non obstante, de cara aos próximos Xogos Olímpicos de París de 2024, os organizadores en Europa tamén están a estudar a posibilidade de aumentar a vixilancia biométrica masiva nos eventos deportivos. Ao facelo, os políticos aceptarían deliberadamente a perda da privacidade, a limitación da liberdade de expresión e a división da sociedade e a discriminación.

Patrick Breyer, eurodeputado pirata e líder da campaña do seu grupo parlamentario para a prohibición da vixilancia biométrica masiva, dixo: "Francia, que actualmente ocupa a Presidencia da UE e é o país anfitrión dos Xogos Olímpicos de 2024, é pioneira nesta tecnoloxía de vixilancia en Europa. Existe un perigo real de que a vixilancia biométrica masiva se estableza en Europa a través dos Xogos Olímpicos. Polo tanto, o noso estudo é perfectamente axeitado para demostrar errónea a imaxe de precisión que ten esta tecnoloxía e contrarrestar a súa progresiva normalización. Necesitamos con urxencia a prohibición destes erros. -tecnoloxías de vixilancia propensas se non queremos acabar cunha UE ao estilo chinés. Con taxas de erro de ata o 99 por cento, a tecnoloxía de vixilancia facial ineficaz non ten nada que ver coas buscas selectivas. O mesmo ocorre coa vixilancia biométrica do comportamento e así- chamado "detectores de vídeo de mentiras".

Fondo

O uso de tecnoloxías de vixilancia biométrica é obxecto de intenso debate dentro da UE. Mentres que o Parlamento da UE pediu a prohibición desta tecnoloxía en outubro de 2021 [3], a Comisión da UE así como as voces conservadoras están a favor del. Campañas da sociedade civil como a iniciativa cidadá 'Reclaim Your Face', opóñense ao uso de software de recoñecemento facial e de comportamento.[4]
[1] http://extranet.greens-efa-service.eu/public/media/file/1/7487
[2] https://www.patrick-breyer.de/wp-content/uploads/2022/02/20220203_Overview_HR_Impact_BMS_Study.pdf
[3] https://www.patrick-breyer.de/en/european-parliament-votes-for-ban-on-biometric-mass-surveillance/
[4] https://reclaimyourface.eu/

propaganda

Comparte este artigo:

EU Reporter publica artigos de diversas fontes externas que expresan unha ampla gama de puntos de vista. As posicións adoptadas nestes artigos non son necesariamente as de EU Reporter.

Trending