Póñase-se connosco

A tecnoloxía informática

OASI, o primeiro motor de busca en atopar os algoritmos que os gobernos e as empresas usan nos cidadáns

COMPARTIR:

publicado

on

Utilizamos o teu rexistro para proporcionar contido do xeito que consentiches e mellorar a nosa comprensión. Podes cancelar a subscrición en calquera momento.

  • Creado pola Fundación Eticas, o Observatorio de Algoritmos con Impacto Social, OASI, recolle información de decenas de algoritmos utilizados por administracións públicas e empresas de todo o mundo para coñecer máis sobre o seu impacto social.
  • O obxectivo é dar acceso público á información tanto dos gobernos como dos algoritmos das empresas e saber quen as usa, quen as desenvolve, que ameazas representan e se foron auditadas, entre outras características.
  • O sesgo e discriminación do algoritmo adoita producirse en función da idade, o xénero, a raza ou a discapacidade, entre outros valores, pero debido á falta xeral de transparencia, aínda non é posible coñecer todas as súas consecuencias nos grupos afectados.

A Fundación Eticas, unha organización sen ánimo de lucro que promove o uso responsable de algoritmos e sistemas de intelixencia artificial (IA), creou o Observatorio de Algoritmos de Impacto Social (OASI). Este observatorio introduce un motor de busca para coñecer máis sobre as ferramentas que toman importantes decisións automatizadas en cidadáns, consumidores e usuarios de todo o mundo.

Actualmente, tanto as empresas como as administracións públicas automatizan as decisións grazas aos algoritmos. Non obstante, o seu desenvolvemento e posta en servizo non segue os controis de calidade externos, nin é tan transparente como debería, o que deixa á poboación desprotexida. Con este motor de busca, calquera pode obter máis información sobre estes algoritmos: quen os desenvolveu, quen os usa, o seu ámbito de aplicación, se foron auditados, os seus obxectivos ou o seu impacto social e as ameazas que representan.

No momento, OASI recolle 57 algoritmos, pero espera alcanzar os 100 nos meses seguintes. Entre elas, xa están sendo aplicadas 24 en Estados Unidos polo goberno e as empresas de Big Tech. Por exemplo, ShotSpotter, unha ferramenta de algoritmo despregada polo departamento de policía de Oakland para loitar e reducir a violencia con armas a través de micrófonos de control de son, e un algoritmo para predicir o abuso e abandono dos menores empregado polo condado de Allegheny, Pensilvania. Outro exemplo dunha empresa é Rekognition, o sistema de recoñecemento facial de Amazon, que foi auditado polo MIT Media Lab a comezos de 2019 e que atopou un rendemento substancialmente peor ao identificar o xénero dun individuo se era feminino ou de pel máis escura.

A discriminación máis común é por razón de idade, sexo, raza ou discapacidade, producido sen querer por desenvolvedores que carecen de habilidades socioeconómicas para comprender o impacto desta tecnoloxía. Neste sentido, estes enxeñeiros deseñan os algoritmos baseados só en habilidades técnicas e, dado que non hai controis externos e parece que funciona como se esperaba, o algoritmo segue aprendendo a partir de datos deficientes.

Dada a falta de transparencia sobre o funcionamento dalgúns destes algoritmos, a Fundación Eticas, ademais do lanzamento de OASI, está a desenvolver un proxecto de auditorías externas. O primeiro é VioGén, o algoritmo empregado polo Ministerio do Interior español para asignar risco ás mulleres que buscan protección despois de sufrir casos de violencia doméstica. Eticas realizará unha auditoría externa a través de datos administrativos e de enxeñería inversa, entrevistas, informes ou scripts de deseño, para recompilar resultados a escala. Todo isto co obxectivo de detectar oportunidades de mellora na protección destas mulleres.

"A pesar da existencia de métodos algorítmicos de control e auditoría para garantir que a tecnoloxía respecta a normativa e os dereitos fundamentais vixentes, a Administración e moitas empresas seguen facendo oídos xordos ás peticións de transparencia dos cidadáns e das institucións", declarou Gemma Galdon, fundadora da Fundación Eticas. . “Ademais de OASI, despois de varios anos nos que desenvolvemos máis dunha ducia de auditorías para empresas como Alpha Telefónica, Nacións Unidas, Koa Health ou o Banco Interamericano de Desenvolvemento, tamén publicamos unha Guía para a auditoría algorítmica. que calquera pode realizalos. O obxectivo sempre é concienciar, proporcionar transparencia e restaurar a confianza na tecnoloxía, que por si mesma non ten por que ser prexudicial ".

Neste sentido, os algoritmos que se adestran con técnicas de aprendizaxe automática empregando unha gran cantidade de datos históricos para "ensinarlles" a escoller en función de decisións pasadas. Normalmente estes datos non son representativos da realidade socioeconómica e cultural sobre a que se aplican, pero en moitas ocasións reflicten unha situación inxusta que non se pretende perpetuar. Deste xeito, o algoritmo estaría tomando tecnicamente decisións "correctas" segundo a súa formación, aínda que a realidade é que as súas recomendacións ou predicións son sesgadas ou discriminadas.

propaganda

Sobre a Fundación Eticas

A Fundación Eticas traballa para traducir en especificacións técnicas os principios que guían á sociedade, como a igualdade de oportunidades, a transparencia e a non discriminación que están nas tecnoloxías que toman decisións automatizadas sobre as nosas vidas. Busca un equilibrio entre os valores sociais cambiantes, as posibilidades técnicas dos últimos avances e o marco legal. Para iso, audita algoritmos, verifica que as garantías legais se aplican ao mundo dixital, especialmente á intelixencia artificial e realiza un intenso traballo para sensibilizar e difundir a necesidade dunha tecnoloxía responsable e de calidade.

Comparte este artigo:

EU Reporter publica artigos de diversas fontes externas que expresan unha ampla gama de puntos de vista. As posicións adoptadas nestes artigos non son necesariamente as de EU Reporter.

Trending