Póñase-se connosco

intelixencia artificial

Acto de intelixencia artificial: o Consello e o Parlamento chegan a un acordo sobre as primeiras regras para a IA no mundo

COMPARTIR:

publicado

on

Tras tres días de "maratón" de conversacións, a presidencia do Consello e os negociadores do Parlamento Europeo chegaron a un acordo provisional sobre a proposta de normas harmonizadas sobre intelixencia artificial (IA), a denominada lei de intelixencia artificial. O proxecto de regulamento ten como obxectivo garantir que os sistemas de IA colocados no mercado europeo e utilizados na UE sexan seguros e respecten os dereitos fundamentais e os valores da UE. Esta proposta histórica tamén ten como obxectivo estimular o investimento e a innovación en IA en Europa.

Carme Artigas, secretaria de Estado de dixitalización e intelixencia artificial

Este é un logro histórico e un gran fito para o futuro! O acordo de hoxe aborda con eficacia un desafío global nun entorno tecnolóxico en rápida evolución nun ámbito clave para o futuro das nosas sociedades e economías. E neste esforzo conseguimos manter un equilibrio extremadamente delicado: impulsar a innovación e a captación da intelixencia artificial en toda Europa respectando plenamente os dereitos fundamentais dos nosos cidadáns. Carme Artigas, secretaria de Estado de dixitalización e intelixencia artificial.

O acto AI é a buque almirante iniciativa lexislativa con potencial para fomentar o desenvolvemento e a adopción dunha IA segura e fiable no mercado único da UE por parte dos axentes públicos e privados. A idea principal é regular a IA en función da capacidade desta última para causar dano á sociedade tras a "baseado no risco" enfoque: canto maior sexa o risco, máis estritas serán as regras. Como primeira proposta lexislativa deste tipo no mundo, pode establecer a estándar global para a regulación da IA ​​noutras xurisdicións, tal e como fixo o GDPR, promovendo así o enfoque europeo da regulación tecnolóxica no escenario mundial.

Os principais elementos do acordo provisional

En comparación coa proposta inicial da Comisión, os principais elementos novos do acordo provisional pódense resumir do seguinte xeito:

  • regras sobre modelos de IA de propósito xeral de alto impacto que poden causar risco sistémico no futuro, así como de alto risco Sistemas de IA
  • un sistema revisado de Goberno con algúns poderes de execución a nivel da UE
  • ampliación da lista de prohibicións pero con posibilidade de uso identificación biométrica remota polas autoridades policiais nos espazos públicos, con suxeición a salvagardas
  • unha mellor protección dos dereitos a través da obriga dos despregadores de sistemas de IA de alto risco de realizar a avaliación do impacto dos dereitos fundamentais antes de poñer en uso un sistema de IA.

En termos máis concretos, o acordo provisional recolle os seguintes aspectos:

Definicións e alcance

Para garantir que o definición dun sistema de IA proporciona criterios suficientemente claros para distinguir a IA dos sistemas de software máis simples, o acordo de compromiso aliña a definición co enfoque proposto pola OCDE.

O acordo provisional tamén aclara que o regulamento non se aplica a ámbitos fóra do ámbito da lexislación comunitaria e non debe, en ningún caso, afectar ás competencias dos estados membros en materia. seguridade nacional ou calquera entidade que teña encomendadas tarefas neste ámbito. Ademais, a lei de IA non se aplicará aos sistemas para os que se utilicen exclusivamente militar or defensa fins. Do mesmo xeito, o acordo establece que o regulamento non se aplicaría aos sistemas de IA utilizados co único fin de investigación e innovación, ou para persoas que usan a IA por motivos non profesionais.

propaganda

Clasificación dos sistemas de IA como prácticas de IA de alto risco e prohibidas

O acordo de compromiso prevé a capa horizontal de protección, incluída unha clasificación de alto risco, para garantir que non se capten os sistemas de IA que non poidan causar violacións graves dos dereitos fundamentais ou outros riscos significativos. Só se presentan sistemas de IA risco limitado estaría suxeita a moita luz obrigas de transparencia, por exemplo, revelando que o contido foi xerado por intelixencia artificial para que os usuarios poidan tomar decisións informadas sobre o seu uso posterior.

Unha ampla gama de de alto risco Os sistemas de IA estarían autorizados, pero suxeitos a un conxunto de requisitos e obrigas para acceder ao mercado da UE. Estes requisitos foron aclarados e axustados polos colegisladores de forma que sexan máis tecnicamente viable menos gravosa para que as partes interesadas o cumpran, por exemplo no que se refire á calidade dos datos, ou en relación coa documentación técnica que deben elaborar as pemes para demostrar que os seus sistemas de IA de alto risco cumpren os requisitos.

Dado que os sistemas de IA desenvólvense e distribúense a través de cadeas de valor complexas, o acordo de compromiso inclúe cambios que aclaran o distribución de responsabilidades roles dos distintos actores nesas cadeas, en particular os provedores e usuarios de sistemas de IA. Tamén aclara a relación entre as responsabilidades en virtude da Lei de IA e as responsabilidades que xa existen en virtude doutras lexislacións, como a lexislación sectorial ou de protección de datos da UE pertinente.

Para algúns usos da IA, considérase risco inaceptable e, polo tanto, estes sistemas serán prohibidos na UE. O acordo provisional prohibe, por exemplo, o cognitivo manipulación conductual, o non dirixido desguace de imaxes faciais de internet ou de imaxes de CCTV, recoñecemento de emocións no lugar de traballo e nas institucións educativas, puntuación social, categorización biométrica para inferir datos sensibles, como a orientación sexual ou as crenzas relixiosas, e algúns casos de policía predictiva para particulares.

Excepcións de aplicación da lei

Considerando as especificidades de autoridades policiais e a necesidade de preservar a súa capacidade de utilizar a IA no seu traballo vital, acordáronse varios cambios na proposta da Comisión relativas ao uso de sistemas de IA para fins de aplicación da lei. Suxeito ao oportuno salvagardas, estes cambios pretenden reflectir a necesidade de respectar a confidencialidade dos datos operativos sensibles en relación coas súas actividades. Por exemplo, introduciuse un procedemento de emerxencia que permite ás axencias policiais implementar unha ferramenta de IA de alto risco que non superou o avaliación da conformidade procedemento en caso de urxencia. Non obstante, tamén se introduciu un mecanismo específico para garantir iso dereitos fundamentais estará suficientemente protexido contra calquera posible uso indebido dos sistemas de IA.

Ademais, en canto ao uso do tempo real identificación biométrica remota sistemas en espazos accesibles ao público, o acordo provisional aclara os obxectivos nos que tal uso é estritamente necesario para os efectos do cumprimento da lei e para os que, polo tanto, as autoridades competentes deben poder utilizar tales sistemas de forma excepcional. O acordo de compromiso prevé garantías adicionais e limita estas excepcións aos casos de vítimas de determinados delitos, prevención de ameazas xenuínas, presentes ou previsibles, como atentados terroristas, e procuras de persoas sospeitosas dos delitos máis graves.

Sistemas de IA de propósito xeral e modelos de base

Engadíronse novas disposicións para ter en conta situacións nas que os sistemas de IA poden usarse para moitos propósitos diferentes (AI de propósito xeral), e onde a tecnoloxía de IA de propósito xeral se integra posteriormente noutro sistema de alto risco. O acordo provisional tamén aborda os casos específicos dos sistemas de IA de propósito xeral (GPAI).

Tamén se acordaron normas específicas modelos de fundación, grandes sistemas capaces de realizar con competencia unha ampla gama de tarefas distintivas, como xerar vídeo, texto, imaxes, conversar en linguaxe lateral, informática ou xerar código informático. O acordo provisional prevé que os modelos de fundación deberán cumprir con especificacións obrigas de transparencia antes de que se poñan no mercado. Introduciuse un réxime máis estrito para 'alto impacto' modelos de fundación. Trátase de modelos básicos adestrados con gran cantidade de datos e cunha complexidade, capacidades e rendemento avanzadas moi por riba da media, que poden difundir riscos sistémicos ao longo da cadea de valor.

Unha nova arquitectura de goberno

Seguindo as novas normas sobre os modelos GPAI e a evidente necesidade da súa aplicación a nivel comunitario, an Oficina AI dentro da Comisión créase a tarefa de supervisar estes modelos de IA máis avanzados, contribuír a fomentar estándares e prácticas de proba e facer cumprir as regras comúns en todos os estados membros. A panel científico de expertos independentes asesorará á Oficina de IA sobre os modelos GPAI, contribuíndo ao desenvolvemento de metodoloxías para avaliar as capacidades dos modelos de cimentación, asesorando sobre a designación e aparición de modelos de cimentación de alto impacto e vixiando posibles riscos de seguridade materiais relacionados cos modelos de cimentación.

o AI Board, que estaría integrado por representantes dos Estados membros, seguirá sendo unha plataforma de coordinación e un órgano consultivo da Comisión e dará un papel importante aos Estados membros na aplicación do regulamento, incluíndo o deseño de códigos de prácticas para modelos de fundación. Finalmente, un foro de asesoramento para as partes interesadas, como representantes da industria, pemes, empresas de nova creación, sociedade civil e academia, crearase para proporcionar coñecementos técnicos ao Consello de IA.

penalidades

As multas por infraccións da lei de IA fixáronse como unha porcentaxe do volume de negocios global anual da empresa infractora no exercicio anterior ou unha cantidade predeterminada, o que fose maior. Isto sería de 35 millóns de euros ou 7 % para as infraccións das aplicacións de IA prohibidas, de 15 millóns de euros ou 3 % para as infraccións das obrigas da lei de IA e de 7,5 millóns ou 1,5 % para a subministración de información incorrecta. Non obstante, o acordo provisional prevé límites máis proporcionados sobre sancións administrativas para pemes e empresas de nova creación en caso de infracción do disposto na lei de IA.

O acordo de compromiso tamén deixa claro que unha persoa física ou xurídica pode presentar unha reclamación ante o correspondente autoridade de vixilancia do mercado sobre o incumprimento da lei de IA e pode esperar que tal reclamación se trate de acordo cos procedementos específicos desta autoridade.

Transparencia e protección dos dereitos fundamentais

O acordo provisional prevé a avaliación do impacto dos dereitos fundamentais antes de que os seus implementadores poñan no mercado un sistema de IA de alto risco. O acordo provisional prevé tamén o incremento transparencia sobre o uso de sistemas de IA de alto risco. En particular, modificáronse algunhas disposicións da proposta da Comisión para indicar que determinados usuarios dun sistema de IA de alto risco que sexan entidades públicas tamén estarán obrigados a rexistrarse no Base de datos da UE para sistemas de IA de alto risco. Ademais, as disposicións recentemente engadidas fan énfase nunha obriga para os usuarios dun sistema de recoñecemento de emocións informar ás persoas físicas cando estean expostas a tal sistema.

Medidas de apoio á innovación

Co fin de crear un marco legal máis favorable á innovación e de promover a aprendizaxe normativa baseada na evidencia, as disposicións relativas a medidas de apoio á innovación modificadas substancialmente en comparación coa proposta da Comisión.

En particular, aclarouse que a IA caixas de area regulamentarias, que se supón que deben establecer un ambiente controlado para o desenvolvemento, proba e validación de sistemas innovadores de IA, tamén deberían permitir probar sistemas innovadores de IA en condicións do mundo real. Ademais, engadíronse novas disposicións que permiten probas de sistemas de IA en condicións do mundo real, en condicións e garantías específicas. Para aliviar a carga administrativa para as empresas máis pequenas, o acordo provisional inclúe unha lista de accións a realizar para apoiar a estes operadores e prevé algunhas excepcións limitadas e claramente especificadas.

Entrada en vigor

O acordo provisional prevé que se aplique a lei de IA dous anos despois da súa entrada en vigor, salvo algunhas excepcións por disposicións específicas.

Próximos pasos

Tras o acordo provisional de hoxe, seguirase traballando a nivel técnico nas próximas semanas para concretar os detalles da nova normativa. A presidencia remitirá o texto de compromiso aos representantes dos estados membros (Coreper) para o seu aval unha vez concluído este traballo.

O texto completo deberá ser confirmado por ambas institucións e ser sometido a revisión xurídico-lingüística antes da adopción formal polos colegisladores.

Información xeral

A proposta da Comisión, presentada en abril de 2021, é un elemento clave da política da UE para fomentar o desenvolvemento e a adopción no mercado único dunha IA segura e legal que respecte os dereitos fundamentais.

A proposta segue un enfoque baseado no risco e establece un marco legal uniforme e horizontal para a IA que ten como obxectivo garantir a seguridade xurídica. O proxecto de regulamento ten como obxectivo promover o investimento e a innovación en IA, mellorar a gobernanza e a aplicación efectiva da lexislación existente sobre dereitos fundamentais e seguridade e facilitar o desenvolvemento dun mercado único para as aplicacións de IA. Vai da man doutras iniciativas, entre elas o plan coordinado sobre intelixencia artificial que ten como obxectivo acelerar o investimento en IA en Europa. O 6 de decembro de 2022, o Consello chegou a un acordo para un enfoque xeral (mandato de negociación) sobre este expediente e entabló conversacións interinstitucionais co Parlamento Europeo («trílogos») a mediados de xuño de 2023.

Comparte este artigo:

EU Reporter publica artigos de diversas fontes externas que expresan unha ampla gama de puntos de vista. As posicións adoptadas nestes artigos non son necesariamente as de EU Reporter.

Trending