Europa presenta un plan de reglas de IA basadas en el riesgo para impulsar la confianza y la aceptación

Nodo de origen: 822535

Los legisladores de la Unión Europea han presentado sus propuesta basada en riesgos para regular las aplicaciones de inteligencia artificial de alto riesgo dentro del mercado único del bloque.

El plan incluye prohibiciones en una pequeña cantidad de casos de uso que se consideran demasiado peligrosos para la seguridad de las personas o los derechos fundamentales de los ciudadanos de la UE, como un sistema de puntuación de crédito social al estilo de China o ciertos tipos de vigilancia masiva habilitada por IA.

La mayoría de los usos de la IA no se enfrentarán a ninguna regulación (y mucho menos a una prohibición) según la propuesta, pero un subconjunto de los llamados usos de "alto riesgo" estarán sujetos a requisitos regulatorios específicos, tanto ex ante (antes) como ex post (después de ) lanzamiento al mercado.

También existen requisitos de transparencia para ciertos casos de uso de IA, como chatbots y deepfakes, donde los legisladores de la UE creen que el riesgo potencial puede mitigarse informando a los usuarios que están interactuando con algo artificial.

La ley planificada está destinada a aplicarse a cualquier empresa que venda un producto o servicio de IA en la UE, no solo a empresas y personas con sede en la UE, por lo que, al igual que con el régimen de protección de datos de la UE, tendrá un alcance extraterritorial.

El objetivo general de los legisladores de la UE es fomentar la confianza del público en cómo se implementa la IA para ayudar a impulsar la adopción de la tecnología. Los altos funcionarios de la Comisión hablan de querer desarrollar un “ecosistema de excelencia” que esté alineado con los valores europeos.

“Hoy, nuestro objetivo es hacer que Europa sea de clase mundial en el desarrollo de una Inteligencia Artificial segura, confiable y centrada en el ser humano, y su uso”, dijo la vicepresidenta ejecutiva de la Comisión, Margrethe Vestager, al anunciar la adopción de la propuesta en una conferencia de prensa.

“Por un lado, nuestra regulación aborda los riesgos humanos y sociales asociados con los usos específicos de la IA. Esto es para generar confianza. Por otro lado, nuestro plan coordinado describe los pasos necesarios que los Estados miembros deben tomar para impulsar las inversiones y la innovación. Garantizar la excelencia. Todo esto, para asegurarnos de que fortalecemos la adopción de la IA en toda Europa ".

Según la propuesta, los requisitos obligatorios se adjuntan a una categoría de aplicaciones de IA de "alto riesgo", es decir, aquellas que presentan un riesgo claro para la seguridad o amenazan con afectar Derechos fundamentales de la UE (como el derecho a la no discriminación).

En el anexo 3 del reglamento se establecen ejemplos de casos de uso de IA de alto riesgo que estarán sujetos al más alto nivel de regulación sobre el uso, que la Comisión dijo que tendrá el poder de expandir mediante actos delegados, como casos de uso de La IA continúa desarrollándose y los riesgos evolucionan.

Por ahora, los ejemplos de alto riesgo citados pertenecen a las siguientes categorías: identificación biométrica y categorización de personas físicas; Gestión y operación de infraestructura crítica; Educación y formación profesional; Empleo, gestión de trabajadores y acceso al autoempleo; Acceso y disfrute de servicios privados esenciales y servicios y beneficios públicos; Cumplimiento de la ley; Gestión de migración, asilo y control de fronteras; Administración de justicia y procesos democráticos.

Los usos militares de la IA están específicamente excluidos del alcance, ya que la regulación se centra en el mercado interno del bloque.

Los creadores de aplicaciones de alto riesgo tendrán un conjunto de obligaciones ex ante que cumplir antes de llevar su producto al mercado, incluida la calidad de los conjuntos de datos utilizados para entrenar sus IA y un nivel de supervisión humana no solo sobre el diseño sino también sobre el uso. del sistema, así como requisitos continuos ex post, en forma de vigilancia poscomercialización.

Otros requisitos incluyen la necesidad de crear registros del sistema de IA para permitir verificaciones de cumplimiento y también para proporcionar información relevante a los usuarios. La robustez, precisión y seguridad del sistema de inteligencia artificial también estarán sujetas a regulación.

Los funcionarios de la Comisión sugirieron que la gran mayoría de las aplicaciones de IA quedarán fuera de esta categoría altamente regulada. A los fabricantes de esos sistemas de inteligencia artificial de "bajo riesgo" simplemente se les animará a que adopten códigos de conducta (no vinculantes desde el punto de vista legal) sobre el uso.

Las sanciones por infringir las reglas sobre prohibiciones de casos de uso de IA específicos se han establecido en hasta el 6% de la facturación anual global o 30 millones de euros (lo que sea mayor). Mientras que las violaciones de las reglas relacionadas con las aplicaciones de alto riesgo pueden escalar hasta un 4% (o 20 millones de euros).

La aplicación involucrará a múltiples agencias en cada Estado miembro de la UE, y la propuesta pretende que la supervisión sea realizada por agencias existentes (relevantes), como los organismos de seguridad de productos y las agencias de protección de datos.

Eso plantea preguntas inmediatas sobre la dotación de recursos adecuada de los organismos nacionales, dado el trabajo adicional y la complejidad técnica que enfrentarán al vigilar las reglas de IA; y también cómo se evitarán los cuellos de botella en la aplicación en determinados Estados miembros. (En particular, el Reglamento general de protección de datos de la UE también se supervisa a nivel de los Estados miembros y ha adolecido de una falta de aplicación uniforme y rigurosa).

También se establecerá una base de datos a nivel de la UE para crear un registro de los sistemas de alto riesgo implementados en el bloque (que será gestionado por la Comisión).

También se creará un nuevo organismo, denominado Consejo Europeo de Inteligencia Artificial (EAIB), para respaldar una aplicación coherente del reglamento, en un espejo del Consejo Europeo de Protección de Datos, que ofrece orientación para la aplicación del RGPD.

De acuerdo con las reglas sobre ciertos usos de la IA, el plan incluye medidas para coordinar el apoyo de los Estados miembros de la UE para el desarrollo de la IA, como por ejemplo, mediante el establecimiento de entornos limitados regulatorios para ayudar a las empresas emergentes y las pymes a desarrollar y probar innovaciones impulsadas por la IA, y mediante la perspectiva financiación específica de la UE para apoyar a los desarrolladores de IA.

El comisionado de mercado interno, Thierry Breton, dijo que la inversión es una pieza crucial del plan.

“Con nuestro programa Europa Digital y Horizonte Europa vamos a liberar mil millones de euros al año. Y además de eso, queremos generar inversión privada y una inversión colectiva en toda la UE de 20 millones de euros al año durante la próxima década, la 'década digital' como la hemos llamado ”, dijo. "También queremos tener 140 millones de euros que financiarán inversiones digitales en el marco de la próxima generación de la UE [fondo de recuperación COVID-19] y, en parte, se destinarán a IA".

Dar forma a las reglas para la IA ha sido una prioridad clave para la presidenta de la UE, Ursula von der Leyen, quien asumió su cargo a fines de 2019. Se publicó un libro blanco. el año pasado, siguiendo un IA 2018 para la estrategia de la UE - y Vestager dijo que la propuesta de hoy es la culminación de tres años de trabajo.

Breton agregó que brindar orientación a las empresas para que apliquen la IA les dará seguridad jurídica y a Europa una ventaja. "La confianza ... creemos que es de vital importancia para permitir el desarrollo que queremos de la inteligencia artificial", dijo. [Las aplicaciones de la IA] deben ser confiables, seguras y no discriminatorias, eso es absolutamente crucial, pero, por supuesto, también debemos ser capaces de comprender cómo funcionarán exactamente estas aplicaciones ".

“Lo que necesitamos es tener orientación. Especialmente en una nueva tecnología ... Somos, seremos, el primer continente donde daremos pautas - diremos 'oye, esto es verde, esto es verde oscuro, esto es quizás un poco naranja y esto está prohibido' . Así que ahora, si quieres utilizar aplicaciones de inteligencia artificial, ¡ve a Europa! Sabrás qué hacer, sabrás cómo hacerlo, tendrás socios que te entienden bastante bien y, por cierto, vendrás también en el continente donde tendrás la mayor cantidad de datos industriales creados del planeta. durante los próximos diez años.

“Entonces ven aquí, porque la inteligencia artificial se trata de datos, te daremos las pautas. También tendremos las herramientas para hacerlo y la infraestructura ”.

Una versión de la propuesta de hoy filtrado la semana pasada - llevando a llamamientos de los eurodiputados para reforzar el plan, Tales como prohibiendo la vigilancia biométrica remota en lugares públicos.

En caso de que la propuesta final sí trate la vigilancia biométrica remota como una aplicación de IA de alto riesgo, y existe una prohibición principal sobre el uso de la tecnología en público por parte de las fuerzas del orden.

Sin embargo, su uso no está completamente proscrito, con una serie de excepciones en las que las fuerzas del orden aún podrían hacer uso de él, sujeto a una base legal válida y una supervisión adecuada.

Protecciones atacadas por ser demasiado débiles

Las reacciones a la propuesta de la Comisión incluyeron críticas a las exenciones demasiado amplias para la aplicación de la ley, así como la preocupación de que las medidas para abordar el riesgo de discriminación de los sistemas de IA no van lo suficientemente lejos.

La ONG de justicia penal, Fair Trials, dijo que se necesitan mejoras radicales para que la regulación contenga salvaguardas significativas en relación con la justicia penal. Comentando en una declaración, Griff Ferris, oficial legal y de políticas de la ONG dijo: “Las propuestas de la UE necesitan cambios radicales para prevenir el cableado de la discriminación en los resultados de la justicia penal, proteger la presunción de inocencia y garantizar responsabilidad significativa de la IA en la justicia penal. 

“La legislación carece de salvaguardias contra la discriminación, mientras que la exención de amplio alcance para 'salvaguardar la seguridad pública' socava por completo las escasas salvaguardias que existen en relación con la justicia penal. El marco debe incluir rigurosas salvaguardias y restricciones para prevenir la discriminación y proteger el derecho a un juicio justo. Esto debería incluir restringir el uso de sistemas que intentan perfilar a las personas y predecir el riesgo de delincuencia ". 

La Unión de Libertades Civiles para Europa (Libertades) también atacó las lagunas que la ONG dijo que permitiría a los Estados miembros de la UE eludir las prohibiciones de usos problemáticos de la IA.

“Hay demasiados usos problemáticos de la tecnología que están permitidos, como el uso de algoritmos para pronosticar delitos o hacer que las computadoras evalúen el estado emocional de las personas en el control fronterizo, los cuales constituyen serios riesgos para los derechos humanos y representan una amenaza a los valores de la UE ”, advirtió Orsolya Reich, oficial superior de defensa, en un comunicado. "También nos preocupa que la policía pueda utilizar la tecnología de reconocimiento facial de formas que pongan en peligro nuestros derechos y libertades fundamentales".

Patrick Breyer, eurodiputado pirata alemán, también advirtió que la propuesta no cumple con el pretendido estándar de respeto por los "valores europeos". El eurodiputado fue uno de los 40 que firmaron una carta a la Comisión la semana pasada advirtiendo entonces que una versión filtrada de la propuesta no fue lo suficientemente lejos en la protección de los derechos fundamentales.

“Debemos aprovechar la oportunidad para permitir que la Unión Europea adapte la inteligencia artificial a los requisitos éticos y los valores democráticos. Lamentablemente, la propuesta de la Comisión no nos protege de los peligros de la justicia de género y la igualdad de trato de todos los grupos, como a través de sistemas de reconocimiento facial u otros tipos de vigilancia masiva ”, dijo Breyer en un comunicado en respuesta a la propuesta formal de hoy.

“La tecnología biométrica y de vigilancia masiva, elaboración de perfiles y predicción del comportamiento en nuestros espacios públicos socava nuestra libertad y amenaza nuestras sociedades abiertas. La propuesta de la Comisión Europea llevaría el uso de alto riesgo del reconocimiento facial automático en espacios públicos a toda la Unión Europea, en contra de la voluntad de la mayoría de nuestro pueblo. Los requisitos de procedimiento propuestos son una mera cortina de humo. No podemos permitir la discriminación de ciertos grupos de personas y la falsa incriminación de innumerables personas por estas tecnologías ”

El grupo paraguas de derechos del consumidor, BEUC, también fue rápidamente crítico, atacando la propuesta de la Comisión como débil en la protección del consumidor porque se enfoca en regular “una gama muy limitada de usos y problemas de la IA”.

"La Comisión Europea debería haberse centrado más en ayudar a los consumidores a confiar en la IA en su vida diaria", dijo Monique Goyens, directora general de Beuc, en un comunicado: "Las personas deberían poder confiar en cualquier producto o servicio impulsado por inteligencia artificial, ya sea 'riesgo alto', 'riesgo medio' o 'riesgo bajo'. La UE debe hacer más para garantizar que los consumidores tengan derechos exigibles, así como acceso a reparación y recursos en caso de que algo salga mal ”.

El grupo de la industria tecnológica Dot Europe (anteriormente Edima), cuyos miembros incluyen Airbnb, Apple, Facebook, Google, Microsoft y otros gigantes de la plataforma, acogió con satisfacción el lanzamiento de la propuesta, pero aún no había ofrecido comentarios detallados al momento de escribir este artículo, diciendo que estaba formulando su posición.

Otros grupos de presión tecnológicos no esperaron para atacar ante la perspectiva de que la burocracia envolviera la inteligencia artificial, alegando que la regulación "aplastaría a la naciente industria de la inteligencia artificial de la UE antes de que pueda aprender a caminar" como una política tecnológica con sede en Washington y Bruselas. thinktank (el Centro de Innovación de Datos) lo expresó.

La asociación comercial CCIA también advirtió rápidamente contra la "burocracia innecesaria para desarrolladores y usuarios", y agregó que regulación por sí solo no convertirá a la UE en un líder en AI.

La propuesta de hoy da inicio a un amplio debate en el marco del proceso colegislativo de la UE, en el que el Parlamento Europeo y los Estados miembros a través del Consejo de la UE necesitan expresar su opinión sobre el borrador, lo que significa que muchas cosas podrían cambiar antes de que las instituciones de la UE lleguen a un acuerdo sobre el forma final de un reglamento paneuropeo sobre IA.

Los comisarios se negaron a dar un plazo para la adopción de la legislación hoy, y solo dijeron que esperaban que las otras instituciones de la UE se involucraran de inmediato y que el proceso podría realizarse lo antes posible. No obstante, podrían pasar varios años antes de que el reglamento sea ratificado y entre en vigor.

Este informe se actualizó con las reacciones a la propuesta de la Comisión.

Fuente: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Sello de tiempo:

Mas de Techcrunch