A Europa apresenta um plano para regras de IA baseada em risco para aumentar a confiança e a aceitação

Nó Fonte: 822535

Os legisladores da União Europeia apresentaram suas proposta baseada em risco para regular as aplicações de inteligência artificial de alto risco no mercado único do bloco.

O plano inclui proibições num pequeno número de casos de utilização considerados demasiado perigosos para a segurança das pessoas ou para os direitos fundamentais dos cidadãos da UE, como um sistema de pontuação de crédito social ao estilo da China ou certos tipos de vigilância em massa possibilitada pela IA.

A maioria das utilizações da IA ​​não enfrentará qualquer regulamentação (muito menos uma proibição) ao abrigo da proposta, mas um subconjunto das chamadas utilizações de “alto risco” estará sujeito a requisitos regulamentares específicos, tanto ex ante (antes) como ex post (depois ) lançamento no mercado.

Também existem requisitos de transparência para certos casos de uso de IA - como chatbots e deepfakes - onde os legisladores da UE acreditam que o risco potencial pode ser mitigado informando aos usuários que eles estão interagindo com algo artificial.

A lei planejada se destina a ser aplicada a qualquer empresa que venda um produto ou serviço de IA na UE, não apenas a empresas e indivíduos sediados na UE - portanto, como acontece com o regime de proteção de dados da UE, terá um escopo extraterritorial.

O objetivo geral dos legisladores da UE é fomentar a confiança do público em como a IA é implementada para ajudar a impulsionar a adoção da tecnologia. Altos funcionários da Comissão falam sobre o desejo de desenvolver um “ecossistema de excelência” que esteja alinhado com os valores europeus.

“Hoje, pretendemos tornar a Europa de classe mundial no desenvolvimento de uma inteligência artificial segura, confiável e centrada no ser humano, e na sua utilização”, disse a vice-presidente executiva da Comissão, Margrethe Vestager, anunciando a adoção da proposta numa conferência de imprensa.

“Por um lado, nosso regulamento trata dos riscos humanos e sociais associados a usos específicos de IA. Isso é para criar confiança. Por outro lado, o nosso plano coordenado descreve as medidas necessárias que os Estados-Membros devem tomar para impulsionar os investimentos e a inovação. Para garantir a excelência. Tudo isso para garantir que fortaleçamos a adoção da IA ​​em toda a Europa. ”

De acordo com a proposta, os requisitos obrigatórios estão associados a uma categoria de aplicações de IA de "alto risco" - ou seja, aqueles que apresentam um risco claro de segurança ou ameaçam colidir com Direitos fundamentais da UE (como o direito à não discriminação).

Exemplos de casos de utilização de IA de alto risco que estarão sujeitos ao mais alto nível de regulamentação sobre a utilização são apresentados no anexo 3 do regulamento - que a Comissão disse que terá o poder de expandir através de atos delegados, como casos de utilização de A IA continua a desenvolver-se e os riscos evoluem.

Por ora, os exemplos de alto risco citados se enquadram nas seguintes categorias: Identificação biométrica e categorização de pessoas naturais; Gestão e operação de infraestrutura crítica; Educação e formação profissional; Emprego, gestão de trabalhadores e acesso ao trabalho autônomo; Acesso e gozo de serviços privados essenciais e serviços e benefícios públicos; Aplicação da lei; Gestão de migração, asilo e controle de fronteiras; Administração da justiça e processos democráticos.

Os usos militares da IA ​​estão especificamente excluídos do escopo, uma vez que a regulamentação se concentra no mercado interno do bloco.

Os fabricantes de aplicativos de alto risco terão um conjunto de obrigações ex ante para cumprir antes de colocar seu produto no mercado, incluindo em torno da qualidade dos conjuntos de dados usados ​​para treinar seus IAs e um nível de supervisão humana não apenas no design, mas no uso do sistema - bem como requisitos contínuos ex post, sob a forma de vigilância pós-comercialização.

Outros requisitos incluem a necessidade de criar registros do sistema de IA para permitir verificações de conformidade e também fornecer informações relevantes aos usuários. A robustez, precisão e segurança do sistema de IA também estarão sujeitas a regulamentação.

Funcionários da Comissão sugeriram que a grande maioria das aplicações de IA não se enquadrarão nesta categoria altamente regulamentada. Os criadores desses sistemas de IA de “baixo risco” serão apenas encorajados a adotar códigos de conduta (não vinculativos) sobre o uso.

As penalidades por infringir as regras sobre proibições de casos de uso de IA específicos foram definidas em até 6% do volume de negócios anual global ou € 30 milhões (o que for maior). Enquanto as violações das regras relacionadas a aplicativos de alto risco podem aumentar até 4% (ou € 20 milhões).

A aplicação envolverá várias agências em cada Estado-Membro da UE - com a proposta que pretende que a supervisão seja realizada por agências existentes (relevantes), tais como organismos de segurança de produtos e agências de proteção de dados.

Isto levanta questões imediatas sobre a dotação de recursos adequados aos organismos nacionais, dado o trabalho adicional e a complexidade técnica que enfrentarão no policiamento das regras de IA; e também como serão evitados estrangulamentos na aplicação em determinados Estados-Membros. (Em particular, o Regulamento Geral de Proteção de Dados da UE também é supervisionado a nível dos Estados-Membros e tem sofrido com a falta de uma aplicação uniformemente vigorosa.)

Haverá também uma base de dados a nível da UE criada para criar um registo dos sistemas de alto risco implementados no bloco (que será gerido pela Comissão).

Um novo órgão, denominado European Artificial Intelligence Board (EAIB), também será criado para apoiar uma aplicação consistente do regulamento - em um espelho para o Conselho Europeu de Proteção de Dados, que oferece orientações para a aplicação do GDPR.

Em consonância com as regras sobre determinadas utilizações da IA, o plano inclui medidas para coordenar o apoio dos Estados-Membros da UE ao desenvolvimento da IA ​​— por exemplo, estabelecendo ambientes de teste regulamentares para ajudar as startups e as PME a desenvolver e testar inovações alimentadas pela IA — e através da perspetiva de financiamento direcionado da UE para apoiar os criadores de IA.

O comissário do mercado interno, Thierry Breton, disse que o investimento é uma peça crucial do plano.

«No âmbito dos nossos programas Europa Digital e Horizonte Europa, vamos libertar mil milhões de euros por ano. E, além disso, queremos gerar investimento privado e um investimento coletivo à escala da UE de 20 mil milhões de euros por ano durante a próxima década — a “década digital”, como a chamamos”, afirmou. “Também queremos ter 140 mil milhões de euros que financiarão investimentos digitais no âmbito do Next Generation EU [fundo de recuperação da COVID-19] – e em parte destinados à IA.”

Definir regras para IA tem sido uma das principais prioridades da presidente da UE, Ursula von der Leyen, que assumiu o cargo no final de 2019. Um white paper foi publicado ano passado, Depois de uma 2018 AI para estratégia da UE - e Vestager disse que a proposta de hoje é o culminar de três anos de trabalho.

Breton acrescentou que fornecer orientação às empresas para a aplicação da IA ​​lhes dará segurança jurídica e uma vantagem à Europa. “Confiança… consideramos que é de vital importância para permitir o desenvolvimento que queremos da inteligência artificial”, disse ele. [As aplicações de IA] precisam de ser fiáveis, seguras e não discriminatórias – isso é absolutamente crucial – mas é claro que também precisamos de ser capazes de compreender como exatamente estas aplicações funcionarão.”

“O que precisamos é ter orientação. Especialmente em uma nova tecnologia ... Nós somos, seremos, o primeiro continente onde daremos orientações - diremos 'ei, isso é verde, isso é verde escuro, talvez seja um pouco laranja e isso é proibido' . Então agora se você quiser usar aplicativos de inteligência artificial, vá para a Europa! Você saberá o que fazer, saberá fazer, terá parceiros que entendem muito bem e, aliás, você virá também no continente onde terá a maior quantidade de dados industriais gerados no planeta pelos próximos dez anos.

“Então venha aqui - porque a inteligência artificial é sobre dados - nós lhe daremos as diretrizes. Também teremos as ferramentas para fazer isso e a infraestrutura. ”

Uma versão da proposta de hoje vazou semana passada - levando a apelos de eurodeputados para reforçar o plano, como ao proibir a vigilância biométrica remota em locais públicos.

No caso de a proposta final tratar a vigilância biométrica remota como uma aplicação de IA de alto risco - e há uma proibição, em princípio, do uso da tecnologia em público pelas autoridades policiais.

No entanto, o uso não é totalmente proibido, com uma série de exceções em que a aplicação da lei ainda seria capaz de fazer uso dele, sujeito a uma base legal válida e supervisão apropriada.

Proteções atacadas como muito fracas

As reações à proposta da Comissão incluíram críticas às isenções excessivamente amplas para a aplicação da lei, bem como a preocupação de que as medidas para enfrentar o risco de discriminação dos sistemas de IA não sejam suficientemente longe.

A ONG de justiça criminal, Fair Trials, disse que melhorias radicais são necessárias se o regulamento deve conter salvaguardas significativas em relação à justiça criminal. Comentando em uma declaração, Griff Ferris, oficial jurídico e político da ONG disse: “As propostas da UE precisam de mudanças radicais para evitar a interligação da discriminação nos resultados da justiça penal, proteger a presunção de inocência e garantir responsabilidade significativa para IA na justiça criminal. 

“A legislação carece de quaisquer salvaguardas contra a discriminação, enquanto a ampla isenção para 'salvaguardar a segurança pública' solapa completamente as poucas salvaguardas que existem em relação à justiça criminal. A estrutura deve incluir salvaguardas e restrições rigorosas para prevenir a discriminação e proteger o direito a um julgamento justo. Isso deve incluir a restrição do uso de sistemas que tentam traçar o perfil das pessoas e prever o risco de criminalidade. ” 

A União das Liberdades Civis para a Europa (Liberdades) também encontrou lacunas que a ONG disse que permitiriam aos Estados-Membros da UE contornar as proibições de utilizações problemáticas da IA.

“Existem muitos usos problemáticos da tecnologia que são permitidos, como o uso de algoritmos para prever crimes ou fazer com que computadores avaliem o estado emocional das pessoas no controle de fronteira, ambos os quais constituem sérios riscos aos direitos humanos e representam uma ameaça aos valores da UE ”, advertiu Orsolya Reich, oficial sênior de defesa, em um comunicado. “Também estamos preocupados que a polícia possa usar a tecnologia de reconhecimento facial de maneiras que ponham em risco nossos direitos e liberdades fundamentais.”

Patrick Breyer, eurodeputado pirata alemão, também alertou que a proposta não cumpre o alegado padrão de respeito pelos “valores europeus”. O eurodeputado foi um dos 40 que assinaram uma carta à Comissão semana passada alertando então que uma versão vazada da proposta não foi longe o suficiente na proteção dos direitos fundamentais.

“Devemos aproveitar a oportunidade para permitir que a União Europeia alinhe a inteligência artificial com os requisitos éticos e os valores democráticos. Infelizmente, a proposta da Comissão não nos protege dos perigos da justiça de gênero e da igualdade de tratamento de todos os grupos, como por meio de sistemas de reconhecimento facial ou outros tipos de vigilância em massa ”, disse Breyer em um comunicado reagindo à proposta formal hoje.

“A tecnologia de vigilância biométrica e de massa, perfil e previsão comportamental em nossos espaços públicos mina nossa liberdade e ameaça nossas sociedades abertas. A proposta da Comissão Europeia levaria a utilização de alto risco do reconhecimento facial automático em espaços públicos para toda a União Europeia, ao contrário da vontade da maioria do nosso povo. Os requisitos processuais propostos são uma mera cortina de fumaça. Não podemos permitir a discriminação de certos grupos de pessoas e a falsa incriminação de inúmeros indivíduos por essas tecnologias ”

O grupo guarda-chuva dos direitos do consumidor, BEUC, também foi rapidamente crítico – atacando a proposta da Comissão como fraca na protecção do consumidor porque se concentra na regulamentação de “uma gama muito limitada de utilizações e questões de IA”.

“A Comissão Europeia deveria ter se concentrado mais em ajudar os consumidores a confiar na IA em suas vidas diárias”, disse Monique Goyens, diretora-geral do Beuc, em um comunicado: “As pessoas deveriam poder confiar em qualquer produto ou serviço movido por inteligência artificial, seja ele 'alto risco', 'médio risco' ou 'baixo risco'. A UE deve fazer mais para garantir que os consumidores tenham direitos executórios, bem como acesso a reparação e reparação caso algo dê errado ”.

O grupo da indústria tecnológica Dot Europe (anteriormente Edima) – cujos membros incluem Airbnb, Apple, Facebook, Google, Microsoft e outros gigantes de plataformas – saudou o lançamento da proposta, mas ainda não tinha feito comentários detalhados no momento da redação deste artigo, dizendo que estava formulando sua posição.

Outros grupos de lobby tecnológico não esperaram para atacar diante da perspectiva de burocracia envolvendo a IA - alegando que a regulamentação iria “agredir a nascente indústria de IA da UE antes que ela pudesse aprender a andar” como uma política tecnológica baseada em Washington e Bruxelas thinktank (Centro de Inovação de Dados) colocou isso.

A associação comercial CCIA também alertou rapidamente contra "burocracia desnecessária para desenvolvedores e usuários", acrescentando que regulamento por si só não fará da UE um líder em AI.

A proposta de hoje dá início a um amplo debate no âmbito do processo co-legislativo da UE, com o Parlamento Europeu e os Estados-Membros, através do Conselho da UE, a precisar de se pronunciar sobre o projecto - o que significa que muita coisa pode mudar antes que as instituições da UE cheguem a acordo sobre o forma final de um regulamento pan-UE de IA.

Os comissários se recusaram a dar um prazo para quando a legislação poderia ser adotada hoje, dizendo apenas que esperavam que as outras instituições da UE se engajassem imediatamente e que o processo pudesse ser realizado o mais rápido possível. No entanto, pode demorar vários anos até que o regulamento seja ratificado e entre em vigor.

Este relatório foi atualizado com reações à proposta da Comissão

Fonte: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Carimbo de hora:

Mais de Techcrunch