유럽은 신뢰와 이해를 높이기 위해 위험 기반 AI 규칙에 대한 계획을 세웁니다.

소스 노드 : 822535

유럽 ​​연합 의원들은 위험 기반 제안 블록의 단일 시장 내에서 인공 지능의 고위험 응용 프로그램을 규제합니다.

이 계획에는 중국 스타일의 사회적 신용 점수 시스템 또는 특정 유형의 AI 지원 대량 감시와 같이 사람들의 안전이나 EU 시민의 기본 권리에 너무 위험한 것으로 간주되는 소수의 사용 사례에 대한 금지가 포함되어 있습니다.

대부분의 AI 사용은 제안에 따라 규제(금지는 고사)에 직면하지 않지만 소위 "고위험" 사용의 하위 집합은 사전(전) 및 사후(이후) 특정 규제 요구 사항의 적용을 받습니다. ) 시장에 출시합니다.

챗봇 및 딥페이크와 같은 AI의 특정 사용 사례에 대한 투명성 요구 사항도 있으며, EU 의원은 사용자에게 인공적인 것과 상호 작용하고 있음을 알려 잠재적 위험을 완화할 수 있다고 믿습니다.

계획된 법은 EU 기반 회사와 개인뿐만 아니라 EU에 AI 제품 또는 서비스를 판매하는 모든 회사에 적용하기 위한 것이므로 EU의 데이터 보호 체제와 마찬가지로 범위가 치외법적입니다.

EU 의원들의 가장 중요한 목표는 AI가 기술의 활용을 촉진하기 위해 구현되는 방식에 대한 대중의 신뢰를 높이는 것입니다. 고위 위원회 관계자들은 유럽의 가치에 부합하는 "탁월한 생태계"를 개발하고자 하는 바람에 대해 이야기합니다.

위원회 EVP인 Margrethe Vestager는 기자 회견에서 제안 채택을 발표하면서 "오늘 우리는 안전하고 신뢰할 수 있으며 인간 중심적인 인공 지능의 개발 및 사용에서 유럽을 세계 최고 수준으로 만드는 것을 목표로 합니다."라고 말했습니다.

“한편으로 우리의 규정은 AI의 특정 사용과 관련된 인간 및 사회적 위험을 다룹니다. 이것은 신뢰를 만드는 것입니다. 다른 한편으로, 우리의 조정 된 계획은 회원국이 투자와 혁신을 촉진하기 위해 취해야하는 필요한 조치를 설명합니다. 우수성을 보장합니다. 이 모든 것은 우리가 유럽 전역에서 AI 활용을 강화할 수 있도록하기위한 것입니다.”

제안에 따라 필수 요건은 AI 애플리케이션의 "고위험"범주에 첨부되어 있습니다. 명백한 안전 위험을 제시하거나 EU 기본권 (예 : 차별 금지 권리).

사용에 관한 최고 수준의 규제가 적용되는 고위험 AI 사용 사례의 예는 규정의 부록 3에 나와 있습니다.위원회는이를 사용 사례와 같이 위임 행위에 의해 확장 할 권한이 있다고 말했습니다. AI는 계속 발전하고 위험은 진화합니다.

현재 인용 된 고위험 사례는 다음과 같은 범주에 속합니다. 생체 인식 및 자연인 분류; 중요 인프라의 관리 및 운영 교육 및 직업 훈련 고용, 근로자 관리 및 자영업에 대한 접근; 필수 개인 서비스 및 공공 서비스 및 혜택에 대한 접근 및 향유 법 집행; 이주, 망명 및 국경 통제 관리; 정의와 민주적 과정의 관리.

AI의 군사적 사용은 규제가 블록의 내부 시장에 초점을 맞추기 때문에 범위에서 특별히 제외됩니다.

고위험 애플리케이션의 제작자는 제품을 시장에 출시하기 전에 AI 교육에 사용되는 데이터 세트의 품질과 설계뿐만 아니라 사용에 대한 인간 감독 수준을 포함하여 일련의 사전 의무를 준수해야합니다. 시판 후 감시의 형태로 진행중인 사후 요구 사항뿐 아니라 시스템의

다른 요구 사항에는 준수 검사를 활성화하고 사용자에게 관련 정보를 제공하기 위해 AI 시스템의 기록을 만들어야하는 필요성이 포함됩니다. AI 시스템의 견고성, 정확성 및 보안도 규제 대상이 될 것입니다.

위원회 관계자는 대부분의 AI 응용 프로그램이이 고도로 규제 된 범주에 속하지 않을 것이라고 제안했습니다. 이러한 '저 위험'AI 시스템의 제작자는 사용시 (법적으로 구속력이없는) 행동 강령을 채택하도록 권장됩니다.

특정 AI 사용 사례 금지에 대한 규칙 위반에 대한 벌금은 전 세계 연간 매출액의 최대 6 % 또는 30 천만 유로 (둘 중 큰 금액)로 설정되었습니다. 고위험 애플리케이션과 관련된 규칙 위반은 최대 4 % (또는 20 천만 유로)까지 확장 될 수 있습니다.

집행은 각 EU 회원국의 여러 기관을 포함하며 제품 안전 기관 및 데이터 보호 기관과 같은 기존 (관련) 기관에서 감독을 수행 할 계획입니다.

이는 AI 규칙을 관리하는 데 직면하게 될 추가 작업과 기술적 복잡성을 고려할 때 국가 기관의 적절한 자원 조달에 대한 즉각적인 질문을 제기합니다. 또한 특정 회원국에서 시행 병목 현상을 피할 수있는 방법. (특히 EU의 일반 데이터 보호 규정은 회원국 수준에서도 감독되며 균일하게 강력한 시행이 이루어지지 않아 어려움을 겪고 있습니다.)

또한 블록에서 실행되는 고위험 시스템의 등록을 생성하기 위해 EU 전역 데이터베이스가 설정 될 것입니다 (이는위원회에서 관리 할 것입니다).

유럽 ​​인공 지능위원회 (EAIB)라고하는 새로운기구는 GDPR 적용 지침을 제공하는 유럽 데이터 보호위원회에 대한 거울처럼 규정의 일관된 적용을 지원하기 위해 설립 될 것입니다.

AI의 특정 사용에 대한 규칙에 따라이 계획에는 AI 개발을위한 EU 회원국 지원을 조정하는 조치가 포함됩니다. 예를 들어 신생 기업과 중소기업이 AI 기반 혁신을 개발하고 테스트하는 데 도움이되는 규제 샌드 박스를 구축하고 AI 개발자를 지원하기 위해 EU 기금을 목표로했습니다.

내부 시장 위원 인 Thierry Breton은 투자가 계획의 중요한 부분이라고 말했습니다.

“디지털 유럽 및 Horizon Europe 프로그램에 따라 연간 20 억 유로를 확보 할 것입니다. 또한 우리는 앞으로 140 년 동안 민간 투자와 EU 전체에 걸쳐 19 억 유로의 공동 투자를 창출하고자합니다. '디지털 시대'라고 부르는 것입니다.”라고 그는 말했습니다. "우리는 또한 차세대 EU [COVID-XNUMX 복구 기금]에 따라 디지털 투자에 자금을 지원하고 부분적으로 AI에 들어갈 € XNUMX 억을 갖고 싶어합니다."

AI에 대한 규칙 형성은 2019년 말에 취임한 EU 의장 Ursula von der Leyen의 핵심 우선 순위였습니다. 백서가 출판되었습니다. 작년, 다음 EU 전략을위한 2018 AI — 그리고 Vestager는 오늘의 제안이 XNUMX 년 간의 작업의 정점이라고 말했습니다.

Breton은 기업이 AI를 적용 할 수 있도록 지침을 제공하면 법적 확실성과 유럽이 우위를 점할 것이라고 덧붙였습니다. “신뢰… 우리가 원하는 인공 지능 개발을 가능하게하는 것은 매우 중요하다고 생각합니다.”라고 그는 말했습니다. [AI 애플리케이션]은 신뢰할 수 있고 안전하며 차별적이지 않아야합니다. 이는 절대적으로 중요합니다. 물론 이러한 애플리케이션이 정확히 어떻게 작동하는지 이해할 수 있어야합니다. "

“우리에게 필요한 것은 안내를 받는 것입니다. 특히 새로운 기술에서... 우리는 가이드라인을 제공할 첫 번째 대륙이 될 것입니다. . 그러니 이제 인공지능 애플리케이션을 사용하고 싶다면 유럽으로 가라! 당신은 무엇을 해야 하는지, 어떻게 하는지 알게 될 것이며, 꽤 잘 이해하는 파트너를 갖게 될 것이며, 그런데 지구상에서 가장 많은 양의 산업 데이터가 생성되는 대륙에 올 것입니다. 앞으로 XNUMX년 동안.

“여기로 오십시오. 인공 지능은 데이터에 관한 것이기 때문에 지침을 제공하겠습니다. 또한 이를 수행할 수 있는 도구와 인프라도 갖추게 될 것입니다.”

오늘의 제안의 버전 지난주에 유출 — 선도 계획 강화를위한 MEP의 요청같은 공공 장소에서 원격 생체 인식 감시를 ​​금지합니다.

최종 제안이 원격 생체 인식 감시를 ​​AI의 특히 고위험 응용 프로그램으로 취급하는 경우, 원칙적으로 법 집행 기관에 의한 공개 기술 사용을 금지합니다.

그러나 유효한 법적 근거와 적절한 감독하에 법 집행 기관이 여전히 사용할 수있는 여러 예외를 제외하고 사용이 완전히 금지되는 것은 아닙니다.

보호 장치가 너무 약한 것으로 공격됨

위원회의 제안에 대한 반응에는 법 집행에 대한 지나치게 광범위한 면제에 대한 비판과 AI 시스템이 차별하는 위험을 해결하기 위한 조치가 충분하지 않다는 우려가 포함되었습니다.

형사 사법 NGO인 Fair Trials는 규정이 형사 사법과 관련하여 의미 있는 보호 장치를 포함하려면 근본적인 개선이 필요하다고 말했습니다. 성명서에서 논평을 하자면, NGO의 법률 및 정책 담당자인 Griff Ferris는 다음과 같이 말했습니다.EU의 제안은 형사 사법 결과에서 차별이 가중되는 것을 방지하고, 무죄 추정을 보호하며, 형사 사법에서 AI에 대한 의미 있는 책임. 

“이 법안에는 차별에 대한 보호 장치가 없는 반면 '공안 보호'에 대한 광범위한 면제는 형사 사법과 관련하여 거의 없는 보호 장치를 완전히 약화시킵니다. 프레임워크는 다음을 포함해야 합니다. 차별을 방지하고 공정한 재판을 받을 권리를 보호하기 위한 엄격한 보호 및 제한. 여기에는 사람들을 프로파일링하고 범죄 위험을 예측하는 시스템의 사용을 제한하는 것이 포함되어야 합니다.” 

유럽 ​​시민 자유 연합(Liberties)은 또한 NGO가 EU 회원국들이 AI의 문제가 있는 사용에 대한 금지를 우회할 수 있도록 허용할 것이라고 말한 허점을 지적했습니다.

“범죄를 예측하거나 컴퓨터가 국경 통제에 있는 사람들의 감정 상태를 평가하도록 하는 알고리즘 사용과 같이 허용되는 기술의 문제 사용이 너무 많습니다. 이 두 가지 모두 심각한 인권 위험을 구성하고 위협이 됩니다. 고위 옹호 책임자인 Orsolya Reich는 성명에서 이렇게 경고했습니다. "우리는 또한 경찰이 우리의 기본권과 자유를 위협하는 방식으로 안면 인식 기술을 사용할 수 있다는 점을 우려하고 있습니다."

독일 해적 MEP인 Patrick Breyer는 이 제안이 '유럽적 가치'에 대한 존중의 기준에 미치지 못한다고 경고했습니다. MEP는 위원회에 서한에 서명한 40명 중 한 명이었습니다. 지난 주 그런 다음 유출된 제안서 버전이 기본권을 보호하는 데 충분하지 않다고 경고합니다.

“유럽 연합이 윤리적 요구 사항과 민주적 가치에 따라 인공 지능을 가져올 수 있는 기회를 잡아야 합니다. 불행히도 위원회의 제안은 안면 인식 시스템이나 다른 종류의 대량 감시와 같은 모든 집단에 대한 평등한 대우와 젠더 정의의 위험으로부터 우리를 보호하지 못합니다.”라고 Breyer가 오늘 공식 제안에 반응하는 성명에서 말했습니다.

“공공 공간의 생체 인식 및 대량 감시, 프로파일링 및 행동 예측 기술은 우리의 자유를 침해하고 열린 사회를 위협합니다. 유럽연합 집행위원회의 제안은 우리 국민 대다수의 뜻과는 달리 공공 장소에서 고위험 자동 안면 인식 사용을 유럽 연합 전체에 가져올 것입니다. 제안된 절차 요구 사항은 단순한 연막입니다. 우리는 이러한 기술로 특정 집단의 사람들을 차별하고 수많은 개인을 거짓으로 비난하는 것을 허용할 수 없습니다.”

소비자 권리 우산 그룹인 BEUC도 신속하게 비판적이었습니다. 위원회 제안이 "AI 사용 및 문제의 매우 제한된 범위"를 규제하는 데 초점을 맞추기 때문에 소비자 보호에 취약하다고 공격했습니다.

모니크 고옌스(Monique Goyens) Beuc 사무총장은 성명을 통해 “유럽연합 집행위원회는 소비자들이 일상 생활에서 AI를 신뢰할 수 있도록 돕는 데 더 중점을 두어야 했습니다. '고위험', '중간 위험' 또는 '저위험'. EU는 소비자들이 집행 가능한 권리를 가질 수 있도록 더 많은 일을 해야 할 뿐만 아니라 문제가 발생하는 경우 보상 및 구제책을 받을 수 있도록 해야 합니다.”

Airbnb, Apple, Facebook, Google, Microsoft 및 기타 플랫폼 대기업을 포함하는 기술 산업 그룹 Dot Europe(이전 Edima)은 이 제안의 발표를 환영했지만 작성하는 시점에서 아직 세부적인 언급을 하지 않았습니다. 그 위치.

다른 기술 로비 그룹은 AI를 포장하는 형식적인 테이프의 전망에 대해 공격을 시작하기를 기다리지 않았습니다. 이 규정은 워싱턴과 브뤼셀에 기반을 둔 하나의 기술 정책으로 "EU의 초기 AI 산업이 걷는 법을 배우기 전에 무릎을 꿇게 할 것"이라고 주장했습니다. 싱크탱크(데이터 혁신 센터)는 이렇게 말했습니다.

CCIA 무역 협회는 또한 "개발자와 사용자를 위한 불필요한 관료주의"에 대해 신속하게 경고했습니다. 규제 그것만으로는 EU를 리더로 만들 수 없다. AI.

오늘의 제안은 유럽 연합의 공동 입법 과정에서 많은 토론을 시작합니다. 유럽 의회와 EU 이사회를 통한 회원국은 초안에 대해 발언권을 가져야 합니다. 이는 EU 기관이 이 법안에 대한 합의에 도달하기 전에 많은 것이 바뀔 수 있음을 의미합니다. 범 EU AI 규제의 최종 형태.

위원들은 다른 EU 기관이 즉시 참여하고 절차가 최대한 빨리 완료될 수 있기를 희망한다고 말하면서 오늘 법안이 언제 채택될 것인지에 대한 일정을 밝히기를 거부했습니다. 그럼에도 불구하고 규정이 비준되어 시행되기까지 몇 년이 걸릴 수 있습니다.

이 보고서는 위원회 제안에 대한 반응으로 업데이트되었습니다.

출처: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

타임 스탬프 :

더보기 테크 크런치 (TechCrunch)