Η Ευρώπη καταρτίζει σχέδιο για κανόνες τεχνητής νοημοσύνης βάσει κινδύνων για την ενίσχυση της εμπιστοσύνης και της απορρόφησής του

Κόμβος πηγής: 822535

Οι νομοθέτες της Ευρωπαϊκής Ένωσης παρουσίασαν τα δικά τους πρόταση βάσει κινδύνου για τη ρύθμιση εφαρμογών τεχνητής νοημοσύνης υψηλού κινδύνου στην ενιαία αγορά του μπλοκ.

Το σχέδιο περιλαμβάνει απαγορεύσεις σε έναν μικρό αριθμό περιπτώσεων χρήσης που θεωρούνται πολύ επικίνδυνες για την ασφάλεια των ανθρώπων ή τα θεμελιώδη δικαιώματα των πολιτών της ΕΕ, όπως ένα σύστημα βαθμολόγησης κοινωνικής πιστοληπτικής ικανότητας τύπου Κίνας ή ορισμένους τύπους μαζικής παρακολούθησης με δυνατότητα AI.

Οι περισσότερες χρήσεις της τεχνητής νοημοσύνης δεν θα αντιμετωπίζουν καμία ρύθμιση (πόσο μάλλον απαγόρευση) βάσει της πρότασης, αλλά ένα υποσύνολο των αποκαλούμενων χρήσεων «υψηλού κινδύνου» θα υπόκεινται σε συγκεκριμένες κανονιστικές απαιτήσεις, τόσο εκ των προτέρων (πριν) όσο και εκ των υστέρων (μετά ) κυκλοφορίας στην αγορά.

Υπάρχουν επίσης απαιτήσεις διαφάνειας για ορισμένες περιπτώσεις χρήσης του AI - όπως chatbots και deepfakes - όπου οι νομοθέτες της ΕΕ πιστεύουν ότι ο πιθανός κίνδυνος μπορεί να μετριαστεί με την ενημέρωση των χρηστών ότι αλληλεπιδρούν με κάτι τεχνητό.

Ο σχεδιαζόμενος νόμος προορίζεται να εφαρμοστεί σε οποιαδήποτε εταιρεία που πωλεί ένα προϊόν ή υπηρεσία AI στην ΕΕ, όχι μόνο σε εταιρείες και άτομα με έδρα την ΕΕ - έτσι, όπως και με το καθεστώς προστασίας δεδομένων της ΕΕ, θα έχει εξωεδαφικό πεδίο εφαρμογής.

Ο πρωταρχικός στόχος για τους νομοθέτες της ΕΕ είναι να προωθήσει την εμπιστοσύνη του κοινού στον τρόπο με τον οποίο εφαρμόζεται η τεχνητή νοημοσύνη για να ενισχύσει την υιοθέτηση της τεχνολογίας. Ανώτεροι αξιωματούχοι της Επιτροπής μιλούν για την επιθυμία ανάπτυξης ενός «οικοσυστήματος αριστείας» που να ευθυγραμμίζεται με τις ευρωπαϊκές αξίες.

«Σήμερα, στοχεύουμε να κάνουμε την Ευρώπη παγκόσμιας κλάσης στην ανάπτυξη μιας ασφαλούς, αξιόπιστης και ανθρωποκεντρικής Τεχνητής Νοημοσύνης και στη χρήση της», δήλωσε η EVP της Επιτροπής, Margrethe Vestager, ανακοινώνοντας την έγκριση της πρότασης σε συνέντευξη Τύπου.

«Από τη μία πλευρά, ο κανονισμός μας αντιμετωπίζει τους ανθρώπινους και κοινωνικούς κινδύνους που σχετίζονται με συγκεκριμένες χρήσεις της τεχνητής νοημοσύνης. Αυτό είναι για τη δημιουργία εμπιστοσύνης. Από την άλλη πλευρά, το συντονισμένο σχέδιό μας περιγράφει τα απαραίτητα μέτρα που πρέπει να λάβουν τα κράτη μέλη για την ενίσχυση των επενδύσεων και της καινοτομίας. Για να εγγυηθείτε την αριστεία. Όλα αυτά, για να διασφαλίσουμε ότι θα ενισχύσουμε την υιοθέτηση της τεχνητής νοημοσύνης σε ολόκληρη την Ευρώπη ».

Σύμφωνα με την πρόταση, οι υποχρεωτικές απαιτήσεις επισυνάπτονται σε μια κατηγορία "υψηλού κινδύνου" εφαρμογών AI - που σημαίνει αυτές παρουσιάζουν σαφή κίνδυνο ασφάλειας ή απειλούν να προσκρούσουν Θεμελιώδη δικαιώματα της ΕΕ (όπως το δικαίωμα στη μη διάκριση).

Παραδείγματα περιπτώσεων χρήσης τεχνητής νοημοσύνης υψηλού κινδύνου που θα υπόκεινται στο υψηλότερο επίπεδο ρύθμισης σχετικά με τη χρήση παρατίθενται στο παράρτημα 3 του κανονισμού — τον οποίο η Επιτροπή είπε ότι θα έχει την εξουσία να επεκτείνει με κατ' εξουσιοδότηση πράξεις, ως περιπτώσεις χρήσης Η τεχνητή νοημοσύνη συνεχίζει να αναπτύσσεται και οι κίνδυνοι εξελίσσονται.

Προς το παρόν παραδείγματα υψηλού κινδύνου εμπίπτουν στις ακόλουθες κατηγορίες: Βιομετρική αναγνώριση και κατηγοριοποίηση φυσικών προσώπων. Διαχείριση και λειτουργία κρίσιμης υποδομής · Εκπαίδευση και επαγγελματική κατάρτιση · Απασχόληση, διαχείριση εργαζομένων και πρόσβαση στην αυτοαπασχόληση · Πρόσβαση και απόλαυση βασικών ιδιωτικών υπηρεσιών και δημόσιων υπηρεσιών και παροχών · Επιβολή του νόμου; Διαχείριση μετανάστευσης, ασύλου και ελέγχου των συνόρων · Διαχείριση της δικαιοσύνης και των δημοκρατικών διαδικασιών.

Οι στρατιωτικές χρήσεις της τεχνητής νοημοσύνης εξαιρούνται συγκεκριμένα από το πεδίο εφαρμογής, καθώς ο κανονισμός επικεντρώνεται στην εσωτερική αγορά του μπλοκ.

Οι κατασκευαστές εφαρμογών υψηλού κινδύνου θα έχουν ένα σύνολο εκ των προτέρων υποχρεώσεων που πρέπει να συμμορφώνονται προτού διαθέσουν το προϊόν τους στην αγορά, συμπεριλαμβανομένης της ποιότητας των συνόλων δεδομένων που χρησιμοποιούνται για την εκπαίδευση των AIs τους και ενός επιπέδου ανθρώπινης εποπτείας όχι μόνο για το σχεδιασμό αλλά και τη χρήση. του συστήματος - καθώς και τρέχουσες, εκ των υστέρων απαιτήσεις, με τη μορφή εποπτείας μετά την αγορά.

Άλλες απαιτήσεις περιλαμβάνουν την ανάγκη δημιουργίας εγγραφών του συστήματος AI ώστε να επιτρέπονται έλεγχοι συμμόρφωσης και επίσης να παρέχονται σχετικές πληροφορίες στους χρήστες. Η ευρωστία, η ακρίβεια και η ασφάλεια του συστήματος AI θα υπόκεινται επίσης σε κανονισμούς.

Αξιωματούχοι της Επιτροπής πρότειναν ότι η συντριπτική πλειονότητα των εφαρμογών τεχνητής νοημοσύνης θα εμπίπτει σε αυτήν την κατηγορία με υψηλή ρύθμιση. Οι κατασκευαστές αυτών των συστημάτων AI «χαμηλού κινδύνου» θα ενθαρρύνονται απλώς να υιοθετήσουν (μη νομικά δεσμευτικούς) κώδικες συμπεριφοράς κατά τη χρήση.

Οι κυρώσεις για παραβίαση των κανόνων για συγκεκριμένες απαγορεύσεις υποθέσεων χρήσης AI έχουν τεθεί σε ποσοστό έως και 6% του παγκόσμιου ετήσιου κύκλου εργασιών ή 30 εκατ. Ευρώ (όποιο είναι μεγαλύτερο). Ενώ οι παραβιάσεις των κανόνων που σχετίζονται με εφαρμογές υψηλού κινδύνου μπορούν να κλιμακώσουν έως και 4% (ή 20 εκατομμύρια ευρώ).

Η επιβολή θα περιλαμβάνει πολλούς οργανισμούς σε κάθε κράτος μέλος της ΕΕ - με την πρόταση να προβλέπεται η εποπτεία από υφιστάμενους (σχετικούς) οργανισμούς, όπως φορείς ασφάλειας προϊόντων και υπηρεσίες προστασίας δεδομένων.

Αυτό εγείρει άμεσα ερωτήματα σχετικά με την επαρκή διάθεση πόρων των εθνικών φορέων, δεδομένης της πρόσθετης εργασίας και της τεχνικής πολυπλοκότητας που θα αντιμετωπίσουν κατά την αστυνόμευση των κανόνων τεχνητής νοημοσύνης. και επίσης πώς θα αποφευχθούν τα σημεία συμφόρησης επιβολής σε ορισμένα κράτη μέλη. (Ειδικά, ο Γενικός Κανονισμός της ΕΕ για την Προστασία Δεδομένων εποπτεύεται επίσης σε επίπεδο κρατών μελών και έχει υποφέρει από έλλειψη ομοιόμορφα αυστηρής επιβολής.)

Θα δημιουργηθεί επίσης μια πανευρωπαϊκή βάση δεδομένων για τη δημιουργία ενός μητρώου συστημάτων υψηλού κινδύνου που θα εφαρμοστούν στο μπλοκ (το οποίο θα διαχειρίζεται η Επιτροπή).

Ένα νέο όργανο, που ονομάζεται Ευρωπαϊκό Συμβούλιο Τεχνητής Νοημοσύνης (EAIB), θα συσταθεί επίσης για να υποστηρίξει μια συνεπή εφαρμογή του κανονισμού - σε έναν καθρέφτη προς το Ευρωπαϊκό Συμβούλιο Προστασίας Δεδομένων που παρέχει οδηγίες για την εφαρμογή του GDPR.

Σε συμφωνία με τους κανόνες για ορισμένες χρήσεις της τεχνητής νοημοσύνης, το σχέδιο περιλαμβάνει μέτρα για το συντονισμό της υποστήριξης των κρατών μελών της ΕΕ για την ανάπτυξη της τεχνητής νοημοσύνης — όπως η δημιουργία ρυθμιστικών sandbox για να βοηθηθούν οι νεοφυείς επιχειρήσεις και οι ΜΜΕ να αναπτύξουν και να δοκιμάσουν καινοτομίες που τροφοδοτούνται από τεχνητή νοημοσύνη — και μέσω της προοπτικής στοχευμένη χρηματοδότηση της ΕΕ για την υποστήριξη προγραμματιστών τεχνητής νοημοσύνης.

Ο Επίτροπος Εσωτερικής Αγοράς Τιερί Μπρετόν είπε ότι οι επενδύσεις είναι ένα κρίσιμο κομμάτι του σχεδίου.

«Στα πλαίσια του προγράμματος Digital Europe και Horizon Europe, πρόκειται να ελευθερώνουμε ένα δισεκατομμύριο ευρώ ετησίως. Και επιπλέον, θέλουμε να δημιουργήσουμε ιδιωτικές επενδύσεις και συλλογικές επενδύσεις σε όλη την ΕΕ ύψους 20 δισεκατομμυρίων ευρώ ετησίως την επόμενη δεκαετία — την «ψηφιακή δεκαετία» όπως την αποκαλέσαμε», είπε. «Θέλουμε επίσης να έχουμε 140 δισεκατομμύρια ευρώ που θα χρηματοδοτούν ψηφιακές επενδύσεις στο πλαίσιο του Next Generation EU [ταμείο ανάκαμψης COVID-19] — και εν μέρει στην τεχνητή νοημοσύνη».

Η διαμόρφωση κανόνων για την τεχνητή νοημοσύνη αποτελεί βασική προτεραιότητα για τον πρόεδρο της ΕΕ Ursula von der Leyen που ανέλαβε τη θέση της στα τέλη του 2019. Εκδόθηκε μια λευκή βίβλος πέρυσι, ακολουθώντας ένα AI AI 2018 για στρατηγική ΕΕ - και ο Vestager είπε ότι η σημερινή πρόταση είναι το αποκορύφωμα της τριετούς δουλειάς.

Ο Breton πρόσθεσε ότι η παροχή καθοδήγησης στις επιχειρήσεις για την εφαρμογή της τεχνητής νοημοσύνης θα τους δώσει ασφάλεια δικαίου και στην Ευρώπη προβάδισμα. «Η εμπιστοσύνη… πιστεύουμε ότι είναι ζωτικής σημασίας για να επιτρέψουμε την ανάπτυξη της τεχνητής νοημοσύνης που θέλουμε», είπε. Οι [εφαρμογές τεχνητής νοημοσύνης] πρέπει να είναι αξιόπιστες, ασφαλείς, χωρίς διακρίσεις — αυτό είναι απολύτως σημαντικό — αλλά φυσικά πρέπει επίσης να μπορούμε να καταλάβουμε πώς ακριβώς θα λειτουργήσουν αυτές οι εφαρμογές».

«Αυτό που χρειαζόμαστε είναι να έχουμε καθοδήγηση. Ειδικά σε μια νέα τεχνολογία… Είμαστε, θα είμαστε, η πρώτη ήπειρος όπου θα δώσουμε οδηγίες - θα πούμε «hey, αυτό είναι πράσινο, αυτό είναι σκούρο πράσινο, αυτό ίσως είναι λίγο πορτοκαλί και αυτό απαγορεύεται» . Τώρα λοιπόν εάν θέλετε να χρησιμοποιήσετε εφαρμογές τεχνητής νοημοσύνης, μεταβείτε στην Ευρώπη! Θα ξέρετε τι να κάνετε, θα ξέρετε πώς να το κάνετε, θα έχετε συνεργάτες που καταλαβαίνουν πολύ καλά και, παρεμπιπτόντως, θα έρθετε επίσης στην ήπειρο όπου θα έχετε τη μεγαλύτερη ποσότητα βιομηχανικών δεδομένων που δημιουργούνται στον πλανήτη για τα επόμενα δέκα χρόνια.

«Λοιπόν, ελάτε εδώ - επειδή η τεχνητή νοημοσύνη αφορά τα δεδομένα - θα σας δώσουμε τις οδηγίες. Θα έχουμε επίσης τα εργαλεία για να το κάνουμε και την υποδομή. "

Μια έκδοση της σημερινής πρότασης διέρρευσε την περασμένη εβδομάδα - οδηγει σε κλήσεις από ευρωβουλευτές να ενισχύσουν το σχέδιο, Όπως απαγορεύοντας την απομακρυσμένη βιομετρική παρακολούθηση σε δημόσιους χώρους.

Σε περίπτωση που η τελική πρόταση αντιμετωπίζει την απομακρυσμένη βιομετρική επιτήρηση ως εφαρμογή ιδιαίτερα υψηλού κινδύνου της τεχνητής νοημοσύνης - και υπάρχει κυρίως απαγόρευση της δημόσιας χρήσης της τεχνολογίας από τις αρχές επιβολής του νόμου.

Ωστόσο, η χρήση δεν απαγορεύεται πλήρως, με ορισμένες εξαιρέσεις όπου οι αρχές επιβολής του νόμου θα εξακολουθούν να είναι σε θέση να την χρησιμοποιούν, υπό την προϋπόθεση μιας έγκυρης νομικής βάσης και κατάλληλης εποπτείας.

Οι προστασίες επιτέθηκαν ως πολύ αδύναμες

Οι αντιδράσεις στην πρόταση της Επιτροπής περιελάμβαναν κριτική για υπερβολικά ευρείες εξαιρέσεις για την επιβολή του νόμου, καθώς και ανησυχία ότι τα μέτρα για την αντιμετώπιση του κινδύνου διάκρισης συστημάτων τεχνητής νοημοσύνης δεν φτάνουν αρκετά μακριά.

Η ΜΚΟ ποινικής δικαιοσύνης, Fair Trials, δήλωσε ότι απαιτούνται ριζικές βελτιώσεις, προκειμένου ο κανονισμός να περιέχει ουσιαστικές διασφαλίσεις σε σχέση με την ποινική δικαιοσύνη. Σχολιάζοντας μια δήλωση, Ο Griff Ferris, νομικός και υπεύθυνος πολιτικής για τη ΜΚΟ είπε: «Οι προτάσεις της ΕΕ χρειάζονται ριζοσπαστικές αλλαγές για να αποτρέψουν τη συνεχιζόμενη διάκριση στα αποτελέσματα της ποινικής δικαιοσύνης, να προστατεύσουν το τεκμήριο αθωότητας και να διασφαλίσουν ουσιαστική λογοδοσία για την τεχνητή νοημοσύνη στην ποινική δικαιοσύνη. 

«Η νομοθεσία δεν διαθέτει εγγυήσεις κατά των διακρίσεων, ενώ η ευρεία εξαίρεση για την« προστασία της δημόσιας ασφάλειας »υπονομεύει εντελώς τις μικρές εγγυήσεις που υπάρχουν σε σχέση με την ποινική δικαιοσύνη. Το πλαίσιο πρέπει να περιλαμβάνει αυστηρές διασφαλίσεις και περιορισμούς για την πρόληψη των διακρίσεων και την προστασία του δικαιώματος για δίκαιη δίκη. Αυτό πρέπει να περιλαμβάνει τον περιορισμό της χρήσης συστημάτων που προσπαθούν να σχεδιάσουν άτομα και να προβλέψουν τον κίνδυνο εγκληματικότητας. " 

Η Ένωση Πολιτικών Ελευθεριών για την Ευρώπη (Liberties) έπληξε επίσης τα κενά που η ΜΚΟ είπε ότι θα επιτρέψουν στα κράτη μέλη της ΕΕ να παρακάμψουν τις απαγορεύσεις για προβληματικές χρήσεις της τεχνητής νοημοσύνης.

«Υπάρχουν πάρα πολλές προβληματικές χρήσεις της τεχνολογίας που επιτρέπονται, όπως η χρήση αλγορίθμων για την πρόβλεψη του εγκλήματος ή για να εκτιμήσουν οι υπολογιστές τη συναισθηματική κατάσταση των ανθρώπων που βρίσκονται υπό τον έλεγχο των συνόρων, οι οποίοι αποτελούν σοβαρούς κινδύνους για τα ανθρώπινα δικαιώματα και αποτελούν απειλή στις αξίες της ΕΕ », προειδοποίησε ο Orsolya Reich, ανώτερος υπεύθυνος υπεράσπισης, σε δήλωση. «Ανησυχούμε επίσης ότι η αστυνομία θα μπορούσε να χρησιμοποιήσει την τεχνολογία αναγνώρισης προσώπου με τρόπους που θέτουν σε κίνδυνο τα θεμελιώδη δικαιώματα και ελευθερίες μας».

Ο Πάτρικ Μπρέιερ, Γερμανός ευρωβουλευτής των πειρατών, προειδοποίησε επίσης ότι η πρόταση δεν ανταποκρίνεται στον ισχυρισμό του σεβασμού των «ευρωπαϊκών αξιών». Ο ευρωβουλευτής ήταν ένας από τους 40 που υπέγραψαν επιστολή προς την Επιτροπή την περασμένη εβδομάδα προειδοποιώντας τότε ότι μια διαρροή έκδοση της πρότασης δεν προχώρησε αρκετά για την προστασία των θεμελιωδών δικαιωμάτων.

«Πρέπει να αδράξουμε την ευκαιρία να αφήσουμε την Ευρωπαϊκή Ένωση να φέρει την τεχνητή νοημοσύνη σύμφωνα με τις ηθικές απαιτήσεις και τις δημοκρατικές αξίες. Δυστυχώς, η πρόταση της Επιτροπής δεν μας προστατεύει από τους κινδύνους της δικαιοσύνης των φύλων και της ίσης μεταχείρισης όλων των ομάδων, όπως μέσω συστημάτων αναγνώρισης προσώπου ή άλλων ειδών μαζικής παρακολούθησης », δήλωσε ο Breyer σε δήλωση που αντιδρά σήμερα στην επίσημη πρόταση.

«Η βιομετρική και η μαζική παρακολούθηση, το προφίλ και η τεχνολογία πρόβλεψης συμπεριφοράς στους δημόσιους χώρους μας υπονομεύουν την ελευθερία μας και απειλούν τις ανοιχτές κοινωνίες μας. Η πρόταση της Ευρωπαϊκής Επιτροπής θα φέρει τη χρήση υψηλού κινδύνου της αυτόματης αναγνώρισης προσώπου σε δημόσιους χώρους σε ολόκληρη την Ευρωπαϊκή Ένωση, σε αντίθεση με τη βούληση της πλειοψηφίας των πολιτών μας. Οι προτεινόμενες διαδικαστικές απαιτήσεις είναι μια απλή οθόνη καπνού. Δεν μπορούμε να επιτρέψουμε τη διάκριση ορισμένων ομάδων ανθρώπων και την ψευδή ενοχή αμέτρητων ατόμων από αυτές τις τεχνολογίες »

Η ομάδα ομπρέλα για τα δικαιώματα των καταναλωτών, BEUC, στάθηκε επίσης γρήγορα επικριτική – επικρίνοντας την πρόταση της Επιτροπής ως αδύναμη στην προστασία των καταναλωτών επειδή εστιάζει στη ρύθμιση «ένα πολύ περιορισμένο φάσμα χρήσεων και ζητημάτων τεχνητής νοημοσύνης».

«Η Ευρωπαϊκή Επιτροπή θα έπρεπε να έχει δώσει μεγαλύτερη έμφαση στο να βοηθά τους καταναλωτές να εμπιστεύονται την τεχνητή νοημοσύνη στην καθημερινή τους ζωή», δήλωσε η Monique Goyens, γενική διευθύντρια του Beuc, σε μια δήλωση: «Οι άνθρωποι πρέπει να μπορούν να εμπιστεύονται οποιοδήποτε προϊόν ή υπηρεσία που τροφοδοτείται από τεχνητή νοημοσύνη, είτε είναι «υψηλού κινδύνου», «μεσαίου κινδύνου» ή «χαμηλού κινδύνου». Η ΕΕ πρέπει να κάνει περισσότερα για να διασφαλίσει ότι οι καταναλωτές έχουν εκτελεστά δικαιώματα, καθώς και πρόσβαση σε ένδικα μέσα και διορθωτικά μέτρα σε περίπτωση που κάτι πάει στραβά. "

Η ομάδα τεχνολογίας Dot Europe (πρώην Edima) — μέλη της οποίας περιλαμβάνουν Airbnb, Apple, Facebook, Google, Microsoft και άλλους γίγαντες πλατφορμών — χαιρέτισε την κυκλοφορία της πρότασης, αλλά δεν είχε ακόμη κάνει λεπτομερείς παρατηρήσεις τη στιγμή της σύνταξης, λέγοντας ότι διατυπώνει τη θέση του.

Άλλες ομάδες λόμπι τεχνολογίας δεν περίμεναν να προχωρήσουν στην επίθεση με την προοπτική της γραφειοκρατίας περιτυλίγματος της τεχνητής νοημοσύνης - ισχυριζόμενοι ότι ο κανονισμός θα «γονάτιζε την εκκολαπτόμενη βιομηχανία τεχνητής νοημοσύνης της ΕΕ προτού μπορέσει να μάθει να περπατά» ως μια πολιτική τεχνολογίας με έδρα την Ουάσινγκτον και τις Βρυξέλλες Το thinktank (το Κέντρο Καινοτομίας Δεδομένων) το έθεσε.

Η εμπορική ένωση της CCIA προειδοποίησε επίσης γρήγορα για «περιττή γραφειοκρατία για προγραμματιστές και χρήστες», προσθέτοντας ότι κανονισμός από μόνη της δεν θα κάνει την ΕΕ ηγέτη AI.

Η σημερινή πρόταση ξεκινά την έναρξη πολλών συζητήσεων στο πλαίσιο της συν-νομοθετικής διαδικασίας της ΕΕ, με το Ευρωπαϊκό Κοινοβούλιο και τα κράτη μέλη μέσω του Συμβουλίου της ΕΕ να χρειαστεί να εκφράσουν τη γνώμη τους για το σχέδιο - πράγμα που σημαίνει ότι πολλά θα μπορούσαν να αλλάξουν προτού τα θεσμικά όργανα της ΕΕ καταλήξουν σε συμφωνία για τελικό σχήμα ενός πανευρωπαϊκού κανονισμού AI.

Οι Επίτροποι αρνήθηκαν να δώσουν ένα χρονοδιάγραμμα για το πότε θα μπορούσε να εκδοθεί νομοθεσία σήμερα, λέγοντας μόνο ότι ήλπιζαν ότι τα άλλα θεσμικά όργανα της ΕΕ θα συμμετάσχουν αμέσως και ότι η διαδικασία θα μπορούσε να γίνει το συντομότερο δυνατόν. Ωστόσο, θα μπορούσε να είναι αρκετά χρόνια πριν από την επικύρωση και έναρξη ισχύος του κανονισμού.

Η έκθεση αυτή ενημερώθηκε με αντιδράσεις στην πρόταση της Επιτροπής

Πηγή: https://techcrunch.com/2021/04/21/europe-lays-out-plan-for-risk-based-ai-rules-to-boost-trust-and-uptake/

Σφραγίδα ώρας:

Περισσότερα από TechCrunch