Η υπεύθυνη τεχνητή νοημοσύνη θα σας δώσει ένα ανταγωνιστικό πλεονέκτημα

Κόμβος πηγής: 1585975

Χάσατε μια συνεδρία από το Future of Work Summit; Κατευθυνθείτε στο δικό μας Βιβλιοθήκη κατά παραγγελία του Future of Work Summit για ροή.


Δεν υπάρχει αμφιβολία ότι η τεχνητή νοημοσύνη αλλάζει το επιχειρηματικό τοπίο και παρέχει ανταγωνιστικά πλεονεκτήματα σε όσους το ασπάζονται. Είναι καιρός, ωστόσο, να προχωρήσουμε πέρα ​​από την απλή εφαρμογή της τεχνητής νοημοσύνης και να διασφαλίσουμε ότι η τεχνητή νοημοσύνη γίνεται με ασφαλή και ηθικό τρόπο. Αυτό ονομάζεται υπεύθυνη AI και θα χρησιμεύσει όχι μόνο ως προστασία από αρνητικές συνέπειες, αλλά και ως ανταγωνιστικό πλεονέκτημα από μόνο του.

Τι είναι το υπεύθυνο AI;

Το Responsible AI είναι ένα πλαίσιο διακυβέρνησης που καλύπτει ζητήματα ηθικής, νομικής, ασφάλειας, ιδιωτικότητας και λογοδοσίας. Αν και η εφαρμογή της υπεύθυνης τεχνητής νοημοσύνης διαφέρει ανάλογα με την εταιρεία, η αναγκαιότητα της είναι ξεκάθαρη. Χωρίς υπεύθυνες πρακτικές τεχνητής νοημοσύνης, μια εταιρεία εκτίθεται σε σοβαρούς οικονομικούς, φήμης και νομικούς κινδύνους. Από τη θετική πλευρά, οι υπεύθυνες πρακτικές τεχνητής νοημοσύνης γίνονται προαπαιτούμενα ακόμη και για την υποβολή προσφορών για ορισμένες συμβάσεις, ειδικά όταν εμπλέκονται κυβερνήσεις. μια καλά εκτελεσμένη στρατηγική θα βοηθήσει πολύ στην απόκτηση αυτών των προσφορών. Επιπλέον, η υιοθέτηση της υπεύθυνης τεχνητής νοημοσύνης μπορεί να συμβάλει σε ένα κέρδος φήμης για την εταιρεία συνολικά.

Αξίες βάσει σχεδίου

Μεγάλο μέρος του προβλήματος με την εφαρμογή της υπεύθυνης τεχνητής νοημοσύνης έγκειται στην προνοητικότητα. Αυτή η πρόβλεψη είναι η ικανότητα πρόβλεψης ηθικών ή νομικών ζητημάτων που θα μπορούσε να έχει ένα σύστημα τεχνητής νοημοσύνης κατά τη διάρκεια του κύκλου ζωής ανάπτυξης και ανάπτυξής του. Αυτήν τη στιγμή, οι περισσότερες από τις υπεύθυνες σκέψεις τεχνητής νοημοσύνης συμβαίνουν μετά την ανάπτυξη ενός προϊόντος τεχνητής νοημοσύνης - ένας πολύ αναποτελεσματικός τρόπος για την εφαρμογή της τεχνητής νοημοσύνης. Εάν θέλετε να προστατέψετε την εταιρεία σας από οικονομικό, νομικό κίνδυνο και κίνδυνο φήμης, πρέπει να ξεκινήσετε έργα έχοντας κατά νου την υπεύθυνη τεχνητή νοημοσύνη. Η εταιρεία σας πρέπει να έχει αξίες βάσει σχεδίου, όχι με ό,τι και αν καταλήξετε στο τέλος ενός έργου.

Εφαρμογή αξιών βάσει σχεδίου

Η υπεύθυνη τεχνητή νοημοσύνη καλύπτει μεγάλο αριθμό αξιών που πρέπει να δοθεί προτεραιότητα από την ηγεσία της εταιρείας. Ενώ η κάλυψη όλων των τομέων είναι σημαντική σε κάθε υπεύθυνο σχέδιο τεχνητής νοημοσύνης, το ποσό της προσπάθειας που καταβάλλει η εταιρεία σας σε κάθε αξία εξαρτάται από τους ηγέτες της εταιρείας. Πρέπει να υπάρχει μια ισορροπία μεταξύ του ελέγχου για υπεύθυνη τεχνητή νοημοσύνη και της πραγματικής εφαρμογής της τεχνητής νοημοσύνης. Εάν καταβάλλετε υπερβολική προσπάθεια για υπεύθυνη τεχνητή νοημοσύνη, η αποτελεσματικότητά σας μπορεί να υποφέρει. Από την άλλη πλευρά, η παράβλεψη της υπεύθυνης τεχνητής νοημοσύνης είναι απερίσκεπτη συμπεριφορά με τους πόρους της εταιρείας. Ο καλύτερος τρόπος για να καταπολεμηθεί αυτό το αντάλλαγμα είναι να ξεκινήσετε με μια ενδελεχή ανάλυση στην αρχή του έργου, και όχι ως εκ των υστέρων προσπάθεια.

Η βέλτιστη πρακτική είναι η σύσταση μιας υπεύθυνης επιτροπής τεχνητής νοημοσύνης για να επανεξετάζει τα έργα τεχνητής νοημοσύνης πριν ξεκινήσουν, περιοδικά κατά τη διάρκεια των έργων και μετά την ολοκλήρωσή τους. Ο σκοπός αυτής της επιτροπής είναι να αξιολογήσει το έργο σε σχέση με τις υπεύθυνες τιμές AI και να εγκρίνει, να απορρίψει ή να απορρίψει ενέργειες για τη συμμόρφωση του έργου. Αυτό μπορεί να περιλαμβάνει αίτημα για λήψη περισσότερων πληροφοριών ή πράγματα που πρέπει να αλλάξουν ριζικά. Όπως ένα θεσμικό συμβούλιο αναθεώρησης που χρησιμοποιείται για την παρακολούθηση της δεοντολογίας στη βιοϊατρική έρευνα, αυτή η επιτροπή θα πρέπει να περιλαμβάνει τόσο εμπειρογνώμονες στην τεχνητή νοημοσύνη όσο και μη τεχνικά μέλη. Τα μη τεχνικά μέλη μπορούν να προέρχονται από οποιοδήποτε υπόβαθρο και να χρησιμεύσουν ως έλεγχος πραγματικότητας στους ειδικούς της τεχνητής νοημοσύνης. Οι ειδικοί της τεχνητής νοημοσύνης, από την άλλη πλευρά, μπορεί να κατανοήσουν καλύτερα τις δυσκολίες και τις πιθανές διορθώσεις, αλλά μπορούν να συνηθίσουν υπερβολικά σε θεσμικούς και βιομηχανικούς κανόνες που μπορεί να μην είναι αρκετά ευαίσθητοι στις ανησυχίες της ευρύτερης κοινότητας. Αυτή η επιτροπή πρέπει να συγκαλείται κατά την έναρξη του έργου, περιοδικά κατά τη διάρκεια του έργου και στο τέλος του έργου για τελική έγκριση.

Ποιες αξίες πρέπει να εξετάσει η Υπεύθυνη Επιτροπή AI;

Οι αξίες στις οποίες πρέπει να εστιάσετε θα πρέπει να ληφθούν υπόψη από την επιχείρηση ώστε να ταιριάζουν στη συνολική δήλωση αποστολής της. Η επιχείρησή σας πιθανότατα θα επιλέξει συγκεκριμένες αξίες για να τονίσει, αλλά θα πρέπει να καλύπτονται όλοι οι κύριοι τομείς ανησυχίας. Υπάρχουν πολλά πλαίσια που μπορείτε να επιλέξετε να χρησιμοποιήσετε για έμπνευση όπως π.χ Της Google και Του Facebook. Για αυτό το άρθρο, ωστόσο, θα βασίσουμε τη συζήτηση στις συστάσεις που διατυπώθηκαν από την Ομάδα Εμπειρογνωμόνων Υψηλού Επιπέδου για την Τεχνητή Νοημοσύνη που συστάθηκε από την Ευρωπαϊκή Επιτροπή στη λίστα αξιολόγησης για την αξιόπιστη τεχνητή νοημοσύνη. Αυτές οι συστάσεις περιλαμβάνουν επτά τομείς. Θα εξερευνήσουμε κάθε περιοχή και θα προτείνουμε ερωτήσεις για κάθε περιοχή.

1. Ανθρώπινη υπηρεσία και επίβλεψη

Τα έργα τεχνητής νοημοσύνης θα πρέπει να σέβονται την ανθρώπινη δράση και τη λήψη αποφάσεων. Αυτή η αρχή περιλαμβάνει τον τρόπο με τον οποίο το έργο AI θα επηρεάσει ή θα υποστηρίξει τους ανθρώπους στη διαδικασία λήψης αποφάσεων. Περιλαμβάνει επίσης πώς τα υποκείμενα της τεχνητής νοημοσύνης θα ενημερωθούν για την τεχνητή νοημοσύνη και θα εμπιστευτούν τα αποτελέσματά της. Μερικές ερωτήσεις που πρέπει να τεθούν περιλαμβάνουν:

  • Γνωρίζουν οι χρήστες ότι μια απόφαση ή ένα αποτέλεσμα είναι το αποτέλεσμα ενός έργου AI;
  • Υπάρχει κάποιος μηχανισμός ανίχνευσης και απόκρισης για την παρακολούθηση των αρνητικών επιπτώσεων του έργου AI;

2. Τεχνική ευρωστία και ασφάλεια

Η τεχνική ευρωστία και η ασφάλεια απαιτούν τα έργα τεχνητής νοημοσύνης να αντιμετωπίζουν προληπτικά τις ανησυχίες σχετικά με τους κινδύνους που σχετίζονται με την αναξιόπιστη απόδοση της τεχνητής νοημοσύνης και να ελαχιστοποιούν τον αντίκτυπό τους. Τα αποτελέσματα του έργου AI θα πρέπει να περιλαμβάνουν την ικανότητα της τεχνητής νοημοσύνης να αποδίδει προβλέψιμα και με συνέπεια και θα πρέπει να καλύπτει την ανάγκη της τεχνητής νοημοσύνης να προστατεύεται από ανησυχίες για την ασφάλεια στον κυβερνοχώρο. Μερικές ερωτήσεις που πρέπει να τεθούν περιλαμβάνουν:

  • Έχει δοκιμαστεί το σύστημα AI από ειδικούς στον τομέα της κυβερνοασφάλειας;
  • Υπάρχει διαδικασία παρακολούθησης για τη μέτρηση και την πρόσβαση στους κινδύνους που σχετίζονται με το έργο AI;

3. Διακυβέρνηση απορρήτου και δεδομένων

Η τεχνητή νοημοσύνη θα πρέπει να προστατεύει το ατομικό και ομαδικό απόρρητο, τόσο στις εισόδους όσο και στις εξόδους της. Ο αλγόριθμος δεν πρέπει να περιλαμβάνει δεδομένα που συγκεντρώθηκαν με τρόπο που παραβιάζει το απόρρητο και δεν πρέπει να δίνει αποτελέσματα που παραβιάζουν το απόρρητο των υποκειμένων, ακόμη και όταν κακοί ηθοποιοί προσπαθούν να επιβάλουν τέτοια σφάλματα. Για να γίνει αυτό αποτελεσματικά, η διακυβέρνηση δεδομένων πρέπει επίσης να αποτελεί ανησυχία. Οι κατάλληλες ερωτήσεις που πρέπει να κάνετε περιλαμβάνουν:

  • Χρησιμοποιεί κάποιο από τα δεδομένα εκπαίδευσης ή συμπερασμάτων προστατευμένα προσωπικά δεδομένα;
  • Μπορούν τα αποτελέσματα αυτού του έργου AI να διασταυρωθούν με εξωτερικά δεδομένα με τρόπο που θα παραβίαζε το απόρρητο ενός ατόμου;

4. Διαφάνεια

Η διαφάνεια καλύπτει ανησυχίες σχετικά με την ιχνηλασιμότητα σε μεμονωμένα αποτελέσματα και τη συνολική επεξήγηση των αλγορίθμων AI. Η ιχνηλασιμότητα επιτρέπει στον χρήστη να κατανοήσει γιατί ελήφθη μια μεμονωμένη απόφαση. Η επεξήγηση αναφέρεται στο ότι ο χρήστης είναι σε θέση να κατανοήσει τα βασικά του αλγορίθμου που χρησιμοποιήθηκε για τη λήψη της απόφασης. Αναφέρεται επίσης στην ικανότητα του χρήστη να κατανοήσει ποιοι παράγοντες εμπλέκονται στη διαδικασία λήψης αποφάσεων για τη συγκεκριμένη πρόβλεψή του. Οι ερωτήσεις που πρέπει να κάνετε είναι:

  • Παρακολουθείτε και καταγράφετε την ποιότητα των δεδομένων εισόδου;
  • Μπορεί ένας χρήστης να λάβει σχόλια σχετικά με το πώς ελήφθη μια συγκεκριμένη απόφαση και τι θα μπορούσε να κάνει για να αλλάξει αυτή την απόφαση;

5. Διαφορετικότητα, μη διάκριση

Για να θεωρηθεί υπεύθυνη τεχνητή νοημοσύνη, το έργο AI πρέπει να λειτουργεί για όλες τις υποομάδες ανθρώπων όσο το δυνατόν καλύτερα. Ενώ AI προκατάληψη σπάνια μπορεί να εξαλειφθεί πλήρως, μπορεί να αντιμετωπιστεί αποτελεσματικά. Αυτός ο μετριασμός μπορεί να λάβει χώρα κατά τη διαδικασία συλλογής δεδομένων — για να συμπεριλάβει ένα πιο ποικίλο υπόβαθρο ατόμων στο σύνολο δεδομένων εκπαίδευσης — και μπορεί επίσης να χρησιμοποιηθεί σε χρόνο συμπερασμάτων για να βοηθήσει στην εξισορρόπηση της ακρίβειας μεταξύ διαφορετικών ομαδοποιήσεων ατόμων. Οι συνήθεις ερωτήσεις περιλαμβάνουν:

  • Ισορροπήσατε όσο το δυνατόν περισσότερο το σύνολο δεδομένων εκπαίδευσης ώστε να συμπεριλάβετε διάφορες υποομάδες ατόμων;
  • Ορίζετε τη δικαιοσύνη και μετά αξιολογείτε ποσοτικά τα αποτελέσματα;

6. Κοινωνική και περιβαλλοντική ευημερία

Ένα έργο τεχνητής νοημοσύνης θα πρέπει να αξιολογείται ως προς τον αντίκτυπό του στα υποκείμενα και στους χρήστες καθώς και ως προς τον αντίκτυπό του στο περιβάλλον. Οι κοινωνικοί κανόνες όπως η δημοκρατική λήψη αποφάσεων, η υποστήριξη των αξιών και η πρόληψη του εθισμού σε έργα τεχνητής νοημοσύνης θα πρέπει να τηρούνται. Επιπλέον, τα αποτελέσματα των αποφάσεων του σχεδίου τεχνητής νοημοσύνης για το περιβάλλον θα πρέπει να λαμβάνονται υπόψη όπου ισχύει. Ένας παράγοντας που ισχύει σχεδόν σε όλες τις περιπτώσεις είναι η αξιολόγηση της ποσότητας ενέργειας που απαιτείται για την εκπαίδευση των απαιτούμενων μοντέλων. Ερωτήσεις που μπορούν να τεθούν:

  • Αξιολογήσατε τον αντίκτυπο του έργου στους χρήστες και στα υποκείμενά του καθώς και σε άλλους ενδιαφερόμενους;
  • Πόση ενέργεια απαιτείται για την εκπαίδευση του μοντέλου και πόσο συμβάλλει αυτό στις εκπομπές άνθρακα;

7. Ευθύνη

Κάποιο άτομο ή οργανισμός πρέπει να είναι υπεύθυνος για τις ενέργειες και τις αποφάσεις που λαμβάνονται από το έργο AI ή αντιμετωπίζονται κατά την ανάπτυξη. Θα πρέπει να υπάρχει ένα σύστημα που να διασφαλίζει επαρκή δυνατότητα προσφυγής σε περιπτώσεις που λαμβάνονται επιζήμιες αποφάσεις. Θα πρέπει επίσης να δοθεί χρόνος και προσοχή στη διαχείριση και τον μετριασμό του κινδύνου. Οι κατάλληλες ερωτήσεις περιλαμβάνουν:

  • Μπορεί το σύστημα AI να ελεγχθεί από τρίτους για κινδύνους;
  • Ποιοι είναι οι κύριοι κίνδυνοι που συνδέονται με το έργο AI και πώς μπορούν να μετριαστούν;

Η κατώτατη γραμμή

Οι επτά αξίες της υπεύθυνης τεχνητής νοημοσύνης που περιγράφονται παραπάνω αποτελούν ένα σημείο εκκίνησης για την υπεύθυνη πρωτοβουλία τεχνητής νοημοσύνης ενός οργανισμού. Οι οργανισμοί που επιλέγουν να επιδιώξουν την υπεύθυνη τεχνητή νοημοσύνη θα ανακαλύψουν ότι έχουν ολοένα και μεγαλύτερη πρόσβαση σε περισσότερες ευκαιρίες — όπως η υποβολή προσφορών για κρατικές συμβάσεις. Οι οργανισμοί που δεν εφαρμόζουν αυτές τις πρακτικές εκτίθενται σε νομικούς, ηθικούς κινδύνους και κινδύνους φήμης.

Ο David Ellison είναι Ανώτερος Επιστήμονας Δεδομένων AI στο Lenovo.

VentureBeat

Η αποστολή της VentureBeat είναι να είναι μια ψηφιακή πλατεία της πόλης για τεχνικούς που λαμβάνουν αποφάσεις για να αποκτήσουν γνώσεις σχετικά με την τεχνολογία μετασχηματισμού και τις συναλλαγές. Ο ιστότοπός μας παρέχει βασικές πληροφορίες σχετικά με τις τεχνολογίες δεδομένων και τις στρατηγικές για να σας καθοδηγήσει καθώς οδηγείτε τους οργανισμούς σας. Σας προσκαλούμε να γίνετε μέλος της κοινότητάς μας, για πρόσβαση:

  • ενημερωμένες πληροφορίες για τα θέματα που σας ενδιαφέρουν
  • τα ενημερωτικά δελτία μας
  • περιφραγμένο περιεχόμενο με ηγέτη σκέψης και μειωμένη πρόσβαση στις βραβευμένες εκδηλώσεις μας, όπως Μετασχηματισμός 2021: Μάθε περισσότερα
  • δυνατότητες δικτύωσης και πολλά άλλα

Γίνετε μέλος

Πηγή: https://venturebeat.com/2022/01/15/responsible-ai-will-give-you-a-competitive-advantage/

Σφραγίδα ώρας:

Περισσότερα από AI - VentureBeat