The New Ethical Implications of Generative Artificial Intelligence - KDnuggets

Οι νέες ηθικές επιπτώσεις της γενετικής τεχνητής νοημοσύνης – KDnuggets

Κόμβος πηγής: 2373068

Ο ρυθμός με τον οποίο προχωρά το προηγμένο τοπίο της τεχνητής νοημοσύνης είναι πολύ γρήγορος. Αλλά και οι κίνδυνοι που το συνοδεύουν.

Η κατάσταση είναι τέτοια που έχει γίνει δύσκολο για τους ειδικούς να προβλέψουν τους κινδύνους.

Ενώ οι περισσότεροι ηγέτες δίνουν ολοένα και μεγαλύτερη προτεραιότητα Εφαρμογές GenAI τους επόμενους μήνες, είναι επίσης δύσπιστοι για τους κινδύνους που συνεπάγεται – ανησυχίες για την ασφάλεια των δεδομένων και μεροληπτικά αποτελέσματα, για να αναφέρουμε μερικά.

Μαρκ Σούζμαν, Διευθύνων Σύμβουλος του Ιδρύματος Bill & Melinda Gates, πιστεύει ότι «ενώ αυτή η τεχνολογία μπορεί να οδηγήσει σε ανακαλύψεις που μπορούν να επιταχύνουν την επιστημονική πρόοδο και να ενισχύσουν τα μαθησιακά αποτελέσματα, η ευκαιρία δεν είναι χωρίς κίνδυνο».

 

Οι Νέες Ηθικές Επιπτώσεις της Παραγωγικής Τεχνητής Νοημοσύνης
Εικόνα από συγγραφέα

Ας ξεκινήσουμε με τα δεδομένα

Σκεφτείτε αυτό – ένας διάσημος δημιουργός μοντέλων Generative AI δηλώνει, «Αυτό συλλέγει προσωπικά στοιχεία όπως όνομα, διεύθυνση ηλεκτρονικού ταχυδρομείου και πληροφορίες πληρωμής όταν είναι απαραίτητο για επαγγελματικούς σκοπούς."

Πρόσφατες φορές έχουν δείξει πολλούς τρόπους με τους οποίους μπορεί να πάει στραβά χωρίς καθοδηγητικό πλαίσιο. 

  • Η Ιταλία εξέφρασε ανησυχίες για παράνομη συλλογή προσωπικών δεδομένων από χρήστες, παραθέτοντας «καμία νομική βάση για να δικαιολογήσει τη μαζική συλλογή και αποθήκευση προσωπικών δεδομένων για την «εκπαίδευση» των αλγορίθμων που διέπουν τη λειτουργία της πλατφόρμας».
  • Η Επιτροπή Προστασίας Προσωπικών Πληροφοριών της Ιαπωνίας επίσης εξέδωσε προειδοποίηση για ελάχιστη συλλογή δεδομένων για την εκπαίδευση μοντέλων μηχανικής μάθησης.
  • Οι ηγέτες του κλάδου στο HBR ηχώ ανησυχίες για την ασφάλεια των δεδομένων και μεροληπτικά αποτελέσματα

Καθώς τα μοντέλα Generative AI εκπαιδεύονται σε δεδομένα από σχεδόν όλο το Διαδίκτυο, είμαστε ένα κλασματικό τμήμα που κρύβεται σε αυτά τα επίπεδα νευρωνικών δικτύων. Αυτό τονίζει την ανάγκη συμμόρφωσης με τους κανονισμούς περί απορρήτου δεδομένων και να μην εκπαιδεύονται μοντέλα στα δεδομένα των χρηστών χωρίς τη συγκατάθεσή τους.

Πρόσφατα, σε μία από τις εταιρείες επιβλήθηκε πρόστιμο επειδή κατασκεύασε ένα εργαλείο αναγνώρισης προσώπου, αφαιρώντας selfies από το διαδίκτυο, κάτι που οδήγησε σε παραβίαση του απορρήτου και βαρύ πρόστιμο.

 

Οι Νέες Ηθικές Επιπτώσεις της Παραγωγικής Τεχνητής Νοημοσύνης
πηγή: TechCrunch
 

Ωστόσο, η ασφάλεια των δεδομένων, το απόρρητο και η μεροληψία υπήρχαν όλα από προγενέστερους χρόνους AI. Τότε, τι έχει αλλάξει με την κυκλοφορία των εφαρμογών Generative AI;

Λοιπόν, ορισμένοι υπάρχοντες κίνδυνοι έχουν γίνει μόνο πιο επικίνδυνοι, δεδομένης της κλίμακας στην οποία εκπαιδεύονται και αναπτύσσονται τα μοντέλα. Ας καταλάβουμε πώς.

Παραισθήσεις, έγκαιρη ένεση και έλλειψη διαφάνειας

Η κατανόηση των εσωτερικών λειτουργιών τέτοιων κολοσσιαίων μοντέλων για να εμπιστευτείτε την απάντησή τους έχει γίνει ακόμη πιο σημαντική. Σύμφωνα με τα λόγια της Microsoft, αυτοί οι αναδυόμενοι κίνδυνοι οφείλονται στο ότι τα LLM είναι «σχεδιασμένα για να δημιουργούν κείμενο που φαίνεται συνεκτικό και κατάλληλο με βάση τα συμφραζόμενα αντί να τηρεί την πραγματική ακρίβεια». 

Κατά συνέπεια, τα μοντέλα θα μπορούσαν να παράγουν παραπλανητικές και εσφαλμένες απαντήσεις, που συνήθως ονομάζονται παραισθήσεις. Μπορεί να εμφανιστούν όταν το μοντέλο δεν έχει εμπιστοσύνη στις προβλέψεις, οδηγώντας στη δημιουργία λιγότερο ακριβών ή άσχετων πληροφοριών.

Επιπλέον, η προτροπή είναι ο τρόπος με τον οποίο αλληλεπιδρούμε με τα γλωσσικά μοντέλα. Τώρα, οι κακοί ηθοποιοί θα μπορούσαν να δημιουργήσουν επιβλαβές περιεχόμενο με ένεση προτροπών. 

Υπευθυνότητα όταν η τεχνητή νοημοσύνη πάει στραβά;

Η χρήση των LLM εγείρει ηθικά ερωτήματα σχετικά με τη λογοδοσία και την ευθύνη για το αποτέλεσμα που δημιουργείται από αυτά τα μοντέλα και τα προκατειλημμένα αποτελέσματα, όπως επικρατεί σε όλα τα μοντέλα AI.

Οι κίνδυνοι επιδεινώνονται με τις εφαρμογές υψηλού κινδύνου, όπως στον τομέα της υγειονομικής περίθαλψης – σκεφτείτε τις επιπτώσεις των λανθασμένων ιατρικών συμβουλών στην υγεία και τη ζωή του ασθενούς.

Η ουσία είναι ότι οι οργανισμοί πρέπει να οικοδομήσουν ηθικούς, διαφανείς και υπεύθυνους τρόπους ανάπτυξης και χρήσης Generative AI.

Εάν ενδιαφέρεστε να μάθετε περισσότερα σχετικά με το ποιος είναι η ευθύνη για τη σωστή δημιουργία του Generative AI, σκεφτείτε να διαβάσετε αυτό το post που περιγράφει πώς όλοι μας μπορούμε να ενωθούμε ως κοινότητα για να το κάνουμε να λειτουργήσει.

Παραβίαση πνευματικών δικαιωμάτων

Καθώς αυτά τα μεγάλα μοντέλα είναι κατασκευασμένα πάνω από παγκόσμιο υλικό, είναι πολύ πιθανό να καταναλώνουν δημιουργία – μουσική, βίντεο ή βιβλία.

Εάν τα δεδομένα που προστατεύονται από πνευματικά δικαιώματα χρησιμοποιούνται για την εκπαίδευση μοντέλων AI χωρίς να ληφθούν τα απαραίτητα άδεια, πίστωση ή αποζημίωση οι αρχικοί δημιουργοί, οδηγεί σε παραβίαση πνευματικών δικαιωμάτων και μπορεί να φέρει τους προγραμματιστές σε σοβαρά νομικά προβλήματα.

 

Οι Νέες Ηθικές Επιπτώσεις της Παραγωγικής Τεχνητής Νοημοσύνης
Εικόνα από Search Engine Εφημερίδα

Deepfake, παραπληροφόρηση και χειραγώγηση

Αυτό που έχει μεγάλες πιθανότητες να δημιουργήσει σάλο σε κλίμακα είναι τα deepfakes—αναρωτιέστε σε ποια ικανότητα deepfake μπορεί να μας προσγειώσει;

Είναι συνθετικές δημιουργίες – κείμενο, εικόνες ή βίντεο, που μπορούν ψηφιακή χειραγώγηση της εμφάνισης του προσώπου μέσω μεθόδων βαθιάς παραγωγής.

Αποτέλεσμα? Εκφοβισμός, παραπληροφόρηση, φάρσες, εκδίκηση ή απάτη – κάτι που δεν ταιριάζει στον ορισμό ενός ευημερούντος κόσμου.

Η ανάρτηση σκοπεύει να ενημερώσει όλους ότι η τεχνητή νοημοσύνη είναι ένα δίκοπο μαχαίρι – δεν είναι όλη η μαγεία που λειτουργεί μόνο σε πρωτοβουλίες που έχουν σημασία. μέρος του είναι και οι κακοί ηθοποιοί.

Εκεί πρέπει να σηκώσουμε τους φρουρούς μας.

Δείτε τα τελευταία νέα για ένα ψεύτικο βίντεο που τονίζει την αποχώρηση μιας από τις πολιτικές προσωπικότητες από τις επερχόμενες εκλογές.

Ποιο θα μπορούσε να είναι το κίνητρο; – μπορεί να σκεφτείς. Λοιπόν, τέτοια παραπληροφόρηση εξαπλώνεται σαν φωτιά σε χρόνο μηδέν και μπορεί επηρεάζουν σοβαρά την κατεύθυνση της εκλογικής διαδικασίας.

Λοιπόν, τι μπορούμε να μην πέσουμε θύματα τέτοιων ψεύτικων πληροφοριών;

Υπάρχουν διάφορες γραμμές άμυνας, ας ξεκινήσουμε από τις πιο βασικές:

  • Να είστε δύσπιστοι και αμφίβολοι για όλα όσα βλέπετε γύρω σας
  • Γυρίστε την προεπιλεγμένη λειτουργία σας - "μπορεί να μην είναι αλήθεια", αντί να λαμβάνετε τα πάντα στην ονομαστική τους αξία. Εν ολίγοις, αμφισβητήστε τα πάντα γύρω σας.
  • Επιβεβαιώστε το δυνητικά ύποπτο ψηφιακό περιεχόμενο από πολλές πηγές

Εξέχοντες ερευνητές τεχνητής νοημοσύνης και ειδικοί του κλάδου όπως ο Yoshua Bengio, ο Stuart Russell, ο Elon Musk, ο Steve Wozniak και ο Yuval Noah Harari έχουν επίσης εκφράσει τις ανησυχίες τους, ζητώντας να σταματήσει η ανάπτυξη τέτοιων συστημάτων AI. 

Υπάρχει ένας μεγάλος διαφαινόμενος φόβος ότι ο αγώνας για την κατασκευή προηγμένης τεχνητής νοημοσύνης, που ταιριάζει με την ανδρεία του Generative AI μπορεί γρήγορα να ξεσπάσει και να βγει εκτός ελέγχου. 

Microsoft πρόσφατα ανακοίνωσε ότι θα προστατεύει τους αγοραστές των προϊόντων της με τεχνητή νοημοσύνη από επιπτώσεις παραβίασης πνευματικών δικαιωμάτων, εφόσον συμμορφώνονται με προστατευτικά κιγκλιδώματα και φίλτρα περιεχομένου. Αυτό είναι μια σημαντική ανακούφιση και δείχνει τη σωστή πρόθεση ανάληψης ευθύνης για τις επιπτώσεις της χρήσης των προϊόντων της – που είναι μια από τις βασικές αρχές των δεοντολογικών πλαισίων

Θα διασφαλίσει ότι οι δημιουργοί θα διατηρήσουν τον έλεγχο των δικαιωμάτων τους και θα λαμβάνουν δίκαιη αποζημίωση για τη δημιουργία τους.

Είναι μια μεγάλη πρόοδος προς τη σωστή κατεύθυνση! Το κλειδί είναι να δούμε πόσο επιλύει τις ανησυχίες των συγγραφέων. 

Μέχρι στιγμής, έχουμε συζητήσει τις βασικές ηθικές συνέπειες που σχετίζονται με την τεχνολογία για να την κάνουμε σωστή. Ωστόσο, αυτός που απορρέει από την επιτυχή αξιοποίηση αυτής της τεχνολογικής προόδου είναι ο κίνδυνος μετατόπισης θέσεων εργασίας.

Υπάρχει ένα συναίσθημα που ενσταλάζει φόβο ότι η τεχνητή νοημοσύνη θα αντικαταστήσει το μεγαλύτερο μέρος της δουλειάς μας. Ο Mckinsey μοιράστηκε πρόσφατα μια αναφορά σχετικά με το πώς θα είναι το μέλλον της εργασίας. 

Αυτό το θέμα απαιτεί μια δομική αλλαγή στον τρόπο που σκεφτόμαστε την εργασία και αξίζει μια ξεχωριστή ανάρτηση. Μείνετε συντονισμένοι λοιπόν για την επόμενη ανάρτηση, η οποία θα συζητήσει το μέλλον της εργασίας και τις δεξιότητες που μπορούν να σας βοηθήσουν να επιβιώσετε στην εποχή του GenAI και να ευδοκιμήσετε!
 
 

Vidhi Chugh είναι ένας στρατηγός τεχνητής νοημοσύνης και ένας ηγέτης ψηφιακού μετασχηματισμού που εργάζεται στη διασταύρωση προϊόντων, επιστημών και μηχανικής για την κατασκευή κλιμακούμενων συστημάτων μηχανικής μάθησης. Είναι βραβευμένη ηγέτης καινοτομίας, συγγραφέας και διεθνής ομιλήτρια. Είναι σε μια αποστολή να εκδημοκρατίσει τη μηχανική μάθηση και να σπάσει τη φρασεολογία για να είναι όλοι μέρος αυτού του μετασχηματισμού.

Σφραγίδα ώρας:

Περισσότερα από KDnuggets