Af John P. Desmond, AI Trends Editor
I en nylig undersøgelse indrømmede ledende virksomhedsledere deres til tider uetiske brug af kunstig intelligens.
Indrømmelsen af at være åbenlyst uetisk kom fra respondenter til en nylig undersøgelse foretaget af KPMG af 250 direktører på direktørniveau eller højere i virksomheder med mere end 1,000 ansatte om databeskyttelse.
Omkring 29 % af de adspurgte indrømmede, at deres egne virksomheder indsamler personlige oplysninger, der er "til tider uetiske", og 33 % sagde, at forbrugerne burde være bekymrede over, hvordan deres virksomhed bruger personlige data, ifølge en nylig rapport i The New Yorker.
Resultatet overraskede spørgeren. "For nogle virksomheder kan der være en uoverensstemmelse mellem, hvad de siger, de laver med hensyn til databeskyttelse, og hvad de rent faktisk gør," udtalte Orson Lucas, rektor i KPMG's amerikanske privatlivsserviceteam.
En voksende praksis er et træk for at "samle alt" om en person og derefter finde ud af senere, hvordan man bruger det. Denne tilgang ses som en mulighed for bedre at forstå, hvad kunderne ønsker at få ud af virksomheden, hvilket senere kan resultere i en gennemsigtig forhandling om, hvilken information kunderne er villige til at give og hvor længe.
De fleste af disse virksomheder har endnu ikke nået den gennemsigtige forhandlingsfase. Omkring 70 % af de interviewede ledere sagde, at deres virksomheder havde øget mængden af personlige oplysninger, de indsamlede i det seneste år. Og 62 % sagde, at deres virksomhed burde gøre mere for at styrke databeskyttelsesforanstaltningerne.
KPMG undersøgte også 2,000 voksne i den generelle befolkning om databeskyttelse og fandt ud af, at 40 % ikke stolede på, at virksomheder opførte sig etisk med deres personlige oplysninger. Efter Lucas' opfattelse vil forbrugere ønske at straffe en virksomhed, der udviser urimelig praksis omkring brugen af personlige data.
AI-konferencer, der overvejer bredere etiske anmeldelser af indsendte artikler
I mellemtiden, på AI-konferencer, er AI-teknologi nogle gange udstillet med ringe følsomhed over for dens potentielt uetiske brug, og til tider finder denne AI-teknologi vej til kommercielle produkter. IEEE-konferencen om computersyn og mønstergenkendelse i 2019 accepterede for eksempel et papir fra forskere fra MIT's Computer Science and AI Laboratory om at lære en persons ansigt fra lydoptagelser af den person, der taler.
Målet med projektet, kaldet Speech2Face, var at undersøge, hvor meget information om en persons udseende kunne udledes af den måde, de taler på. Forskerne foreslog en neural netværksarkitektur designet specifikt til at udføre opgaven med ansigtsrekonstruktion fra lyd.
Ting ramte fanen omkring det, Alex Hanna, en transkvinde og sociolog hos Google, der studerer AI-etik, bad via tweet om at stoppe forskningen og kaldte den "transfobisk." Hanna protesterede mod den måde, forskningen søgte at binde identitet til biologi. Debat fulgte. Nogle stillede spørgsmålstegn ved, om papirer indsendt til akademisk-orienterede konferencer har brug for yderligere etisk gennemgang.
Michael Kearns, en computerforsker ved University of Pennsylvania og medforfatter til bogen, "Den etiske algoritme, " oplyst til The New Yorker at vi er i "lidt af et Manhattan Project-øjeblik" for AI og maskinlæring. "Den akademiske forskning på området er blevet implementeret i massiv skala på samfundet," sagde han. "Med det følger dette højere ansvar."
Et papir om Speech2Face blev accepteret i 2019 Neural Information Processing Systems (Neurips)-konferencen afholdt i Vancouver, Canada. Katherine Heller, en datalog ved Duke University og en Neurips medformand for mangfoldighed og inklusion, fortalte The New Yorker at konferencen havde modtaget omkring 1,400 artikler det år, og hun kunne ikke erindre, at hun stod over for et tilsvarende tilbageslag om emnet etik. "Det er nyt territorium," sagde hun.
For Neurips 2020, der blev afholdt eksternt i december 2020, stod papirer over for afvisning, hvis forskningen viste sig at udgøre en trussel mod samfundet. Iason Gabriel, en forsker ved Google DeepMind i London, som er blandt lederne af konferencens etikgennemgangsproces, sagde, at ændringen var nødvendig for at hjælpe AI med at "gøre fremskridt som et felt."
Etik er noget nyt område for datalogi. Mens biologer, psykologer og antropologer er vant til anmeldelser, der sætter spørgsmålstegn ved etikken i deres forskning, er dataloger ikke blevet opdraget på den måde. Fokus er mere omkring metoder, såsom plagiat og interessekonflikter.
Når det er sagt, er der opstået en række grupper, der er interesseret i den etiske brug af kunstig intelligens i de sidste mange år. Foreningen for Computermaskiners særlige interessegruppe for computer-menneskelig interaktion lancerede for eksempel i 2016 en arbejdsgruppe, der nu er et etisk forskningsudvalg, der tilbyder at gennemgå papirer efter anmodning fra konferenceledere. I 2019 modtog gruppen 10 henvendelser, primært omkring forskningsmetoder.
"I stigende grad ser vi, især i AI-området, flere og flere spørgsmål om, bør denne form for forskning overhovedet være en ting?" udtalte Katie Shilton, en informationsforsker ved University of Maryland og formanden for udvalget, til New Yorker.
Shilton identificerede fire kategorier af potentielt uetisk påvirkning. For det første AI, der kan "våben" mod befolkninger, såsom ansigtsgenkendelse, lokationssporing og overvågning. For det andet teknologier som Speech2Face, der kan "hærde folk ind i kategorier, der ikke passer godt", såsom køn eller seksuel orientering. For det tredje, automatiseret våbenforskning. For det fjerde værktøjer, der bruges til at skabe alternative sæt af virkelighed, såsom falske nyheder, stemmer eller billeder.
Dette grønne feltterritorium er et vove ud i det ukendte. Dataloger har normalt god teknisk viden, "Men masser af mennesker inden for datalogi er ikke blevet trænet i forskningsetik," sagde Shilton og bemærkede, at det ikke er let at sige, at en forskningslinje ikke burde eksistere.
Lokalitetsdata våben til katolsk præst
Bevæbningen af lokationssporingsteknologi blev rigeligt demonstreret i den nylige oplevelse af den katolske præst, der blev udelukket som Grindr dating app bruger, og som efterfølgende sagde op. Katolske præster aflægger et løfte om cølibat, hvilket ville være i konflikt med at være i et dating-app-fællesskab af enhver art.
Hændelsen rejste en række etiske spørgsmål. Historien blev brudt af et katolsk nyhedsmedie kaldet Pillar, som på en eller anden måde havde fået "appdatasignaler fra den lokationsbaserede hookup-app Grindr", udtalte en konto i omkode fra Vox. Det var ikke klart, hvordan publikationen opnåede lokationsdataene udover at sige, at det var fra en "dataleverandør."
"Skaden forårsaget af lokationssporing er reel og kan have en varig indvirkning langt ud i fremtiden," sagde Sean O'Brien, hovedforsker ved ExpressVPNs Digital Security Lab, til omkode. "Der er intet meningsfuldt tilsyn med smartphone-overvågning, og det misbrug af privatlivets fred, vi så i dette tilfælde, er muliggjort af en profitabel og blomstrende industri."
En dataleverandør i denne forretning er X-Mode, som indsamler data fra millioner af brugere på tværs af hundredvis af apps. Virksomheden blev sparket i gang med Apple- og Google-platformene sidste år på grund af sit nationale sikkerhedsarbejde med den amerikanske regering, ifølge en konto i Wall Street Journal. Virksomheden bliver dog opkøbt af Digital Envoy, Inc. fra Atlanta, og vil blive omdøbt til Outlogic. Dets administrerende direktør, Joshua Anton, vil slutte sig til Digital Envoy som strategichef. Købsprisen blev ikke oplyst.
At erhverve X-Mode "giver os mulighed for yderligere at forbedre vores tilbud relateret til cybersikkerhed, AI, svindel og rettighedsstyring," udtalte Digital Envoy CEO Jerrod Stoller. "Det giver os mulighed for at innovere i rummet ved at se på nye løsninger, der udnytter begge datasæt. Og det bringer også nye kunder og nye markeder.”
Digital Envoy har specialiseret sig i at indsamle og levere til sine kunder data om internetbrugere baseret på den IP-adresse, som er tildelt dem af deres internetudbyder eller mobiltelefonudbyder. Dataene kan omfatte omtrentlig geolokalisering og siges at være nyttige i kommercielle applikationer, herunder annoncering.
X-Mode har for nylig pensioneret en visualiseringsapp, kaldet XDK, og har ændret praksis ved at tilføje ny vejledning om, hvor data stammer fra, ifølge en konto i Teknisk set. Det er anden gang, virksomheden har rebrandet siden den blev grundlagt i 2013, hvor den startede som Drunk Mode.
Efter opkøbet sagde Digital Envoy i en erklæring, at det tilføjede et nyt etisk kodeks, et dataetisk gennemgangspanel, en følsom app-politik og vil ansætte en chief privacy officer.
Læs kildeartiklerne og informationen i The New Yorkeri omkode fra Vox, i The Wall Street Journal og i Teknisk set.
- 000
- 2016
- 2019
- 2020
- Konto
- erhvervelse
- Reklame
- AI
- alex
- Amazon
- blandt
- app
- Apple
- applikationer
- apps
- arkitektur
- omkring
- artikler
- Atlanta
- lyd
- auto
- Automatiseret
- biologi
- Bit
- virksomhed
- Canada
- forårsagede
- Direktør
- lave om
- chef
- kunder
- kode
- Indsamling
- kommerciel
- samfund
- Virksomheder
- selskab
- Datalogi
- Computer Vision
- computing
- Konference
- konferencer
- konflikt
- Interessekonflikt
- Forbrugere
- kredit
- Kunder
- Cybersecurity
- data
- dataetik
- databeskyttelse
- databeskyttelse
- Dating
- debat
- DeepMind
- DID
- digital
- Mangfoldighed
- Mangfoldighed og inkludering
- Duke
- medarbejdere
- etik
- udøvende
- ledere
- erfaring
- Ansigtet
- ansigtsgenkendelse
- vender
- falsk
- falske nyheder
- Figur
- fund
- Fornavn
- passer
- Fokus
- bedrageri
- fremtiden
- Køn
- Generelt
- godt
- Regering
- Grøn
- gruppe
- Dyrkning
- Ansættelse
- Hvordan
- How To
- HTTPS
- Hundreder
- Identity
- IEEE
- KIMOs Succeshistorier
- Inc.
- Herunder
- inklusion
- industrien
- oplysninger
- interaktion
- interesse
- Internet
- IP
- IP-adresse
- ISP
- spørgsmål
- IT
- deltage
- viden
- KPMG
- Leadership" (virkelig menneskelig ledelse)
- læring
- Line (linje)
- placering
- London
- Lang
- machine learning
- ledelse
- Markeder
- Maryland
- metal
- bevæge sig
- national sikkerhed
- netværk
- Neural
- neurale netværk
- NeurIPS
- nye løsninger
- nyheder
- tilbyde
- Tilbud
- Officer
- Opportunity
- Andet
- Papir
- Mønster
- Pennsylvania
- Mennesker
- Personlig data
- Søjle
- Platforme
- politik
- befolkning
- pris
- Main
- Beskyttelse af personlige oplysninger
- Produkter
- Program
- projekt
- beskyttelse
- køb
- Reality
- indberette
- forskning
- gennemgå
- Anmeldelser
- Videnskab
- forskere
- sikkerhed
- Tjenester
- Skilte
- smartphone
- Samfund
- Løsninger
- Space
- specialiseret
- Sponsoreret
- Stage
- Statement
- Strategi
- gade
- undersøgelser
- indsendt
- overvågning
- Kortlægge
- Systemer
- tech
- Teknisk
- Teknologier
- Teknologier
- Fremtiden
- The Source
- TIE
- tid
- Sporing
- Tendenser
- Stol
- tweet
- universitet
- University of Maryland
- University of Pennsylvania
- us
- os regering
- brugere
- vancouver
- venture
- Specifikation
- vision
- visualisering
- STEMMER
- Wall Street
- Wall Street Journal
- whitepaper
- WHO
- kvinde
- Arbejde
- år
- år