Door John P. Desmond, AI Trends Editor
In een recent onderzoek gaven senior business executives toe dat ze AI soms onethisch gebruiken.
De bekentenis dat ze openlijk onethisch waren, kwam van respondenten van een recent onderzoek van KPMG onder 250 directeuren of hogere leidinggevenden bij bedrijven met meer dan 1,000 werknemers over gegevensprivacy.
Volgens een recent rapport in The New Yorker.
Het resultaat verraste de enquêteur. "Voor sommige bedrijven kan er een verkeerde afstemming zijn tussen wat ze zeggen dat ze doen op het gebied van gegevensprivacy en wat ze feitelijk doen", zegt Orson Lucas, de directeur van het Amerikaanse privacyserviceteam van KPMG.
Een groeiend gebruik is een beweging om 'alles te verzamelen' over een persoon en er later achter te komen hoe je het kunt gebruiken. Deze aanpak wordt gezien als een kans om beter te begrijpen wat klanten uit het bedrijf willen halen, wat later kan leiden tot transparante onderhandeling over welke informatie klanten bereid zijn te verstrekken en voor hoe lang.
De meeste van deze bedrijven hebben de fase van transparante onderhandeling nog niet bereikt. Ongeveer 70% van de geïnterviewde leidinggevenden zei dat hun bedrijf de hoeveelheid persoonlijke informatie die ze het afgelopen jaar hadden verzameld, had vergroot. En 62% zei dat hun bedrijf meer zou moeten doen om de maatregelen voor gegevensbescherming te versterken.
KPMG ondervroeg ook 2,000 volwassenen in de algemene bevolking over gegevensprivacy en ontdekte dat 40% er niet op vertrouwde dat bedrijven ethisch omgingen met hun persoonlijke informatie. Volgens Lucas zullen consumenten een bedrijf willen straffen dat oneerlijke praktijken vertoont rond het gebruik van persoonsgegevens.
AI-conferenties over bredere ethische beoordelingen van ingediende papers
Ondertussen wordt op AI-conferenties soms AI-technologie getoond met weinig gevoeligheid voor het potentieel onethische gebruik ervan, en soms vindt deze AI-technologie zijn weg naar commerciële producten. De IEEE Conference on Computer Vision and Pattern Recognition in 2019 accepteerde bijvoorbeeld een paper van onderzoekers van MIT's Computer Science and AI Laboratory over het leren van iemands gezicht uit audio-opnames van die persoon die aan het woord is.
Het doel van het project, Speech2Face genaamd, was om te onderzoeken hoeveel informatie over iemands uiterlijk kan worden afgeleid uit de manier waarop iemand spreekt. De onderzoekers stelden een neurale netwerkarchitectuur voor die speciaal is ontworpen om de taak van gezichtsreconstructie van audio uit te voeren.
Dingen raakten de fan eromheen, Alex Hanna, een transvrouw en socioloog bij Google die AI-ethiek bestudeert, vroeg via tweet om het onderzoek te stoppen en noemde het 'transfobisch'. Hanna maakte bezwaar tegen de manier waarop het onderzoek identiteit aan biologie wilde koppelen. Er ontstond discussie. Sommigen vroegen zich af of papers die zijn ingediend op academisch georiënteerde conferenties verdere ethische beoordeling behoeven.
Michael Kearns, een computerwetenschapper aan de Universiteit van Pennsylvania en co-auteur van het boek, "Het ethische algoritme' vermeld The New Yorker dat we ons in "een beetje een Manhattan Project-moment" bevinden voor AI en machine learning. "Het academische onderzoek in het veld is op grote schaal ingezet in de samenleving", zei hij. "Daarmee komt deze hogere verantwoordelijkheid."
Een paper over Speech2Face werd aanvaard in de 2019 Neural Information Processing Systems (Neurips) Conference in Vancouver, Canada. Katherine Heller, een computerwetenschapper aan de Duke University en een co-voorzitter van Neurips voor diversiteit en inclusie, vertelde: The New Yorker dat de conferentie dat jaar zo'n 1,400 papers had geaccepteerd, en ze kon zich niet herinneren dat ze met vergelijkbare tegenslagen op het gebied van ethiek werd geconfronteerd. 'Het is nieuw terrein,' zei ze.
Voor Neurips 2020, dat in december 2020 op afstand werd gehouden, werden papers afgewezen als bleek dat het onderzoek een bedreiging vormde voor de samenleving. Iason Gabriel, een onderzoekswetenschapper bij Google DeepMind in Londen, die een van de leiders is van het ethische beoordelingsproces van de conferentie, zei dat de verandering nodig was om AI te helpen "vooruitgang te boeken als een veld".
Ethiek is enigszins nieuw terrein voor informatica. Terwijl biologen, psychologen en antropologen gewend zijn aan reviews die de ethiek van hun onderzoek ter discussie stellen, zijn computerwetenschappers niet zo opgevoed. De focus ligt meer op methoden, zoals plagiaat en belangenverstrengeling.
Dat gezegd hebbende, zijn er de afgelopen jaren een aantal groepen ontstaan die geïnteresseerd zijn in het ethisch gebruik van AI. De Special Interest Group on Computer-Human Interaction van de Association for Computing Machinery heeft bijvoorbeeld in 2016 een werkgroep opgericht die nu een ethische onderzoekscommissie is die aanbiedt om papers te beoordelen op verzoek van voorzitters van conferentieprogramma's. In 2019 ontving de groep 10 vragen, voornamelijk rond onderzoeksmethoden.
"Steeds meer zien we, vooral in de AI-ruimte, steeds meer vragen van: zou dit soort onderzoek überhaupt iets moeten zijn?" verklaarde Katie Shilton, een informatiewetenschapper aan de Universiteit van Maryland en de voorzitter van de commissie, om De New Yorker.
Shilton identificeerde vier categorieën van potentieel onethische gevolgen. Ten eerste AI die kan worden 'bewapend' tegen populaties, zoals gezichtsherkenning, locatietracking en bewaking. Ten tweede, technologieën zoals Speech2Face die "mensen kunnen verharden in categorieën die niet goed passen", zoals geslacht of seksuele geaardheid. Ten derde, geautomatiseerd wapenonderzoek. Ten vierde, tools die worden gebruikt om alternatieve sets van realiteit te creëren, zoals nepnieuws, stemmen of afbeeldingen.
Dit groene veldgebied is een avontuur in het onbekende. Computerwetenschappers hebben meestal een goede technische kennis, "Maar heel veel mensen in de computerwetenschap zijn niet opgeleid in onderzoeksethiek," verklaarde Shilton, erop wijzend dat het niet gemakkelijk is om te zeggen dat een onderzoekslijn niet zou moeten bestaan.
Locatiegegevens bewapend voor katholieke priester
De bewapening van de technologie voor het volgen van locaties werd ruimschoots aangetoond in de recente ervaring van de katholieke priester die werd ontmaskerd als gebruiker van de Grindr-datingapp en die vervolgens ontslag nam. Katholieke priesters leggen een gelofte van celibaat af, wat in strijd zou zijn met het zijn in een dating-app-gemeenschap van welke aard dan ook.
Het incident riep een arsenaal aan ethische kwesties op. Het verhaal werd verbroken door een katholieke nieuwszender genaamd de Pillar, die op de een of andere manier "app-gegevenssignalen had verkregen van de locatiegebaseerde aansluitingsapp Grindr", verklaarde een account in hercoderen van Vox. Het was niet duidelijk hoe de publicatie de locatiegegevens heeft verkregen, behalve om te zeggen dat het van een 'gegevensverkoper' was.
"De schade die wordt veroorzaakt door locatietracking is reëel en kan tot ver in de toekomst een blijvende impact hebben", zegt Sean O'Brien, hoofdonderzoeker bij ExpressVPN's Digital Security Lab, tegen hercoderen. "Er is geen zinvol toezicht op smartphone-surveillance en het privacymisbruik dat we in dit geval zagen, wordt mogelijk gemaakt door een winstgevende en bloeiende industrie."
Een dataleverancier in dit bedrijf is X-Mode, dat gegevens verzamelt van miljoenen gebruikers in honderden apps. Het bedrijf werd vorig jaar van de Apple- en Google-platforms getrapt vanwege zijn nationale veiligheidswerk met de Amerikaanse overheid, volgens een account in The Wall Street Journal. Het bedrijf wordt echter overgenomen door Digital Envoy, Inc. uit Atlanta en zal worden omgedoopt tot Outlogic. De chief executive, Joshua Anton, zal zich bij Digital Envoy voegen als Chief Strategy Officer. De aankoopprijs werd niet bekendgemaakt.
Door de overname van X-Mode "kunnen we ons aanbod op het gebied van cyberbeveiliging, AI, fraude en rechtenbeheer verder verbeteren", aldus Digital Envoy CEO Jerrod Stoller. “Het stelt ons in staat om in de ruimte te innoveren door te kijken naar nieuwe oplossingen die gebruikmaken van beide datasets. En het brengt ook nieuwe klanten en nieuwe markten met zich mee.”
Digital Envoy is gespecialiseerd in het verzamelen en verstrekken van gegevens over internetgebruikers aan haar klanten op basis van het IP-adres dat hun is toegewezen door hun ISP of mobiele telefoonmaatschappij. De gegevens kunnen geschatte geolocatie bevatten en zouden nuttig zijn in commerciële toepassingen, waaronder reclame.
X-Mode heeft onlangs een visualisatie-app, genaamd XDK, stopgezet en heeft de werkwijze veranderd door nieuwe richtlijnen toe te voegen over waar gegevens vandaan komen, volgens een account in Technisch gezien. Dit is de tweede keer dat het bedrijf een nieuwe naam heeft gekregen sinds de oprichting in 2013, toen het begon als dronken modus.
Na de overname zei Digital Envoy in een verklaring dat het een nieuwe ethische code, een beoordelingspanel voor gegevensethiek, een gevoelig app-beleid heeft toegevoegd en een chief privacy officer zal inhuren.
Lees de bronartikelen en informatie in The New Yorkerin hercoderen van Vox, in The Wall Street Journal en in Technisch gezien.
- 000
- 2016
- 2019
- 2020
- Account
- acquisitie
- ADVERTISING
- AI
- alex
- Amazone
- onder
- gebruiken
- Apple
- toepassingen
- apps
- architectuur
- rond
- artikelen
- Atlanta
- audio
- auto
- geautomatiseerde
- biologie
- Beetje
- bedrijfsdeskundigen
- Canada
- veroorzaakt
- ceo
- verandering
- chef
- klanten
- code
- Het verzamelen van
- commercieel
- gemeenschap
- Bedrijven
- afstand
- Computer Science
- Computer visie
- computergebruik
- Conferentie
- conferenties
- conflict
- Belangenconflicten
- Consumenten
- Credits
- Klanten
- Cybersecurity
- gegevens
- gegevensethiek
- data Privacy
- gegevensbescherming
- dating
- debat
- DeepMind
- DEED
- digitaal
- Verscheidenheid
- Diversiteit en inclusie
- Hertog
- medewerkers
- ethiek
- uitvoerend
- leidinggevende
- ervaring
- Gezicht
- gezichtsherkenning
- naar
- nep
- nep-nieuws
- Figuur
- vondsten
- Voornaam*
- geschikt
- Focus
- bedrog
- toekomst
- Geslacht
- Algemeen
- goed
- Kopen Google Reviews
- Overheid
- Groen
- Groep
- Groeiend
- Verhuring
- Hoe
- How To
- HTTPS
- Honderden
- Identiteit
- IEEE
- Impact
- Inc
- Inclusief
- inclusie
- -industrie
- informatie
- wisselwerking
- belang
- Internet
- IP
- IP-adres
- ISP
- problemen
- IT
- mee
- kennis
- KPMG
- Leadership
- leren
- Lijn
- plaats
- London
- lang
- machine learning
- management
- Markten
- Maryland
- metaal
- beweging
- nationale veiligheid
- netwerk
- Neural
- neuraal netwerk
- NeurIPS
- nieuwe oplossingen
- nieuws
- het aanbieden van
- Aanbod
- Officier
- kansen
- Overige
- Papier
- Patronen
- Pennsylvania
- Mensen
- persoonlijke gegevens
- Pijler
- platforms
- beleidsmaatregelen
- bevolking
- prijs
- Principal
- privacy
- Producten
- Programma
- project
- bescherming
- inkomsten
- Realiteit
- verslag
- onderzoek
- beoordelen
- Recensies
- Wetenschap
- wetenschappers
- veiligheid
- Diensten
- Signs
- smartphone
- Maatschappij
- Oplossingen
- Tussenruimte
- specialiseert
- Gesponsorde
- Stadium
- Statement
- Strategie
- straat
- studies
- ingediend
- toezicht
- Enquête
- Systems
- tech
- Technisch
- Technologies
- Technologie
- De toekomst
- De Bron
- BINDEN
- niet de tijd of
- Tracking
- Trends
- Trust
- tweet
- universiteit-
- University of Maryland
- University of Pennsylvania
- us
- de regering van de Verenigde Staten
- gebruikers
- vancouver
- onderneming
- Bekijk
- visie
- visualisatie
- VOICES
- Wall Street
- Wall Street Journal
- whitepaper
- WIE
- vrouw
- Mijn werk
- jaar
- jaar