Po poročanju lokalnih medijev je kitajski poslovnež izgubil 4.3 milijona juanov [~612,000 $], potem ko je goljuf uporabil tehnologijo globoke lažne inteligence, da bi posnemal njegovega prijatelja.
Žrtev, identificirana samo s svojim priimkom Guo, je prejšnji mesec prek WeChata prejela video klic od nekoga, ki je tako izgledal kot njegov tesni prijatelj.
Klicatelj, za katerega se je izkazalo, da je prevarant, je prosil Gua, naj mu pomaga oddati ponudbo za javni projekt v drugem mestu – in Guo mu je nemudoma nakazal sredstva.
Policija pravi, da je prevarant uporabil Z AI napajanjem tehnologija zamenjave obraza za ustvarjanje lažne osebe, medtem ko se "maskira v (Guovega) dobrega prijatelja in zagreši goljufijo", China Daily poročali.
Preberite tudi: Kitajska uporablja Deepfake Anchors za širjenje politične propagande
Kaj se je v resnici zgodilo?
Guo je pravni zastopnik tehnološkega podjetja s sedežem v mestu Fuzhou v provinci Fujian. 20. aprila ga je goljuf poklical prek videoposnetka in se pretvarjal, da je prijatelj. Lažni prijatelj je rekel, da je želel uporabiti račun Guovega podjetja za oddajo ponudbe v vrednosti 4.3 milijona juanov na javnem razpisu.
Kot se pogosto zgodi pri takšnih prevarah, je storilec obljubil, da bo Guo takoj vrnil. Guoja so v nakazilo prepričali, potem ko mu je krivec poslal posnetek zaslona ponarejenega plačilnega zapisa. Ne da bi preveril, ali je denar dejansko prejel, je Guo z računa svojega podjetja poslal dve plačili v skupni vrednosti 4.3 milijona juanov [~612,000 $].
Ko je Guo po opravljenih nakazilih poklical svojega pravega prijatelja za preverjanje, je ta zanikal, da bi opravil videoklic, ali ga prosil, naj nakaže denar. Guo je zadevo nemudoma prijavil policiji.
»Oseba na drugi strani me med klepetom ni prosila, naj ji posodim denar. Rekel je, da bo najprej nakazal denar, potem pa moram jaz nakazati njegov denar na račun njegovega podjetja,« je dejal Guo.
»Z menoj je klepetal prek video klica, potrdila pa sem tudi njegov obraz in glas v videu. Zato smo popustili,” je dodal.
Policiji v Fuzhouju je doslej uspelo izterjati 3.4 milijona juanov ukradenega denarja. Ko je Guo prijavil zadevo, so obvestili banko v drugem mestu, naj ne nadaljuje s prenosi. Policija poskuša izterjati preostanek denarja, a storilca še ni odkrila.
Varnostna tveganja AI
Ko bo umetna inteligenca napredovala, bo po mnenju strokovnjakov vse težje razlikovati med pravo in lažno identiteto. Umetna inteligenca lahko spodkopava varnost in zasebnost digitalnih identitet.
Uporablja se lahko na primer za ustvarjanje globokih ponaredkov, realističnih, vendar lažnih slik ali videoposnetkov, ki se uporabljajo za oponašanje nekoga drugega, vključno z njegovim glasom. Deepfake je mogoče uporabiti za ustvarjanje lažnih digitalnih identitet, nekaj, kar bi lahko kibernetski kriminalci izkoristili za goljufijo.
Primer Guo je opomnik, da je tehnologija deepfake močno orodje, ki ga je mogoče uporabiti za dobro ali zlo. Regulatorji so začeli posvečati več pozornosti nevarnostim umetne inteligence, odkar je OpenAI predstavil svojega priljubljenega chatbota ChatGPT novembra, kar je sprožilo svetovno oboroževalno tekmo z umetno inteligenco.
Kot MetaNews prej poročali, strokovnjaki predlagajo razvoj novih tehnologij, ki lahko zaznajo in preprečijo uporabo lažnih identitet. To bi lahko vključevalo uporabo biometričnih podatkov, kot je prepoznavanje obraza ali skeniranje prstnih odtisov, za preverjanje identitete uporabnikov.
Na Kitajskem vlada resno jemlje vprašanje globokih ponaredkov. Januarja je državna uprava za kibernetski prostor izdala novo predpisi ki prepovedujejo uporabo vsebine, ustvarjene z umetno inteligenco, za širjenje »lažnih novic«. Predpisi tudi od ponudnikov tehnologije deepfake zahtevajo, da svoje izdelke jasno označijo kot sintetične.
- Distribucija vsebine in PR s pomočjo SEO. Okrepite se še danes.
- PlatoAiStream. Podatkovna inteligenca Web3. Razširjeno znanje. Dostopite tukaj.
- Kovanje prihodnosti z Adryenn Ashley. Dostopite tukaj.
- Kupujte in prodajajte delnice podjetij pred IPO s PREIPO®. Dostopite tukaj.
- vir: https://metanews.com/white-house-takes-steps-to-study-ai-risks-assess-impact-on-workers/
- :ima
- : je
- :ne
- 000
- 20
- 8
- a
- Po
- Račun
- dejansko
- dodano
- uprava
- napredno
- po
- AI
- Prav tako
- in
- Še ena
- kaj
- april
- SE
- orožjem
- AS
- pozornosti
- nazaj
- Ban
- Banka
- temeljijo
- BE
- postanejo
- postane
- med
- Ponudba
- biometrična
- tako
- poslovnež
- vendar
- by
- klic
- se imenuje
- klicatelja
- CAN
- primeru
- chatbot
- preverjanje
- Kitajska
- kitajski
- mesto
- jasno
- Zapri
- COM
- Zavezati
- podjetje
- Podjetja
- dokončanje
- POTRJENO
- vsebina
- bi
- država je
- ustvarjajo
- cybercriminals
- cyberspace
- vsak dan
- nevarnosti
- datum
- deepfakes
- razporejeni
- razvoju
- težko
- digitalni
- razlikovati
- do
- navzdol
- med
- ostalo
- Primer
- Strokovnjaki
- Obraz
- obraza
- prepoznavanje obraza
- ponaredek
- false
- daleč
- prstnih odtisov
- prva
- za
- goljufija
- prijatelj
- iz
- Skladi
- Globalno
- dobro
- vlada
- Guard
- imel
- se je zgodilo
- Imajo
- he
- pomoč
- ga
- njegov
- Hiša
- HTML
- HTTPS
- i
- identificirati
- identificirati
- identitete
- identiteta
- slike
- takoj
- in
- vključujejo
- Vključno
- vedno
- vprašanje
- Izdala
- IT
- ITS
- januar
- label
- Zadnja
- začela
- Pravne informacije
- LEND
- Vzvod
- kot
- lokalna
- Pogledal
- izgubil
- je
- Znamka
- upravlja
- Matter
- mediji
- MetaNovice
- milijonov
- Denar
- mesec
- več
- potrebna
- Novo
- Nove tehnologije
- novice
- november
- of
- pogosto
- on
- enkrat
- samo
- OpenAI
- or
- Ostalo
- naši
- ven
- Plačajte
- Plačilo
- Plačila
- oseba
- prepričali
- platon
- Platonova podatkovna inteligenca
- PlatoData
- policija
- političnih
- Popular
- potencial
- močan
- preprečiti
- prej
- zasebnost
- Izdelki
- Projekt
- obljubil
- ponudniki
- javnega
- Dirka
- Preberi
- pravo
- realistična
- res
- prejetih
- Priznanje
- zapis
- Obnovi
- predpisi
- Regulatorji
- Prijavljeno
- Poročila
- predstavnik
- zahteva
- REST
- tveganja
- Je dejal
- pravijo,
- prevare
- skeniranje
- varnost
- poslan
- strani
- saj
- So
- doslej
- nekdo
- Nekaj
- Zvok
- namaz
- začel
- Koraki
- ukradeno
- ukraden denar
- študija
- predloži
- taka
- predlagajte
- sintetična
- meni
- ob
- tech
- Tehnologije
- Tehnologija
- Razpis
- da
- O
- varnost
- njihove
- POTEM
- jih
- ta
- do
- orodje
- prenos
- transferji
- Obrnjen
- dva
- Podrivajte
- uporaba
- Rabljeni
- Uporabniki
- Preverjanje
- preverjanje
- preko
- Žrtva
- Video
- Video posnetki
- Voice
- hotel
- je
- we
- Kaj
- medtem
- bele
- Bela hiša
- WHO
- zakaj
- bo
- z
- brez
- deluje
- bi
- še
- Yuan
- zefirnet