Utilizarea propriilor date pentru a atenua problemele de confidențialitate AI și pentru a îmbunătăți încrederea în AI | Știri și rapoarte IoT Now

Utilizarea propriilor date pentru a atenua problemele de confidențialitate AI și pentru a îmbunătăți încrederea în AI | Știri și rapoarte IoT Now

Nodul sursă: 2451026

Cu modelele AI capabile să detecteze modele și să facă predicții care ar fi dificil sau imposibil de făcut pentru un om manual, potențialele aplicații pentru instrumente precum Chat GPT în sectorul sănătății, finanțe și servicii pentru clienți sunt uriașe.

Cu toate acestea, în timp ce prioritățile organizațiilor în jurul AI ar trebui să fie evaluarea oportunităților pe care instrumentele AI generative le oferă afacerii lor în ceea ce privește avantajul competitiv, subiectul confidențialității datelor a devenit o preocupare principală. Gestionarea utilizării responsabile a IA, cu potențialul său de a produce rezultate părtinitoare, necesită o atenție atentă. 

Deși beneficiile potențiale ale acestor modele sunt imense, organizațiile ar trebui să examineze cu atenție considerentele etice și practice pentru a utiliza AI într-un mod responsabil, cu protecție a datelor AI sigură și securizată. Prin optimizarea experienței lor generale de utilizator cu ChatGPT, organizațiile își pot îmbunătăți Încrederea AI

Probleme legate de confidențialitatea AI 

La fel ca multe alte tehnologii de ultimă oră, AI va ridica, fără îndoială, unele întrebări și provocări pentru cei care doresc să o implementeze în stack-urile lor de tehnologie. De fapt, un sondaj realizat de Progres a dezvăluit că 65% dintre companii și directori IT cred în prezent că există prejudecăți de date în organizațiile lor respective și 78% spun că acest lucru se va agrava pe măsură ce adoptarea AI crește. 

Probabil cea mai mare preocupare privind confidențialitatea se referă la utilizarea datelor companiei private în tandem cu platformele AI publice și interne. De exemplu, aceasta ar putea fi o organizație de asistență medicală care stochează date confidențiale ale pacienților sau datele privind salariile angajaților unei mari corporații. 

Pentru ca AI să fie cea mai eficientă, aveți nevoie de un eșantion mare de date publice și/sau private de înaltă calitate, iar organizațiile cu acces la date confidențiale, cum ar fi companiile de asistență medicală cu dosare medicale, au un avantaj competitiv atunci când construiesc soluții bazate pe AI. Mai presus de toate, aceste organizații cu astfel de date sensibile trebuie să ia în considerare cerințele etice și de reglementare înconjurătoare confidențialitatea datelor, corectitudine, explicabilitate, transparență, robustețe și acces.  

Modelele lingvistice mari (LLM) sunt modele AI puternice antrenate pe date text pentru a efectua diverse sarcini de procesare a limbajului natural, inclusiv traducerea limbii, răspunsul la întrebări, rezumarea și analiza sentimentelor. Aceste modele sunt concepute pentru a analiza limbajul într-un mod care imită inteligența umană, permițându-le să proceseze, să înțeleagă și să genereze vorbirea umană. 

Riscuri pentru datele private atunci când utilizați AI 

Cu toate acestea, cu aceste modele complexe apar provocări etice și tehnice care pot prezenta riscuri pentru acuratețea datelor, încălcarea drepturilor de autor și potențiale cazuri de calomnie. Unele dintre provocările pentru utilizarea eficientă a IA pentru chatbot includ: 

  • Halucinații – În AI, o halucinație este atunci când raportează utilizatorului răspunsuri pline de erori și acestea sunt prea frecvente. Modul în care LLM-urile prezic următorul cuvânt face ca răspunsurile să sune plauzibile, în timp ce informațiile pot fi incomplete sau false. De exemplu, dacă un utilizator întreabă unui chatbot venitul mediu al unui concurent, aceste numere ar putea fi departe.  
  • Prejudecata de date – LLM-urile pot expune, de asemenea distorsiunilor, ceea ce înseamnă că pot produce rezultate care reflectă părtinirile din datele de antrenament, mai degrabă decât realitatea obiectivă. De exemplu, un model lingvistic antrenat pe un set de date predominant masculin ar putea produce rezultate părtinitoare în ceea ce privește subiectele legate de gen. 
  • Raționament/Înțelegere – LLM-urile pot avea nevoie, de asemenea, de ajutor pentru sarcini care necesită un raționament mai profund sau înțelegere a conceptelor complexe. Un LLM poate fi instruit pentru a răspunde la întrebări care necesită o înțelegere nuanțată a culturii sau istoriei. Este posibil ca modelele să perpetueze stereotipuri sau să ofere informații greșite dacă nu sunt instruite și monitorizate în mod eficient. 

În plus față de acestea, alte riscuri pot include întreruperea datelor, adică atunci când memoria unui model tinde să fie depășită. O altă posibilă provocare este să înțelegem modul în care LLM și-a generat răspunsul, deoarece AI nu este antrenat eficient pentru a-și arăta raționamentul folosit pentru a construi un răspuns. 

Utilizarea cunoștințelor semantice pentru a furniza date de încredere 

Echipele tehnice caută asistență pentru utilizarea datelor private pentru ChatGPT. În ciuda creșterii preciziei și eficienței, LLM-urile, ca să nu mai vorbim de utilizatorii lor, pot avea nevoie de ajutor cu răspunsuri. Mai ales că datele pot lipsi de context și de sens. O soluție puternică, sigură, transparentă și guvernată de management al cunoștințelor AI este răspunsul. Cu o platformă de date semantice, utilizatorii pot crește acuratețea și eficiența introducând în același timp guvernanța.  

Obținând un răspuns care este o combinație a răspunsului ChatGPT validat cu cunoștințe semantice de pe o platformă de date semantice, rezultatele combinate vor permite LLM-urilor și utilizatorilor să acceseze cu ușurință și să verifice datele în raport cu conținutul sursă și cunoștințele IMM-urilor capturate. 

Acest lucru permite instrumentului AI să stocheze și să interogheze date structurate și nestructurate, precum și să capteze conținut de experți în materie (IMM) prin interfața sa intuitivă. Prin extragerea faptelor găsite în date și etichetarea datelor private cu cunoștințe semantice, întrebările sau intrările utilizatorilor și răspunsurile specifice ChatGPT pot fi, de asemenea, etichetate cu aceste cunoștințe.  

Protejarea datelor sensibile poate debloca adevăratul potențial al AI 

Ca și în cazul tuturor tehnologiilor, protejarea împotriva intrărilor sau situațiilor neașteptate este și mai importantă cu LLM. În abordarea cu succes a acestor provocări, încrederea soluțiilor noastre va crește, împreună cu satisfacția utilizatorilor, ducând în cele din urmă la succesul soluției. 

Ca un prim pas în explorarea utilizării AI pentru organizația lor, profesioniștii din domeniul IT și al securității trebuie să caute modalități de a proteja datele sensibile, folosindu-le în același timp pentru a optimiza rezultatele pentru organizația lor și clienții săi. 

Matthieu Jonglez, VP tehnologie - platformă de aplicații și date la Progress.Matthieu Jonglez, VP tehnologie - platformă de aplicații și date la Progress.

Articol de Matthieu Jonglez, VP tehnologie – platformă de aplicații și date la ProgresH.H.

Comentează acest articol de mai jos sau prin X: @IoTNow_

Timestamp-ul:

Mai mult de la IoT acum