Chatbot-urile AI vor face ca avocații de brevete să fie învechiți? (Nu, ei nu vor)

Chatbot-urile AI vor face ca avocații de brevete să fie învechiți? (Nu, ei nu vor)

Nodul sursă: 1786559

tip AI Dacă aveți vreun interes în tehnologie și, eventual, chiar dacă nu, este foarte probabil ca în ultimele săptămâni să fi citit sau auzit ceva despre OpenAI. Chatbot ChatGPT, care a fost lansat pentru testare publică pe 30 noiembrie 2022. OpenAI se descrie ca „o companie de cercetare și implementare a AI” cu misiunea „de a se asigura că inteligența generală artificială aduce beneficii întregii umanități”. Conține Microsoft drept sponsor major, după cum o investiție de 1 miliard USD care oferă OpenAI acces la resurse de calcul enorme, în schimbul căruia Microsoft obține acces privilegiat la descoperirile OpenAI. Abilitățile de conversație și de răspuns la întrebări ale ChatGPT sunt – cel puțin superficial – impresionante. Desigur, acest lucru i-a determinat pe unii comentatori fără suflare să sugereze că suntem pe punctul de a vedea diverse locuri de muncă profesionale, inclusiv cele ale avocaţilor, fiind înlocuite cu aparate AI. Dar este ChatGPT într-adevăr atât de bun, sau oamenii sunt doar orbiți de limitările sale de faptul că este incontestabil mult mai bun decât orice au văzut înainte?

Dacă modelele lingvistice precum ChatGPT vor înlocui consilierii profesioniști, cum ar fi avocații și avocații în brevete, atunci aceștia vor trebui să demonstreze standardele de competență și fiabilitate (să nu mai vorbim de conduită și responsabilitate etică) pe care publicul le așteaptă de la astfel de consilieri. După cum vom vedea, experimentele mele cu ChatGPT demonstrează că nu este nici pe departe atingerea acestor standarde. Într-adevăr, există o întrebare serioasă dacă reprezintă chiar o abordare viabilă pentru dezvoltarea AI cu astfel de capacități. În orice caz, nu există semne că mașinile vor înlocui consilierii profesioniști în viitorul apropiat.

O scurtă introducere în ChatGPT

ChatGPT se bazează pe familia OpenAI GPT-3 de modele de limbi mari. Ce înseamnă asta? „3” îl identifică pur și simplu drept a treia generație a seriei, în timp ce „GPT” înseamnă Generative Pre-trained Transformer. „Transformer” este numele dat unui anumit tip de rețea de învățare profundă descrisă pentru prima dată în 2017 de o echipă de cercetători Google într-o lucrare (celebra) intitulată Atenția este tot ce aveți nevoie. „Generative Pre-trained” înseamnă cam ceea ce spune – modelul este pre-antrenat pentru a genera secvențe de cuvinte. Este un „model de limbă” în sensul că întruchipează, în cadrul miliardelor de parametri antrenabili care alcătuiesc rețeaua sa, un tip de model statistic al limbii (limbilor) pe care este antrenat. De exemplu, un proces obișnuit de instruire implică introducerea modelului cu un pasaj de text în care unele cuvinte au fost mascate (adică înlocuite cu „goluri”) și cere modelului să „ghicească” cuvintele lipsă. printr-un proces amplu de instruire (unele estimări plasează costul unui singur antrenament GPT-3 de succes la până la 12 milioane USD, deși OpenAI probabil are acces nelimitat la infrastructura de supercomputing Microsoft Azure AI pe care o folosește pentru antrenament), modelul devine în cele din urmă destul de bun la aceste tipuri de sarcini. Este atunci pur și simplu o chestiune de a oferi modelului un prompt inițial și de a-l face să „predice” următorul cuvânt, apoi următorul, și următorul... și așa mai departe, atâta timp cât ceea ce iese continuă să aibă sens.

Iar ultimele generații de modele GPT pot genera pasaje destul de lungi de text coerent. Ei au un număr suficient de mare de parametri și au fost instruiți pe volume atât de enorme de text, încât codifică modele de limbaj relativ lungi. De aceea, puteți cere ChatGPT să scrie un limerick, sau un haiku sau un sonet și va produce (deseori) rezultate care, deși lipsite de suflet poetic, vor reproduce cel puțin ceva apropiat de forma poetică corectă.

Dar, în timp ce modelele de limbaj generativ pot părea aproape magice în abilitățile lor, adevărul este că ele sunt incapabile să fie „creative” în orice sens semnificativ al cuvântului. Modelele lingvistice de acest tip au fost caracterizate ca „un sistem de îmbinare la întâmplare a secvențelor de forme lingvistice pe care le-a observat în vastele sale date de antrenament, conform informațiilor probabilistice despre cum se combină, dar fără nicio referire la semnificație: un papagal stocastic”: Despre pericolele papagalilor stochastici: pot fi prea mari modelele de limbaj?  (Infam, publicarea acestei lucrări, care a evidențiat costurile etice și pericolele modelelor mari de limbaj, a dus la plecarea controversată a celui de-al doilea autor numit, Timnit Gebru, de la locul ei de la Google, unde a co-condus o echipă de etica inteligenței artificiale..) Prezicerea în mod repetat a celui mai probabil următorul cuvânt dintr-o secvență de text, pe baza unui set de date de 500 de miliarde de cuvinte, provenit în mare parte din Common Crawl internet și depozit de conținut, este o activitate pur procedurală care nu implică inteligență reală, artificială sau de altă natură.

În cazul ChatGPT, iluzia de competență a fost sporită de optimizarea modelului pentru conversație folosind o tehnică cunoscută sub numele de Învățare prin consolidare din feedback uman (RLHF). Aceasta a implicat, în primul rând, reglarea fină a modelului, oferindu-i exemple de conversații în care ambele părți au fost scrise de formatori umani. Apoi, formatorii au clasat grupuri de răspunsuri alternative scrise pe model, clasamentele fiind folosite pentru a „recompensa” modelul pentru a genera răspunsuri mai bune. În mai multe iterații ale acestui proces, ChatGPT a învățat să devină un conversator mai convingător.

Așa că să-l punem la încercare ca avocat în brevete!

ChatGPT își cunoaște jurisprudența?

Orice avocat australian competent în brevete ar trebui să știe ceva despre una dintre cele mai faimoase decizii ale Înaltei Curți din domeniu, cunoscută în mod obișnuit sub numele de „cazul NRDC” (National Research Development Corporation v Comisarul de brevete [1959] HCA 67). Așa că am întrebat ChatGPT 'Care a fost raționamentul în decizia Înaltei Curți în cazul din 1959 care a implicat Comisarul pentru Brevete și Corporația Națională pentru Dezvoltare a Cercetării?'A răspuns:

Cazul din 1959 care implică Comisarul de Brevete și National Research Development Corporation, cunoscut și sub denumirea de cazul NRDC, a fost un caz semnificativ în legislația australiană a brevetelor care a abordat întrebarea a ceea ce constituie un mod de fabricație, care este o cerință pentru ca o invenție să fi eligibil pentru un brevet în Australia.

Cazul a implicat o cerere a National Research Development Corporation (NRDC), o companie de cercetare și dezvoltare deținută de guvern din Marea Britanie, pentru un brevet în Australia pentru un proces de purificare a wolframului. Comisarul de brevete a refuzat cererea pe motiv că procedeul nu a fost un mod de fabricație, întrucât era un simplu principiu științific sau idee abstractă care nu producea niciun rezultat material și nu avea vreo utilitate practică.

NRDC a contestat decizia la Înalta Curte din Australia, care a menținut decizia comisarului și a respins cererea de brevet. În decizia sa, Înalta Curte a stabilit testul pentru modalitatea de fabricație, care impune ca o invenție să fie un produs sau procedeu care aduce o contribuție materială domeniului tehnic în care se încadrează și care are utilitate practică. Curtea a reținut că procedeul NRDC de purificare a wolframului nu a îndeplinit acest test, fiind vorba de un simplu principiu științific care nu a produs niciun rezultat material și nici nu are vreo utilitate practică.

Cazul NRDC este încă frecvent citat în legislația australiană a brevetelor ca o autoritate principală în ceea ce privește cerința ca o invenție să fie un mod de fabricație pentru a fi eligibilă pentru un brevet.

Cititorii familiarizați cu cazul vor ști că, în ciuda livrării încrezătoare de către ChatGPT, acest răspuns primește aproape toate detaliile spectaculos de greșit! Este adevărat că cazul NRDC „a abordat problema ce constituie un mod de fabricație, care este o cerință pentru ca o invenție să fie eligibilă pentru un brevet în Australia” și că „este încă frecvent citată în legislația australiană a brevetelor ca principal autoritate cu privire la cerința ca o invenție să fie un mod de fabricație”. Dar cazul a implicat un proces de tratare chimică a culturilor pentru a ucide buruienile și a îmbunătăți creșterea (nimic de-a face cu purificarea wolframului), iar recursul NRDC a avut succes, Înalta Curte anulând decizia comisarului. Nu sunt sigur de unde a luat „faptele” ChatGPT. Am găsit o hotărâre din 1928 în care un brevet referitor la purificarea wolframului a fost invalidat deoarece revendica un element natural. Cu toate acestea, acesta a fost un caz din SUA în Curtea de Apel al Treilea Circuit, implicând un brevet emis deținut de General Electric, contestat de De Forest Radio Co – adică nimic de-a face cu Australia, NRDC, vreun Comisar de Brevete sau o Înalta Curte.

Așa că am clarificat ChatGPT, răspunzând „Asta e gresit. Cazul NRDC a implicat tratarea culturilor, nu purificarea wolframului. Iar contestația NRDC a avut succes.Spre meritul său, a fost bucuros să-și recunoască eroarea:

Îmi cer scuze pentru eroarea din răspunsul meu anterior. Aveți dreptate că cazul NRDC a implicat o cerere de către National Research Development Corporation (NRDC) pentru un brevet în Australia pentru un proces de tratare a culturilor, și nu purificarea wolframului.

În cazul NRDC, comisarul de brevete a refuzat cererea de brevet pe motiv că procedeul nu era un mod de fabricație, întrucât era un simplu principiu științific sau idee abstractă care nu producea niciun rezultat material și nu avea vreo utilitate practică. NRDC a contestat decizia la Înalta Curte din Australia, care a admis recursul NRDC și a acordat brevetul.

În decizia sa, Înalta Curte a stabilit testul pentru modalitatea de fabricație, care impune ca o invenție să fie un produs sau procedeu care aduce o contribuție materială domeniului tehnic în care se încadrează și care are utilitate practică. Curtea a reținut că procesul NRDC de tratare a culturilor a îndeplinit acest test, întrucât presupunea aplicarea unui principiu științific la o problemă practică într-un mod care a produs un rezultat material și a avut utilitate practică.

Cazul NRDC este un caz semnificativ în legislația australiană a brevetelor și este frecvent citată ca autoritate principală cu privire la cerința ca o invenție să fie un mod de fabricație pentru a fi eligibilă pentru un brevet. Îmi cer scuze pentru orice confuzie cauzată de răspunsul meu anterior.

Odată solicitat, ChatGPT poate genera text mai adecvat. Cu toate acestea, repetarea sa este notabilă. Am evidențiat pasaje din răspunsul său corectat care sunt reproduceri textuale din răspunsul său original. Acest tip de repetare memorabilă este caracteristic acestor tipuri de modele de limbaj generativ, deoarece, odată ce se lansează pe rol producând un anumit pasaj de text, au tendința de a face aceleași predicții de cuvânt următor și astfel generează aceeași secvență de cuvinte.

În acest moment, ChatGPT – cel mai sofisticat chatbot creat vreodată – eșuează așa-numitul „Turing Turing'. În formularea originală a lui Alan Turing a „jocului său de imitație”, unui interogator uman i se dă sarcina de a determina, pe baza exclusiv răspunsurilor scrise, care dintre celelalte două părți este un om și care este o mașină. Aparatul trece testul dacă interogatorul nu poate face o distincție sigură între om și mașină. În afară de orice alte deficiențe pe care le poate avea, ChatGPT se dă prin încrederea cu care oferă răspunsuri greșite și tendința de a se repeta literal.

De asemenea, este de remarcat faptul că ChatGPT nu a fost dus în rătăcire în încercarea sa inițială de a explica cazul NRDC prin informații false din datele sale de antrenament. Cea mai probabilă explicație este că versiunea sa a fost derivată din două (sau mai multe) surse de informații faptice pe care le-a combinat cumva pentru a produce o narațiune falsă. Acest lucru sugerează că problemele cu aceste tipuri de modele lingvistice care generează răspunsuri incorecte nu pot fi rezolvate doar prin asigurarea faptului că tot textul folosit pentru instruire este corect. Ei nu au absolut nicio atenție pentru adevăr și vor merge oriunde îi duc statisticile datelor lor de antrenament.

Poate ChatGPT să ofere sfaturi generale de bază?

Poate că a întreba despre un caz specific – oricât de faimos – a fost o sarcină prea grea. Dar ce zici de oferirea de sfaturi mai generale? Am întrebat ChatGPT 'Sunt invențiile implementate pe computer brevetabile în Australia?'A răspuns:

Da, invențiile implementate pe computer sunt, în general, eligibile pentru protecție prin brevet în Australia.

În Australia, o invenție este eligibilă pentru brevet dacă este un mod de fabricație, ceea ce înseamnă că trebuie să fie un produs sau un proces care poate fi aplicat industrial. Aceasta include invențiile care implică utilizarea computerelor sau a altor dispozitive electronice.

Invențiile implementate pe computer pot fi eligibile pentru un brevet în Australia dacă implică utilizarea unui computer pentru a îndeplini o anumită funcție sau dacă implică o îmbunătățire nouă și utilă a unui computer sau a unei tehnologii legate de computer. Pentru a fi eligibilă pentru un brevet, invenția trebuie să îndeplinească cerințele obișnuite pentru un brevet, inclusiv noutatea, neevidența și utilitatea.

Este demn de remarcat faptul că brevetabilitatea invențiilor implementate pe computer în Australia nu depinde de prezența unui dispozitiv sau a unui produs fizic. O invenție care este pur o soluție bazată pe software poate fi totuși eligibilă pentru un brevet dacă îndeplinește cerințele necesare.

Cu toate acestea, este important de reținut că anumite tipuri de invenții implementate pe computer pot fi excluse de la brevetabilitate în Australia, cum ar fi invențiile care se referă exclusiv la o metodă de afaceri sau un produs financiar sau invențiile care sunt considerate a fi o simplă schemă sau o idee abstractă. . Aceste excluderi sunt stabilite în Legea brevetelor din 1990 și au scopul de a preveni acordarea de brevete pentru invenții care nu sunt considerate a fi invenții adevărate.

În afară de ultima propoziție (pe care am evidențiat-o), acest răspuns este rezonabil de bun și ar putea fi destul de potrivit pentru a fi utilizat într-o pagină de „întrebări frecvente” de pe site-ul web al unei firme de avocat în brevete. Cu toate acestea, teza finală este incorectă – nu există excluderi exprese pentru metodele de afaceri, produsele financiare, schemele sau ideile abstracte „prevăzute în Legea brevetelor din 1990'. Aceste tipuri de subiecte au fost, de-a lungul multor ani, considerate a fi nebrevetabile de către instanțele în conformitate cu principiile dezvoltate pentru aplicarea testului „modului de fabricație” (după cum ar fi știut ChatGPT, dacă ar fi înțeles cu adevărat cazul NRDC) .

Încă o dată, acest lucru demonstrează că, indiferent cât de mult din rezultatul său ar fi corect, ChatGPT pur și simplu nu poate fi bazat pe un consilier profesionist. Deoarece este complet incapabil să facă distincția între adevăr și minciună, nu se poate baza pe ea să furnizeze informații unor oameni care sunt ei înșiși incapabili să identifice și să-i corecteze erorile.

ChatGPT nu este DABUS!

Dacă ChatGPT nu înlocuiește un avocat competent în brevete, ce zici de folosirea lui pentru a înlocui inventatorii? am intrebat-oEști capabil de creativitate adevărată?' Răspunsul:

Ca model de limbaj, nu sunt capabil de creativitate adevărată în același mod în care este un om. Răspunsurile mele sunt generate pe baza tiparelor și informațiilor pe care am fost antrenat și nu am experiențe sau sentimente personale.

Cu toate acestea, pot asista în procesul de gândire creativă și de generare de idei, oferind informații și sugestii bazate pe pregătirea și cunoștințele mele. Aceasta poate include idei de brainstorming, oferirea de sugestii și exerciții pentru a stimula gândirea creativă și ajutându-vă să înțelegeți concepte și principii legate de creativitate.

Este important să ne amintim că adevărata creativitate vine din interiorul unui individ și este rezultatul propriilor experiențe, emoții și perspective personale. Deși pot oferi îndrumări și asistență, numai oamenii au capacitatea de a profita cu adevărat de propria lor creativitate și de a crea ceva original și unic.

Cel puțin ChatGPT este realist în ceea ce privește capacitățile sale – să parafrazați „Murdarul” Harry Callahan, un bot trebuie să-și cunoască limitele! Apoi am întrebat-oAi auzit de DABUS?'A răspuns:

DABUS este un model de învățare automată dezvoltat de cercetătorul și inventatorul Stephen Thaler. A fost instruit pentru a genera idei noi și creative prin analizarea unui set mare de date de idei și concepte generate de oameni. DABUS a fost creditat cu inventarea unui număr de idei și design noi, inclusiv un nou tip de far de urgență și un dispozitiv pentru transportul obiectelor prin aer sau apă.

DABUS a generat o atenție semnificativă în presă și a stârnit o dezbatere despre rolul și capacitățile modelelor de învățare automată în procesul de inventare și creare a lucrurilor noi. Unii experți au susținut că DABUS este capabil de creativitate adevărată și ar trebui să fie recunoscut ca inventatorul creațiilor sale, în timp ce alții au avertizat că depinde în cele din urmă de aportul și îndrumarea umană și că creațiile sale ar trebui atribuite creatorilor săi umani.

O diferență majoră între ChatGPT și DABUS este că toți putem judeca capabilitățile și limitările ChatGPT pentru noi înșine. Principiile din spatele proiectării și formării sale au fost publicate de OpenAI și este disponibil online pentru a interacționa oricui. Predecesorul său mai mic, GPT-2, a fost pus la dispoziția publicului, atât sub formă de cod, cât și de modele pre-antrenate și mă aștept ca, în timp, la fel să se facă și pentru GPT-3 (nu atât de mulți oameni vor avea resursele pentru a-l rula). Această formă de „inovare deschisă” este obișnuită în comunitatea de cercetare IA și învățarea automată. 

DABUS, între timp, este în mare măsură un mister. Din câte știu, nimeni altul decât Stephen Thaler nu a asistat vreodată la presupusele sale activități inventive. Nu este disponibil niciun cod sau demonstrație publică. Specificația de brevetul acordat din SUA care se presupune că dezvăluie o implementare a DABUS nu oferă, după citirea mea, o descriere suficientă a nimic care ar reproduce faptele de invenție revendicate pentru DABUS. Pe scurt, ni se cere să credem că Thaler singur a realizat o descoperire în AI care a ocolit cele mai mari companii de tehnologie din lume, cu toate resursele pe care le au la dispoziție.

„Standardul Sagan” – că cererile extraordinare necesită dovezi extraordinare – se aplică. Până când vom avea aceeași oportunitate de a inspecta și de a contesta DABUS ca și cu ChatGPT, voi rămâne un necredincios.

Concluzie – ChatGPT nu este o amenințare pentru locurile noastre de muncă

ChatGPT generează o simulare destul de convingătoare a utilizării limbajului uman. Cu toate acestea, fiind convingător și ființă corecta sunt lucruri complet diferite.  După cum însuși OpenAI admite, „ChatGPT scrie uneori răspunsuri care sună plauzibil, dar incorecte sau fără sens”, în primul rând pentru că atunci când antrenează modelul nu există „nicio sursă de adevăr”. Adică, datele de antrenament (adică în mare parte conținut web) pot conține informații corecte, informații incorecte sau o combinație a ambelor, iar modelul nu are nicio modalitate de a face distincția între ceea ce este adevărat și ceea ce nu este. Pur și simplu generează secvențe plauzibile de cuvinte, derivate din datele sale de antrenament, fără a înțelege semnificația acelor secvențe.

Este o chestiune de experiență de zi cu zi că oamenii creează mai întâi sens și apoi aplică limbajul pentru a comunica acel sens. Diferența dintre gândire și limbaj ar putea fi mică, dar cu siguranță am avut în minte întreaga idee pentru acest paragraf înainte de a începe să stabilesc cuvintele pentru a-l exprima. Ceea ce facem în mod evident noi oamenii nu a face este să începem cu un singur cuvânt, fără a avea o idee clară despre unde mergem și pur și simplu să selectăm fiecare cuvânt ulterior pe rând, pe baza unor reguli înnăscute ale structurii limbajului, în speranța oarbă că secvența rezultată va transmite unele relevante. sens. Totuși, asta este exact ceea ce face ChatGPT. Nu este inteligent. Nu este conștient. De multe ori, nici măcar nu este corect. Poate părea că vorbește, dar habar nu are ce spune. Asta înseamnă să fii un „papagal stocastic”.

Avocații în brevete – și, într-adevăr, toți „lucrătorii de cunoștințe” profesioniști – sunt de încredere pentru expertiza și experiența noastră. Oamenii se așteaptă pe bună dreptate ca noi să „cunoaștem lucrurile noastre” și să recunoaștem când ajungem la limitele cunoștințelor noastre și trebuie să plecăm și să efectuăm cercetări sau anchete suplimentare. Dar mai mult decât atât, se așteaptă să putem aplica ceea ce știm în mod creativ. Este esențial să oferim informații și sfaturi corecte, dar care nu sunt suficiente. De asemenea, trebuie să înțelegem și să abordăm problemele, nevoile și preocupările clienților noștri. Acestea pot fi unice și necesită selecția, aplicarea și combinarea sau cunoștințele în moduri niciodată concepute înainte.

ChatGPT este în mod evident incapabil de o asemenea înțelegere și creativitate. Dar aș merge mai departe de atât. Aș susține că tehnologia de bază pe care este construit ChatGPT, adică însăși premisa modelelor mari de limbaj antrenate pentru a întruchipa tiparele și structurile limbajului, nu este nici măcar un pas pe drumul către mașini care sunt inteligente în sensul că pot să înțeleagă și să creeze sens în moduri creative. Nu există o cale evolutivă aparentă de la papagalii stocastici la mașinile de gândire.

Modelele de limbaj mari sunt lipsite de minte, ceea ce implică faptul că pot face doar sarcini fără minte. Nu este un lucru rău. Mulți dintre noi ar fi bucuroși să fie eliberați de acele sarcini fără minte, astfel încât să ne putem petrece timpul și energia în activități care necesită de fapt exercitarea intelectului nostru. Nu trebuie să ne temem că ChatGPT sau descendenții săi vor înlocui consilierii profesioniști în viitorul apropiat. Este mult mai probabil ca acestea să fie desfășurate pentru a ne ușura viața.

Postscript – Patent Attorney Poetics

În cele din urmă, am cerut ChatGPT să "Vă rog să-mi scrieți un sonet de 14 linii despre bucuriile de a fi avocat în brevete' (deși tautologic, am constatat că, dacă nu aș solicita 14 versuri, ar insista să producă patru strofe de patru rânduri în loc de un sonet propriu-zis). Acesta este ceea ce a scris – cred că putem fi de acord că ChatGPT nu este Shakespeare!

Bucuria de a fi avocat în brevete stă
Ajutându-i pe alții să-și aducă ideile la viață
Fiorul rezolvării legăturilor juridice complexe
Și ajutând la crearea de noi invenții răspândite

Satisfacția de a vedea un brevet acordat
Pentru un client a cărui muncă grea a fost în sfârșit plătită
Oportunitatea de a face diferența, plantată
Știind că inovația lor va rămâne

Mândria de a ști că roadele muncii
Va duce la progres, avansare și creștere
Onoarea de a proteja onoarea intelectuală
Și șansa de a contribui la jurământul societății

Deci, dacă îți place legea și scânteia inovației
Luați în considerare să deveniți un avocat de brevete, îmbarcați-vă

Timestamp-ul:

Mai mult de la Patentologie