Tekevätkö tekoäly-chatbotit patenttiasiamiehistä vanhentuneita? (Ei, he eivät tee)

Tekevätkö tekoäly-chatbotit patenttiasiamiehistä vanhentuneita? (Ei, he eivät tee)

Lähdesolmu: 1786559

AI kaveri Jos olet ollenkaan kiinnostunut tekniikasta, ja mahdollisesti vaikka et olisikaan, on erittäin todennäköistä, että olet viime viikkoina lukenut tai kuullut jotain OpenAI:sta. ChatGPT chatbot, joka julkaistiin julkiseen testaukseen 30. OpenAI kuvailee itseään "AI-tutkimus- ja käyttöönottoyritykseksi", jonka tehtävänä on "varmistaa, että yleinen tekoäly hyödyttää koko ihmiskuntaa". Se laskee Microsoftin pääsponsorina miljardin dollarin investointi, joka antaa OpenAI:lle pääsyn valtaviin laskentaresursseihin, jonka vastineeksi Microsoft saa etuoikeutetun pääsyn OpenAI:n läpimurtoihin. ChatGPT:n keskustelu- ja vastaustaidot ovat – ainakin pinnallisesti – vaikuttavat. Tämä on luonnollisesti saanut jotkut hengästyttävät kommentaattorit ehdottamaan, että olemme näkemässä erilaisia ​​ammattitöitä, lakimiesten omat mukaan lukien, korvataan tekoälykoneilla. Mutta onko ChatGPT todella niin hyvä, vai sokaisevatko ihmiset sen rajoituksia se tosiasia, että se on kiistatta paljon parempi kuin mikään aiemmin näkemästään?

Jos ChatGPT:n kaltaiset kielimallit korvaavat ammattimaiset neuvonantajat, kuten asianajajat ja patenttiasiamiehet, heidän on osoitettava pätevyys- ja luotettavuusstandardit (puhumattakaan eettisestä käytöksestä ja vastuullisuudesta), joita yleisö odottaa tällaisilta neuvonantajilta. Kuten tulemme näkemään, kokeiluni ChatGPT:llä osoittavat, että se ei ole lähelläkään näitä standardeja. On todellakin vakava kysymys siitä, edustaako se edes toteuttamiskelpoista lähestymistapaa tällaisilla ominaisuuksilla varustetun tekoälyn kehittämiseen. Joka tapauksessa ei ole merkkejä siitä, että koneet korvaisivat ammattimaiset neuvonantajat lähitulevaisuudessa.

Lyhyt johdatus ChatGPT:hen

ChatGPT perustuu OpenAI:n suurten kielimallien GPT-3-perheeseen. Mitä tuo tarkoittaa? "3" yksinkertaisesti tunnistaa tämän sarjan kolmanneksi sukupolveksi, kun taas "GPT" tarkoittaa Generative Pre-trained Transformeria. "Transformer" on nimi, joka on annettu tietyn tyyppiselle syväoppimisverkostolle, jonka Googlen tutkijaryhmä kuvaili ensimmäisen kerran vuonna 2017 (kuuluisassa) artikkelissa. Huomio on kaikki mitä tarvitset. "Generatiivinen esikoulutettu" tarkoittaa pitkälti sitä, mitä se sanoo – malli on esiopetettu luomaan sanasarjoja. Se on "kielimalli" siinä mielessä, että se sisältää sen verkoston muodostavien miljardien koulutettavissa olevien parametrien sisällä eräänlaisen tilastollisen mallin kielestä (kielistä), joilla sitä on koulutettu. Esimerkiksi yksi yleinen koulutusprosessi sisältää mallin syöttämisen tekstin osion, jossa jotkut sanat on peitetty pois (eli korvattu 'aukoilla'), ja pyytää mallia "arvaamaan" puuttuvat sanat. Laajan koulutusprosessin kautta (joidenkin arvioiden mukaan yhden onnistuneen GPT-3-koulutuksen kustannukset ovat jopa 12 miljoonaa dollaria, vaikka OpenAI:lla on oletettavasti rajoittamaton pääsy Microsoft Azure AI -supertietokoneinfrastruktuuriin, jota se käyttää koulutukseen), mallista tulee lopulta melko hyvä tämäntyyppisissä tehtävissä. Sitten on yksinkertaisesti kysymys siitä, että mallille annetaan aloituskehote ja se saadaan "ennustamaan" seuraava sana, sitten seuraava, ja seuraava… ja niin edelleen, niin kauan kuin se, mikä tulee ulos, on edelleen järkevää.

Ja uusimpien sukupolvien GPT-mallit voivat tuottaa melko pitkiä kohtia yhtenäistä tekstiä. Niillä on riittävän suuri määrä parametreja, ja ne on koulutettu niin valtaviin tekstimääriin, että ne koodaavat suhteellisen pitkän kantaman kielen malleja. Siksi voit pyytää ChatGPT:tä kirjoittamaan limerickin, haikun tai sonetin, ja se tuottaa (usein) tuotoksen, joka, vaikka runollinen sielu puuttuu, toistaa ainakin jotain, joka on lähellä oikeaa runomuotoa.

Mutta vaikka generatiiviset kielimallit voivat vaikuttaa lähes taianomaisilta kyvyistään, totuus on, että ne eivät kykene olemaan "luovia" sanan millään merkityksellisessä merkityksessä. Tämän tyyppisiä kielimalleja on luonnehdittu "järjestelmäksi liittää sattumanvaraisesti yhteen kielellisten muotojen sekvenssejä, joita se on havainnut laajassa harjoitusdatassaan todennäköisyystietojen perusteella niiden yhdistämisestä, mutta ilman viittausta merkitykseen: stokastinen papukaija": Stokastisten papukaijojen vaaroista: Voivatko kielimallit olla liian suuria?  (Kuultavasti tämän paperin julkaiseminen, jossa korostettiin suurten kielimallien eettisiä kustannuksia ja vaaroja, johti sen toiseksi nimetyn kirjailijan Timnit Gebrun kiistanalaiseen eroon työstään Googlella, jossa hän johti tekoälyn etiikkaa käsittelevää ryhmää..) Ennustaa toistuvasti todennäköisimmän seuraavan sanan tekstisarjassa 500 miljardin sanan tietojoukon perusteella, joka on peräisin suurelta osin Common Crawl Internet ja sisältöarkisto, on puhtaasti menettelyllinen toiminta, johon ei liity todellista, keinotekoista tai muuta älykkyyttä.

ChatGPT:n tapauksessa illuusiota pätevyydestä on lisätty keskustelumallin optimointi käyttämällä tekniikkaa, joka tunnetaan nimellä RLHF (Reforcement Learning from Human Feedback). Tämä sisälsi ensin mallin hienosäädön antamalla sille esimerkkejä keskusteluista, joissa molemmat osapuolet olivat ihmiskouluttajien kirjoittamia. Sitten kouluttajat luokittelivat vaihtoehtoisten mallikirjoitettujen vastausten ryhmiä, ja luokituksia käytettiin mallin "palkitsemiseen" parempien vastausten tuottamisesta. Tämän prosessin useiden iteraatioiden aikana ChatGPT oppi tulla vakuuttavammaksi keskustelijaksi.

Laitetaanpa siis koetukselle patenttiasiamiehenä!

Tietääkö ChatGPT oikeuskäytäntönsä?

Jokaisen pätevän australialaisen patenttiasiamiehen pitäisi tietää jotain yhdestä alan kuuluisimmista High Courtin päätöksistä, joka tunnetaan yleisesti nimellä "NRDC-tapaus" (National Research Development Corporation vastaan ​​patenttikomissaari HCA 1959). Joten kysyin ChatGPT:ltäMikä oli High Courtin päätöksen perustelu vuoden 1959 tapauksessa, jossa oli mukana Commissioner of Patents ja National Research Development Corporation?' Se vastasi:

Vuoden 1959 tapaus, joka koski patenttivaltuutettua ja National Research Development Corporationia, joka tunnetaan myös nimellä NRDC-tapaus, oli merkittävä tapaus Australian patenttilaissa, joka käsitteli kysymystä siitä, mikä on valmistustapa, joka on edellytys, että keksintö saada patentti Australiassa.

Tapaus koski Yhdistyneen kuningaskunnan valtion omistaman tutkimus- ja kehitysyhtiön National Research Development Corporationin (NRDC) hakemusta Australiassa patenttihakemuksesta volframin puhdistusprosessille. Patenttivaltuutettu hylkäsi hakemuksen sillä perusteella, että prosessi ei ollut valmistustapa, koska se oli pelkkä tieteellinen periaate tai abstrakti ajatus, joka ei tuottanut aineellista tulosta tai jolla ei ole käytännön hyötyä.

NRDC valitti päätöksestä Australian High Courtiin, joka vahvisti komissaarin päätöksen ja hylkäsi patenttihakemuksen. Korkein oikeus asetti päätöksessään valmistustavan testin, joka edellyttää, että keksintö on tuote tai prosessi, jolla on olennainen panos sille tekniselle alalle, johon se kuuluu ja jolla on käytännön hyötyä. Tuomioistuin katsoi, että NRDC:n volframin puhdistusprosessi ei täyttänyt tätä testiä, koska se oli pelkkä tieteellinen periaate, joka ei tuottanut mitään olennaista tulosta tai jolla ei ollut käytännön hyötyä.

NRDC-tapaus mainitaan edelleen usein Australian patenttilaissa johtavana viranomaisena, joka koskee vaatimusta, jonka mukaan keksinnön on oltava valmistustapa, jotta se voi saada patentin.

Tapaukseen perehtyneet lukijat tietävät, että ChatGPT:n varmasta toimituksesta huolimatta tässä vastauksessa lähes kaikki yksityiskohdat vääristyvät! On totta, että NRDC-tapaus "käsitteli kysymystä siitä, mikä on valmistustapa, joka on edellytys, jotta keksintö voi saada patentin Australiassa", ja että se "mainitaan edelleen usein Australian patenttilaissa johtavana esimerkkinä. viranomainen siitä, että keksinnön on oltava valmistustapa”. Mutta tapaukseen liittyi viljelykasvien kemiallinen käsittely rikkaruohojen tappamiseksi ja kasvun parantamiseksi (ei mitään tekemistä volframin puhdistamisen kanssa), ja NRDC:n valitus onnistui, ja High Court kumosi komissaarin päätöksen. En ole varma, mistä ChatGPT sai "fakansa". Löysin vuoden 1928 tuomion, jossa volframin puhdistamiseen liittyvä patentti mitätöitiin, koska siinä vaadittiin luonnossa esiintyvää elementtiä. Kyseessä oli kuitenkin Yhdysvaltojen tapaus Third Circuit Court of Appealsissa, jossa De Forest Radio Co riitautti General Electricin omistaman patentin – eli sillä ei ollut mitään tekemistä Australian, NRDC:n, kenenkään patenttivaltuutetun tai High Courtin kanssa.

Joten laitoin ChatGPT:n suoraan ja vastasinTuo on väärin. NRDC-tapaus koski viljelykasvien käsittelyä, ei volframin puhdistusta. Ja NRDC:n valitus onnistui.' Sen kunniaksi se myönsi mielellään virheensä:

Pahoittelen virhettä edellisessä vastauksessani. Olet oikeassa, että NRDC-tapaus koski National Research Development Corporationin (NRDC) patenttihakemusta Australiassa viljelykasvien käsittelyprosessille, ei volframin puhdistamiseen.

NRDC:n tapauksessa Patenttivaltuutettu hylkäsi patenttihakemuksen sillä perusteella, että prosessi ei ollut valmistustapa, koska se oli pelkkä tieteellinen periaate tai abstrakti ajatus, joka ei tuottanut aineellista tulosta tai jolla ei ole käytännön hyötyä. NRDC valitti päätöksestä Australian High Courtiin, joka hyväksyi NRDC:n valituksen ja myönsi patentin.

Korkein oikeus asetti päätöksessään valmistustavan testin, joka edellyttää, että keksintö on tuote tai prosessi, jolla on olennainen panos sille tekniselle alalle, johon se kuuluu ja jolla on käytännön hyötyä. Tuomioistuin katsoi, että NRDC:n viljelykasvien käsittelyprosessi täytti tämän testin, koska se sisälsi tieteellisen periaatteen soveltamisen käytännön ongelmaan tavalla, joka tuotti olennaisen tuloksen ja jolla oli käytännön hyötyä.

NRDC-tapaus on merkittävä tapaus Australian patenttilaissa ja on mainitaan usein johtavana viranomaisena, joka koskee vaatimusta, että keksinnön on oltava valmistustapa, jotta se voi saada patentin. Pyydän anteeksi aikaisemman vastaukseni aiheuttamaa sekaannusta.

Pyydettäessä ChatGPT pystyy luomaan sopivampaa tekstiä. Sen toisto on kuitenkin huomattava. Olen korostanut sen korjatussa vastauksessa kohtia, jotka ovat sananmukaisia ​​kopioita sen alkuperäisestä vastauksesta. Tällainen toiston toisto on ominaista tämän tyyppisille generatiivisille kielimalleille, koska kun ne joutuvat rullalle tuottamaan tietyn tekstikohdan, niillä on taipumus tehdä samat seuraavan sanan ennusteet ja siten generoida sama sanoja.

Tässä vaiheessa ChatGPT – kaikkien aikojen kehittynein chatbot – epäonnistuu ns.Turingin testi'. Alan Turingin alkuperäisessä "jäljitelmäpelinsä" muotoilussa ihmiskuulustelijalle on annettu tehtäväksi määrittää pelkästään kirjallisten vastausten perusteella, kumpi kahdesta muusta osapuolesta on ihminen ja kumpi kone. Kone läpäisee testin, jos kyselylaite ei pysty luotettavasti erottamaan ihmistä ja konetta. Lukuun ottamatta muita mahdollisia puutteita, ChatGPT antaa itsensä pois luottamuksesta, jolla se antaa vääriä vastauksia, ja taipumuksensa sanatarkasti toistoon.

On myös syytä huomata, että ChatGPT:tä ei johdettu harhaan yrittäessään selittää NRDC-tapausta koulutustiedoissaan väärillä tiedoilla. Todennäköisin selitys on, että sen versio on johdettu kahdesta (tai useammasta) faktatietolähteestä, jotka se jotenkin sekoitti tuottaakseen väärän kertomuksen. Tämä viittaa siihen, että tällaisten virheellisiä vastauksia synnyttävien kielimallien ongelmia ei voida korjata pelkästään varmistamalla, että kaikki koulutukseen käytetty teksti on asiallista. He eivät todellakaan välitä totuudesta ja menevät minne tahansa, mihin heidän harjoitustietojensa tilastot johtavat.

Voiko ChatGPT tarjota yleisiä perusneuvoja?

Ehkä tietystä tapauksesta kysyminen – kuinka kuuluisa tahansa – oli liian vaikea tehtävä. Mutta entä yleisempien neuvojen antaminen? Kysyin ChatGPT:ltäOvatko tietokoneella toteutetut keksinnöt patentoitavissa Australiassa?' Se vastasi:

Kyllä, tietokoneella toteutetut keksinnöt ovat yleensä oikeutettuja patenttisuojaan Australiassa.

Australiassa keksintö on oikeutettu patenttiin, jos se on valmistustapa, mikä tarkoittaa, että sen on oltava tuote tai prosessi, jota voidaan käyttää teollisesti. Tämä sisältää keksinnöt, joissa käytetään tietokoneita tai muita elektronisia laitteita.

Tietokoneella toteutetut keksinnöt voivat saada patentin Australiassa, jos niihin liittyy tietokoneen käyttö tietyn toiminnon suorittamiseen tai jos niihin liittyy uusi ja hyödyllinen parannus tietokoneeseen tai tietokoneeseen liittyvään teknologiaan. Jotta keksintö olisi oikeutettu patenttiin, sen on täytettävä tavanomaiset patentille asetetut vaatimukset, mukaan lukien uutuus, ei-ilmeisyys ja hyödyllisyys.

On syytä huomata, että tietokoneella toteutettujen keksintöjen patentoitavuus Australiassa ei ole riippuvainen fyysisen laitteen tai tuotteen olemassaolosta. Keksintö, joka on puhtaasti ohjelmistopohjainen ratkaisu, voi silti olla patentoitu, jos se täyttää vaadittavat vaatimukset.

On kuitenkin tärkeää huomata, että tietyntyyppiset tietokoneella toteutetut keksinnöt voidaan sulkea patentoitavuuden ulkopuolelle Australiassa, kuten keksinnöt, jotka liittyvät puhtaasti liiketoimintamenetelmään tai rahoitustuotteeseen tai keksinnöt, joita pidetään pelkkänä suunnitelmana tai abstraktina ideana. . Nämä poikkeukset on määritelty vuoden 1990 patenttilaissa, ja niiden tarkoituksena on estää patenttien myöntäminen keksinnöille, joita ei pidetä todellisina keksintöinä.

Lukuun ottamatta viimeistä virkettä (jonka olen korostanut) tämä vastaus on kohtuullisen hyvä, ja saattaa olla varsin sopiva käytettäväksi patenttiasiamiehen yrityksen verkkosivuston "usein kysyttyjen kysymysten" sivulla. Viimeinen virke on kuitenkin virheellinen – siinä ei ole nimenomaisia ​​poikkeuksia liiketoimintamenetelmille, rahoitustuotteille, järjestelmille tai abstrakteille ideoille. Patenttilaki 1990'. Tuomioistuimet ovat monien vuosien ajan todenneet tämänkaltaisia ​​aiheita patentoimattomiksi "valmistustapa" -testin soveltamiseen kehitettyjen periaatteiden mukaisesti (kuten ChatGPT olisi tiennyt, jos se olisi todellista ymmärtänyt NRDC-tapauksen) .

Tämä osoittaa jälleen kerran, että riippumatta siitä, kuinka suuri osa sen tuotosta olisi oikeaa, ChatGPT:hen ei yksinkertaisesti voida luottaa ammattimaisena neuvonantajana. Koska se on täysin kykenemätön erottamaan totuutta ja valhetta, se ei voi luottaa siihen, että se antaa tietoja ihmisille, jotka eivät itse pysty tunnistamaan ja korjaamaan sen virheitä.

ChatGPT ei ole DABUS!

Jos ChatGPT ei korvaa pätevää patenttiasiamiestä, entä sen käyttäminen keksijöiden korvaamiseen? kysyin sitä'Pystytkö todelliseen luovuuteen?' Vastaus:

Kielimallina en pysty todelliseen luovuuteen samalla tavalla kuin ihminen. Vastaukseni syntyvät kuvioiden ja tietojen perusteella, joihin olen koulutettu, eikä minulla ole henkilökohtaisia ​​kokemuksia tai tunteita.

Voin kuitenkin auttaa luovan ajattelun ja ideoiden luomisessa tarjoamalla koulutustani ja tietämykseeni perustuvaa tietoa ja ehdotuksia. Tämä voi sisältää ideoiden pohdiskelua, kehotteita ja harjoituksia luovan ajattelun stimuloimiseksi ja auttaa sinua ymmärtämään luovuuteen liittyviä käsitteitä ja periaatteita.

On tärkeää muistaa, että todellinen luovuus tulee yksilön sisältä ja on tulosta hänen omista kokemuksistaan, tunteistaan ​​ja näkökulmistaan. Vaikka voin tarjota opastusta ja apua, vain ihmisillä on kyky todella hyödyntää omaa luovuuttaan ja luoda jotain omaperäistä ja ainutlaatuista.

Ainakin ChatGPT on realistinen kykyjensä suhteen parafraasi "Dirty" Harry Callahan, botin on tiedettävä rajoituksensa! Seuraavaksi kysyin sitä'Oletko kuullut DABUSista?' Se vastasi:

DABUS on tutkija ja keksijä Stephen Thaler kehittämä koneoppimismalli. Se koulutettiin luomaan uusia ja luovia ideoita analysoimalla laajaa tietojoukkoa ihmisen luomista ideoista ja käsitteistä. DABUS on saanut tunnustusta useiden uusien ideoiden ja suunnitelmien keksimisestä, mukaan lukien uudentyyppinen hätämajakka ja laite esineiden kuljettamiseen ilman tai veden läpi.

DABUS on herättänyt merkittävää mediahuomiota ja herättänyt keskustelua koneoppimismallien roolista ja kyvyistä uusien asioiden keksimis- ja luomisprosessissa. Jotkut asiantuntijat ovat väittäneet, että DABUS kykenee todelliseen luovuuteen ja että se pitäisi tunnustaa luomustensa keksijäksi, kun taas toiset ovat varoittaneet, että se on viime kädessä riippuvainen ihmisen panoksesta ja ohjauksesta ja että sen luomukset pitäisi lukea sen ihmisluojien ansioksi.

Suuri ero ChatGPT:n ja DABUS:n välillä on, että voimme kaikki arvioida ChatGPT:n ominaisuudet ja rajoitukset itse. Sen suunnittelun ja koulutuksen taustalla olevat periaatteet on julkaissut OpenAI, ja se on kaikkien saatavilla verkossa. Sen pienempi edeltäjä, GPT-2, on asetettu yleisön saataville, sekä koodin että esiopetettujen mallien muodossa, ja odotan, että aikanaan sama tehdään myös GPT-3:lle (ei kovin monilla ihmisillä ole resursseja sen suorittamiseen). Tämä "avoimen innovaation" muoto on arkipäivää valtavirran tekoälyn ja koneoppimisen tutkimusyhteisössä. 

DABUS puolestaan ​​on suurelta osin mysteeri. Sikäli kuin tiedän, kukaan muu kuin Stephen Thaler ei ole koskaan nähnyt sen väitettyä keksinnöllistä toimintaa. Koodia tai julkista esittelyä ei ole saatavilla. Spesifikaatio myönnetty yhdysvaltalainen patentti, jonka väitetään paljastavan DABUSin toteutuksen ei minun lukemani mukaan anna riittävää kuvausta mistään, joka toistaisi DABUS:lle vaadittuja keksintöjä. Lyhyesti sanottuna meitä pyydetään uskomaan, että Thaler yksin on saavuttanut tekoälyn läpimurron, joka on syrjäyttänyt maailman suurimmat teknologiayritykset kaikilla niiden käytettävissä olevilla resursseilla.

"Saganin standardi" – että poikkeukselliset väitteet vaativat poikkeuksellisia todisteita – pätee. Kunnes meillä on sama mahdollisuus tarkastaa ja haastaa DABUS kuin ChatGPT:n kanssa, pysyn epäuskoisena.

Johtopäätös – ChatGPT ei ole uhka työpaikoillemme

ChatGPT luo melko vakuuttavan simulaation ihmisen kielenkäytöstä. Kuitenkin oleminen vakuuttava ja oleminen korjata ovat täysin eri asioita.  Kuten OpenAI itse myöntää, 'ChatGPT kirjoittaa joskus uskottavalta kuulostavia, mutta vääriä tai järjettömiä vastauksia', pääasiassa siksi, että mallia opetettaessa ei ole olemassa totuuden lähdettä. Toisin sanoen koulutusdata (eli enimmäkseen verkkosisältö) voi sisältää oikeaa tietoa, virheellistä tietoa tai näiden yhdistelmää, eikä mallilla ole mitään keinoa erottaa mikä on totta ja mikä ei. Se yksinkertaisesti luo uskottavia sanasarjoja, jotka on johdettu sen opetustiedoista, ymmärtämättä näiden sekvenssien merkitystä.

Se on jokapäiväistä kokemusta, että ihmiset luovat ensin merkityksen ja sitten soveltavat kieltä välittääkseen sen merkityksen. Ajatuksen ja kielen välinen ero saattaa olla pieni, mutta minulla oli varmasti koko tämän kappaleen idea mielessäni ennen kuin aloin laatia sanoja sen ilmaisemiseksi. Mitä me ihmiset selvästi teemme emme kannattaa aloittaa yhdestä sanasta, jolla ei ole selkeää käsitystä siitä, mihin olemme menossa, ja yksinkertaisesti valita jokainen seuraava sana vuorotellen joidenkin kielen rakenteen luontaisten sääntöjen perusteella siinä sokeassa toivossa, että tuloksena oleva sekvenssi välittää jotain oleellista. merkitys. Kuitenkin juuri sitä ChatGPT tekee. Se ei ole älykäs. Se ei ole tietoista. Usein se ei ole edes oikein. Se saattaa näyttää puhuvan, mutta sillä ei ole aavistustakaan, mitä se sanoo. Sitä tarkoittaa olla "stokastinen papukaija".

Patenttiasiamiehiin – ja itse asiassa kaikkiin ammatillisiin ”tietotyöntekijöihin” – luotetaan asiantuntemuksemme ja kokemuksemme ansiosta. Ihmiset odottavat oikeutetusti meidän "tietävän juttujamme" ja myöntävän, kun saavutamme tietomme rajat ja meidän on poistuttava tekemästä lisätutkimuksia tai tiedusteluja. Mutta vielä enemmän, meidän odotetaan pystyvän soveltamaan osaamistamme luovasti. On tärkeää, että annamme oikeaa tietoa ja neuvoja, mutta se ei riitä. Meidän on myös ymmärrettävä asiakkaidemme ongelmat, tarpeet ja huolenaiheet ja puututtava niihin. Nämä voivat olla ainutlaatuisia ja vaativat valintaa, soveltamista ja yhdistämistä tai tietoa tavoilla, joita ei ole koskaan aiemmin suunniteltu.

ChatGPT ei selvästikään kykene sellaiseen ymmärrykseen ja luovuuteen. Mutta menisin pidemmälle. Väittäisin, että taustalla oleva teknologia, jolle ChatGPT on rakennettu, eli lähtökohta suurista kielimalleista, jotka on koulutettu ilmentämään kielen malleja ja rakenteita, ei ole edes askel matkalla kohti koneita, jotka ovat älykkäitä siinä mielessä, että ne voivat ymmärtää ja tehdä merkitys luovilla tavoilla. Ei ole selvää evoluutiopolkua stokastisista papukaijoista ajattelukoneisiin.

Suuret kielimallit ovat mielettömiä, mikä tarkoittaa, että ne voivat tehdä vain mielettömiä tehtäviä. Se ei ole huono asia. Monet meistä olisivat iloisia vapautuessaan noista mielettömistä tehtävistä, jotta voimme käyttää aikamme ja energiamme toimintoihin, jotka todella vaativat älymme harjoittamista. Meidän ei tarvitse pelätä, että ChatGPT tai sen jälkeläiset korvaavat ammattimaiset neuvonantajat lähitulevaisuudessa. On paljon todennäköisempää, että niitä voidaan käyttää helpottamaan elämäämme.

Jälkikirjoitus – Patenttiasiamies Poetics

Lopuksi pyysin ChatGPT:täOle hyvä ja kirjoita minulle 14 rivin sonetti patenttiasiamiehenä olemisen iloista' (vaikka tautologinen, huomasin, että jos en pyytäisi 14 riviä, se vaatisi neljän nelirivisen stanzaa oikean sonetin sijasta). Näin se kirjoitti – uskon, että voimme olla yhtä mieltä siitä, että ChatGPT ei ole Shakespeare!

Patenttiasiamiehenä olemisen ilo piilee
Auttaa muita toteuttamaan ideansa
Monimutkaisten lakisuhteiden ratkaisemisen jännitys
Ja auttamalla luomaan uusia yleisiä keksintöjä

Tyytyväisyys patentin myöntämisestä
Asiakkaalle, jonka kova työ on vihdoin kannattanut
Mahdollisuus vaikuttaa, istutettu
Tietäen, että heidän innovaationsa säilyy

Ylpeys tietää, että työn hedelmät
Se johtaa edistymiseen, edistymiseen ja kasvuun
Henkisen kunnian turvaamisen kunnia
Ja mahdollisuus osallistua yhteiskunnan valaan

Joten jos rakastat lakia ja innovaatioiden kipinää
Harkitse patenttiasiamieheksi ryhtymistä, aloita

Aikaleima:

Lisää aiheesta Patentologia