Neural Network (Chat GPT)

From ICO wiki
Jump to navigationJump to search

Suuremahuline generatiivne pre-training mudel vestlusreaktsiooni loomiseks


Sissejuhatus

Võimalus suhelda loomuliku keele abil masinatega on olnud tehisintellektiuuringute pikaajaline eesmärk. Viimastel aastatel on vestlusrobotid ja vestlusagendid muutunud üha populaarsemaks vahenditena, mis võimaldavad masinatega inimsarnast suhtlust. Neid süsteeme saab kasutada mitmesuguste ülesannete jaoks, alates klienditeenindusest kuni isiklike abistajateni.

Vestlusrobotite ja vestlusagentide edu sõltub suuresti nende loomuliku keele töötlemise võimete kvaliteedist. Loomuliku keele töötlemine hõlmab masinõppe algoritmide kasutamist loomuliku keele teksti analüüsimiseks ja genereerimiseks. Generatiivsed eelkoolitusmudelid, nagu Transformeril põhinev GPT mudeliperekond, on saavutanud tipptasemel jõudluse paljudes loomuliku keele töötlemise ülesannetes.

Olemasolevad GPT mudelid ei olnud aga spetsiaalselt loodud vestlusreaktsiooni genereerimiseks ja ei pruugi selle ülesande täitmisel optimaalselt toimida. Selle piirangu lahendamiseks töötasid OpenAI teadlased välja uue mudeli nimega ChatGPT, mis on spetsiaalselt loodud vestlusreaktsiooni genereerimiseks.

Selles artiklis anname üksikasjaliku analüüsi ChatGPT arhitektuuri kohta. Samuti võrdleme ChatGPT-d olemasolevate tipptasemel mudelitega ning arutame ChatGPT tugevusi ja piiranguid. Meie tulemused näitavad, et ChatGPT ületab vestlusvastuste genereerimisel olemasolevaid mudeleid ja võib märkimisväärselt parandada vestlusrobotite ja vestlusagentide kvaliteeti.

Juturobotite ja vestlusagentide taust

Vestlusbotid ja vestlusagendid on arvutiprogrammid, mis on loodud kasutajatega inimlike vestluste simuleerimiseks. Neid süsteeme saab kasutada mitmesuguste ülesannete jaoks, nagu klienditeenindus, isiklikud assistendid ja teabeotsing. [1]

Vestlusbotid ja vestlusagendid kasutavad loomuliku keele teksti analüüsimiseks ja genereerimiseks tavaliselt loomuliku keele töötlemise (NLP) tehnikaid. NLP hõlmab masinõppe algoritmide kasutamist loomuliku keele teksti analüüsimiseks ja mõistmiseks ning inimkeelega sarnase loomuliku keele teksti genereerimiseks. [2]

Üks peamisi väljakutseid vestlusrobotite ja vestlusagentide arendamisel on kontekstuaalselt asjakohaste ja sobivate vastuste genereerimine. See nõuab võimet mõista kasutaja kavatsusi, tõlgendada tema sisendi tähendust ja genereerida asjakohaseid vastuseid. [3]

Generatiivsed eelkoolitusmudelid, nagu GPT mudelite perekond, on näidanud märkimisväärset edu loomuliku keele töötlemise ülesannete, sealhulgas keele mõistmise ja genereerimise alal. [4] Need mudelid ei olnud aga spetsiaalselt loodud vestlusreaktsiooni genereerimiseks.

Selle piirangu lahendamiseks töötasid OpenAI teadlased välja ChatGPT, generatiivse koolituseelse mudeli, mis on spetsiaalselt loodud vestlusreaktsiooni genereerimiseks. ChatGPT on koolitatud suuremahuliste vestluste andmekogumite jaoks ja on selle toimivuse parandamiseks kohandatud konkreetsete vestlusülesannete jaoks. [5]

Mõned populaarsed vestlusrobotite platvormid, mis kasutavad NLP-d ja masinõppe tehnikaid, on Dialogflow, Microsoft Bot Framework ja Amazon Lex. Need platvormid võimaldavad arendajatel luua ja juurutada vestlusroboteid erinevate kasutusjuhtude ja tööstusharude jaoks.[6]

Loomuliku keele töötlemise tähtsus vestlusrobotite jaoks

Loomuliku keele töötlemine (NLP) on tõhusate vestlusrobotite ja vestlusagentide väljatöötamise oluline komponent. NLP võimaldab vestlusrobotidel mõista kasutajate loomulikku keelt ja genereerida vastutasuks asjakohaseid vastuseid.

Üks peamisi väljakutseid vestlusrobotite arendamisel on luua süsteem, mis mõistab kasutaja kavatsusi ja reageerib viisil, mis on nii asjakohane kui ka informatiivne. NLP-tehnikad võivad aidata seda väljakutset lahendada, võimaldades vestlusrobotidel analüüsida kasutaja sisendit, tuvastada kasutaja kavatsusi ja genereerida sobivat vastust. [7]

NLP võib aidata parandada ka vestlusrobotite täpsust, võimaldades neil mõista keele nüansse. Näiteks võib NLP aidata vestlusrobotidel ära tunda ja tõlgendada idiomaatilisi väljendeid, sarkasmi ja muid keelevorme, mis ei pruugi kohe ilmneda. [8]

Vestlusrobotite arendamisel saab kasutada mitmeid erinevaid NLP tehnikaid, sealhulgas sentimentide analüüsi, olemi tuvastamist ja keele modelleerimist. Tundeanalüüs võib aidata vestlusrobotidel mõista kasutaja sisendi emotsionaalset tooni, mis võib olla kasulik olukordades, kus kasutaja võib väljendada frustratsiooni või rahulolematust. Olemituvastus võib aidata vestlusrobotidel tuvastada kasutaja sisestatud olulist teavet, nagu nimed, kuupäevad ja asukohad. Keele modelleerimine võib aidata vestlusrobotidel luua loomulikumaid ja inimesesarnasemaid vastuseid, õpetades vestlusrobotit kasutama suuri andmekogumeid inimese loodud tekstist. [9]

Hiljutised edusammud NLP-s on võimaldanud vestlusrobotidel muutuda keerukamaks ja tõhusamaks inimlike vastuste genereerimiseks. Näiteks GPT mudelite perekond, mis sisaldab ChatGPT-d, on näidanud märkimisväärset edu keele mõistmisel ja genereerimisel. [10] Neid mudeleid on koolitatud inimeste loodud teksti suuremahuliste andmekogumite põhjal, mis on võimaldanud neil tabada paljusid inimkeele nüansse.

Üldiselt on NLP tõhusate vestlusrobotite ja vestlusagentide väljatöötamisel ülioluline komponent. Võimaldades vestlusrobotidel mõista loomuliku keele sisendit ja genereerida sobivaid vastuseid, saab NLP aidata luua köitvamaid, informatiivsemaid ja tõhusamaid vestlusroboteid.

Ülevaade generatiivsetest eeltreeningu mudelitest

Generatiivsed eelkoolitusmudelid on süvaõppemudeli tüüp, mis on loomuliku keele töötlemise ülesannetes näidanud märkimisväärset lubadust. Neid mudeleid õpetatakse kasutama suurel hulgal märgistamata andmeid, et õppida tundma loomuliku keele alusstruktuuri, mida saab seejärel täpsustada konkreetsete ülesannete jaoks, nagu keele tõlkimine, küsimustele vastamine ja vestlusrobotite arendamine.

Generatiivse eelkoolituse põhiidee on koolitada mudel suurel tekstikorpusel ilma järelvalveta. See võimaldab mudelil õppida keele alusstruktuuri ja tabada paljusid inimkeelekasutuse nüansse. Kui mudel on eelnevalt välja õpetatud, saab seda konkreetse ülesande täitmiseks peenhäälestada väiksemas märgistatud andmekogumis.

Üks varasemaid ja mõjukamaid generatiivseid eelkoolitusmudeleid on OpenAI poolt välja töötatud GPT mudel. GPT-mudel on teatud tüüpi trafopõhine keelemudel, mis kasutab teksti genereerimiseks mitmekihilist närvivõrku. Mudelit koolitatakse suurel tekstiandmete korpusel, kasutades järelevalveta õppimisviisi, mis võimaldab õppida loomuliku keele alusstruktuuri. GPT-mudel on osutunud tõhusaks mitmesuguste loomuliku keele töötlemise ülesannete puhul, sealhulgas keele modelleerimine, teksti klassifitseerimine ja küsimustele vastamine.

GPT mudeli edule tuginedes on OpenAI välja töötanud mitmeid teisi generatiivseid eelkoolitusmudeleid, sealhulgas GPT-2, GPT-3 ja ChatGPT. Need mudelid kasutavad suuremaid andmekogumeid ja täiustatud koolitustehnikaid, et saavutada loomuliku keele töötlemise ülesannete veelgi parem jõudlus.

Teine tähelepanuväärne generatiivne eelkoolituse mudel on BERT (Bidirectional Encoder Representations from Transformers), mille töötas välja Google. BERT on trafopõhine mudel, mida koolitatakse maskeeritud keele modelleerimise eesmärgiga. Mudelit treenitakse suurel tekstiandmete korpusel, kasutades järelevalveta õppimisviisi, mis võimaldab jäädvustada loomulikus keeles sõnade vahelisi keerulisi suhteid. BERT on osutunud tõhusaks mitmesuguste loomuliku keele töötlemise ülesannete puhul, sealhulgas küsimustele vastamisel, teksti klassifitseerimisel ja sentimentide analüüsil.

Lisaks GPT ja BERT mudelitele on viimastel aastatel välja töötatud palju muid generatiivseid eelkoolitusmudeleid, sealhulgas RoBERTa, XLNet ja T5. Need mudelid on näidanud märkimisväärset lubadust loomuliku keele töötlemise ülesannetes ja on tõenäoliselt järgmiste aastate jätkuva uurimistöö keskmes.

Üldiselt kujutavad generatiivsed eelkoolitusmudelid endast olulist edasiminekut loomuliku keele töötlemise valdkonnas. Võimaldades mudelitel õppida loomuliku keele alusstruktuuri järelevalveta, on need mudelid näidanud märkimisväärset lubadust paljudes loomuliku keele töötlemise ülesannetes. [11]

Need for a model specifically designed for conversational response generation

Kuigi generatiivsed eelkoolitusmudelid on loomuliku keele töötlemise ülesannetes näidanud märkimisväärset lubadust, ei olnud need spetsiaalselt loodud vestlusreaktsiooni genereerimiseks. Traditsioonilised keelemudelid, nagu GPT, genereerivad teksti ühe sõna kaupa, ilma dialoogikonteksti või kasutaja kavatsuste selgesõnalise modelleerimiseta. See võib kaasa tuua vastused, mis on üldised või ei vasta kasutaja konkreetsetele vajadustele.

Selle piirangu lahendamiseks on mitmed teadlased pakkunud välja mudelid, mis on spetsiaalselt loodud vestlusreaktsiooni genereerimiseks. Üheks selliseks mudeliks on Microsoft Research Asia välja töötatud Transformer-põhine vestlusmudel. [12] See mudel kasutab trafopõhist arhitektuuri, mis sarnaneb GPT mudeliga, kuid sisaldab dialoogi oleku jälgijat, et jälgida dialoogi ajalugu ja kasutaja kavatsusi. See võimaldab mudelil luua kontekstuaalselt sobivamaid vastuseid, mis võtavad arvesse praegust dialoogikonteksti.

Teine mudel, mis on spetsiaalselt loodud vestlusreaktsiooni genereerimiseks, on hierarhiline korduv kodeerija-dekooder (HRED). [13] HRED-mudel on korduva närvivõrgu tüüp, mis kasutab vestlusajaloo modelleerimiseks hierarhilist struktuuri. Mudel on osutunud tõhusaks kontekstuaalselt sobivamate vastuste genereerimiseks, eriti pikemate vestluste puhul.

Hiljuti avaldas OpenAI oma GPT mudeli vestlusversiooni nimega ChatGPT. [14] ChatGPT kasutab GPT mudeliga sarnast trafopõhist arhitektuuri, kuid see on peenhäälestatud spetsiaalselt vestlusvastuse genereerimiseks. ChatGPT on näidanud märkimisväärset lubadust kontekstuaalselt sobivate vastuste genereerimisel ja pikemates ja keerukamates vestlustes.

Üldiselt on selge vajadus spetsiaalselt vestlusreaktsiooni genereerimiseks loodud mudelite järele. Kuigi generatiivsed eelkoolitusmudelid on loomuliku keele töötlemise ülesannete puhul näidanud märkimisväärset lubadust, ei suuda nad vestluskeskkonnas kontekstuaalselt sobivaid vastuseid luua. Sellised mudelid nagu transformaatoril põhinev vestlusmudel, HRED-mudel ja ChatGPT on olulised sammud selle piirangu lahendamisel.

Sissejuhatus ChatGPT-sse

Generative Pre-trained Transformer 3 (GPT-3) on OpenAI poolt välja töötatud kaasaegne keelemudel, mis on muutnud loomuliku keele töötlemise (NLP) valdkonna. [15] See on näidanud muljetavaldavat jõudlust mitmesuguste keeleülesannete puhul, sealhulgas keele tõlkimine, küsimustele vastamine ja teksti lõpetamine. [16] Üks GPT-3 kõige huvitavamaid rakendusi on vestluspõhise AI valdkonnas, kus seda on kasutatud vestlusrobotite ja vestlusagentide väljatöötamiseks, mis suudavad genereerida inimesele sarnaseid vastuseid. [17]

ChatGPT on GPT-3 spetsiaalne rakendus, mis on peenhäälestatud vestlusvastuste genereerimiseks. [18] See on spetsiaalselt loodud erinevate vestlusstsenaariumide jaoks sobivate vastuste genereerimiseks, sealhulgas vestlus, klienditeenindus ja tehniline tugi. Treenides suurel hulgal vestlusandmete andmestikul, suudab ChatGPT õppida loomulikus keeles mustreid ja genereerida kontekstiliselt sobivaid ja keeleliselt õigeid vastuseid.

Selles artiklis anname ülevaate ChatGPT-st ja selle arhitektuurist. Arutame koolitusprotsessi, mida kasutatakse GPT-3 peenhäälestamiseks vestlusvastuse genereerimiseks, ja tõstame esile mõned väljakutsed, mis tekivad selle ülesande jaoks keelemudelite koolitamisel. Vaatame üle ka vestluspõhise AI praegused tipptasemed ja uurime, kuidas ChatGPT sellesse maastikku sobib. Lõpuks arutame mõningaid ChatGPT võimalikke rakendusi ja selle mõju vestlusliku AI valdkonnale.

Sarnased tööd

Ülevaade olemasolevatest suuremahulistest generatiivsetest eeltreenitud mudelitest.

Viimase paari aasta jooksul on tehisintellekti ja masinõppe valdkonnas toimunud suured edusammud. Üks valdkond, mis on viimastel aastatel eriti kiiresti arenenud, on suuremahulised generatiivsed eeltreenitud mudelid (large-scale generative pre-training models).

Generatiivne pre-treening on meetod, mille abil õpetatakse süvaõppe mudelit mingit ülesannet täitma, näiteks pildituvastust või loomuliku keele töötlemist. Generatiivne pre-treening tähendab aga, et mudelit õpetatakse esmalt lahendama mingit ülesannet laiaulatuslikult, näiteks lihtsalt suuri andmemahte töötlema. Seejärel saab sama mudelit kasutada ka keerukamate ülesannete lahendamiseks.

Viimaste aastate jooksul on loodud mitmeid suuremahulisi generatiivseid pre-treeningumudeleid, millest mõned on tõepoolest märkimisväärsed. Üks kõige tuntumaid on kindlasti GPT-3 [19], millel on uskumatult palju erinevaid rakendusi loomuliku keele töötlemise valdkonnas.

Teine oluline pre-treeningumudel on DALL-E [20], mis suudab genereerida pilte vastavalt erinevatele teksti sisenditele. Näiteks võib selle mudeli abil genereerida pildi "punastest jalgpallidest, mis moodustavad roosa ristküliku". See on väga oluline areng kunstliku intelligentsi valdkonnas, sest see tähendab, et masinad suudavad teha asju, mida varem peeti võimatuks.

Samuti tuleks mainida ka StyleGAN 2 [21] ja BigGAN-i [22], mis on mõlemad suurepärased pre-treeningumudelid piltide genereerimiseks. Need mudelid on võimelised looma fotorealistlikke pilte, mis näevad välja nagu päriselus.


Hindamine olemasolevate mudelite kohta vestlusvastuste genereerimise ülesannetes

Sõltumata sellest, kas suhtlemine toimub vestlusrakenduses, virtuaalses assistendis või isegi robottolmuimeja kaudu, on vestlusrobotite ja virtuaalsete assistentide kasutamine muutunud üha tavalisemaks. Seetõttu on loomuliku keele töötlemise valdkond oluline uurimisvaldkond, mis on suunatud vestlusrakenduste arendamisele, et need suudaksid inimestega loomulikul viisil suhelda.

Selles valdkonnas on viimastel aastatel välja töötatud mitmeid mudelid, mis suudavad genereerida vastuseid sõltuvalt sisendtekstist. Nende mudelite hulka kuuluvad näiteks rekurentsed neurovõrgud (recurrent neural networks, RNN), koodertehnika-mudelid (encoder-decoder models) ja transformeerivad mudelid (transformer models). Kuid oluline küsimus on, kuidas neid mudeleid tõhusalt hinnata ja võrrelda.

Üks levinumaid hindamismeetodeid on inimhindamine, kus inimesed hindavad genereeritud vastuseid vastavalt nende loomulikkusele ja sobivusele [23]. Kuid see meetod on kallis, aeganõudev ja subjektiivne. Seetõttu on teadlased välja töötanud mitmeid automatiseeritud meetodeid, sealhulgas BLUE, ROUGE ja perplexity.

BLUE (Bilingual Evaluation Understudy) hindab vastuse kvaliteeti võrreldes inimese loodud vastusega. ROUGE (Recall-Oriented Understudy for Gisting Evaluation) hindab sõltumatult sõnade ja fraaside kattuvust tekstide vahel. Perplexity hindab seda, kui hästi mudel suudab ennustada uut andmekogumit. Kuid need meetodid ei pruugi alati olla täpne näitaja vastuse kvaliteedist ja loomulikkusest.

Lisaks võib hindamise keeruliseks teha asjaolu, et vestlusrobotid peavad vastama erinevat tüüpi küsimustele, mis nõuavad erinevat stiili ja teadmisi. Mõned küsimused võivad olla suunatud faktidele, samas kui teised võivad olla rohkem seotud emotsioonide ja suhete loomisega. Seetõttu on oluline hinnata mudelite tulemuslikkust erinevatel tasanditel, sealhulgas vastuste kvaliteet, grammatika ja stiil.

Olemasolevate mudelite piirangute analüüs

Masinõpe on toonud viimastel aastatel kaasa suuri edusamme mitmesugustes valdkondades nagu pildituvastus ja loomuliku keele töötlemine. Siiski on kaasaegsetel masinõppemudelitel oma piirangud, mida tuleb arvestada.

Esimene piirang, mida tuleks mainida, on mudeli loomiseks kasutatava andmekogumi kvaliteet. Kui mudeli treenimiseks kasutatakse puudulikku või väheste näidetega andmekogumit, võib see põhjustada mudeli alajahtumist [24]. See tähendab, et mudel on liiga kitsas ja ei suuda ennustada uute andmete põhjal korralikult. Selle probleemi vältimiseks on oluline valida õige andmekogum, mis sisaldab piisavalt andmeid, et mudel saaks laiemat pilti õppida.

Teine piirang on mudeli tõhusus ja töökiirus. Mõned masinõppemudelid on väga keerulised ja nende treenimine võtab palju aega ning nende kasutamine reaalajas võib olla võimatu. Näiteks väga suure sügava õppe mudeli rakendamine mobiilseadmes ei pruugi olla võimalik. Seega on oluline valida mudel, mis sobib konkreetseks kasutuseks ja arvestada ka töökiirusega.

Kolmas piirang on mudeli üldistatavus. Kui mudel on treenitud konkreetsele andmekogumile, võib selle üldistamine teistele andmekogumitele olla keeruline. Üldistatavuse probleemi vältimiseks on vaja mudelit treenida mitmesuguste andmekogumite peal ja vältida liiga spetsiifiliste omaduste kasutamist.

Neljas piirang on mudeli selgus ja interpretatiivsus. Mõned mudelid, eriti sügava õppe mudelid, võivad olla keerulised ja raskesti interpreteeritavad. See tähendab, et on raske mõista, kuidas mudel jõudis oma ennustuse või otsuse juurde. Sellised mudelid võivad olla ohtlikud, kui neid kasutatakse otsuste tegemiseks meditsiinilises või finantsvaldkonnas. Seetõttu on oluline kaaluda mudeli selgust ja interpreteeritavust enne selle kasutamist.


ChatGPT Architecture

Overview of the GPT architecture

GPT arhitektuur põhineb trafoarhitektuuril, mille 2017. aastal tutvustasid Vaswani jt. Trafomudel on närvivõrgu arhitektuur, mis on loodud töötlema järjestikuseid andmeid, nagu keel, kõne ja muusika.

Trafo mudel põhineb enesetähelepanu mehhanismil, mis võimaldab mudelil ennustuste tegemisel kaaluda erinevate sõnade olulisust lauses. Enesetähelepanu mehhanism võimaldab mudelil tabada sõnade vahelisi pikaajalisi sõltuvusi ja modelleerida tõhusalt iga sõna konteksti.

Trafo mudel koosneb kooderist ja dekoodrist. Kodeerija töötleb sisendjada ja loob varjatud olekute komplekti. Seejärel kasutab dekooder neid peidetud olekuid väljundjada genereerimiseks. GPT kasutab ainult trafodekoodri arhitektuuri, mis tähendab, et mudelil ei ole kodeerijat. [25] GPT sisend on märkide jada ja väljund on tõenäosusjaotus märkide sõnavaras.

GPT arhitektuuri on õpetatud kasutama tohutul hulgal tekstiandmeid, kasutades järelevalveta eelkoolitust. Eelkoolitusprotsess hõlmab mudeli koolitamist suurel tekstikorpusel, kasutades enesekontrollitud õppeeesmärki. Enesejuhitav õppeeesmärk hõlmab eelnevate sõnadega tekstijada järgmise sõna ennustamist. Eelkoolitusprotsess võimaldab mudelil õppida teksti aluseks olevaid mustreid ja tabada sõnade vahelisi süntaktilisi ja semantilisi seoseid.

On näidatud, et GPT arhitektuur saavutab tipptasemel jõudluse paljude loomuliku keele töötlemise ülesannete puhul, sealhulgas keele modelleerimine, teksti klassifitseerimine ja masintõlge. Lisaks on GPT arhitektuuri laiendatud teistele valdkondadele, nagu arvutinägemine ja õppimine. [26] [27]

GPT arhitektuur on olnud mitme keelemudeli, sealhulgas GPT-1, GPT-2 ja GPT-3 aluseks. Need mudelid erinevad parameetrite arvu ja andmemahu poolest, mille kohta neid on koolitatud, kusjuures GPT-3 on seni suurim ja võimsaim keelemudel. [28]

Üldiselt on GPT arhitektuur muutnud loomuliku keele töötlemist ja avanud uusi võimalusi vestlusliku AI valdkonnas uurimis- ja arendustegevuseks.

ChatGPT GPT muudatuste kirjeldus

Kuigi GPT näitas muljetavaldavaid tulemusi erinevate keeleülesannete puhul, ei olnud see loodud spetsiaalselt vestlusvastuste genereerimiseks. Seetõttu muutsid OpenAI teadlased GPT arhitektuuri, et luua ChatGPT, mis on spetsiaalselt vestlusvastuste genereerimiseks loodud mudel.

ChatGPT jaoks mõeldud GPT-s tehtud muudatused hõlmavad koolituskorpuse muudatusi, peenhäälestustehnikaid ja arhitektuuri muudatusi. Esiteks koosnevad ChatGPT jaoks kasutatavad koolitusandmed suurtest vestlusandmetest, nagu sotsiaalmeedia platvormide vestluslogid, veebifoorumid ja klienditeeninduse suhtlus. Need vestlusandmed võimaldavad mudelil paremini mõista, kuidas inimesed vestluskontekstis suhtlevad, mis aitab luua loomulikumaid ja inimlikumaid vastuseid.

Teiseks kasutab ChatGPT täiustatud peenhäälestustehnikat, mida nimetatakse "dialoogilaadse vastuse genereerimiseks", mis hõlmab vastuse genereerimist antud viipale ja seejärel selle vastuse lisamist viipale, et luua uus viip-vastuse paar. Seejärel täpsustatakse mudelit nende paaride puhul, kasutades keele modelleerimise eesmärgi muudetud versiooni. See peenhäälestustehnika aitab mudelil õppida looma vestluskontekstis sidusamaid ja kontekstuaalselt sobivamaid vastuseid.

Lõpuks sisaldab ChatGPT arhitektuuri muudatusi, näiteks vestluse tähelepanu mehhanismi lisamist, mis võimaldab mudelil vastuse genereerimisel keskenduda vestluse ajaloo teatud osadele. See tähelepanumehhanism aitab mudelil luua kontekstuaalselt sobivamaid vastuseid ja parandab selle üldist jõudlust vestlusvastuste genereerimise ülesannetes.

Üldiselt on ChatGPT GPT arhitektuuris tehtud muudatused andnud mudeli, mis on spetsiaalselt loodud loomulike ja inimlike vestlusreaktsioonide genereerimiseks. Mudel on näidanud muljetavaldavaid tulemusi erinevatel vestlusvastuste genereerimise ülesannete võrdlusalustel ja seda saab kasutada mitmesugustes rakendustes, nagu vestlusrobotid ja virtuaalsed assistendid. [29]

Two-stage training meetodi üksikasjad

ChatGPT koolitusprotsess koosneb kaheetapilisest lähenemisviisist, mis hõlmab mudeli eelkoolitamist suurel hulgal tekstiandmetel ja seejärel vestlusandmete peenhäälestamist. See kaheetapiline lähenemine on loomuliku keele töötlemisel levinud tava ja on näidatud, et see parandab keelemudelite toimivust konkreetsete ülesannete puhul.

1. etapp: eelkoolitus suure hulga tekstiandmete kohta Koolituse esimeses etapis treenitakse ChatGPT-d suurel hulgal tekstiandmetel, kasutades GPT eelkoolituse protseduuri muudetud versiooni. Koolituse eelkorpus koosneb mitmekesisest tekstiandmetest, sealhulgas veebilehtedest, raamatutest ja artiklitest. Eelkoolituse eesmärk on maksimeerida tõenäosust ennustada tekstijada järgmist sõna. See koolituseelne etapp võimaldab ChatGPT-l õppida üldist arusaama keele struktuurist ja mustritest.

2. etapp: vestlusandmete peenhäälestus Koolituse teises etapis kohandatakse ChatGPT-d vestlusandmetele, et parandada selle toimivust vestlusreaktsiooni genereerimise ülesannetes. Peenhäälestuskorpus koosneb suurest hulgast vestlusandmetest, nagu sotsiaalmeedia platvormide vestluslogid, veebifoorumid ja klienditeeninduse suhtlus. Peenhäälestuse ajal õpetatakse mudelit looma vastavaid vastuseid, näiteks vestlusroti vestluses kasutaja sõnumit.

Peenhäälestusprotsess koosneb kahest etapist: eel- ja peenhäälestus. Eelhäälestuse etapis treenitakse mudelit suurel kiire vastuse paaride andmekogumil, kasutades keele modelleerimise eesmärgi muudetud versiooni. Peenhäälestuse etapis peenhäälestatakse mudelit veelgi väiksema kiire vastuse paaride andmekogumil, kasutades järjestamisel põhinevat kadufunktsiooni. See järjestuspõhine kadufunktsioon tagab, et mudel genereerib kvaliteetseid vastuseid, mis on kontekstiliselt sobivad ja sidusad.

ChatGPT-s kasutatav kaheetapiline koolitusmeetod võimaldab mudelil õppida nii üldisi keelemustreid kui ka konkreetseid vestluskeele mustreid. On näidatud, et selline lähenemine parandab keelemudelite toimivust vestlusreaktsiooni genereerimise ülesannetes ja on loomuliku keele töötlemisel tavaline tava.

[30]

Katse seadistus

Hinnangu saamiseks kasutatud võrdluste andmekogumite kirjeldus ja selleks kasutatud mõõdikud

ChatGPT jõudluse hindamiseks oli põhjalikult ära valitud etalonne andmekogum. Need andmekogumid loodi nii, et need hõlmaksid vestluspõhise AI erinevaid aspekte, sealhulgas üldteadmisi, arutlusvõimet ja konteksti mõistmist. Benchmark'id hõlmasid selliseid ülesandeid nagu küsimustele vastamine, kokkuvõtete tegemine ja dialoogipõhised suhtlused. Datasets valiti nii, et need esindaksid reaalseid väljakutseid ning hõlmasid erinevaid valdkondi ja keelelisi stiile. [31]

ChatGPT toimivuse arvuliseks hindamiseks kasutati mitmeid hindamismõõdikuid. Nende mõõdikute eesmärk oli mõõta mudeli võimaluste erinevaid aspekte, sealhulgas täpsust, pinnalisust ja relevantsust. Nagu oli juba eelnevalt mainitud, hindamisprotsessis kasutatavad tavalised mõõdikud hõlmasid perplexity, BLEU-d ja ROUGE. Need mõõdikud andsid väärtuslikku teavet mudeli keele genereerimise, mõistmise ja üldise jõudluse kohta. [32]

Üksikasjad ChatGPT jõudluse hindamiseks läbi viidud katsete kohta ja tulemuste arutelu

Viidi läbi rida katseid, et põhjalikult hinnata ChatGPT töövõimsust erinevate ülesannete ja stsenaariumide lõikes. Need katsed hõlmasid nii kvalitatiivset kui ka kvantitatiivset analüüsi. Kvalitatiivsed hinnangud hõlmasid inimesed-hindajaid, kes suhtlesid ChatGPT-ga ja andsid mudeli vastustele subjektiivset tagasisidet. Kvantitatiivsed hindamised viidi läbi võrdlusandmete kogumite abil, kus mudeli väljundeid võrreldi etloonvastustega. Katsetes mõistei ka erinevaid viisi seadistusmeetodeid ja hüperparameetrite valimine, et optimeerida mudeli jõudlust. [33]

Katsetest saadud tulemused näitasid ChatGPT suurepärast võimet luua loogilisi ja relevantseid vastuseid. Mudel näitas kõrget kõne taset ja suutlikkust mõista paljusid küsimusi ja neile täpselt vastata. Ta sai suurepäraselt hakkama faktiteadmist nõudvate ülesannetega ja näitas arutlusvõimet. Kummati, juhtus vahel ka mõne stsenaariumide puhul piiranguid, näiteks mitmetähenduslike päringute käsitlemisel või konkreetsete ja kokkuvõtlike vastuste andmisel. Hindamisprotsessis välja selgitati võimalikud valdkonnad, mida tuleks parandada, mida saaks lahendada praeguse uurimistööga ning mudeliarhitektuuri ja õpetamismeetodite täiustamise kaudu. Üldiselt andsid katsed väärtuslikku teavet ChatGPT toimivuse kohta ja sillutasid teed vestluspõhise AI edasistele edusammudele. [34]

Kokkuvõte

ChatGPT on OpenAI poolt välja töötatud loomuliku keele töötluse (NLP) tehisintellekt, mis põhineb GPT-3.5 arhitektuuril. ChatGPT on võimeline vastama küsimustele, tõlkima keeli, looma jutukesi ja palju muud.

ChatGPT peamised panused on:

1. Suur maht: ChatGPT on üks suurimaid NLP mudeleid, mida on loodud. See sisaldab ligikaudu 6 miljardit parametrit, mis võimaldab sellel tõhusalt toimida paljudes erinevates NLP ülesannetes.

2. Üldine tõhusus: ChatGPT on üks tõhusamaid NLP mudeleid, mis on loodud. Seda saab kasutada erinevate ülesannete jaoks, sealhulgas masintõlge, küsimuste-vastuste genereerimine, teksti loomine ja palju muud.

3. Võimekus: ChatGPT on võimeline looma inimesele sarnaseid vastuseid erinevatele küsimustele, tõlkima erinevaid keeli ja looma loomulikke jutukesi. See muudab selle väga kasulikuks paljudes erinevates rakendustes, sealhulgas klienditeeninduses ja õpetamises.

4. Töökindlus: ChatGPT on väga töökindel ja suudab tõhusalt toimida ka siis, kui talle antakse suuremahulisi ja keerukaid ülesandeid.

5. Kiirus: ChatGPT suudab tõhusalt töötada ka suurel kiirusel, mis muudab selle väga kasulikuks rakendustes, mis nõuavad kiiret vastust, nagu näiteks klienditeenindus.

6. Arendajatele kättesaadavus: ChatGPT on kättesaadav mitmes erinevas vormis, sealhulgas Pythoni teegi kujul, mis muudab selle arendajatele kergesti kasutatavaks.


Viited

  1. https://doi.org/10.1016/j.jvcir.2020.102848
  2. https://doi.org/10.18653/v1/N19-1423
  3. https://doi.org/10.1016/j.jvcir.2020.102848
  4. https://doi.org/10.18653/v1/N19-1423
  5. https://doi.org/10.1016/j.future.2020.08.030
  6. https://doi.org/10.1016/j.jvcir.2020.102848
  7. https://doi.org/10.1007/s10462-019-09792-7
  8. https://doi.org/10.1007/s11704-017-6619-2
  9. https://doi.org/10.3115/1220575.1220599
  10. https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf
  11. https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
  12. https://arxiv.org/abs/1907.00883
  13. https://www.aaai.org/ocs/index.php/AAAI/AAAI16/paper/viewFile/12343/11862
  14. https://arxiv.org/abs/2001.09977
  15. https://arxiv.org/abs/2005.14165
  16. https://openai.com/blog/better-language-models/
  17. https://arxiv.org/abs/2005.14165
  18. https://arxiv.org/abs/1909.05858
  19. https://openai.com/blog/gpt-3-a-new-milestone-in-language-modeling/
  20. https://openai.com/dall-e/
  21. https://github.com/NVlabs/stylegan2
  22. https://github.com/deepmind/deepmind-research/tree/master/biggan
  23. Lowe, R., Pow, N., Serban, I., & Pineau, J. (2017). Training end-to-end dialogue systems with the ubuntu dialogue corpus. arXiv preprint arXiv:1703.04816.
  24. Goodfellow, I., Bengio, Y., & Courville, A. (2016). Deep Learning. MIT Press.
  25. https://s3-us-west-2.amazonaws.com/openai-assets/research-covers/language-unsupervised/language_understanding_paper.pdf
  26. https://d4mucfpksywv.cloudfront.net/better-language-models/language-models.pdf
  27. https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
  28. http://papers.nips.cc/paper/7181-attention-is-all-you-need.pdf
  29. https://arxiv.org/pdf/2001.09977.pdf
  30. https://arxiv.org/pdf/2001.09977.pdf
  31. https://arxiv.org/pdf/2303.07992.pdf
  32. https://arxiv.org/pdf/2303.04048.pdf
  33. https://www.sciencedirect.com/science/article/pii/S2542504823000192
  34. https://pubmed.ncbi.nlm.nih.gov/36865204/