Neural Network (Chat GPT)

From ICO wiki
Revision as of 17:40, 10 May 2023 by Mariiv (talk | contribs)
Jump to navigationJump to search

Suuremahuline generatiivne pre-training mudel vestlusreaktsiooni loomiseks

Sissejuhatus

Võimalus suhelda loomuliku keele abil masinatega on olnud tehisintellektiuuringute pikaajaline eesmärk. Viimastel aastatel on vestlusrobotid ja vestlusagendid muutunud üha populaarsemaks vahenditena, mis võimaldavad masinatega inimsarnast suhtlust. Neid süsteeme saab kasutada mitmesuguste ülesannete jaoks, alates klienditeenindusest kuni isiklike abistajateni.

Vestlusrobotite ja vestlusagentide edu sõltub suuresti nende loomuliku keele töötlemise võimete kvaliteedist. Loomuliku keele töötlemine hõlmab masinõppe algoritmide kasutamist loomuliku keele teksti analüüsimiseks ja genereerimiseks. Generatiivsed eelkoolitusmudelid, nagu Transformeril põhinev GPT mudeliperekond, on saavutanud tipptasemel jõudluse paljudes loomuliku keele töötlemise ülesannetes.

Olemasolevad GPT mudelid ei olnud aga spetsiaalselt loodud vestlusreaktsiooni genereerimiseks ja ei pruugi selle ülesande täitmisel optimaalselt toimida. Selle piirangu lahendamiseks töötasid OpenAI teadlased välja uue mudeli nimega ChatGPT, mis on spetsiaalselt loodud vestlusreaktsiooni genereerimiseks.

Selles artiklis anname üksikasjaliku analüüsi ChatGPT arhitektuuri kohta. Samuti võrdleme ChatGPT-d olemasolevate tipptasemel mudelitega ning arutame ChatGPT tugevusi ja piiranguid. Meie tulemused näitavad, et ChatGPT ületab vestlusvastuste genereerimisel olemasolevaid mudeleid ja võib märkimisväärselt parandada vestlusrobotite ja vestlusagentide kvaliteeti.

Taust

Neural Network

?

Hello [1]

?

?

?

?

?

?

?

?

?

?

?

?

Kokkuvõte

Viited

"Language Models are Few-Shot Learners" by Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. https://arxiv.org/abs/2005.14165

"Learning to Generate Conversational Responses with Neural Networks" by Iulian V. Serban, Alessandro Sordoni, Ryan Lowe, Laurent Charlin, Joelle Pineau, Aaron Courville, Yoshua Bengio. https://arxiv.org/abs/1506.05869

"DialoGPT: Large-Scale Generative Pre-training for Conversational Response Generation" by Yizhe Zhang, Siqi Sun, Michel Galley, Yen-Chun Chen, Chris Brockett, Xiang Gao, Jianfeng Gao, Jingjing Liu, Bill Dolan. https://arxiv.org/abs/1911.00536

"Conversational AI: The Science Behind the Alexa Prize" by Ashwin Ram, Rohit Prasad, Chandra Khatri, Anu Venkatesh, Raefer Gabriel, Qing Liu, Jeff Nunn, Behnam Hedayatnia, Ming Cheng, Ashish Nagar, Eric King, Kate Bland, Amanda Wartick, Michael Su, Jian Li, Arpit Gupta, Sai Prasad. https://arxiv.org/abs/1812.10757

"Dialogue Response Ranking Training with Large-Scale Human Feedback Data" by Wenpeng Yin, Stephen Roller, Emily Dinan, Angela Fan, Michael Auli, Jason Weston. https://arxiv.org/abs/2008.11512

"Language Models as Knowledge Bases?" by Fabio Petroni, Tim Rocktäschel, Patrick Lewis, Anton Bakhtin, Yuxiang Wu, Alexander H. Miller, Sebastian Riedel. https://arxiv.org/abs/2002.12327

"GPT-3: Language Models are Few-Shot Learners" by Tom B. Brown, Benjamin Mann, Nick Ryder, Melanie Subbiah, Jared Kaplan, Prafulla Dhariwal, Arvind Neelakantan, Pranav Shyam, Girish Sastry, Amanda Askell, Sandhini Agarwal, Ariel Herbert-Voss, Gretchen Krueger, Tom Henighan, Rewon Child, Aditya Ramesh, Daniel M. Ziegler, Jeffrey Wu, Clemens Winter, Christopher Hesse, Mark Chen, Eric Sigler, Mateusz Litwin, Scott Gray, Benjamin Chess, Jack Clark, Christopher Berner, Sam McCandlish, Alec Radford, Ilya Sutskever, Dario Amodei. https://arxiv.org/abs/2005.14165