Potenziale vortrainierter großer Sprachmodelle zur Verbesserung der Bildungseffizienz
Donghyun Kim
No wv2q9, OSF Preprints from Center for Open Science
Abstract:
Die Anwendung vortrainierter Sprachmodelle (PLMs) in der Verarbeitung natürlicher Sprache (NLP) hat breite Anerkennung für ihre herausragende Leistung bei verschiedenen NLP-Aufgaben und öffentlichen Benchmarks erlangt. Die Integration von PLMs in die Bildung hat die Möglichkeit, die Art und Weise, wie Lernen und Lehren durchgeführt werden, zu verändern. Es ist jedoch entscheidend, sowohl die Vor- als auch die Nachteile abzuwägen, die mit einer solchen Integration einhergehen können. Um die Vorteile von PLMs voll auszuschöpfen und negative Auswirkungen zu minimieren, ist ein sorgfältiger und verantwortungsvoller Ansatz erforderlich, wenn PLMs in die Bildung integriert werden. Dieses Whitepaper befasst sich mit den Vor- und Nachteilen des Einsatzes von PLMs im Bildungswesen und bietet Leitlinien für zukünftige Fortschritte.
Date: 2023-02-08
New Economics Papers: this item is included in nep-ger
References: View complete reference list from CitEc
Citations:
Downloads: (external link)
https://osf.io/download/63e3109a02c50101de47e8bb/
Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.
Export reference: BibTeX
RIS (EndNote, ProCite, RefMan)
HTML/Text
Persistent link: https://EconPapers.repec.org/RePEc:osf:osfxxx:wv2q9
DOI: 10.31219/osf.io/wv2q9
Access Statistics for this paper
More papers in OSF Preprints from Center for Open Science
Bibliographic data for series maintained by OSF ().