EconPapers    
Economics at your fingertips  
 

Potenziale vortrainierter großer Sprachmodelle zur Verbesserung der Bildungseffizienz

Donghyun Kim

No wv2q9, OSF Preprints from Center for Open Science

Abstract: Die Anwendung vortrainierter Sprachmodelle (PLMs) in der Verarbeitung natürlicher Sprache (NLP) hat breite Anerkennung für ihre herausragende Leistung bei verschiedenen NLP-Aufgaben und öffentlichen Benchmarks erlangt. Die Integration von PLMs in die Bildung hat die Möglichkeit, die Art und Weise, wie Lernen und Lehren durchgeführt werden, zu verändern. Es ist jedoch entscheidend, sowohl die Vor- als auch die Nachteile abzuwägen, die mit einer solchen Integration einhergehen können. Um die Vorteile von PLMs voll auszuschöpfen und negative Auswirkungen zu minimieren, ist ein sorgfältiger und verantwortungsvoller Ansatz erforderlich, wenn PLMs in die Bildung integriert werden. Dieses Whitepaper befasst sich mit den Vor- und Nachteilen des Einsatzes von PLMs im Bildungswesen und bietet Leitlinien für zukünftige Fortschritte.

Date: 2023-02-08
New Economics Papers: this item is included in nep-ger
References: View complete reference list from CitEc
Citations:

Downloads: (external link)
https://osf.io/download/63e3109a02c50101de47e8bb/

Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.

Export reference: BibTeX RIS (EndNote, ProCite, RefMan) HTML/Text

Persistent link: https://EconPapers.repec.org/RePEc:osf:osfxxx:wv2q9

DOI: 10.31219/osf.io/wv2q9

Access Statistics for this paper

More papers in OSF Preprints from Center for Open Science
Bibliographic data for series maintained by OSF ().

 
Page updated 2025-03-19
Handle: RePEc:osf:osfxxx:wv2q9