教育効率を改善するための事前訓練された大規模言語モデルの可能性
Donghyun Kim
No b5nme, OSF Preprints from Center for Open Science
Abstract:
自然言語処理 (NLP) における事前学習済み言語モデル (PLM) のアプリケーションは、さまざまな NLP タスクおよび公開ベンチマークでの優れたパフォーマンスで広く認められています。 PLM を教育に統合すると、学習と教育の実施方法が変わる可能性があります。 ただし、このような統合に伴う利点と欠点の両方を比較検討することが重要です。 PLM の利点を最大限に活用し、悪影響を最小限に抑えるには、PLM を教育に組み込む際に、慎重かつ責任あるアプローチが必要です。 このホワイト ペーパーでは、教育で PLM を使用することの長所と短所を詳しく説明し、将来の進歩のためのガイダンスを提供します。
Date: 2023-02-08
References: View complete reference list from CitEc
Citations:
Downloads: (external link)
https://osf.io/download/63e3126902c50101db47df28/
Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.
Export reference: BibTeX
RIS (EndNote, ProCite, RefMan)
HTML/Text
Persistent link: https://EconPapers.repec.org/RePEc:osf:osfxxx:b5nme
DOI: 10.31219/osf.io/b5nme
Access Statistics for this paper
More papers in OSF Preprints from Center for Open Science
Bibliographic data for series maintained by OSF ().