Aplicação de modelos de linguagem pré-treinados na pesquisa financeira moderna
Heungmin Lee
No 9wc6t, OSF Preprints from Center for Open Science
Abstract:
Nos últimos anos, modelos de linguagem pré-treinados (PLMs) surgiram como uma ferramenta poderosa para tarefas de processamento de linguagem natural (NLP or PNL). Neste artigo, examinamos o potencial desses modelos no setor financeiro e os desafios que eles enfrentam nesse domínio. Também discutimos a interpretabilidade desses modelos e as considerações éticas associadas à sua implantação em finanças. Nossa análise mostra que os modelos de linguagem pré-treinados têm o potencial de revolucionar a forma como os dados financeiros são analisados e processados. No entanto, é importante abordar os desafios e as considerações éticas associadas à sua implantação para garantir que sejam usados de maneira responsável. A pesquisa futura se concentrará no desenvolvimento de modelos que possam lidar com a volatilidade dos dados financeiros, atenuar o viés nos dados de treinamento e fornecer previsões interpretáveis. No geral, acreditamos que o futuro da IA em finanças será moldado pelo desenvolvimento contínuo e implantação de modelos de linguagem pré-treinados.
Date: 2023-02-01
References: View complete reference list from CitEc
Citations:
Downloads: (external link)
https://osf.io/download/63da9da52781fc0287009e80/
Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.
Export reference: BibTeX
RIS (EndNote, ProCite, RefMan)
HTML/Text
Persistent link: https://EconPapers.repec.org/RePEc:osf:osfxxx:9wc6t
DOI: 10.31219/osf.io/9wc6t
Access Statistics for this paper
More papers in OSF Preprints from Center for Open Science
Bibliographic data for series maintained by OSF ().