Intégration de l'Intelligence Artificielle dans l'évaluation: Étude comparative et potentialités pour l'enseignement en économie et gestion, 5e atelier de recherche d'AUNEGe, 3 juillet 2024
Céline Averseng ()
Additional contact information
Céline Averseng: MRM - Montpellier Research in Management - UM1 - Université Montpellier 1 - UPVM - Université Paul-Valéry - Montpellier 3 - UM2 - Université Montpellier 2 - Sciences et Techniques - UPVD - Université de Perpignan Via Domitia - Groupe Sup de Co Montpellier (GSCM) - Montpellier Business School
Working Papers from HAL
Abstract:
Intégration de l'Intelligence Artificielle dans l'évaluation : Étude comparative et potentialités pour l'enseignement en économie et gestion. Céline Averseng, IAE de Montpellier Problématique L'émergence de l'intelligence artificielle générative (IAG), et en particulier de ChatGPT, dans le domaine de l'éducation, ouvre des perspectives novatrices pour l'évaluation des apprenants. Cette recherche vise à explorer quel peut être l'impact de l'IA sur l'évolution des évaluations ? Nous verrons alors comment l'IA peut révolutionner les pratiques évaluatives en économie et gestion, notamment à travers la création automatique de questions d'évaluation, l'importation dans des systèmes de gestion de l'apprentissage (LMS) tels que Moodle, la génération de grilles d'évaluation, ou encore la correction automatique des travaux étudiants. Démarche Pédagogique et Méthodologie L'étude propose une démarche comparative entre différents outils d'IAG, tels que Wooflash, ChatGPT-3.5, et ChatGPT-4, afin de déterminer leur efficacité et pertinence dans la création et la gestion d'évaluations sommatives et formatives. La méthodologie s'appuie sur une série de tests pratiques visant à générer des questions d'évaluation, des grilles d'évaluation, et à corriger des travaux étudiants en utilisant ces outils. Une attention particulière sera accordée à la qualité des prompts pour assurer la cohérence et la pertinence des questions générées. Résultats AttendusNous anticipons que cette étude révélera des différences significatives entre les outils en termes de qualité et d'efficacité de la génération d'évaluations et de corrections. Des recommandations seront formulées pour optimiser l'utilisation de l'IA dans les processus évaluatifs, soulignant l'importance d'une formulation précise des prompts. Une comparaison entre les corrections humaines et celles réalisées par l'IA permettra d'évaluer la fiabilité et la validité de ces dernières dans un contexte pédagogique.
Date: 2024-07-03
Note: View the original document on HAL open archive server: https://hal.science/hal-04792400v1
References: Add references at CitEc
Citations:
Downloads: (external link)
https://hal.science/hal-04792400v1/document (application/pdf)
Related works:
This item may be available elsewhere in EconPapers: Search for items with the same title.
Export reference: BibTeX
RIS (EndNote, ProCite, RefMan)
HTML/Text
Persistent link: https://EconPapers.repec.org/RePEc:hal:wpaper:hal-04792400
Access Statistics for this paper
More papers in Working Papers from HAL
Bibliographic data for series maintained by CCSD ().