Feature - Fonctionnalité #2884
Definir Evaluation
100%
Description
IL faudrait définir les critères d'évaluation
Historique
#1 Mis à jour par Jean-Louis Frucot il y a plus de 11 ans
Pour les logs de Contour, je dispose des renseignements suivants :
Les logs se font après une série d'images dont le nombre est défini par le créateur du module (Nombre d'images à présenter)
Je garde une trace du temps mis pour réaliser l'exercice
Je connais le nombre de clics justes (clic sur la bonne puce)
Je connais le nombre de clics faux (clic sur une autre puce que celle attendue, ou mauvaise réponse dans l'exercice Devine)
Je connais aussi le nombre d'abandons (clic sur corriger)
Pour l'affichage du bilan de l'exercice, j'affiche le nombre d'exercices réussis (càd pas abandonnés) et le temps mis pour le faire. La tête affichée est fonction du nombre d'abandons :
0 ou 1 abe::evalA
2 abe::evalB
3 ou 4 abe::evalC
plus abe::evalD
Pour les logs (envoyés sur le serveur)
Je ne fais pas tout à fait pareil, je renvoie une évaluation calculée comme suit :
Score = (Nombre total de questions - nombre d'abandons)*100 / Nombre total de questions
Score >80 abe::evalA
Score >60 abe::evalB
Score >40 abe::evalC
Score <= 40 abe::evalD
Il est tout à fait possible de mettre en accord les deux façons de faire et les seuils peuvent se discuter
#2 Mis à jour par Jean-Louis Frucot il y a plus de 11 ans
- % réalisé changé de 0 à 70
Mise en place de l'évaluation pour Pointe et clique. Reste à calculer le temps pour chaque image
#3 Mis à jour par Jean-Louis Frucot il y a plus de 11 ans
- % réalisé changé de 70 à 90
A généraliser sur tous les exercices.
#4 Mis à jour par Jean-Louis Frucot il y a plus de 11 ans
- Statut changé de Discussed - Réflexion en cours à Fixed - Corrigé - Implémenté
- % réalisé changé de 90 à 100
#5 Mis à jour par Jean-Louis Frucot il y a plus de 11 ans
- Echéance mis à 27/05/2013