De la science sans effet

La Fondation Desjardins a financé un sondage Léger dans le cadre des journées de la persévérance scolaire. Les résultats circulent actuellement sous forme résumée et dans un rapport plus complet. Je voudrais en profiter pour commenter la manière dont on rapporte l’information de ce sondage, et en général la manière dont les sciences de l’éducation (surtout dans la francophonie) rapportent leurs données quantitatives.

Les répondants sont 1009 jeunes « ayant décroché, raccroché, ou pensé à décrocher », qui sont définis comme vulnérables au décrochage. Dans l’infographie qui circule, les résultats du sondage prend la forme de petites vignettes comme celle-ci:

L’intention, si on se fie au texte en petits caractères, est de nous montrer que le loisir encourage la persévérance scolaire. Cependant, présentés comme tels, les résultats semblent indiquer l’inverse. En effet, bien que les jeunes sondés ont déjà décroché ou pensé décroché malgré l’accès à des installations de loisirs. On remarque qu’il n’y a pas de niveau de base: quel pourcentage des jeunes n’étant pas vulnérables au décrochage affirment avoir accès à des installations de loisirs? Bien que ce soit possiblement le cas que le loisir améliore la persévérance, cette affirmation n’est pas soutenue par les données présentées, et on ne sait pas finalement quel effet peut avoir le loisir sur la persévérance. La firme Léger, à ma connaissance, n’a pas non plus effectué des tests statistiques qui auraient permis de vérifier la généralisabilité du résultat à la population en général, alors on ignore si ce qui s’applique à l’échantillon sondé est vrai ailleurs au Québec.

Je remarque aussi que l’échantillon est constitué de trois sous-groupes qu’on pourrait placer sur un axe: élèves ayant décroché, élèves ayant décroché puis raccroché, élèves ayant pensé à décrocher. Si l’accès au loisir a un effet sur le persévérance, il serait intéressant d’aller voir si, par exemple, les jeunes ayant vraiment décroché avaient moins accès à des installations de loisirs que les jeunes ayant seulement pensé à décrocher. Cette division devient encore plus intéressante si on considère un autre résultat:

Quel proportion des jeunes ayant décroché avaient un encadrement parental de leur situation à l’école, versus les jeunes ayant pensé à décroché? Et, encore une fois, quel est le niveau de base pour cette donnée, autrement dit, quel pourcentage des jeunes qui ne sont pas vulnérables au décrochage rapportent avoir un encadrement parental de leur situation à l’école? Présenté ainsi, la statistique donne l’impression que l’encadrement est peu utile puisque ces 660 jeunes (environ) ont décroché ou pensé à décroché en dépit d’un encadrement parental. Évidemment, on peut prédire que chez les jeunes qui ne sont pas à risque, cet encadrement est plus fréquent et de meilleure qualité – mais ça le sondage n’en dit rien.

Je résume les problèmes relevés ici:

  • Pas de comparatif avec un niveau de base dans la population ou un groupe contrôle;
  • Pourcentages « plats », peu ou pas d’effort pour une corrélation intéressante;
  • Pas de tests statistiques pertinents pour vérifier la robustesse et la généralisabilité des résultats (est-ce que ce qui est vrai pour l’échantillon est vrai dans la population générale);
  • Plaquage d’un message sur des chiffres qui ne disent pas vraiment ça.
  • Pas d’estimation de la taille des effets.

Ce sont des problèmes fréquents quand on rapporte des statistiques en sciences de l’éducation. Ces problèmes sont graves car, si on ne peut établir d’effet, la possibilité d’intervenir est amoindrie. Je le sais: je suis un prof. Je vois passer des données comme ça constamment, et je me dis « ok, mais comment je peux utiliser ça pour aider et motiver mes élèves? ». Je salue tout effort de diffusion de données concernant l’éducation au Québec. Mais si on veut employer ces données pour faire vraiment une différence, il va falloir grandement rehausser notre manière d’analyser nos données.

Publicités
Tagged with: , ,
Publié dans actualité, statistiques

Ressources sur l’évaluation avec un modèle de classification diagnostic (MCD)

La revue Mesure et évaluation a consacré un numéro à l’évaluation diagnostique en 2016. J’ai pour ma part repéré près de 200 articles, chapitres de livres et thèses sur le sujet. Vous pouvez accéder à ma collection avec Zotero en suivant cette procédure:

  1. Dans une version récente de Zotéro, cliquer sur le bouton d’ajout de collection > New feed > From URL
  2. Ajouter cette adresse: https://api.zotero.org/users/1068218/collections/NXRH6VVQ/items/top?start=0&limit=25&format=atom&v=1&key=6qAVuuTEDTQqkRHZMtvsZsHX
  3. Ajuster les options avancées au besoin et cliquer sur Save

Bonne lecture!

 

Tagged with: ,
Publié dans mesure éducationnelle, Tutoriel

Y’a pas de quoi s’énerver avec les 100%

Devrait-on éviter de donner 100% dans une évaluation, selon l’adage « la perfection n’est pas de ce monde »? Je crois qu’il est possible de respecter l’adage sans pour autant éliminer la possibilité d’avoir une note parfaite. En effet, avoir 100% dans une évaluation ne signifie pas qu’on va terminer avec 100% comme note finale. J’en fait ici une petite démonstration.

La figure ci-dessous présente une tableau de données (simulées) avec cinq évaluations. Retenez que ces évaluations ont une difficulté croissante et ont toute la même pondération (20%). J’affiche les résultats en pourcentage. Ici, c’est la difficulté croissante qui fait qu’il y a de moins en moins de 100% dans les examens.

simulation_examens

Figure 1

Le second tableau montre la moyenne accumulée des élèves à différents « moments » du semestre. Au moment 1, on a seulement la note de l’examen 1. Au moment 2, on a l’examen 1 et l’examen 2. Au moment 3, on a les trois premiers examens, et ainsi de suite. La colonne « final » affiche le score final de chaque élève (encore une fois, il s’agit de données simulées). On remarque qu’au départ le tiers de la classe avait 100%, puisqu’ils avaient eu 100% au premier examen. Cette proportion diminue ensuite drastiquement.

simulation_examens_2

Figure 2

Dans ce premier exemple, les examens avaient un niveau de difficulté croissant. Que se passe-t-il quand les examens sont de niveau équivalents? Y aura-t-il quand même une diminution du nombre de scores parfaits au fil du semestre? La répons est: oui!

Pour le démontrer, j’ai simulé des résultats pour cinq évaluations de difficulté équivalente. Pour faire varier les notes, j’ai ajouté du bruit aléatoire. Pour simuler l’erreur de mesure, le bruit est lui-même distribué selon une loi normale (j’ai employé un écart-type de 8 et une médiane de 0 pour le bruit). Voyons ce que ça donne. D’abord, les résultats aux évaluations:

simulation_examens_3.png

Figure 3

On remarque que le nombre de 100% est à peu près équivalent d’une évaluation à l’autre. Voyons maintenant l’évolution de la moyenne accumulée au fil du semestre:

simulation_examens_4.png

J’avais 11 élèves avec une note parfaite au premier examen, c’est environ le tiers de la classe. En ajoutant le score du deuxième examen à leur moyenne, je tombe à 5 notes parfaites. On ajoute les deux autres scores: il ne m’en reste que 2 notes parfaites. Cela signifie que, dans ma classe simulée, deux élèves seulement auront la note de 100% dans leur relevé, ayant eu 100% dans toutes leurs évaluations.

La raison est simple: au fur à mesure que les élèves sont évalués, la probabilité qu’ils fassent une erreur augmente. Au fil des évaluations, le nombre d’élèves n’ayant pas fait d’erreurs tend vers le zéro. Cette conclusion tient que la difficulté des évaluations soit croissante (examens de plus en plus difficiles) ou qu’elle soit constante.

L’inquiétude avec le 100% est qu’on n’arrive pas à distinguer le potentiel des élèves doués: un 100% reste un 100% qu’il ait été atteint de justesse ou avec une grande facilité. C’est une inquiétude légitime. Cependant, au fil des évaluations, tous ne vont pas conserver leur note parfaite. Ceux et celles qui ont été chanceux ne le seront pas nécessairement dans toutes leurs évaluations et finiront par avoir une note plus basse, tandis que les élèves vraiment surdoués risquent davantage de maintenir leur 100% tout au long du semestre.

La morale de cette histoire: c’est vrai qu’un grand nombre de 100% peut indiquer que l’examen était trop facile, qu’il ne discriminait pas suffisement entre les élèves de différents niveaux d’habileté. Mais ce n’est probablement pas si grave lorsqu’on considère l’ensemble des évaluations, surtout si le niveau de difficulté est croissant. En somme, à moins d’avoir très peu d’évaluations durant le semestre (on parle ici d’une ou deux évaluations) je ne recommande pas de diminuer artificiellement les 100% pour obtenir des scores plus modestes. Vous finirez bien par les attraper plus tard. 😉

 

Tagged with: , , ,
Publié dans mesure éducationnelle, pratique de l'enseignement, statistiques

Créer un corpus de texte dans R

Voici une solution permettant d’ouvrir un ensemble de fichiers docx et les convertir en txt dans R. Le but d’avoir ces fichiers .txt serait ensuite d’en faire une analyse textuelle avec les différents modules R prévus à cet effet.

Ma solution présente  quelques avantages:

  • C’est compact (seulement 14 lignes)
  • Requiert l’installation seulement d’un seul module (package): qdapTools. L’autre module est tools, qui est déjà installé par défaut avec R.
  • Ne requiert pas l’installation de Perl, ni la configuration de variables système.
  • Préserve les noms des fichiers (par exemple, toto.docx va générer un fichier toto.txt dans le dossier de sortie) à l’aide de la commande basename, déjà incluse dans R.

Ce n’est évidemment pas une solution parfaite. Voici ces quelques désavantages.

  • Ne vérifie pas si tous les fichiers du dossier ciblé sont vraiment des docx.
  • Le dossier de sortie doit déjà exister.
  • Mon code utilise une boucle for, ce qui rompt avec la structure vectorisée recommandée dans R.

Voici donc le code:

#Démonstration sur comment créer un corpus de txt à partir d'un dossier de 
#docx sans devoir installer Perl ni configurer des variables système

library(qdapTools) #pour le read_docx
library(tools) #pour le file_path_sans_ext

#----- lecture des docx -----
dossier.docx <- "C:/MonDossier/MesDocx/"
dossier.output <- "C:/MonDossier/output_txt/" #le slash final est important
noms.fichiers <- paste(dossier.docx, list.files(path=dossier.docx), sep="")

#----- conversion des docx en txt ----
for (i in 1:length(noms.fichiers)) {
 texte <- read_docx(noms.fichiers[i])
 nom <- file_path_sans_ext(basename(noms.fichiers[i]))
 write(texte, file=paste(dossier.output, nom, ".txt", sep=""))
}

Utilisation

Pour utiliser le code, la seule modification à faire est les chemins pour accéder aux docx et écrire les txt. Par exemple, si les docx sont dans c:\rototo\docx et que les txt doivent être écrits dans c:\rototo\txt, alors le début du code aurait l’air de ça:

dossier.docx <- "C:/rototo/docx/"
dossier.output <- "C:/rototo/txt/" #le slash final est important

Alternative sans R

Petit ajout pour ceux et celles qui n’utilisent pas R: la version gratuite du logiciel QDA Miner peut donner le même résultat. Il faut d’abord importer le corpus de texte (on va vous le proposer dès l’ouverture du logiciel). Puis, dans le menu Projets, on fait Exporter > Documents. On choisit Fichier Texte dans le sélecteur du format de fichier, et le tour est joué.

Tagged with: , ,
Publié dans statistiques, Tutoriel

La moyenne, c’est assez moyen

Parmi les différentes données pouvant décrire une population, la moyenne est sans doute celle qui est la plus utilisée dans un contexte scolaire. En éducation, la moyenne est considérée de facto comme étant un indicateur de la force du groupe. Ainsi, une bonne moyenne va être perçue par les profs comme un indicateur d’une bonne compréhension de la matière. Du côté des élèves, la moyenne est souvent la première chose à regarder après avoir reçu un résultat afin de se situer dans le groupe. Et n’oublions pas que la moyenne du groupe entre dans le calcul de la cote R.

Je trouve que nous exagérons la capacité de la moyenne à faire le travail qu’on lui a confié, c’est-à-dire estimer la force d’un groupe d’élèves. Il existe d’autres estimateurs de la tendance centrale qu’on gagnerait à (re)découvrir et à utiliser plus souvent.

La médiane

Écartons d’abord une confusion fréquente. Lorsque mes élèves parlent de la moyenne du groupe, ils ont en tête quelque chose de différent d’une moyenne. Quelque chose qui s’apparente plutôt à la médiane. Voici d’abord une définition des deux notions, dans un contexte scolaire:

La moyenne est la somme de toutes les notes divisée par le nombre de notes entrées.
La médiane est la note de l’élève qui serait au milieu du rang si on ordonnait les élèves selon leur note. Toutefois, si le nombre d’élèves dans la classe est pair, on ne peut avoir un milieu du rang. On prend alors la moyenne des notes obtenues par les deux élèves qui sont au milieu.
Bref, lorsque mes élèves parlent de la moyenne, c’est souvent avec l’impression que la moyenne est située au centre de la distribution des notes. Ainsi, l’assertion « je suis dans la moyenne » est accompagnée à tort de cette autre croyance: « donc la moitié de la classe a eu une note inférieure à la mienne ».

Il s’agit d’une confusion entre moyenne et médiane qui n’est pas sans base rationnelle: si la distribution des notes ressemble à une courbe normale, la moyenne et la médiane auront la même valeur, et donc la moyenne sera au centre de la distribution. Dans ces circonstances particulières, l’élève dans la moyenne pourrait effectivement affirmer que la moitié de la classe a eu un résultat inférieur.

Mais une distribution symétrique des notes n’est pas commune en éducation. On retrouve plutôt des distributions asymétriques. Je ne peux parler de données que je n’ai pas pu voir, mais dans le monde des cégeps, on retrouve typiquement une asymétrie à gauche, c’est-à-dire que la moyenne est inférieure à la médiane.

Cette asymétrie n’est pas en soi un problème. Un problème survient cependant lorsqu’on laisse les élèves, qui aiment se situer par rapport à leurs pairs, effectuer cette comparaison sur une base qui est factuellement incorrecte. En effet, dans un contexte scolaire, la moyenne a tendance à donner une fausse impression du groupe puisqu’une petite minorité peut modifier drastiquement la moyenne du groupe. Au cégep, cela se manifeste souvent par des zéros (élève absent à l’examen) ou de très faibles notes (élève n’avait s’est désengagé du cours, mais a essayé de faire l’examen quand même).

Prenons comme exemple un petit groupe fictif qui aurait obtenu les résultats suivants: {0,0,0,50,60,65,67,70,75,77,84,90}. La moyenne du groupe est de 54. La médiane est de 66. C’est une grosse différence. Dans cet exemple, un-e seul élève va se retrouver sous la moyenne, ce qui pourrait donner à la classe un faux sentiment de compétence. La médiane est, en somme, beaucoup plus robuste que la moyenne lorsqu’il y a dans la classe des notes qui ne sont pas représentatives de la force du groupe.

Moyenne tronquée

Une autre solution pour évaluer la force du groupe lorsqu’il y a beaucoup d’abandons non déclarés ou d’absences à l’examen est d’ignorer les zéros dans le calcul. En retirant les zéros (par exemple avec la fonction de l’application Omnivox permettant d’ignorer certaines notes) on se retrouve avec une moyenne de 71 et une médiane de 70. C’est déjà beaucoup mieux. Cet exemple illustre que les moyennes sont sensibles aux données extrêmes (ou « outliers ») alors que les médianes sont plus robustes. On constate aussi qu’en retranchant certains résultats extrêmes, on peut rendre la moyenne plus représentative de la classe.

Par contre, il n’est pas toujours aussi simple de savoir quelles notes devraient être ignorées dans le calcul de la moyenne. Certains résultats faibles pourraient être retranchés puisque, par exemple, l’élève a répondu au hasard ou de manière insouciante. On pourrait, selon une logique similaire, argumenter qu’il faut aussi ignorer les excellentes notes puisque ces élèves ne sont pas, non plus, représentatifs du niveau de la classe. Pour éviter les maux de tête, une solution envisageable serait d’assumer le caractère arbitraire et de fixer un seuil. Par exemple, on pourrait ignorer le 12,5% des notes les plus basses et le 12,5% des notes les plus élevées, et calculer la moyenne à partir des notes restantes. On parle alors d’une moyenne tronquée. Dans une classe de 32 élèves, cela revient à ignorer huit notes dans le calcul de la moyenne: les quatre plus basses et les quatre plus élevées.

On postule ici que les élèves ayant les notes extrêmes ne sont pas représentatifs de la force du groupe. Cela inclut autant les 0% que les 100%. Il est légitime de se demander si on doit tronquer les élèves ayant obtenu les notes les plus élevées. Si ces élèves semblent être dans une ligue à part tant dans les notes obtenues que dans la qualité de leurs travaux, il pourrait e avisé de les exclure du calcul de la moyenne. Dans le cas contraire, on pourrait envisager de tronquer les résultats à gauche seulement, c’est-à-dire que les notes les plus faibles seraient exclues de l’estimation de la force du groupe, mais pas les notes les plus élevées.

Moyenne winsorisée

En utilisant une moyenne tronquée, on rend l’estimation de la force du groupe moins sensible aux valeurs extrêmes. On diminue cependant la taille de l’échantillon, ce qui peut nuire à l’estimation. Une alternative à la moyenne tronquée qui préserve la taille de l’échantillon est la winsorisation (d’après le créateur de la méthode, Charles P. Winsor). Cette méthode consiste à remplacer les valeurs extrêmes par des valeurs moins extrêmes (formulation empruntée sur R-Bloggers). Il existe différentes manières de winsoriser, mais l’idée de base est que les valeurs qui dépassent et qui seraient ignorées dans le calcul d’une moyenne tronquée sont plutôt remplacées par une autre valeur moins extrême. Pour reprendre l’exemple ci-dessus, plutôt que de tronquer les notes jugées comme extrêmes (les 4 plus faibles et les 4 plus élevées) on les remplace, typiquement par la note qui se situe juste à côté. Ainsi la 5e plus basse note (et la 5e plus élevée) serait répétée 4 fois. Regardons de quoi pourraient avoir l’air les bouts d’une liste de résultats:

35 37 42 54 61 63 64 (...) 79 85 86 90 94 94 95

Et une fois la winsorisation effectuée, on aurait:

61 61 61 61 61 63 64 (...) 79 85 86 86 86 86 86

Comme avec la moyenne tronquée, on peut envisager de winsoriser seulement d’un côté si le contexte semble indiquer que seules les notes faibles sont non-représentatives. Le résultat serait alors:

61 61 61 61 61 63 64 (...) 79 85 86 90 94 94 95

Et l’écart-type?

On peut, en prime, remplacer la moyenne par ces estimateurs lors du calcul de l’écart-type du groupe. Ainsi, plutôt que de calculer la moyenne des différentes entre les notes et la moyenne du groupe, on peut calculer:

  • l’écart-type de la médiane: déviation moyenne (ou déviation médiane) des notes par rapport à la médiane;
  • l’écart-type tronqué: déviation moyenne des notes par rapport à la moyenne tronquée;
    l’écart-type winsorisé, c’est-à-dire la déviation moyenne des notes par rapport à la moyenne winsorisée.
  • En éducation, l’écart-type est utilisé pour estimer l’homogénéité du groupe, mais entre aussi dans le calcul du score Z. Le score Z (ou score standardisé) désigne l’écart d’une note à la moyenne, exprimé en nombre d’écarts-types. La formule est (note – moyenne) / écart-type.

En combinant le calcul robuste de la tendance centrale et de la dispersion, on peut obtenir aussi un score Z plus robuste. Inversement, en utilisant de manière inappropriée la moyenne, on transmet cette erreur au calcul de l’écart-type, ce qui modifie le score Z, et ainsi de suite. Le calcul de la cote R, par exemple, se base sur score Z et inclut déjà certaines mesures visant à rendre les statistiques plus robustes. Tout de même, ce calcul pourrait sans doute être amélioré.

Conclusion

Voici en terminant quelques conseils faciles à appliquer en classe afin d’éviter de donner aux élèves une fausse impression de leur niveau de compétence:

  • Toujours exclure du calcul de la moyenne les élèves ayant fait un abandon non déclaré. Ils ne sont plus dans le groupe et donc leur 0 ne doit pas affecter l’estimation de la force du groupe.
  • Considérer d’exclure aussi du calcul de la moyenne les autres élèves jugés non représentatifs de la force du groupe: principalement les élèves absents à l’examen ou ayant répondu de manière négligente.
  • Lorsque c’est possible de le faire, on peut améliorer légèrement l’estimation en appliquant la winsorisation.
  • Encourager les élèves à se comparer à la médiane et non à la moyenne.
  • Fournir aux élèves un score Z
    Expliquer aux élèves ce que signifient grosso modo les différents niveaux d’atteinte de la compétence et les notes qui s’y rattachent.

 

Tagged with: , ,
Publié dans pratique de l'enseignement, statistiques

La FAE et le cours d’économie au secondaire

Comme enseignant au cégep, je suis syndiqué « full pin » et fier de l’être. J’aime mon syndicat. J’aime les mandats sociaux de mon syndicat, souvent appellés « deuxième front ». Ce que j’aime moins, c’est l’espèce particulière de démagogie qu’on retrouve parfois dans le discours syndical. Je vous explique le genre de démagogie que j’ai en tête (littéralement, puisqu’il est question de démagogie cognitive) et je donne ensuite des exemples tirés de déclarations récentes.

Dans deux plaquettes fort intéressantes, La démocratie des crédules et La planète des hommes, le sociologue français Gérald Bronner conceptualise et documente la démagogie cognitive, qui est en quelque sorte une nouvelle série de sophismes mettant à profit des particularités de l’esprit humain. Le premier ouvrage se consacre à la manière dont la démocratie est affectée par une rhétorique complitisante qui se répand sur le Web, le deuxième attaque tout au long une idée pourtant populaire en philosophie éthique: le principe de précaution.

Premier exemple:

Le ministre affirme qu’il s’agit d’un « retour » du cours d’économie. C’est faux! Le cours d’éducation financière qu’il a décidé d’imposer n’est qu’une version édulcorée et utilitariste du vrai cours d’économie qui se donnait dans les écoles du Québec jusqu’en 2009 – Sylvain Mallette

Invité à l’émission de Dutrisac, monsieur Mallette tient un discours similaire:

Ce n’est pas vrai que c’est un retour (…) le cours qu’a décidé d’imposer le ministre ce n’est pas l’ombre de l’ancien cours, c’est un cours qui a été rédigé par des banquiers pour répondre aux besoins des banques et des institutions financières, ça a rien à voir avec l’ancien cours.

C’est intéressant de voir tout ce que monsieur Mallette parvient à affirmer à propos d’un cours dont il avoue, dans la même entrevue à Dutrisac, ne pas avoir vu le contenu (« on ne sait pas à quoi ça va ressembler »). En affirmant cela, la FAE se prémunit néamoins contre une critique évidente: pourquoi est-ce un problème si on remet un cours qui avait été enlevé? En gros, parce que l’ancien cours était vraiment meilleur, et si vous ne vous en rappelez pas, nous allons nous rappeler pour vous. En revanche, le nouveau cours sert uniquement les besoins des banques et est « utilitariste » (peu importe ce que ça signifie).

En effet, pressé de préciser en quoi l’ancien cours était différent, Mallette insiste sur des aspects du cours qui l’arrangent, comme la comparaison du capitalisme et du socialisme, mais passe sur le fait que le cours de Vie Économique abordait aussi la finance personnelle.

On a ici une forme rhétorique qui joue sur la mémoire: le gas lighting. Comme personne ne risque d’aller vérifier comment était ce cours en 2009, ça passe. En fait, ce n’est pas seulement notre mémoire qui est remise en jeu, c’est notre perception de la réalité et notre capacité à réfléchir.

Deuxième exemple:

Qui va nous assurer que le matériel qui est fourni n’est pas du matériel produit par les institutions financières qui ont intérêt à faire de la promotion, de la publicité pour leurs produits financiers? Le ministre n’est pas capable de nous assurer [que ce n’est pas le cas]. – Sylvain Mallette

Chez Dutrisac, le même sound bite va plus loin et attribue un mobile aux banques:

Qui qui va nous assurer que le matériel qui est fourni n’est pas du matériel produit par des institutions financières qui ont pas intérêt à faire de la promo, de la publicité pour leurs produits financiers? Ça le ministre est pas capable de nous l’assurer.

Ici on a une rhétorique de type théorie du complot. La FAE a multiplié les déclarations insinuant (ou affirmant) que le cours est, si je résume bien, une stratégie permettant au système bancaire d’influencer la pensée des élèves du secondaire. Monsieur Mallette opère ici un renversement du fardeau de la preuve: c’est maintenant la responsabilité du ministre de prouver que le cours n’est pas un complot visant l’encodtrinement des jeunes. Rendu à ce point, savoir si les contenus de ce cours ont été prescrits par des banques ne change plus grand chose. Le doute est semé, et rien ne pourra le réfuter avec le niveau de certitude qu’on exige ici.

Pourtant, l’affirmation au coeur de cette controverse, c’est-à-dire qu’un haut placé de la Banque de Montréal aurait manipulé un cours pour influencer négativement les jeunes, n’a pas beaucoup de sens. Pourquoi aurait-il fait cela? L’avantage pour un banquier est plutôt que la population demeure ignorante en la matière, non? La FAE a-t-elle peur que les jeunes cessent de s’endetter et achètent des REER? J’en doute.

C’est là toute la beauté de la démagogie cognitive: l’accusation n’a pas besoin d’être vrai ni même vraissemblable. Les membres de la FAE n’ont pas à croire Mallette pour retenir un petit quelque chose de son message; une crainte, un vigilance se basant sur l’idée injustifiée qu’il y a toujours un fond de vérité…. et que jamais un représentant syndical n’oserait se lancer dans une telle théorie si ce n’était pas au moins un peu vrai.

Voici quelque chose qui n’est pas une théorie du complot: la crise économique de 2008 a été causé en partie par la spéculation aberrante, et en partie parce que les gens comprennent pas le crédit et le marché. Une meilleure connaissance de la finance personnelle pourrait diminuer la probabilité d’une crise similaire dans l’avenir. Le besoin social pour un tel cours est donc réel.

Justement, la CSN a, en 2011, appuyé le retour du cours avec une visée de réduction des inégalités sociales. De son côté, la FSE appuie le cours en principe mais souhaite ralentir la cadence afin de s’assurer que le cours soit prêt et que les profs peuvent s’ajuster. Bien que le principe de précaution soit, ironiquement lui-même à prendre avec des pincettes, on comprend le désir de la FSE que tout se fasse bien.

On comprend moins pourquoi la FAE milite indirectement pour des comportements irrationnels sur les marchés, une cause reconnue de crise financière.

Tagged with: , , ,
Publié dans actualité, pratique de l'enseignement

Colloque sur l’innovation pédagogique en philosophie: où sont les données factuelles?

Le colloque sur l’innovation pédagogique en philosophie en est à sa troisième édition. Cet événement, qui a lieu au cégep de Granby, vise à rassembler des profs de philo afin qu’ils jasent de pédagogie. Les profs de philo ont donc reçu l’appel à communication (qu’ils appellent « programmation scientifique ») pour l’édition 2017.

Ce matin, quelques cris d’indignation provenant des bureaux de collègues m’ont encouragé à lire ce document et à voir ce qu’il pouvait y avoir de si fâchant. Je vois deux problèmes majeurs qui devraient être corrigés si l’équipe de Granby veut intéresser davantage de départements à leur événement.

Premier problème: ce document, plutôt que d’inviter à faire des communications orales au sujet de thème, suggère un thème et un contenu qui devrait se retrouver dans les conférences. Normalement, on présenterait des descriptions des thématiques en invitant les profs à soumettre des communications qui peuvent s’inscrire dans au moins une de ces thématiques. Ici, les thématiques sont présentées comme des résumés des présentations qu’on devrait soumettre au colloque, avec une thèse et un angle d’approche déjà déterminé. La place de l’innovation est alors minime puisque cet appel à communications (qu’ils ont baptisé « programmation scientifique ») nous affirme en somme que le sort est jeté. C’est orienté à souhait, bref.

Deuxième problème: le réseau thématique du colloque semble être mêlé à des préjugés, par exemple que les cours de philo sont de moins en moins appréciés, ou que les profs de philo ne sont plus dans le coup. Je reproduis deux paragraphes:

Selon plusieurs techno pédagogues [qui?], l’innovation devrait faire partie du quotidien d’un professeur de philosophie, si tant est qu’il s’acquitte correctement de sa tâche et remplisse convenablement sa mission d’éducateur. Cependant il est rare qu’un professeur puisse anticiper les questions qui lui seront posées par ses étudiants [quel est le rapport entre anticiper les questions et innover?], à moins qu’il se prémunisse d’une grande prudence à même d’inciter ces derniers à ne poser que des questions afférentes au contenu du cours. Encore faudrait-il que ce dernier sache que, selon les préoccupations et compréhensions de chacun des étudiants, des questions qui semblent porter sur le cours peuvent bien évidemment n’avoir aucun lien avec celui-ci, au point de le pousser à puiser dans sa culture générale pour y répondre [dans ce cas la question n’est pas pertinente]. Prétendre ou considérer que le professeur de philosophie est censé tout savoir [qui affirme ça? et quel est le rapport avec l’innovation?] une bonne fois pour toutes devient alors aussi vain que faux, car le but de l’enseignement, loin de consister à transmettre un savoir seulement doit, comme le disait E. Kant [source?], résider dans le fait de pousser l’étudiant à douter.

Par ailleurs, l’enseignement semble avoir le devoir de s’inscrire dans une logique innovatrice afin d’éviter d’être monotone, insipide, inutile, inefficace voire répétitif. [caricature] La répétition peut avoir des vertus pédagogiques, mais l’essence même de la pédagogie n’est point dans la répétition, d’année en année, de mots, d’idées et de cours statiques. Un professeur qui n’oserait pas innover se livrerait à de tels risques, ce qui plomberait et biaiserait le sens et la portée d’une éducation à visée émancipatrice [l’opposition ici n’est pas réaliste puisqu’on peut très bien modifier son cours sans innover, et innover dans le contenu n’est pas nécessairement innovant dans les méthodes]. En effet la philosophie, que nous [qui est ce nous?] aimons appeler la discipline-reine du fait de son histoire et de sa transversalité, semble témoigner d’une baisse d’intérêt de la part des étudiants qui s’y frottent pour la première fois à leur arrivée au cégep [où sont les données qui appuient cette affirmation?]. Cela semble suffisant [c’est même superflu: l’innovation peut se justifier facilement sans imaginer une baisse d’intérêt] pour conférer aux professeurs de philosophie toute la latitude pour innover, sans toutefois contrevenir aux règles fondamentales de la pensée philosophique ou aux devis ministériels.

Publié dans Non classé