dimanche 2 mars 2014

Modèles de la personnalité : la meilleure approche est-elle par types ou par traits ?

Le test de personnalité MBTI place les individus dans 16 catégories distinctes. Il s'agit donc d'un modèle de personnalité par types. Selon cette approche, l'on est soit Introverti, soit Extraverti. Soit Sensitif, soit Intuitif. Etc. Au final, notre type est donné par une combinaison de quatre lettres (INTJ, ESFP, etc).
Extrêmement populaire dans le monde de l'entreprise, ce modèle est très peu accepté dans le monde de la recherche. Que lui reprochent donc les scientifiques ?

Où classer les gens "normaux" ?

De ne pas coller à la réalité, tout simplement : lorsque l'on mesure la propension des individus d'une population à être Introvertis ou Extravertis, on se rend compte qu'il est plus pertinent de les évaluer de manière continue plutôt qu'en catégories. La répartition des résultats se fait en cloche, avec la majorité des individus au centre et de moins en moins lorsque l'on approche les extrémités. En termes mathématiques, il s'agit d'une répartition selon la loi normale (et ce n'est pas un hasard).

Loi normale (avec les écarts types en abscisse)

Dès lors, classifier les individus par types "extrêmes" pose problème car la majorité se trouve... au milieu !

L'arme secrète de la théorie des types, et le scotch qui la fait tenir debout

L'approche par type à toutefois un avantage redoutable : elle est facile à comprendre et à mettre en oeuvre. Le nombre de types étant limité, il est facile pour le praticien de s'y retrouver. Ainsi, pour tenter de conserver cet avantage du modèle par type tout en palliant à l'inconvénient de la majorité inclassable, certains théoriciens des types proposent qu'un individu puisse appartenir à plusieurs types, de manière plus ou moins forte.

Fausse solution je dirais, dans la mesure où le nouveau modèle devient bien plus compliqué qu'un modèle par trait (et ainsi difficilement interprétable de manière objective).

Une alternative plus simple s'offre à nous avec les théories par traits. Reprenons le MBTI. Au lieu de répartir les individus en catégories dichotomiques, il suffit de modifier les catégories en traits. On a maintenant le droit d'être "un peu extraverti mais pas trop".

De 16 catégories, on passe maintenant à une infinité, comme c'est le cas dans un modèle par trait comme le Big Five.

Le retour du type

Très bien me direz-vous. Mais comment fais-je pour interpréter le Big Five ? Comment fais-je pour prendre en compte cette infinité de possibilités dans mon analyse ?

On utilise alors les écart-types pour tenter de classifier les individus (3 = très extraverti, 2 = extraverti, -1 à 1 = neutre, -2 = introverti, -3 = très introverti). Ensuite, il faut vérifier de manière empirique ce qui se passe lorsque l'on croise les traits : par exemple, que se passe-t-il lorsque l'on a un individu très extraverti et un peu neurotique ?

Vous remarquerez que l'on retrouve des types dans une certaine mesure, sauf que si vous faites le calcul, en séparant chaque trait du Big Five en 5 catégories, cela vous fait 5^5 = 3125 possibilités. C'est plus précis que les 16 du MBTI... mais il vous faudra maintenant un logiciel pour vous aider dans l'interprétation, ou une très bonne mémoire !



Pour conclure, comme nous l'avons vu, les types et le traits ne sont pas forcément opposés. Tant que l'on mesure par traits, on peut toujours les discrétiser par la suite pour en faire des types, et ainsi permettre une interprétation. Après tout, voir la photo d'une voiture en 16 millions de couleurs ne vous empêche pas de dire qu'elle est rouge.

samedi 18 janvier 2014

Au-delà du Big Data, un peu d'épistemologie

Le Big Data serait l'avenir des RH. La capacité des systèmes d'information à collecter une masse grandissante de données sur les salariés et leur performance permettrait enfin de s'affranchir du flou artistique en ce qui concerne la prise de décisions RH (recrutement, promotion, formation, etc). L'entreprise deviendrait alors enfin une véritable méritocratie, capable de tirer le meilleur de chacun.

Pourtant, malgré ses promesses, le Big Data ne fait pas son entrée fulgurante dans les organisations. Or, on peut difficilement attribuer ce lent démarrage à des difficultés techniques : après tout les données RH sont plutôt "Small Data" comparées à des applications industrielles ou scientifiques. Il existe donc des résistances par ailleurs, que je me propose d'explorer dans ce billet.

Du dualisme au positivisme

La croyance principale s'opposant au traitement informatique des données RH est celle de la supériorité intrinsèque de l'humain par rapport à la machine dans le domaine RH : pour traiter de problèmes humains, il faut en être un. Je parle alors de dualisme car cette position présuppose l'existence de capacités humaines ne pouvant pas être répliquées chez une machine. Ces capacités humaines supérieures peuvent être expliquées par un phénomène immatériel, hors de portée de la science.
Le point de vue positiviste quant-à lui rejette cette explication métaphysique et, partant du principe que les humains sont simplement des machines plus complexes que les autres, se propose d'expliquer les comportements humains par des lois scientifiques. Le Big Data s'inscrit dans cette mouvance.

Les avantages apportés par le progrès scientifique au cours de ces derniers siècles fait que le point de vue positiviste gagne du terrain, certains pronostiquant une révolution scientifique dans le domaine RH, qui aurait été épargné jusque-là du fait d'un certain conservatisme.

Les bonnes réponses aux mauvaises questions

L'adoption du point de vue matérialiste ne résout toutefois pas l'intégralité des difficultés du Big Data. L'humain pourrait demeurer supérieur à la machine pour des raisons techniques : soit dans sa capacité à traiter les données, soit dans sa capacité à les capturer. Les promoteurs du Big Data arguent que les modèles prédictifs ne feront que s'améliorer au fil du temps et de l'augmentation du nombre et de la qualité des données collectées.
Leur argument à du sens : de nombreux exemples montrent que des modèles très simples sont quasi-systématiquement supérieurs à des opinions d'experts sur des sujets pourtant complexes.
 
Mais alors, pourquoi les machines ne se montrent-elles pas supérieures aux humains dans leurs capacités prédictives en matière RH ? Prenons le département RH de Google, connu pour son approche scientifique. De par son métier, l'entreprise à accès aux meilleurs experts en intelligence artificielle et en traitement de l'information. Et cependant, après des années d'existence les résultats pratiques sont maigres : tout au plus sait-on que dans la plupart des cas seul le hasard explique le succès d'un recrutement.

Ainsi, si le Big Data permet parfois de répondre à des questions simples (ex: quelle est la chance que ce salarié quitte l'entreprise ?), les questions intéressantes (un turnover faible est-il une bonne chose au final pour l'entreprise ?) restent hors de portée.

La séduction des prophéties auto-réalisatrices

Les dualistes peuvent alors se gausser de l'arrogance dont font preuve les positivistes et réaffirmer la supériorité de l'homme sur la machine. Il s'agit pourtant d'un sophisme : le fait que les machines échouent ne veut pas dire que l'humain réussit.

Les organisations sont des systèmes complexes dynamiques : c'est à dire qu'il est difficile de faire la différence entre objectifs, causes et résultats. Par exemple, si l'on part du principe qu'un leader doit être charismatique, on va fixer des critères de promotion requérant cette qualité. Ainsi, à l'avenir, seuls les individus charismatiques seront promus... ce qui montre bien que seuls ces derniers réussissent, et donc justifie la présence de ce critère.

En fait, là où l'humain se montre particulièrement doué est précisément dans la réalisation de prophéties auto-réalisatrices. Là où la rigueur intellectuelle voudrait que l'on dise que l'on ne sait pas ce qui fait un bon leader, un consultant RH pourra arguer de son expérience pour justifier le critère charismatique.

Le Big Data n'est pas à l'abri des prophéties auto-réalisatrices mais la rigueur inhérente à l'informatique fait que le risque est sans doute un peu moindre : il n'existe pas de biais de confirmation chez l'ordinateur.

Pour conclure, les systèmes complexes dynamiques menant à des comportement chaotiques, et donc étant de par la théorie scientifique hors de portée de l'humain comme de l'informatique, on se retrouve dans la situation ironique où les seules affirmations possibles sont des prophéties.

Alors, finalement, tous constructivistes ?