RECHERCHE SUR LE SITE

Références
bibliographiques
avec le catalogue


En plein texte
avec Google

Recherche avancée
 

Tous les ouvrages
numérisés de cette
bibliothèque sont
disponibles en trois
formats de fichiers :
Word (.doc),
PDF et RTF

Pour une liste
complète des auteurs
de la bibliothèque,
en fichier Excel,
cliquer ici.
 

Collection « Les sciences sociales contemporaines »

La courbe de gravité des crimes” (2006)
Introduction


Une édition électronique réalisée à partir de l'article de Pierre TREMBLAY, Martin BOUCHARD et Chloé LECLERC, [École de criminologie, Université de Montréal] “La courbe de gravité des crimes”. Un article publié dans la revue L'Année sociologique, vol 56, no 1, 2006, pp. 201 à 227. Paris: Les Presses universitaires de France. [Autorisation accordée par M. Pierre Tremblay le 16 décembre 2006 de diffuser toutes ses publications dans Les Classiques des sciences sociales.]

Introduction

Dans cet article nous proposons une relecture d'une enquête de grande envergure (60 000 répondants) réalisée en 1984 aux États-Unis sur les jugements de gravité des délits (Wolfgang, Figlio, Tracy et Singer, 1985). Cette enquête retient l'attention parce qu'on y trouve développé un modèle explicatif de l'adhésion des acteurs sociaux aux jugements normatifs véhiculés dans les codes pénaux que l'on pourrait qualifier de « réaliste » (Boudon, 1995, 206-211). La prémisse initiale du sondage est qu'un énoncé du type « le crime x est plus grave que le crime y »constitue pour celui qui l'énonce, comme pour son destinataire, un jugement de fait qui ne différé pas en nature d'une proposition du type « le rouge de ce foulard est plus intense que celui de cette rose ». Un tel jugement présenterait une certitude morale contraignante dont la nature ne serait pas tant démonstrative que perceptive (Boudon, 1995, 215). L'objectif principal de l'enquête n'était pas de solliciter une opinion (« Seriez-vous d'accord pour dire que le défit x soit jugé plus sévèrement par les tribunaux que le délit y ? »), ou de susciter un sentiment moral (« Indiquez sur une échelle de 1 à 10 le degré d'aversion ou de réprobation morale que vous inspirent les délits suivants ? »), mais de proposer aux personnes interrogées une tâche de discrimination cognitive (ou perceptuelle) : « D'après vous les torts causés par le délit x sont-ils plus graves ou moins que les torts causés par le délit y (un délit étalon ou modulus) et, le cas échéant, jusqu'à quel point ? »

 

Une telle consigne n'a pas manqué, bien entendu, de susciter des objections de principe [1]. D'une part, bon nombre de commentateurs firent observer que la perte d'une vie humaine ou le vol d'une bicyclette constitue des préjudices intrinsèquement incomparables et qui peuvent, tout au plus, faire l'objet d'une tarification pénale ou d'une convention intrinsèquement arbitraire. D'autre part, les humains ne disposent d'aucune métrique naturelle pour évaluer si un délit est 2 fois, 10 fois ou 100 fois plus grave qu'un autre. La première objection ne prend pas, toutefois, en considération la capacité tout à fait remarquable du cerveau humain de comparer et d'ajuster les différences d'intensité de stimuli apparemment très différents les uns des autres. Lindsay et Norman (1977, 690) notent avec quelle facilité on « peut demander à quelqu'un d'ajuster l'intensité d'une tonalité pour qu'elle lui semble aussi intense que la brillance d'une lumière ; ou de lui faire tracer une ligne proportionnelle à son évaluation de la rugosité d'un papier sablé ; ou encore de lui faire régler un choc électrique pour obtenir la grandeur psychologique correspondant à la sensation d'une odeur de café ». S'il est possible de régler deux chocs électriques pour que leur rapport d'intensité relative corresponde à celui qui se dégage de deux odeurs de café, pourquoi ne pourrait-on pas ajuster le degré de gravité relative de deux délits différents par rapport à un délit de référence ? C'est Stevens (1975) qui, le plus explicitement, a tiré profit de la capacité des individus de coupler spontanément, et rapidement, une variété de modalités sensorielles et d'offrir des estimations numériques valides de leur intensité relative. La théorie de Stevens a été qualifiée de psychophysique « subjective » précisément pour cette raison (Tiberghien, 1984, 77).

 

La deuxième objection, plus sérieuse, concernait la recevabilité d'une directive qui enjoint aux sujets interrogés d'indiquer si un délit leur semble 2 fois, 10 fois ou 100 fois plus grave (ou moins grave) qu'un délit de référence, et qui n'impose aucune borne supérieure ou inférieure à ces estimations de grandeur relative ? Cette deuxième objection trahit une méconnaissance de la psychologie des perceptions et feint d'ignorer qu'une telle directive est parfaitement admissible lorsqu'on souhaite analyser la relation fonctionnelle qui caractérise la relation entre l'intensité d'une sensation éprouvée par l'organisme humain et l'intensité objective du stimulus correspondant. La stratégie argumentative proposée initialement par Stevens (1975) et reprise par Wolfgang et coll. (1985) mérite qu'on s'y attarde. Elle procède en deux temps. Soit, tout d'abord, deux modalités sensorielles (par exemple la pression exercée par la main d'une part, et la longueur d'une ligne tracée sur une feuille de papier, d'autre part) et un stimulus acoustique Y dont on fait varier l'intensité et qui fait office de variable indépendante objectivable. La première fonction psychométrique (mesurée par un dynamomètre) donnera une fonction puissance de type . La deuxième fonction psychométrique (la perception visuelle de la distance) donnera une fonction puissance de type . En couplant les deux séries d'observations, on peut dériver analytiquement et vérifier empiriquement que l'exposant obtenu par appariement intermodal sera égal au rapport des exposants des deux fonctions de départ (c'est-à-dire une fonction puissance dérivée dont la valeur de l'exposant sera égale à ). On a pu ensuite montrer que si les sujets peuvent établir physiquement un rapport d'équivalence entre les différences d'intensité produites par deux modalités sensorielles, ils peuvent tout aussi bien l'exprimer formellement en termes numériques (« estimations de grandeur »). Pour s'assurer que c'est bien le cas, et que les opérations arithmétiques postulées (division et multiplication) opérationnalisent de manière satisfaisante la manière dont les calculs sont effectués par le cerveau humain, on vérifiera que l'exposant de la fonction intermodale à laquelle ces estimations de grandeur seront couplées sera effectivement égal au rapport des exposants des fonctions de départ. Supposons, en un deuxième temps, qu'on s'intéresse aux perceptions de stimuli pour lesquels il n'existe pas de métrique naturelle comme c'est le cas pour la gravité des délits. C'est ici que la stratégie de validation intermodale mise au point par Stevens dans les années 1940 révèle toute son utilité. Elle est au cœur de l'expérience que Wolfgang et ses collègues (1985), en collaboration avec William Lodge du Laboratoire de recherche behaviorale de l'Université de l'État de New York, ont réalisé lors du prétest de leur enquête. Ils demandèrent à un premier échantillon de sujets d'exprimer leurs appréciations de la gravité relative des délits par la méthode d'estimation de grandeur. Ils demandèrent ensuite à un deuxième échantillon de répondants d'exprimer leurs évaluations en traçant des lignes de longueur différente sur une feuille de papier. Ils observèrent que l'exposant obtenu par appariement intermodal correspondait très exactement à la valeur attendue (Wolfgang et colt, 1985, 15-20), et en conclurent Par voie de conséquence que les estimations de grandeur des sujets étaient valides d'un point de vue « psycho­physique » et que les jugements de gravité des délits, tout comme les jugements de prestige social, présentaient les mêmes propriétés que les jugements perceptuels pour lesquels on dispose de métriques objectivables.

 

Si l'on en juge par le silence qui a accueilli la publication de cette enquête qui devait parachever les hypothèses et les conclusions d'une première analyse exploratoire, Measurement of Delinquency, publiée vingt ans auparavant (Sellin et Wolfgang, 1964), on doit en conclure que cette démonstration formelle n'a pas été jugée suffisamment persuasive pour détourner les sociologues de leur prédisposition à décoder dans ces jugements de gravité la manifestation inconsciente d'un désir suspect de punir (Ocqueteau et Perez-Diaz, 1990) et à disqualifier d'entrée de jeu la véracité présomptive des réponses que les sujets s'efforcent de donner aux questions qu'on leur pose. La lecture que nous proposons du National Survey of Crime Severity s'efforce d'élaborer une théorie des jugements de gravité des crimes et procède en trois moments. Il nous a semblé important tout d'abord de juger l'arbre à ses fruits et d'examiner en l'occurrence s'il était possible de donner un sens objectivable aux jugements de gravité. Or, une propriété remarquable de ces jugements, sur laquelle ne s'attardent guère Wolfgang et coll. (1985), est qu'ils incorporent une évaluation implicite des coûts de la criminalité (2). En un deuxième temps, nous proposons de vérifier si ces évaluations implicites pouvaient être effectivement corroborées ou validées. On dispose depuis peu d'une nouvelle cohorte d'études des coûts de la criminalité qui ont pour caractéristique principale d'avoir évalué les préjudices « intangibles » ou non monétaires de diverses catégories de crimes (Brand et Price, 2000 pour I'Angleterre ; Mayhew, 2003 pour l'Australie ; Cohen, 2000 pour les États-Unis). Cet examen nous amène à constater une concordance frappante entre les coûts perçus susceptibles d'être inférés des jugements de gravité et les coûts de la criminalité estimés par les économistes. En un troisième temps, nous nous attardons à une caractéristique très générale de la criminalité : plus les délits sont jugés graves, moins ils sont nombreux (très peu d'homicides, mais un grand nombre de petits vols). Comment expliquer que la criminalité se distribue ainsi et pas autrement ? Un des grands mérites de l'enquête de Wolfgang et coll. (1985), mais qui n'a pas été reconnu par leurs auteurs, est de spécifier la fonction précise de cette distribution intrinsèquement normative de la criminalité.


[1]     Par exemple, Rossi et Henry (1980) et Miethe (1982, 1984) ou Watt (1989) aux États-Unis, Weinberger et coll. (1977) ou Ocqueteau et Perez-Dias (1989, 1990) en France, Pease et coll. (1974) ou Patron et coll. (1990) en Angleterre.


Retour au texte de l'auteur: Jean-Marc Fontan, sociologue, UQAM Dernière mise à jour de cette page le mardi 10 avril 2007 18:40
Par Jean-Marie Tremblay, sociologue
professeur de sociologie au Cégep de Chicoutimi.
 



Saguenay - Lac-Saint-Jean, Québec
La vie des Classiques des sciences sociales
dans Facebook.
Membre Crossref