Note de lecture : Stephanie Novak & Jon Elster (dir), Majority Decisions. Principles and Practices, Cambridge, Cambridge U.P., 2014.

Book Review: Stephanie Novak & Jon Elster (dir), Majority Decisions. Principles and Practices, Cambridge, Cambridge U.P., 2014.

 

« Vote : Instrument et symbole du pouvoir donné à un homme libre de faire de lui-même un sot et de son pays un chaos » peut-on lire dans le Dictionnaire du Diable, sous la plume ironique et féroce d’Ambrose Bierce. Si la formule est amusante, l’idée l’est beaucoup moins. Elle pointe en effet vers un étonnant paradoxe : la liberté accordée à chacun de participer à l’élaboration des décisions collectives ne se traduit pas nécessairement par une amélioration collective du sort de tout un chacun. Plus précisément même, il est permis de constater qu’il existe toujours, dans les faits, un problème de concordance entre les choix individuels prononcés pour le tout, et ce tout considéré isolément sous l’angle de la décision collective. Ce problème de concordance semble tenir à la nature du rapport qu’entretiennent de telles décisions avec les décisions individuelles. La question décisive étant celle du passage d’une collection de décisions particulières à ce que l’on nomme une décision collective : quelle est, en effet, la nature profonde d’une telle opération ? Comment s’effectue cette incroyable action de « transmutation » réussissant à faire émerger, de la pluralité, une unité ?

À dire vrai il s’agit là d’un problème philosophique fondamental qui n’a pas, à ce jour, trouvé de réponse totalement satisfaisante. La science politique contemporaine a durablement rejeté, au prétexte de leur manque de rigueur « scientifique », les solutions autrefois apportées par la modernité classique (Volonté générale chez Rousseau par exemple) et raisonne désormais sur d’autres fondements : pour l’essentiel au travers de ce que l’on nomme les théories du choix social.

Ces théories envisagent la décision collective d’un groupe comme le résultat d’un calcul d’agrégation des différentes préférences individuelles des membres de ce groupe. La problématique est donc simple : il s’agit de trouver la meilleure méthode de calcul possible. Une sérieuse difficulté demeure néanmoins : Kenneth Arrow a montré, dès 1951, qu’il n’existait pas de mode de calcul qui satisfasse en même temps à l’ensemble d’un certain nombre de conditions élémentaires que l’on est légitimement en droit d’attendre d’une « fonction de choix social » dans une démocratie. C’est son fameux « théorème de l’impossibilité ».

La science politique contemporaine connaît donc une nouvelle impasse : aux vieilles abstractions indémontrables d’autrefois, elle n’a su substituer que des méthodes de calcul introuvables.

C’est, semble-t-il, le point de vue de Jon Elster qui a proposé, dans le cadre de sa Chaire « Rationalité et sciences sociales »  au Collège de France (2006 à 2011), un déplacement de la problématique. Il développe en effet une théorie de la décision collective qui interdit de les « assimiler […] à des décisions individuelles ». Pour Elster, « l’analyse du choix individuel en termes de croyances et de préférences de l’agent ne se laisse pas transposer au niveau collectif. Les propositions qu’on a faites dans ce sens reviennent a stipuler l’existence d’une volonté générale qui est révélée plutôt que déterminée par le vote majoritaire », ce qui relève à son avis « d’une absurdité métaphysique ».

Aussi bien, à le suivre, il semblerait que la notion de « décision collective » bénéficie d’une forme d’autonomie conceptuelle, et mérite à ce titre d’être étudiée en tant que telle, c’est-à-dire non plus comme simple conséquence ou résultat d’un calcul portant sur les « préférences individuelles ».

C’est dans le cadre de ces recherches que vient s’inscrire la parution aux presses de Cambridge, en 2014, de Majority Decisions: Principles and Practices, ouvrage que Jon Elster a co-dirigé avec la philosophe Stéphanie Novak. Il s’agit en réalité de la compilation partielle de différentes contributions au colloque sur « les majorités » organisé par ses soins au Collège de France en 2009.

Pour faire droit à cette autonomie de la notion, l’ouvrage prend le parti de la pluridisciplinarité. L’on compte ainsi, parmi les onze auteurs, des spécialistes de droit constitutionnel (Beaud, Issacharoff, Vermeule), de sciences politiques (Mackie, Pasquino, Schwartzberg), mais aussi un historien (Christin) et deux mathématiciens (Balinski, Ladski), sans oublier bien entendu les deux philosophes en charge de l’ouvrage (Elster, Novak).

Les approches sont multiples mais possèdent un trait commun : la volonté de mettre à nu la fausse simplicité de la notion. La lecture de l’ouvrage autorise à distinguer quatre grands thèmes, qui semblent structurer les douze contributions. Un première série d’articles commence ainsi par montrer que les titulaires et les destinataires d’un vote majoritaire peuvent être d’une grande variété (I) tandis qu’une seconde série de contributions s’attarde sur les complexités théoriques tenant à la définition même de la règle majoritaire (II) ; les aspects psychologiques de la notion sont également abordés (III), comme ceux relatifs aux problèmes techniques de protection des minorités (IV).

 

Variété des titulaires et des destinataires d’un vote majoritaire

Dès le chapitre introductif, Stéphanie Novak et Jon Elster s’efforcent de montrer la complexité insoupçonnée de la notion de « décision majoritaire ». Celle-ci est irréductible à ce qu’ils nomment le « cas standard idéal-type », soit un groupe de votants en nombre impair choisissant pour lui-même entre deux options uniques et s’exprimant avec sincérité. Neuf « complications » identifiées et listées par les auteurs viennent raffiner ce « cas standard ».

Leur première démarche est ainsi d’illustrer le fait que « décision majoritaire » et « démocratie » sont des concepts abusivement apparentés. Non seulement une décision « majoritaire » peut ne pas s’appliquer au groupe l’ayant voté (prononcé d’un jury par exemple), mais il existe encore des cas où les votants peuvent être eux-mêmes des groupes au sein desquels les décisions ne sont pas nécessairement prises à la majorité (État généraux d’Ancien Régime, Fédération, Organisations internationales).

La question de la nature des décisions d’un jury est traité par Melissa Schwartzberg, qui tente dans sa contribution d’analyser en quoi celui-ci, s’il est une « institution politique importante », n’est pas pour autant une institution démocratique. Ce sont cependant les deux articles complémentaires sur les votes de groupe, l’un d’Olivier Beaud l’autre de Jon Elster, qui retiennent en priorité l’attention.

Olivier Beaud tout d’abord s’intéresse au problème de la majorité dans un système fédéral, examiné aux deux moments distincts de la mise en œuvre du pouvoir constituant et de la révision du pacte fédératif. La problématique est formulée dans le cadre de sa théorie de la Fédération, pour laquelle le pacte fédératif n’est pas une « loi suprême » mais une « convention » politiquement instituante adoptée par des États souverains. Dès lors « l’association de la règle majoritaire et du pouvoir constituant dans une Fédération se révèle hautement paradoxale » et « l’unanimité est nécessaire car il est impossible pour un contrat de lier une partie n’y ayant pas consenti ». Seulement cette exigence de principe se heurte à la réalité des faits et à « ce que l’on peut appeler la contrainte majoritaire » : une première partie de l’article s’intéresse ainsi à cette « difficile réalisation du principe d’unanimité » pour conclure que « la spécificité fédérale semble plutôt résider dans un mixte inégal entre majorité et unanimité, avec une prédominance du principe unanimitaire, là où l’État ne connaît que la majorité ». La seconde partie de la démonstration se penche quant à elle sur les usages possibles de la règle majoritaire au moment d’une révision du pacte fédératif. L’auteur y développe l’idée que, en la matière, la règle de droit commun est celle de la « majorité composite », et non, comme on aurait tendance à le croire, de la « double majorité ». La différence entre les deux tenant à ce que « dans une Fédération, l’opposition structurelle est moins celle entre individus et États qu’entre fédération et États membres. La majorité composite ne [faisant] que refléter la structure dualiste de toute Fédération, divisée entre les États membres et la fédération qu’ils ont créée ».

Jon Elster étudie, pour sa part, les votes de groupes au travers d’une enquête historique centrée sur ce qu’il nomme « majorités emboîtées ». Les exemples sont puisés parmi deux cas américains : le Congrès continental (1774-1787) et la Convention fédérale (Convention de Philadelphie) de 1787 (où ce furent les state delegation qui votèrent); ainsi que dans une série de cas français : les réunions des États généraux de 1302 à 1789 (où trois ordres distincts se partageaient les droits de vote). L’auteur s’intéresse principalement à l’originalité de quelques procédures de vote qui « frappent en tant que particulièrement arbitraires ou très mauvaises ». Un certain nombre de procédures historiques singulières sont ainsi abordées, que l’auteur catalogue sans pouvoir, de son propre aveu, les classer – faute d’en découvrir les « prémisses implicites ». Ainsi du cas des sénateurs américains au Continental Congress, qui votaient par « têtes » alors qu’ils formaient des groupes. De même aux États généraux français, où le peu de « règles préétablies » induisait nécessairement une part d’arbitraire.

Cette enquête historique n’est pas la seule de l’ouvrage et l’on doit à Olivier Christin une intéressante étude sur « la foi mise aux voix », c’est à dire sur le vote pour ou contre la Réforme protestante, nommé « Plus », dans la Suisse du XVIe siècle. L’apport essentiel de ce travail est de montrer la signification particulière que revêt alors le vote majoritaire. Ce n’est pas tant le consensus ou le consentement des gouvernés au pouvoir qui est recherché par ce biais que la capacité « d’offrir aux chrétiens la possibilité d’exprimer leurs convictions », et ce en un sens très précis, celui de la confession en conscience. « L’expression des préférences individuelles » note subtilement Christin est en réalité associée à « une forme de comparution judiciaire devant Dieu et les hommes, où chaque votant doit confesser sa foi ». Ce qui aboutit à ce résultat paradoxal que lorsque les électeurs sont invités à « voter en conscience », c’est en définitive pour « abdiquer leur libre-arbitre (…), pour s’abandonner à une décision déjà arrêtée et voulue par Dieu ». Le vote majoritaire sert ici à confesser sa foi.

Cette première série de contributions permet ainsi d’administrer les preuves d’une vérité a priori contre-intuitive : la règle majoritaire n’est pas l’apanage exclusif des systèmes démocratiques. Son utilisation est à la fois plus vaste et plus complexe qu’on ne l’imagine. Une deuxième série d’articles se propose d’étudier cette complexité théorique.

 

Complexités théoriques de la règle majoritaire

 Jon Elster et Stéphanie Novak signalaient déjà, parmi les « complications » listées dès leur copieuse introduction, que « lorsqu’il y a trois ou plus de trois » options de vote, le « cas standard » ne trouve plus à s’appliquer et le « gagnant » doit être choisi autrement. C’est, en somme, un rappel du vieux paradoxe de Condorcet.

Ils relèvent, toujours dans leur introduction, un autre problème fondamental qui se pose lorsque les votants sont amenés à exprimer une opinion plutôt qu’une préférence. C’est notamment le cas lorsqu’un membre d’un jury doit se prononcer selon son intime conviction. La transformation en suffrages d’une telle conviction semble très délicate, l’acte de voter ne permettant pas de donner son opinion autrement que par le choix d’une option préférée parmi plusieurs options possibles.

Mais plus grave encore est, pour Elster et Novak, que la notion même de préférence, caractéristique des théories du choix social, se révèle dans la pratique peu adéquate. D’abord en ce qu’elle ne permet pas de rendre compte de la gradation « intra-personnelle » de l’intensité des préférences de tout un chacun (préférer manger quatre pommes plutôt que trois n’est pas, notent-ils, la même chose que préférer aller au ciel plutôt qu’en enfer), ensuite en ce qu’elle nie l’existence de différences « inter-personnelles » dans la perception du bénéfice de telle ou telle décision : ainsi « une petite majorité de citoyens d’un pays pourrait être vaguement en faveur de rejoindre l’Union Européenne, s’opposant en cela aux vœux puissants d’une large minorité. Suivre la majorité semble injuste, mais comment évaluer la force des préférences ? »

Cette évocation introductive d’un certain nombre d’impasses auxquelles mènent les théories du choix social est prolongée et approfondie par deux contributions d’importance.

Gerry Mackie tout d’abord, dont l’intervention se propose de réhabiliter la dignité du vote contre l’interprétation « anti-populiste » des théories du choix social inaugurée par William Riker dans son livre Liberalism against Populism. Mackie commence par rappeler l’influence considérable qu’a pris cette pensée au sein de la science politique anglo-saxonne dans les années 1980 et note avec amusement que, Riker ayant déclaré le vote démocratique impossible, arbitraire et dénué de sens, « n’importe quel théoricien de la démocratie, enquêtant sur le sens et la valeur du vote démocratique, s’est trouvé nez à nez avec un monstre logique et empirique lui hurlant la futilité de ce type de recherches ».

Ce constat établi, l’auteur s’attache à synthétiser les différentes contradictions récemment apportées à cette « interprétation anti-populiste » des théories du choix social par les théoriciens « démocrates ». Elles sont de quatre types. Les « pluralist democrats » répondent à l’école de Riker en insistant sur l’utilité démocratique du turnover des coalitions dans une législature, là où les « epistemic democrats » vont centrer leurs critiques sur les difficultés de la justification du vote majoritaire sur le seul terrain de la procédure. Les « deliberative democrats » mettent quant à eux l’accent sur le caractère essentiel de la discussion comme élément déterminant de la valeur de la démocratie. Enfin, les « rejectionist democrats », tenants d’une position plus radicale, s’attaquent frontalement à ce type de théorie du choix social, arguant qu’il ne s’agit pas d’une théorie complète de la démocratie.

Mackie souligne ensuite l’insuffisance de ces critiques démocrates et prétend que si toutes sont « habiles », « aucun[e] n’est suffisant[e] pour venir à bout de l’interprétation anti-populiste ». Il note néanmoins que, pris dans son ensemble, « cet accumulation de résultats permet aujourd’hui une confrontation directe » avec les thèses de Riker. L’auteur fini ainsi par plaider pour un retour refondé aux théories du choix social. Il rappelle que « le meilleur [de ces] théories réfléchit de manière constructive à propos des problèmes humains », et conclut en proposant d’y joindre une vue normative, afin d’y associer les « investigations conceptuelles et normatives sur le vote, entendu comme l’autre trait essentiel de la démocratie ».

À cette critique serrée des impasses de certaines théories du choix social, succède une proposition rigoureuse pour leur dépassement. La contribution des deux mathématiciens Michel Balinski et Rida Laraki entend démontrer le caractère avantageux de substituer au vote majoritaire ce qu’ils appellent le jugement majoritaire. Celui-ci permettant de « résoudre » le fameux paradoxe d’Arrow.

À suivre Michel Balinski et Rida Laraki, la règle majoritaire a, en pratique, trop souvent échoué à restituer le choix réel de la majorité des votants. À la question de savoir ce qu’est exactement une décision majoritaire, les auteurs répondent : « Une décision ou règle majoritaire devrait être, la réponse à une question spécifique et opérationnellement pertinente avec laquelle plus de cinquante pour cent d’un jury ou d’un électorat peut être et est d’accord. La question posée étant absolument essentielle ». Les deux mathématiciens commencent par noter la collective insuffisance des précédentes tentatives de solution au problème : méthode Borda, méthode de Condorcet ou encore vote par assentiment de Robert Weber. La carence fondamentale de ces systèmes résidant selon eux dans le manque d’information demandée aux électeurs. Ces électeurs voudraient pouvoir s’exprimer plus et plus précisément mais n’en ont pas la possibilité.

La solution trouvée par les deux auteurs consiste à « juger tous les candidats en les évaluant selon une échelle de mérite bien compris ». Il s’agit de passer du vote majoritaire à un nouveau mode de scrutin : le jugement majoritaire. La façon de sélectionner le « gagnant » du scrutin en est bouleversée : la majorité détermine, pour chaque candidat, s’il est, au choix « Excellent, Très bon, Bon, Acceptable, Pauvre, ou à Rejeter ». La majorité attribue ainsi, à chacun, un « grade majoritaire », et le gagnant est celui obtenant la meilleure mention finale. 

L’article comporte par ailleurs un appendice valant illustration de la méthode. La fondation Terra Nova a en effet réalisé une étude comparative, confrontant les résultats connus du premier tour de l’élection présidentielle de 2012 à ceux qui auraient pu être obtenus par une élection au jugement majoritaire. Le résultat diffère nettement. Si l’élection de 2012 a vu les cinq premiers candidats se classer dans cet ordre : Hollande, Sarkozy, Le Pen, Mélenchon, Bayrou ; la simulation effectuée au jugement majoritaire donne les rangs suivants : Bayrou, Hollande, Sarkozy, Mélenchon, Dupont-Aignan.

La lecture de ces contributions renseigne donc sur tout un pan de la complexité de la règle majoritaire, une complexité que l’on pourrait dire interne, liée aux difficultés de définition d’une telle règle. La pratique montre cependant que l’on ne peut réduire le vote majoritaire à un simple calcul procédural, aussi sophistiqué soit-il. Une dimension psychologique, externe à la règle majoritaire elle-même, est toujours présente dans les actions de vote. Deux articles se proposent d’étudier la question.

 

Aspects psychologiques du vote majoritaire

 L’étude d’Adrian Vermeule reprend le fil d’une discussion (initiée par J. F. Stephen et continuée par J. Holmes) voyant dans la règle majoritaire quelque chose de similaire à une « irrésistible force de la nature ». La singularité de ce point de vue est de faire valoir que « la règle majoritaire possède une force politique et psychologique indépendamment de ses mérites intrinsèques ». Ce qui emporte une conséquence : le caractère « inévitable » (ou incontournable) de cette règle lorsqu’une telle force est « suffisamment puissante ». Qu’est-ce à dire exactement ? Essentiellement que la règle majoritaire va, lorsqu’il s’agira d’opter pour une technique de suffrage, et dans des « circonstances politiques » déterminées, s’imposer comme le système prévalent, y compris – remarque ironiquement Adrian Vermeule – dans les cas où un « impartial analyst » ou un « institutional designer » identifieraient pourtant d’autres « alternatives » plus satisfaisantes.

La règle majoritaire devient alors une « contrainte politique » (c’est la thèse de Stephen) et la problématique se déplace : il n’est plus question que de « minimiser » le « coût social » induit par la nécessité de se « conformer à cette contrainte » (thèse de Holmes).

Pour répondre pleinement à cette problématique, l’auteur formule deux interrogations. La question, tout d’abord, de la détermination des conditions dans lesquelles la règle majoritaire s’impose. Puis celle, conséquente, des techniques possibles pour réduire au mieux le « coût social » d’une règle majoritaire qui s’est imposée « indépendamment de ses mérites ».

L’exposé se développe en trois temps. Une première partie, « the triumph of majority rule », brosse un tableau du contexte historique et intellectuel (la seconde moitié du XIXe siècle anglais) au sein duquel l’initiateur Stephen développa sa réflexion sur la « force politique et psychologique » de la règle majoritaire, tandis qu’une deuxième partie s’efforce de répertorier les mécanismes donnant à la règle majoritaire cette « force politique et psychologique ». Parmi ces mécanismes, l’auteur distingue notamment le « constitutionnalisme non-écrit », ou encore ce qu’il appelle la « menace de la violence majoritaire » ; il souligne que cette force peut également venir de ce que la règle majoritaire est perçue comme « le meilleur des pis-aller », ou comme la règle la plus « simple » à mettre en place.

La troisième partie, enfin, présente le « least-cost principle » de Holmes afin d’en discuter les différentes applications (modalités de suffrage, règles de votes législatives, ou liberté d’expression par exemple) et d’en établir les limites. Ce « least-cost principle » commande que là où la règle majoritaire advient, la loi soit tenue d’assurer que cet avènement se fasse efficacement, c’est-à-dire en réduisant au mieux le « coût social total ».

La conclusion plaide, finalement, en faveur d’une approche « explicative » et non « normative » de la théorie du choix social. C’est-à-dire pour une approche laissant une place, par exemple, aux dimensions « historiques » d’explication des mécanismes sociaux d’agrégation des croyances et préférences.

Ce plaidoyer a peut-être été entendu par Stéphanie Novak, qui présente, dans sa contribution, les résultats d’une enquête de science politique menée auprès d’une soixantaine de membres participant au « Conseil des ministres » de l’Union Européenne. Elle vise à établir empiriquement, puis à formaliser théoriquement, les effets psycho-sociologiques (et leurs conséquences sur le fonctionnement des institutions) de la présence d’un seuil élevé de majorité qualifiée dans les processus de prise de décision d’une institution telle que le Conseil de l’Union Européenne.

L’objet d’étude retenu est le système de vote à la majorité qualifiée en vigueur au sein du « Conseil des ministres » de l’Union dans le cadre de la procédure législative. Ce système distribue à l’époque les droits de votes essentiellement en fonction du poids démographique de chaque État membre. Le seuil de majorité qualifiée est alors atteint aux alentours de 73 %.

Stéphanie Novak commence par remarquer qu’environ 80 % des décisions qui « auraient pu être adoptées par une majorité qualifiée » le sont en pratique « sans opposition aucune ». C’est le point de départ de son étude, qui établit qu’une majorité qualifiée à seuil élevé possède un impact décisif sur le comportement des acteurs. Elle distingue ainsi deux types d’attitudes « psychologiques » des acteurs, attitudes qui débouchent sur deux effets institutionnels. Les deux types de comportements induits par le haut seuil de majorité qualifiée sont respectivement, d’abord une propension à être « constructif » et à « négocier » – l’opposition étant un cas extrêmement rare ; ensuite une tendance de la minorité à « rejoindre la majorité » lorsqu’elle se trouve dans l’impossibilité de bâtir une minorité de blocage. À partir de ces constatations empiriques, Stéphanie Novak théorise deux effets institutionnels : une majorité qualifiée à seuil élevé stimule en premier lieu ce qu’elle appelle la « productivité décisionnelle » (« decisional productivity ») en ce qu’elle incite les acteurs à ne pas demeurer isolés et à pratiquer des concessions, elle favorise également la prise de décisions sans opposition (« consensual or general agreements ») du fait du phénomène de « ralliement » à la majorité des minorités non constituées en minorités de blocage.

Ces stratégies comportementales induites par les règles de vote sont révélatrices de la place particulière qu’occupent les minorités dans tout système organisé autour de la règle majoritaire. Les trois dernières contributions de l’ouvrage reprennent ainsi le thème classique de la nécessaire protection institutionnelle de ces minorités.

 

Le problème technique de la protection des minorités

 La troisième contribution de Jon Elster à l’ouvrage est consacrée à la distinction et à la discussion de deux notions : « tyrannie » et « brutalité » de la majorité. À l’objection, ancienne, de Tocqueville sur le caractère tyrannique de la règle majoritaire, Elster ajoute ce qu’il nomme le « caractère brutal » de celle-ci, illustré par le phénomène, dans une élection, du « winner-takes-all ». Il fait remarquer que si l’argument de la « tyrannie » de la majorité est bien connu, celui de sa « brutalité » est bien moins souvent discuté.

La différence fondamentale entre les deux tient pourtant à ce que la « tyrannie » s’applique « uniquement aux politiques en cours et aux systèmes sociaux », tandis que le problème de la « brutalité » survient également « dans le contexte d’une décision isolée, telle celle prise par un jury ». L’article est divisé en deux parties, chacune traitant l’une des notions.

Les remèdes aux deux maux sont pourtant communs. L’auteur identifie ainsi plusieurs situations où les effets de la « tyrannie » et de la « brutalité » de la majorité peuvent être contenus. Il y a d’abord le cas où se sont les structures sociales elles-mêmes qui atténuent l’efficacité de deux phénomènes ; il existe encore des cas où ceux-ci peuvent être contrés par un architecture institutionnelle délibérée (« deliberate institutional design » ; il est parfois possible, enfin, d’annuler des décisions brutales ou tyranniques.

Cette réflexion est prolongée par Pasquale Pasquino, qui reprend le thème, inépuisable, du rôle contre-majoritaire selon lui dévolu aux cours constitutionnelles.

Il associe ainsi classiquement dans la définition de la démocratie constitutionnelle la présence non seulement d’un « gouvernement représentatif basé sur le suffrage universel » et d’une « constitution rigide englobant les droits fondamentaux et la séparation des pouvoirs » mais encore « l’existence d’un organe judiciaire indépendant, gardien de la constitution ».

Il souligne avec vigueur que ce constitutionnalisme, d’inspiration nord-américaine, est « fondamentalement la forme moderne du gouvernement limité dans une société  sans qualités  », c’est à dire dans une société sans ordres et rangs, non hiérarchisée, où la « stratégie anti-despotique » doit résulter d’une intégration au sein même de la structure de la « machine gouvernementale ».

L’ensemble de l’étude est dès lors guidée par le souci de « relativiser […] le rôle prétendument primordial de la règle majoritaire comme système de prise de décision dans nos régimes démocratiques » et l’auteur de passer en revue les « quatre règles » utilisées par les démocraties constitutionnelles pour prendre les décisions collectives : le choix de représentants par les électeurs, les référendums populaires, les décisions prises par les représentant au sein des corps législatifs, ou les révisions constitutionnelles opérées par ces mêmes représentants. 

Un tel examen le conduit en conclusion à assigner une « double tâche » essentielle aux cours constitutionnelles des nouvelles démocraties : « d’un côté elles doivent protéger la structure constitutionnelle permettant une réelle alternance du pouvoir entre les sortants et les autres ; elles doivent, d’un autre côté, protéger les droits individuels des citoyens vis-à-vis de l’État ou du gouvernement – et c’est ce qu’elles font effectivement dans les démocraties constitutionnelles européennes ».

L’auteur finit par remarquer que si les préoccupations des citoyens ont évolué au cours du XXe siècle, passant de la revendication de « droits politiques » à la demande de protection des « droits individuels », il appartiendra « à la théorie politico-constitutionnelle du XXIe siècle » de « donner du sens » aux « réponse institutionnelles » que de telles demandes appellent.

Concluant le volume, l’article de Samuel Issacharoff prolonge la thématique de la protection des minorités, étudiée cette fois-ci dans le cadre de sociétés conflictuelles ou « divisées ».

Le point de départ de la réflexion est historique. Prenant pour illustration le tragique « one man, one vote, one time » de plusieurs pays africains post-coloniaux (qui a amené des hommes au pouvoir, certes démocratiquement, mais une fois pour toutes) l’auteur affirme que la simple règle majoritaire « sans limitation de l’étendue des pouvoirs accordés » et « sans le renouvellement possible de la contestation » n’octroie pas de droit « moral » à la majorité pour contraindre la minorité.

La démocratie doit donc fournir de sérieux gages permettant de penser que l’élection n’est pas simplement une désignation définitive des futurs détenteurs du pouvoir mais qu’elle organise bien le moyen de leur départ le moment venu. Le problème se pose donc tout particulièrement au sein des démocraties naissantes et constituées d’une pluralité de groupes fortement différenciés.

L’étude d’Issacharoff commence par rappeler la solution ayant prévalu à l’issue de la seconde guerre mondiale, solution qui combinait deux éléments. L’application du consociativisme tout d’abord, qui a permis de mieux répartir le pouvoir entre les différents groupes et de permettre l’émergence de coalitions stables, tout en protégeant les minorités des abus de la majorité – grâce notamment au droit de veto reconnu aux groupes sur certains sujets. Ensuite la diffusion des « droits de l’homme » et leur incorporation dans différents traités : ils étaient (et demeurent) une base morale permettant d’exiger que « l’État ne tourne pas ses armes vers les populations civiles ».

L’auteur souligne cependant qu’aucune de ces deux stratégies n’a réellement abouti : le consociativisme s’est avérée insuffisant pour réguler pleinement les conflits entre groupes (qu’on songe au Liban ou à la Belgique), l’appel aux « droits de l’homme » est resté la plupart du temps dépourvu d’effets.

La question d’une solution au problème des sociétés profondément divisées s’est cependant posée à nouveau avec l’effondrement du camp socialiste et la nécessaire reconstruction des pays de l’Est. Le « besoin d’une contrainte crédible dans l’exercice du pouvoir majoritaire » a cette fois-ci trouvé une réponse sous la forme de « contraintes constitutionnelles » dont la mise en œuvre a été confiée à des cours spécialement conçues à cet effet.

Aussi l’auteur souligne-t-il que les cours constitutionnelles sont des « garants importants de l’intégrité démocratique dans des sociétés conflictuelles », au même titre que les systèmes de représentation à la proportionnelle ou que l’usage du fédéralisme – courants dans les récentes démocraties constitutionnelles. Même si ce rôle de stabilisation des sociétés par les cours constitutionnelles est parfois à relativiser (dans les pays de l’ex-Bloc soviétique notamment), Issacharoff considère toutefois comme exemplaires certains succès contemporains : Corée du Sud, Taïwan, Afrique du Sud, Mexique.

Plus particulièrement, il insiste sur le rôle spécifique joué par de telles cours constitutionnelles lors des « premières étapes » de la formation constitutionnelle d’un État : elles donnent une grande marge de protection aux minorités en rendant « plus difficile pour la première génération de dirigeants politiques de méconnaître les termes initiaux de l’équilibre politique ». La question qui demeure étant celle de la stabilisation sur le long terme.

 

Penser les décisions majoritaires, penser les majorités

 Arrivé au terme du volume, le lecteur ne peut être que frappé par la richesse et la diversité des contributions rassemblées. La variété des thèmes abordés est impressionnante et leur traitement n’escamote pas les difficultés. Les analyses sont convaincantes et le sentiment est fort d’avoir entre les mains un travail de synthèse de premier plan. Un double regret peut cependant être formulé, qui tient aussi bien à l’approche méthodologique adoptée qu’aux types de problématiques soulevées par l’ouvrage.

L’on peut tout d’abord s’étonner que les décisions majoritaires ne soient étudiées qu’à la lumière de leurs insuffisances. Si toute l’attention est portée sur l’inadéquation à son objet de la règle majoritaire (Beaud, Novak), sur sa singularité historique (Christin, Elster) ou ses carences internes (Mackie, Balinski et Laraki), il n’est en revanche jamais question de ses avantages, dont l’un au moins est essentiel : il n’existe pas d’autre façon de laisser se prononcer égalitairement, sur un sujet donné, le plus grand nombre.

Ce rapport au plus grand nombre n’est malheureusement envisagé – et c’est le second regret – que sous la forme d’un problème. La majorité est toujours tyrannique et brutale (Elster), et les minorités doivent en conséquence en être institutionnellement protégées (Pasquino, Issacharoff). Cette façon de concevoir la relation entre majorité et minorités sous un angle exclusivement agonistique paraît cependant peu satisfaisante. Une explication est peut-être à rechercher dans le choix, fait par l’ouvrage, de traiter la décision majoritaire du point de vue technique du decision-making. Une telle option conduit inévitablement à séparer ceux qui prennent les décisions de ceux pour qui elles sont prises.

Or la décision collective, faut-il le rappeler, n’est pas qu’une technique. Elle suppose également d’autres dimensions qui sont autant de conditions de sa réalisation : un espace de délibération commun, une importante liberté d’expression, un certain accès aux informations. Elle associe donc toujours, dans une certaine mesure, les minorités à sa solution.

Cela revient à dire que penser les décisions majoritaires commande aussi, et peut-être avant tout, de penser les majorités. Il est vrai qu’il faudrait alors, sans doute, accepter de se replonger dans quelques abstractions indémontrables.

 

Jérôme Couillerot est doctorant en droit public à l’Université Panthéon-Assas.

Pour citer cet article :

Jérôme Couillerot « Penser les décisions majoritaires. Recension de Stephanie Novak & Jon Elster (dir), Majority Decisions. Principles and Practices, Cambridge, Cambridge U.P., 2014. », Jus Politicum, n°15 [https://juspoliticum.com/articles/Penser-les-decisions-majoritaires-Recension-de-Stephanie-Novak-Jon-Elster-dir-Majority-Decisions-Principles-and-Practices-Cambridge-Cambridge-U-P-2014]