Navigation – Plan du site

AccueilNuméros85DossierLe déploiement d’une politique pu...

Dossier

Le déploiement d’une politique publique d’évaluation de la qualité par les indicateurs hospitaliers : genèse et développement du cas français

Philippe Fache, Étienne Minvielle, Claude Sicotte et Mathias Waelli
p. 9-28

Résumés

Cet article porte un regard rétrospectif sur les quinze dernières années considérées comme une période charnière dans la régulation de la qualité hospitalière. Il se concentre principalement sur l’innovation instru­mentale qu’a pu constituer l’adoption des indicateurs de qualité. Fondé sur une démarche historique appuyée par un travail d’enquête, il restitue les facteurs clés qui ont contribué à l’émergence de ce nouvel instrument. Ce faisant, l’article présente à la fois les enjeux dont il a fait l’objet, les soutiens dont il a bénéficié et les résistances rencontrées lors de sa mise en œuvre.

Haut de page

Texte intégral

Remerciements : Nous tenons à remercier les membres de l’équipe du projet ANR-PRIQS (Place et rôle de l’indicateur de qualité et de sécurité des soins) ainsi que nos interlocuteurs dans le cadre des entretiens lors de l’enquête.

  • 1 Cité et traduit par Philippe Bezes ( « Le renouveau du contrôle des bureaucraties. L’impact du New (...)

1Dans un contexte de remise en cause des formes d’administration classiques, le passage d’une culture de l’application des règles à une culture de la performance en santé a favorisé la sélec­tion de nouveaux instruments de mesure (Hood 1986, Pollitt et Bouckaert 2004). Les différentes variantes du « puzzle doctrinal » de ce Nouveau Management Public (Bezes, 2005) proposent une série de caractéristiques parmi lesquelles certaines sont en rapport étroit avec les usages des indicateurs de qualité : l’imputabilité (accounta­bility) à l’égard de l’usager, les objectifs de qua­lité, et la mise en place de systèmes de contrôle à distance centrés sur les indicateurs. Dans le domaine de la santé, ils ont été notamment portés par l’OCDE (Pouvourville, Minvielle, 2002) ainsi que par l’OMS (Smith, Mossalios, Papanicolas, 2008) comme leviers d’amélioration dans le pilotage des établissements, avec « la mise en place d’appareils de recueil et d’analyse de données permettant de connaître le déroulement de l’activité en se reportant aux chiffres fournis par une batterie d’indicateurs rendant compte des conditions d’effectuation » (Hoggett, 19961). Comment des innovations instrumentales de ce type s’intègrent-elles progressivement dans une politique de régulation de la qualité ? Quels sont les facteurs qui déclenchent leur mise en œuvre et à quels types de résistances se heurtent-elles sur le terrain ? Basé sur une enquête historique réalisée en France (cf. encadré n° 1), cet article contribue à éclairer les processus de structuration d’un nouveau champ de régulation de la qualité des soins. Un processus porté, dans le secteur, à la fois par le contexte sociopolitique et des logiques professionnelles. Tandis que les pouvoirs publics français avaient longtemps soutenu une régulation mixte faite à la fois d’autoévaluation par les professionnels et de pratiques réglemen­taires, l’introduction progressive d’instruments de mesure dès le début des années 2000, ouvrait de nouvelles voies, plus incitatives. L’horizon des attentes autour des indicateurs s’est alors ordonné autour de trois objectifs affichés par les pouvoirs publics : un objectif interne, « Fournir aux établissements de santé de nouveaux outils et méthodes de pilotage de la qualité ». Et deux objectifs externes, « Répondre aux exigences de transparence portées par les usagers » et « Aider à la décision et au pilotage des politiques d’intervention à l’échelon régional et national ». La tension entre ces objectifs en termes de cohérence et d’équilibre est au cœur des problèmes soulevés par les indicateurs de qualité, de leur conception à leur mise en œuvre. Pour en restituer la trame, nous avons fait ici le choix d’un séquençage historique ex post en plusieurs étapes, de manière à baliser la « carrière » des indicateurs devenus instruments d’action publique, et à en mettre en évidence la dynamique propre. Dans un premier temps, nous proposons donc d’aborder la genèse des indicateurs de qualité dans les premiers pas de leurs réflexions institutionnelles et scientifiques, puis au travers des circonstances qui en ont favorisé leur mise en agenda politique. Dans un deuxième temps, nous abordons les deux phases successives de leur institutionnalisation avec l’affermissement croissant d’un pilotage de la qualité des soins par les indicateurs.

Encadré 1. Méthodologie

Ce travail repose sur une méthodologie usuelle dans les travaux consacrés à l’étude de l’action publique, qui allie les opérations de « cueillette » (à partir d’un corpus de documents hétérogènes tirés de la presse et des publications officielles), celles de la « pêche » (qui conduisent à plonger dans les archives des institutions étudiées), et enfin celles de la « chasse » (qui renvoient à la collecte active de données via les techniques d’enquête) pour compléter les observations (Padioleau, 1982, p. 11). Nous avons ainsi été amenés à combiner une palette d’outils diversifiés : 25 entretiens semi-directifs ont été menés en 2013 au sein du sous-système d’acteurs impliqués dans le développement des indicateurs de qualité. Le protocole de l’enquête a mobilisé une approche historienne, fondée tout à la fois sur la dimension rétrospective du témoignage et sur les usages « informatifs et narratifs » de l’entretien (Pinson, Sala Pala, 2007, p. 557). Ceci avec, pour principale visée de recherche, la reconstitution des processus historiques de fabrication et de mise en œuvre d’un pilotage de la qualité des soins par les indicateurs. De ce point de vue, les modes de passation des entretiens et les procédures de contrôle des informations recueillies relèvent en partie de la méthodologie des récits de vie (Bertaux, 1997). Les entretiens ont reposé sur un dispositif visant à multiplier et à croiser les points de vue différents sur le « point de bifurcation » des quinze dernières années dans la régulation de la qualité des soins. Nous avons ainsi constitué un panel d’acteurs-clés mêlant les élites sectorielles impliquées dans la conception des politiques publiques et leur mise en œuvre avec des acteurs de premier rang et de second rang (Belorgey, 2012) : chercheurs, scientifiques, experts, membres de la haute fonction publique, responsables de services, agents dans différentes institutions de santé (DGOS, HAS, DREES, ARS, Structures hospitalières). De par la nature historique de la recherche, certains enquêtés étaient encore impliqués dans le phénomène étudié, tandis que d’autres (retraite, évolution de la trajectoire professionnelle) lui étaient désormais extérieurs. Quant au choix préalable des acteurs, il fut complété au gré des entretiens par la reconstitution progressive du réseau des acteurs clés et des soutiens à la démarche des indicateurs à partir des indications des enquêtés. S’ajoutent aux entretiens des méthodes d’enquête menées sur un terrain archivistique et documentaire : le recueil d’informations a consisté en une étude systématique des rapports officiels et des publications des acteurs institutionnels concernés par les indicateurs, avec un accès privilégié aux archives du projet Compaqh (rapports d’activité, documents administratifs, compte rendus de réunions et de comités de pilotage…). L’exploitation de ce matériau s’est effectuée dans la perspective inductive et empirique d’une sociohistoire de l’action publique (Payre, Pollet, 2013). Le traitement des données a consisté en une confrontation systématique des entretiens et à leur recoupement avec les informations issues des sources écrites, pour reconstituer les configurations d’acteurs, objectiver leurs interrelations, et dégager les logiques plurielles à l’œuvre dans le processus d’émergence et de déploiement des indicateurs dans le champ de la qualité des soins.

1. Un temps d’émergence : expertises et moda­lités d’apparition des indicateurs sur la scène de la régulation de la qualité

2La période d’émergence des indicateurs est portée en interne par le souci d’adosser la régulation du système de soins à des connaissances objectives, sur un mode qui résonne avec les attentes et les habitudes des professionnels de santé. Ce sont cependant des éléments extérieurs qui précipite­ront l’adoption d’instruments de mesure de la per­formance à destination des politiques publiques.

1.1 Des facteurs internes qui convergent vers la mise en œuvre d’une « Evidence based policy »

3Dès le début des années 90, deux acteurs insti­tutionnels vont principalement porter le déve­loppement d’indicateurs de qualité des soins. La direction des hôpitaux, d’abord, et son groupe d’experts scientifiques, incités tout à la fois à étu­dier les expériences internationales et à respecter le contexte social pour favoriser l’appropriation des outils de mesure par les professionnels en local. La Direction de la Recherche, des Études, de l’Évaluation et des Statistiques (DREES), ensuite, impliquée dans un travail de légitimation des politiques, par la validation scientifique.

1.1.1 La Direction des Hôpitaux : un initiateur soucieux de l’intégration des professionnels

  • 2 « Les éléments de la performance hospitalières. Les conditions d’une comparaison », Études et Résul (...)
  • 3 Étude Internationale sur les Indicateurs de Qualité Synthétiques et globaux pour les établissements (...)
  • 4 Proposition d’Indicateurs pour le suivi des volets « Qualité et sécurité » des Contrats d’Objectifs (...)

4En juillet 1992, la Direction des Hôpitaux du ministère de l’Emploi et de la Solidarité tire les conséquences d’un contexte légal marqué successivement par le décret du 22 janvier 1990 relatif à l’évaluation des politiques publiques et par la loi de réforme hospitalière du 31 juillet 1991. Elle crée le « bureau d’évaluation de l’organisation des soins » avec mission de promouvoir et de diffuser une pratique généralisée de l’évaluation, en compagnonnage avec l’ANDEM (Agence Nationale pour le Développement de l’Évaluation Médicale). Il a d’une part pour cadrage de re­cherche le domaine interdisciplinaire de « Health Services Research », relativement marginal en France comparativement aux pays anglo-saxons. Il porte d’autre part le souci du développement d’une evidence-based policy susceptible d’ados­ser la régulation du système de soins à un socle de connaissances « fondées » et « robustes ». Composé d’un panel de collaborateurs détachés (directeurs d’hôpitaux, médecins et infirmières), il adopte d’emblée le modèle participatif avec les acteurs de santé, à partir de la conviction que « la qualité ne pouvait pas s’imposer mais qu’elle devait se réfléchir avec les professionnels concernés ». Le phénomène est d’autant plus significatif que dans la santé, la participation des professionnels reste assurée par la forte diffusion, parmi les soignants, d’une culture scientifique, proche de celle des indicateurs. Ainsi, la voie d’une nouvelle forme de régulation est défrichée, à partir d’une interrogation sur les possibles modalités d’intervention d’un bureau ministériel dans le domaine de la qualité en terme d’incitation et non pas de loi. L’équipe est du même coup soumise à une forte dissonance entre ce qu’elle est en train d’inventer et ce qu’on lui demande de faire. « Ça n’a pas toujours été facile parce qu’on nous attendait toujours là où on n’était pas…on nous demandait par exemple de travailler sur des décrets de sécurité anesthésique ou de chirurgie cardiaque… ». Le bureau s’appuie également sur un groupe de scientifiques et d’experts, chargé de faire le point sur les méthodes et les indicateurs utilisables pour comparer les performances des établissements de santé2. Ce groupe axe ses tra­vaux à partir notamment du rapport commandé par la DH, dans lequel on insiste sur l’importance de prendre en considération – au-delà des qualités scientifiques des indicateurs – le contexte social et la « crédibilité » de l’évaluation auprès des acteurs et de la légitimité de la démarche auprès des destinataires de l’évaluation (Coopers et Lybrandt, 1995). Sur le versant « incitation » les travaux menés conduisent en 1995 à comman­diter une étude internationale sur les indicateurs de qualité, dans laquelle le ministère de la Santé affirme « la volonté d’initier en France le développement d’indicateurs de qualité pour les hôpitaux »3. Puis, à réaliser en 1997 « une pro­position de construction des indicateurs dans le cadre des contrats d’objectifs et de moyens pour les établissements »4, à un moment charnière où l’ANAES (Agence Nationale d’Accréditation et d’Évaluation en Santé) se met en place et où la procédure d’accréditation suscite une mobi­lisation sur l’amélioration de la qualité. Les 9 exemples d’indicateurs utilisables retenus (Dos­sier médical, Sécurité transfusionnelle, Sécurité anesthésique, Sécurité du circuit du médicament, gestion des risques iatrogènes, lutte contre les infections nosocomiales, satisfaction des pa­tients, prise en charge de la douleur des patients accueillis, politique d’évaluation) constituent en partie une préfiguration des domaines qui seront retenus quelques années plus tard. Mais ces recherches ne trouvent pas à l’époque de traduc­tion concrète. La sphère politico-administrative n’intègre pas encore les nouvelles voies explorées par des scientifiques enfouis dans l’administra­tion et en partie « invisibles » (Restier Melleray, 1990). C’est ce dont témoigne la suppression du bureau de l’évaluation des soins en 1997 lors de la réorganisation de la Direction des Hôpitaux.

1.1.2 La DRESS ou le souci d’une légitimation des outils par la démarche scientifique

  • 5 Pierre Lombrail « les données hospitalières permet­tent-elles de comparer valablement les établisse (...)
  • 6 « Éléments pour évaluer les performances des éta­blissements hospitaliers », Dossier Solidarité et (...)

5Cette histoire en pointillé mène ensuite à la DRESS (Direction de la Recherche, des Études, de l’Évaluation et des Statistiques) qui va jouer un rôle de précurseur sur de nombreux sujets liés à la mesure de la qualité. Sous l’égide de Chantal Cazes (arrivée en 2000), le bureau des Établissements de Santé va soutenir activement la démarche autour des indicateurs de qualité. Porteur d’une culture de la mesure avancée, il se trouve alors en position d’avant-garde sur ces questions. Mais c’est une sorte d’îlot au sein du ministère de la Santé, où les autres services sont moins préparés et sans doute plus réticents. Les premiers travaux explorent les conditions de comparaison des établissements de santé à partir des données hospitalières5. Sous l’influence du cadrage issu des États généraux de la santé (1998), ils reposent d’emblée sur une concep­tion élargie des « acteurs » de l’évaluation en y incluant à la fois les professionnels de santé et les usagers. Les réflexions sur la position des acteurs vis-à-vis des outils de mesure et les conditions de leur appropriation s’inscrivent alors dans une double visée : cerner les représentations sociales de la performance portées par le milieu professionnel et mieux identifier les besoins des usagers en matière d’information sur la qualité des soins6. Mais les objectifs à l’époque ne sont ni de produire des classements, ni d’envisager des outils de régulation contraignants. Les intentions initiales sont plutôt de permettre un étalonnage entre les établissements dans une logique d’auto­contrôle, avec toutes les précautions scientifiques nécessaires.

6Inscrite dans la tradition du système statistique public, la culture partagée à la DREES conduit ses agents à accomplir un premier travail de légitima­tion des indicateurs. « Il fallait toujours montrer que la science était capable de rendre compte de ces sujets aussi complexes. C’était vraiment comme ça qu’on se positionnait ». C’est pourquoi elle travaille systématiquement sous l’égide des experts de santé publique. La démarche engagée associe étroitement la légitimité de donner une information aux usagers sur les établissements de santé à l’exigence de sa validité scientifique. On y « réfléchit bien à ce qu’on veut mesurer avant de le mesurer ». En conformité avec une méthodologie où la quantification est envisagée « comme un processus social de connaissance » (Desrosières, 2008) requérant une réflexion préalable sur le processus de production d’une donnée pour envisager celle de son sens et de ses usages dans la décision publique (Salais, 2011). Durant cette phase de construction, l’équipe de la DREES est donc très consciente des précautions avec lesquelles il faut avancer sur ces questions, en particulier en raison de la faible diffusion d’une culture de la performance dans les milieux professionnels de santé. Elle adopte en consé­quence une posture d’extrême prudence. Fortement influencée par le modèle québécois, en particulier le modèle théorique de la performance de Claude Sicotte (Sicotte et al., 1998), elle par­tage avec la communauté scientifique l’idée d’un retard français sur ces questions, tout en explorant le chemin étroit d’une opérationnalisation dans le contexte français, encore peu propice.

1.2 Facteurs externes et aiguillons d’une mise à l’agenda politique 

7La deuxième moitié des années 90 montre qu’un certain nombre de réflexions et de recherches avaient été menées sur l’évaluation des soins et le rôle des indicateurs au sein de certains services administratifs du ministère ; sans toutefois qu’elles fassent l’objet d’une traduction politique. Quels sont dès lors les conditions et les contextes qui ont rendu le changement vers une régulation externe de la qualité des soins possible ? La pluralité des facteurs explicatifs nous invite à tenter de les articuler sur le modèle d’une « fenêtre d’opportunité » (policy window), par analogie au « lancement d’une mission spa­tiale dont les conditions de décollage sont tribu­taires de l’alignement des planètes » (Kingdon, 1984). Leur analyse cherche donc à comprendre la conjonction historique spécifique ayant assuré le couplage entre les problématiques de la qualité des soins et le choix d’inclure dans son pilotage un nouvel instrument. À l’évidence, la prégnance idéologique du Nouveau Management Public dans les années 90 y joue un rôle déterminant en contribuant à ouvrir l’exploration de voies nou­velles pour la régulation de la qualité des soins ; cela dans un contexte de gestion publique marqué jusqu’alors par les contrôles ex ante (la circulaire, le règlement ou le décret) et les démarches d’auto-évaluation par les pairs. De nombreux promoteurs et soutiens actifs à la démarche des indicateurs seront ainsi animés par un scepticisme vis-à-vis de ces modes de régulation, tout en entrevoyant à travers ces instruments de mesure la faisabilité technique pour procéder différemment.

1.2.1 La publication des palmarès hospitaliers par la presse

8La publication régulière des palmarès hospitaliers à succès de Sciences et Avenir puis du Point à partir de 1998 a joué un rôle déterminant pour introduire une nouvelle dynamique au sein des sphères décisionnelles. Fortement décriés au plan méthodologique – non sans une certaine condescendance de la communauté scientifique vis-à-vis d’un travail journalistique – ils sont simultanément reconnus comme un aiguillon déterminant pour le développement d’une poli­tique publique de l’évaluation de la qualité des soins. Leur contribution à rendre visible une situation problématique renvoie à deux niveaux distincts :

  • Au plan des représentations politiques, l’irruption à fort retentissement médiatique du classement des établissements de santé cristallise alors un mouvement d’ébranlement du mythe égalitaire vis-à-vis du système de soins. L’idée selon laquelle le maillage territorial en structures hospitalières suffit à assurer une égalité des citoyens est battue en brèche par l’objectivation des disparités en matière de qualité des soins.

  • Au plan de l’action politico-administrative, chaque publication de palmarès a suscité une interpellation des pouvoirs publics par les usagers quant à leur incapacité à fournir des informations qualitatives sur le système de soins en dépit de leurs bases de données publiques. Elles ont ainsi poussé les ministres successifs et les décideurs politiques à accélérer la marche vers l’adoption d’instruments de mesure de la qualité susceptibles d’alimenter des dispositifs publics d’information, vue comme une nouvelle forme de régulation externe de la qualité (Schilte, Minvielle, 2008).

1.2.2 « Le poids des affaires »

9Le deuxième facteur relève d’évènements contin­gents auxquels le champ de la santé et le politique sont fortement exposés : le « poids des affaires » qui plongent la sphère politico-administrative dans une situation d’urgence sanitaire. L’affaire emblématique de la « Clinique du sport » (1997) et des infections nosocomiales a ainsi été un élément déclencheur et un accélérateur politique pour l’utilisation d’indicateurs (voir encadré 2). Située sur le terrain de la sécurité des patients où la responsabilité de l’État est directement engagée, elle a fortement contribué à la mise à l’agenda des indicateurs de qualité. En l’occur­rence selon le modèle de la « mobilisation ex­terne » (Garraud, 1991), dans lequel les Autorités publiques sont amenées à agir sous l’impulsion d’une association. Rôle ici dévolu à l’association de victimes Le Lien, fondée par Alain Michel Ceretti. C’est elle qui exerce alors une puissante action de lobbying auprès du politique et des médias pour sortir le sujet des cercles professionnels.

  • 7 « Je souhaite ensuite mettre la production de la qualité au cœur du fonctionnement de nos services (...)

10Les pouvoirs publics sont alors dans un registre essentiellement réactif. L’impulsion politique décisive sera donnée en 2003, lorsque le ministre de la santé Jean-François Mattei réclame auprès de ses services les taux d’infections nosocomiales de tous les établissements sur son bureau dans les meilleurs délais7. Geste politique inaugural, il produit un effet symbolique d’autorité en envoyant un signal fort sur la capacité du minis­tère à fixer un cap et une feuille de route sur la production de données hospitalières. Ce faisant, il prend de court ses services administratifs qui – sans manquer de conviction sur le bien-fondé de la démarche – restent sur des positions réservées reposant sur la conviction que le terrain n’est pas encore mûr au niveau des professionnels.

Encadré 2. Une petite révolution dans l’éva­luation : les indicateurs d’infections nosoco­miales (IN)

La question des infections nosocomiales est un élément déclencheur avec la mise en place d’ICALIN, premier indi­cateur du tableau de bord des infections nosocomiales. Une première expertise est lancée sous l’égide de l’INVS (Institut de Veille Sanitaire), en lien avec Compaqh, pour définir des indicateurs. Une trentaine d’experts sont associés au projet dont il sort 5 indicateurs officiellement validés. Le contexte est celui d’une forte pression des usagers (Le Lien) qui poussent les politiques à avancer sur la question. Suite à la demande de Jean-François Mattei, le ministère va définir des objectifs clairs et un cadre sur ce qui est attendu pour les cinq indicateurs (ICALIN, ICSHA, SURVISO, ICTAB, SARM). Le champ des infections nosocomiales bénéficie alors d’une culture de la surveillance et de l’audit qui vont aider à se mettre rapidement en mouvement, mais il n’existe rien en matière d’indicateurs, et a fortiori rien sur un indica­teur à visée publique avec affichage de la performance. La démarche se heurte néanmoins aux réticences des experts versés dans une vision épidémiologique de la surveillance (faisant écho aux tensions classiques et structurantes entre statisticiens et épidémiologistes), qui illustrent bien qu’elle résulte moins d’une demande des professionnels que d’une demande des usagers.

1.2.3 L’impératif participatif et la figure de l’usager

11Le troisième facteur est d’ordre culturel et socié­tal. Il renvoie de manière générale à « l’impératif participatif » au cœur de la dynamique démocratique contemporaine (Blondiaux, Sintomer, 2002). Plus spécifiquement au secteur de la santé, il est lié plus à la montée en puissance du rôle des usagers dans le système de soins. Les principes de la démocratie sanitaire commencent à être inté­grés dans les mécanismes institutionnels au début des années 2000 (avec par exemple la création de comités régionaux d’usagers). La revendication du droit à l’information sur le système de soins évoluant lui-même vers une culture de la trans­parence va donner une forme de légitimité à une régulation par les indicateurs. Longtemps fondée sur une asymétrie de l’information, la relation du patient aux médecins et aux structures de soins va faire l’objet d’un basculement vers une relation plus égalitaire. « On avait des patients de moins en moins patients et de plus en plus exigeants ». Dans ces années qui marquent de ce point de vue une rupture, les soutiens à la démarche vont donc envisager les indicateurs de qualité comme un moyen de faire bouger le système de soins par et pour les usagers.

2. Une institutionnalisation progressive : du temps des chercheurs au temps des politiques

12Le contexte médiatique et politique évoqué précédemment va puissamment contribuer à une institutionnalisation progressive des indicateurs de qualité. Comme la question de la conception et de la mise en œuvre des outils de régulation de la qualité se situe dans un « no mans land » institutionnel, dans un premier temps, le centre de gravité va se situer du côté des chercheurs, pour entrer progressivement dans les rouages politico-administratifs.

2.1 Les premiers pas : l’expertise scientifique en première ligne

13Après de premières expérimentations en 2001-2002 dans le cadre d’un projet de recherche cofinancé par l’ANAES et la Fédération de l’Hospitalisation Privée, les pouvoirs publics procèdent au lancement du projet Compaqh (Coordination pour la mesure de la performance et l’amélioration de la qualité hospitalière). Le projet vise à expérimenter un ensemble d’indicateurs de qualité auprès d’un ensemble de 36 établissements publics et privés qui s’y sont librement associés et y trouvent l’opportunité de sortir de la gestion quotidienne des services et accéder à une réflexivité sur leurs propres pratiques. Huit objectifs prioritaires sont définis en consultation avec les représentants du monde professionnel et des usagers (1. Lutter contre la douleur. 2. Assurer la continuité de la prise en charge des patients. 3. Lutter contre les troubles nutritionnels. 4. Lutter contre les infections nosocomiales et les autres risques iatrogènes. 5. Améliorer la satisfaction du patient. 6. Respec­ter les bonnes pratiques cliniques. 7. Accroître la motivation, la responsabilisation et l’évaluation des compétences des professionnels au contact du patient. 8. Garantir l’accessibilité).

  • 8 La compréhension de la position occupée par COMPAQH dans le champ institutionnel du point de vue de (...)
  • 9 Extrait du propos introductif d’Edouard Couty, Directeur de la DHOS (Direction de l’Hospitalisation (...)

14En se déployant dans un espace laissé inoccupé par les pouvoirs publics, le projet Compaqh est alors placé en situation d’endosser le rôle d’« expert instituant » (Castel, 1985), avec une position privilégiée dans les processus déci­sionnels publics liés aux nouvelles formes de régulation de la qualité. Il entre dans le processus tâtonnant de formulation d’un nouveau schéma d’action publique avec un quasi-monopole sur les dimensions techniques de l’instrument « indi-cateurs de qualité ». De fait, Compaqh invente une méthodologie de construction des indicateurs de qualité des soins (Leleu, 2011, Couralet et al., 2012). Or, non seulement la technicité de ce nouvel instrument renforce significativement le poids de son expertise, mais le projet dispose de surcroît au sein de son équipe de recherche de ressources théoriques et de cadres d’analyse (issus pour partie des Health Services Research) qui lui confèrent une longueur d’avance dans les transactions au sein du ministère, accusant un certain retard initial sur la prise en charge de ces sujets8. De leur côté, les pouvoirs publics accordent une grande autonomie au projet de recherche pour « apporter au projet la compétence scientifique indispensable à sa crédibilité »9. Le choix est d’investir dans la recherche pour fiabiliser l’instrument de mesure. De manière sans doute plus latente, il permet également de se prémunir en partie des critiques potentielles sur l’utilisation des indicateurs comme élément de contrôle externe (blame avoidance).

15Le défi principal auquel se confronte le déve­loppement d’indicateurs réside dans sa capacité à susciter l’adhésion des professionnels de santé en les incluant dans le processus. Le principe méthodologique adopté d’emblée par le projet Compaqh repose sur le principe d’élaboration conjointe avec les organismes professionnels et institutionnels et la recherche de consensus (Minvielle, 2007, Compaqh, Rapport final, 2006). C’est un modèle de co-construction, opération­nalisé par la composition du comité de pilotage qui réunit l’ANAES, les fédérations hospitalières (FHF, FHP, FEHAP, FNLCC), la Mutualité française et l’Union générale des caisses d’as­surance maladie. Mais s’il y a arbitrage en sa faveur, il fait rapidement l’objet de débats contradictoires entre des positions contrastées au sein des élites politiques et administratives. Avec en ligne de mire l’alternative du modèle anglo-saxon, fondé sur un principe d’élaboration « top down » qui s’impose davantage au monde professionnel.

2.1.1 Premières tensions entre les temporalités de la recherche et le calendrier politique

  • 10 Voir ANAES, « Construction et utilisation des indicateurs dans le domaine de la santé », mai 2002.

16Les reproches adressés à la « voie française » portent essentiellement sur la question du temps, rapidement au cœur des tensions entre la sphère des chercheurs et les institutions. Il faut trois ans au projet Compaqh pour sortir les premiers indicateurs, générant rapidement des crispations avec les pouvoirs publics. C’est pour les cher­cheurs l’expression d’une « résistance » légitime face aux impatiences politiques, soit en quelque sorte le prix à payer pour satisfaire aux critères de scientificité et obtenir l’adhésion des professionnels. Ces contradictions sont explicitement exprimées par le projet, qui mentionne dans son rapport final 2003-2006 les interrogations liées à la compatibilité entre « les temporalités de la recherche et la demande des administrations pu­bliques » (Compaqh, Rapport final, 2003-2006, p 5). Très vite, les impulsions ministérielles et les affichages politiques sur l’imminence d’instru­ments de pilotage de la qualité hospitalière pren­nent de vitesse la capacité à réaliser des choses scientifiquement admissibles. Ce désajustement au niveau du « policy timing » génère un jeu plus ou moins feutré, en clair-obscur, avec des straté­gies pour « tenir », dans lequel les milieux de la recherche appliquée intériorisent la nécessité de donner des gages aux politiques en montrant que la démarche avance. À titre d’exemple plus tardif dans la période étudiée, la première version du site « Platines » réalisée par la DREES en 2007 sera en grande partie conçue pour calmer les im­patiences suite aux proclamations des ministres successifs quant à une prochaine publication d’un tableau de bord des performances hospitalières. L’équipe en charge de sa conception pense alors n’avoir ni les moyens, ni les données nécessaires pour publier un outil conforme aux exigences de validité scientifique. Mais en définitive, ces tensions traversent le clivage entre les politiques et les chercheurs. Elles régissent les interactions entre l’ANAES dont le rôle est moteur10 et le projet Compaqh, mais se retrouvent à l’intérieur du projet lui-même où il faut parfois exercer des pressions sur les statisticiens pour hâter la validation d’un indicateur au terme de 5 étapes préalables (sélection / conception / 1ère campagne de faisabilité / actualisation /2e campagne : qualité métrologique). Cette longue gestation des indica­teurs est mal acceptée tant par les politiques que par les associations d’usagers pourtant convain­cus de la légitimité de la démarche ; jusqu’à y voir parfois l’expression d’une mauvaise volonté. Certaines positions vont toutefois évoluer, en particulier à la DGOS au gré d’un apprentissage du système d’expertises et de recherches. On va progressivement y accepter l’idée qu’entre le lancement d’un indicateur et sa généralisation il faut compter une phase d’environ trois ans.

2.1.2 La secousse des premiers résultats

  • 11 Plan stratégique de la DGOS 2010.

17En 2006, la publication par Compaqh de premiers résultats sur les comparaisons inter-établisse­ments 2004-2005 constitue un moment charnière dans le développement des indicateurs. Les me­sures réalisées montrent alors une forte variabilité de qualité entre les établissements participants. Ce qui laisse présager une variabilité encore plus forte à l’échelon national (Compaqh, Rapport final 2003-2006). « C’est une révélation qui a fait bouger beaucoup de monde ». Elle rend désormais impossible un propos institutionnel et politique de type axiomatique qui postulait jusqu’alors une qualité identique dans tous les hôpitaux. Il n’est dès lors plus question de nier la validité des résultats au nom des biais méthodologiques invoqués lors des premières publications de palmarès hospitaliers journalistiques. Les constats d’hétérogénéité vont conduire les pou­voirs publics à s’emparer du sujet et à renforcer une régulation visant davantage la standardisation et l’homogénéité des pratiques de soins, à partir d’instruments de pilotage mêlant le contrôle, l’inspection et la responsabilisation des acteurs de terrain. Les annonces de Xavier Bertrand en 2006 exprimant la volonté de généraliser la mise en place d’indicateurs de qualité dans tous les domaines, au-delà des infections nosocomiales, en sont la consécration symbolique. Le référen­tiel de l’action publique va dès lors opérer un glissement en déplaçant l’accent de ses objectifs affichés, comme le validera institutionnellement quelques années plus tard le plan stratégique de la DGOS11 (2010), visant à « Assurer l’égalité d’accès à des soins de qualité pour tous ».

2.1.3 Un consensus autour de la notion floue de qualité

18Durant cette première phase, la dynamique lancée autour des indicateurs agrège autour d’elle une nébuleuse réformiste principalement composée d’un réseau de professionnels de santé (médecins de santé publique, directeurs d’hôpitaux, experts, chercheurs) à l’entrecroisement de savoirs statistiques, médicaux, politiques et gestionnaires. Ils forment une « communauté épistémique » (Haas, 1990, p. 41) avec un noyau de valeurs et de croyances partagées basé essentiellement sur la croyance aux vertus d’une mesure des pratiques, et plus généralement dans celles d’une application des logiques d’évaluation au domaine médical. Autant dire en rupture avec celle, prégnante dans le milieu des médecins, d’une irré­ductibilité de l’activité de soins à la mesure. La thématique d’une amélioration de la qualité des soins est quant à elle éminemment fédératrice : le flou attaché à la notion de « qualité » constitue un facteur facilitateur d’agrégation de profils variés. Chacun y met ce qu’il veut, tout en ayant bien souvent un vécu au niveau des trajectoires personnelles lui donnant la valeur d’un engage­ment affectif.

  • 12 ANAES (2004) : Les coûts de la qualité et de la non qualité des soins dans les établissements de sa (...)

19Ces convictions, a fortiori dans un contexte fran­çais où tout est encore à faire au début des années 2000 sur le terrain des indicateurs nationaux, fait que la nature de l’engagement dans la démarche a pour ressort principal le défi intellectuel : celui d’une extension de la démarche qualité se diffusant alors sur la production des biens et des services au secteur de la santé. Il s’agit donc initialement pour beaucoup d’acteurs de « relever le gant », dans une perspective d’au­tant plus stimulante que les indicateurs – en tant que nouveaux instruments d’action publique – connotent l’innovation et une modernisation des modes de régulation. La dynamique insufflée au projet est renforcée par un portage politique et institutionnel redevable à quelques personna­lités convaincues qui bénéficient de positions stratégiques au ministère (DGOS) et partant, de ressources suffisantes pour orienter et définir le contenu des politiques d’amélioration de la qualité. S’y jouent des stratégies de légitimation des indicateurs ajustées au cadre de référence politique marqué par la crise de financement du système de santé. À titre d’exemple, l’ANAES mène une étude (2004) centrée sur les liens entre coûts et qualité dans le domaine de la santé, en concluant aux vertus économiques des démarches qualité « permettant d’abaisser les coûts de pro­duction »12 en diminuant les « coûts de la non qualité ». Argument qui renforce imparablement l’intérêt de développer les démarches visant à l’amélioration de la qualité des soins.

  • 13 Récurrent, ce problème a conduit récemment la HAS à espacer le rythme des recueils tous les deux an (...)

20Lors de ce moment de la carrière des indicateurs il y a donc, à côté de l’effort méthodologique porté par les chercheurs et les scientifiques, la question des modalités de l’introduction de l’instrument dans les milieux professionnels et auprès des acteurs de terrain. Cette question renvoie à un travail de légitimation pour en accroitre l’acceptabilité, et vaincre un faisceau de réticences qui – sans qu’il soit possible ici d’en restituer la variabilité inhérente à l’hétérogénéité du monde médical structuré en spécialités – allait grosso modo du relatif désin­térêt des médecins à la défiance de nombreux spécialistes. Avec de manière récurrente une suspicion vis-à-vis d’un indicateur – cheval de Troie : c’est-à-dire un instrument qui entre dans la forteresse du monde médical en réinvestis­sant l’opacité des pratiques en vigueur dans les services hospitaliers au nom de la mesure (à laquelle s’oppose logiquement l’intérêt voire le soutien de la communauté administrative et des directeurs). De nombreux acteurs campent sur des positions attentistes, s’interrogeant sur l’utilité de la démarche, d’autres invoquent ce qui constituera un leitmotiv jusqu’à aujourd’hui : le coût en temps du recueil des données, non fournis en routine par des systèmes d’information hospitaliers sous-développés13.

2.1.4 Des stratégies de contournement des réticences

21De manière plus générale, les indicateurs ins­taurent une défiance des structures hospitalières qui, s’il a pu dans un premier temps se polariser autour de craintes des répercussions pour l’hô­pital public, va davantage se jouer ensuite sur un clivage entre celles qui ont intérêt à ce que l’on déchire le voile de leurs pratiques et les autres (les « bons » et les « mauvais élèves »). En raison de son caractère consensuel, les réticences à la dé­marche d’amélioration de la qualité s’expriment souvent au travers d’un double discours. Faute de possibilité d’opposition frontale à la qualité, le terrain méthodologique devient le terrain d’af­frontements naturel, « parce que c’était là que pouvaient se camoufler un certain nombre de positions qu’on ne pouvait pas mettre en avant ». Pour susciter l’adhésion des professionnels, les équipes de recherche du projet Compaqh jouent donc de différents registres argumentatifs, en pre­nant le soin de présenter les indicateurs comme des instruments leur permettant d’acquérir une visibilité sur leurs pratiques et vérifier leur conformité avec les bonnes pratiques édictées par les sociétés savantes. Pour renforcer les chances de gagner ce pari, on utilise lors d’une première phase un type d’indicateurs (la qualité du dossier médical) plus facilement acceptables que les indicateurs en lien avec la clinique.

22Le message passe d’autant mieux lorsqu’il rencontre les intérêts objectifs des praticiens universitaires, au sens où ils y voient l’occasion de récupérer une matière de données alimentant des publications. Les choses sont en revanche beaucoup plus difficiles avec les autres. « On embarquait les médecins chercheurs mais on n’embarquait pas le médecin dans son centre hospitalier ».

2.2 Routinisation et nouveaux usages

  • 14 Avec une circulation des personnels très forte entre Compaqh, la HAS et la DGOS.

23Le deuxième temps à envisager correspond tout d’abord à une consolidation institutionnelle, dé­terminée par la volonté des pouvoirs publics de s’emparer des indicateurs en les intégrant dans une régulation externe de la qualité des soins. L’instrument expérimenté par les chercheurs fait l’objet d’une appropriation progressive par les administrations publiques qui se mettent en place. La création en 2006 du service IPAQSS (Service Indicateurs pour l’Amélioration de la Qualité et de la Sécurité des soins) au sein de la HAS (Haute Autorité en Santé qui remplace l’ANAES en 2005) en témoigne14, avec une triple mission de développement, généralisation et implémentation des indicateurs de qualité. Avec parallèlement le renforcement des structures ministérielles (le bureau qualité et sécurité des soins à la DGOS chargé des indicateurs d’infections nosoco­miales), une gouvernance bicéphale se met dès lors en place pour coordonner le développement des indicateurs. Avec d’un côté les compétences de la HAS en matière de synthèse et de traduction des compétences médicales (recommandations de bonnes pratiques) qui lui donnent le statut de garant institutionnel de la rigueur scienti­fique dans le développement des indicateurs. Et de l’autre, la DGOS du ministère de la Santé, chargée de la stratégie de politique publique en matière d’amélioration de la qualité des soins. Cette gouvernance s’appuie sur l’expertise du projet Compaqh reconduit dans sa mission en 2006 puis en 2009.

2.2.1 Une intégration progressive dans des dis­positifs institutionnels

  • 15 Roselyne Bachelot avait affirmé avoir placé son mandat sous le signe de la qualité et de la sécurit (...)

24Durant cette période, la démarche bénéficie de l’affichage d’un soutien politique avec une demande d’éléments d’objectivation par les indicateurs. Au niveau des ministres successifs et des cabinets ministériels (Xavier Bertrand / Roselyne Bachelot15), on continue de pousser à l’accélération du processus, sans toutefois inté­grer pleinement les avertissements des acteurs impliqués dans la démarche sur les risques et les précautions à prendre autour de l’instrument (mauvaises interprétations, biais méthodologiques…). L’épisode de 2008 et la demande présidentielle d’un indicateur de mortalité à laquelle la DREES opposera un an plus tard un verdict négatif est à ce titre emblématique. Mais elle marque également un point de basculement, au terme duquel l’appareil d’État se rangera à des positions marquées par une plus grande circons­pection : il semble dès lors en effet abandonner la tentation qui fut la sienne de s’affranchir d’une concertation avec les professionnels sur de tels sujets. Sa posture consistera plutôt à dire « on préfère ne pas voir tout de suite. Car que fait-on des résultats ? Un système observé et mesuré requiert une action derrière, mais quoi ? ». Cinq ans plus tard, en 2013, l’absence d’indicateurs de mortalité et d’indicateurs de résultats corrobore cet effet d’apprentissage, et souligne une plus grande prudence vis-à-vis de certains indicateurs au regard de leur contexte de réception et des difficultés méthodologiques qu’ils soulèvent dans leur interprétation.

  • 16 Missions et travaux de la Haute Autorité de Santé en lien avec les Agences Régionales de Santé dans (...)

25Le mouvement d’institutionnalisation de l’instru­ment et son appropriation politique sont marqués notamment par deux points de bifurcation : tout d’abord en 2010, avec son intégration dans la procédure de certification (V2010) qui « oblige les établissements à recueillir les indicateurs de qualité et de sécurité des soins généralisés par la HAS ». Elle consacre un usage qui glisse du pilotage interne à la régulation externe par le suivi « des progrès des établissements sur des champs spécifiques »16. L’autre évolution ma­jeure est la montée en puissance de la diffusion publique (2008-2010) avec une exigence accrue de transparence fixée par la loi HPST (Hôpital, patients, santé et territoires) du 21 juillet 2009. Les indicateurs de qualité et de sécurité des soins concernés (5 indicateurs du tableau de bord des infections nosocomiales et 5 indicateurs de qualité issus du dossier du patient) sont dès lors soumis à publicisation à l’échelon des établis­sements et sur le site officiel Platines. Tout en s’inscrivant dans un mouvement plus profond par lequel l’État impose tous secteurs confondus diverses obligations d’informer (Barbach et Kagan, 1992), cette loi signe une étape importante dans la carrière de l’instrument en lui ajoutant un usage supplémentaire par rapport à celui de levier au service de l’amélioration des pratiques (pilotage interne). Cet usage sera promu et sou­tenu par le ministère, dont la stratégie consiste à prendre appui sur les usagers en postulant qu’ils soutiennent une politique des indicateurs mise au service de la transparence. Sachant, en outre, que le recours à la figure de l’« usager » est censé contribuer à lever les obstacles issus des réticences des professionnels. Le but po­litique de la diffusion publique est en réalité double : d’une part, assurer une information du public sur la qualité des soins pour lui permettre d’exercer rationnellement la liberté de choix qui caractérise le système français d’offre de soins, en fonction de critères objectifs ; et d’autre part, rétroagir par cercle vertueux sur l’amélioration de la qualité des établissements en mettant en jeu leur réputation. Rendre public les choses a des vertus incitatives. Cela permet de faire bouger les établissements lorsqu’ils n’ont pas de bons indicateurs.

2.2.2 Un instrument ambigu ?

  • 17 Guide méthodologique de diffusion publique des indicateurs de qualité des soins, HAS, 2012, p. 19.

26Mais il est frappant de constater que cette super-position d’objectifs – cohérente au niveau de la mise en scène institutionnelle de l’instrument – lui confère aussi une ambivalence qui pose problème à mesure que l’on descend au niveau opérationnel de la production et la mise en œuvre des indicateurs. « Imposée d’en haut », l’injonc­tion d’un usage des indicateurs dans une pers­pective de diffusion publique se révèle source de tensions dans le sens où elle implique de concilier dans le même instrument des buts qui – sans être nécessairement contradictoires – sont à maints égards difficilement compatibles. De nombreux acteurs pointent ainsi de manière récurrente les problèmes liés à un « double usage » de l’instru­ment et à son « côté multiprises ». Que faut-il entendre par là ? Le fait d’être à la fois outil de pilotage dans une logique de l’amélioration des pratiques pour les établissements de santé, et outil de transparence pour les usagers dans une logique de diffusion publique au nom du droit d’informa­tion des usagers. Or « Faire dire les deux choses pour un indicateur, c’est compliqué ». Le Guide méthodologique de diffusion publique des indi­cateurs de soins publié par la HAS (2012) relève ainsi qu’une « utilisation externe des indicateurs (supervision, choix des patients) implique des caractéristiques différentes par rapport à une uti­lisation interne (amélioration de la qualité) »17.

27Les tensions qui en résultent sont multiples. Sans qu’il soit possible d’en dresser un inventaire exhaustif ici, on peut néanmoins mentionner que l’inscription progressive de l’instrument dans des dispositifs institutionnels complexes (diffusion publique, certification) contribue à figer le panel d’indicateurs utilisé pour faire progresser les établissements sur certains aspects de la qualité. De même, elle génère inéluctablement un chan­gement dans la rationalité de la co-construction des indicateurs qui est directement lié aux nouveaux usages dont ils font l’objet : initiale­ment construits dans un but d’amélioration des pratiques, le risque est qu’ils soient – par le jeu des compromis de la co-construction avec les professionnels pour assurer leur appropriation – conçus dans une logique qui s’en éloigne (ce que les sociétés savantes et les professionnels accep­tent de regarder et mesurer, veulent bien montrer vers « l’extérieur »). La question de la diffusion publique s’avère d’autant plus problématique que l’objectif d’information aux usagers reste à ce jour communément reconnu comme un échec relatif. Le désajustement entre les informations diffusées et les attentes des usagers est patent. Il exprime une propriété essentielle des indicateurs. Celle relative à leur complexité technique et aux incertitudes dont ils sont porteurs au niveau de leur interprétation et de leurs usages. On constate ainsi que « l’ethos de scientificité » porté par les chercheurs et les méthodologistes génère des appréhensions vis-à-vis des risques d’interpréta­tions erronées des données lors de l’introduction des indicateurs dans le milieu « profane » des médias et du grand public.

28Chaque catégorie d’acteurs (cercle des experts / cercle politico-administratif) est donc porteuse d’une hiérarchisation sensiblement différente des objectifs assignés aux indicateurs. Ceci contribue à éclairer les divergences de vue et les tensions entre administrations, les experts et les professionnels. Mais force est de constater que la dernière phase amorcée depuis 2009 renforce les interrogations associées à la complexité grandissante de leurs modes d’utilisation et de leurs objectifs. Par la greffe d’usages pour lesquels ils n’étaient ni nécessairement prévus ni faits, par leur empilement successif sur une courte période et donc le caractère multiple de l’accountability dans le champ de la qualité des soins, ils s’apparentent aux « multi-purpose instruments » décrits par Christopher Hood (Hood, 1986) ; c’est-à-dire des instruments d’action publique porteurs d’incertitudes au niveau des buts poursuivis et de la capacité à mettre en cohé­rence leurs différents usages. D’où un problème accru de lisibilité du système pour les différents acteurs, y compris au sein des institutions qui en ont directement la charge. D’aucuns estiment ainsi que « la machine » s’est considérablement complexifiée, avec plus d’exigences techniques sur les contrôles et plus de lourdeur au niveau du recueil des données, faisant courir la menace d’un retournement de la démarche autour des indicateurs de qualité d’une logique initialement incitative à une logique plus coercitive.

Conclusion

29En l’espace d’une dizaine d’années, l’émergence puis l’adoption des indicateurs de qualité ont constitué une évolution marquante de la régula­tion du système hospitalier français. Le sentiment communément partagé au sein des adminis­trations publiques est celui d’un rattrapage du retard vis-à-vis des autres pays européens, avec 16 indicateurs sur la qualité de la prise en charge et la sécurité des soins dispensés (7 indicateurs du tableau de bord des infections nosocomiales et 9 indicateurs de qualité et de sécurité de la prise en charge du patient, le tout étant désor­mais coordonné par la HAS). Les indicateurs et l’ingénierie de la mesure ont contribué à sortir la question de la qualité des soins de son enclave professionnelle. Il semble désormais que - de manière irréversible - elle ait acquis une dimen­sion publique, avec des données objectives aux mains des citoyens et de la tutelle hospitalière. Mais l’institutionnalisation progressive de ce nouveau mode de pilotage, dont il faut rappeler qu’elle s’apparente encore à une histoire jeune, nous montre que le chemin est particulièrement étroit et semé de nombreuses embuches. Loin d’être « naturalisés » ou disons stabilisés dans une politique publique de régulation de la qualité des soins, les indicateurs font encore l’objet de multiples interrogations quant à la place et au rôle qu’ils doivent y tenir. Après avoir initialement suscité un engouement et un élan légitimes, la démarche est, de l’aveu même de nombre de ses soutiens, en quête d’un « second souffle ». Jugée parfois victime de son succès à travers une profusion d’indicateurs plus ou moins contrôlée - qualifiée par ailleurs, outre-Atlantique, de « chaos des indicateurs » dans le contexte québécois - elle est également à la croisée des chemins, entre la perspective d’un statu quo, ou le développement d’une nouvelle génération d’indicateurs, plus proches de la clinique.

Haut de page

Bibliographie

BELORGEY, N. (2012), « De l’hôpital à l’État : le regard ethnographique au chevet de l’action publique », Gouvernement & Action publique, avril-juin, n° 2, pp. 11-40.

BERTAUX, D. (1997), Les récits de vie, Paris, Nathan.

BEZES, P. (2005), « Le renouveau du contrôle des bureaucraties », L’impact du New Public Management, Informations Sociales, 2005/6, n° 126, pp. 26-37.

BLONDIAUX, L., SINTOMER Y. (2002), « L’impératif participatif », Politix, 15 (57), pp. 17-35.

BONGRAND, P., LABORIER, P., « L’entretien dans l’analyse des politiques publiques : un im­pensé méthodologique ? », revue française de science politique, 55 (1), février 2005, pp. 73-111.

BRAS, P-L., GOHET, P., Lopez, A. (2010), Rapport sur l’information des usagers sur la qualité des prises en charge des établissements de santé, Inspection Générale des Affaires Sociales (IGAS), Juillet 2010, 88 pages.

CASTEL, R. (1985), « L’expert mandaté et l’expert instituant », CRESAL, Situations d’ex­pertise et socialisation des savoirs, Saint-Étienne, pp. 81-92.

COHEN, S. (dir.) (1999), L’art d’interviewer les dirigeants, Paris, Presses Universitaires de France.

COOPERS et LYBRANDT SANTÉ (1995), Étude internationale sur les indicateurs de qualité synthétiques et globaux pour les établis­sements hospitaliers. Rapport remis au ministre des Affaires sociales, de la santé et de la ville, mois de janvier1995.

COURALET, M., LELEU, H., CAPUANO, F., MARCOTTE, L., NITENBERG, G., SICOTTE, C., MINVIELLE, E., (2013), « Method for developing national quality indicators based on manual data extraction medical records, BMJ Qual Saf., 22 (2), pp. 155-162.

GARRAUD, P. (1990), « Politiques nationales : élaboration de l’agenda », L’Année Sociologique, 40, pp. 17-41.

HOGGETT, P. (1996), « New modes of control in the public service », Public Administration, Vol 74, n° 1, pp. 9-32.

HOOD, C. (1986), The tools of Government, Chatham, Chatham house publishers.

LASCOUMES, P., LE GALÈS P. (dir.) (2004), Gouverner par les instruments, Paris, SciencesPo Les Presses.

LELEU, H., CAPUANO, F., COURALET, M., NITENBERG, G., CAMPOS, A., MINVIELLE, E. (2011), « Developing and using quality indica­tors in French health care organizations : a new area of health services and management research. Lessons from the COMPAQ-HPST project », Journal d’économie médicale, Vol 29., pp. 37-46.

MINVIELLE, E., POUVOURVILLE, G. (2001), « La mesure de la qualité des soins : un défi et un enjeu de santé publique », Revue Épidémio­logique et Santé Publique, Vol 49, pp. 113-115.

MINVIELLE, E. (2007), « Compaqh : dévelop­pement des indicateurs en matière de qualité et de sécurité hospitalière », Risques et qualité, Vol 4, n° 4, pp. 196-207.

MULLER, P. (2005), « Esquisse d’une théo­rie du changement dans l’action publique », Revue Française de Science Politique, Vol 55, pp. 155-187.

PADIOLEAU, J G (1982), L’État au concret, Paris, collection sociologies, Presses Universi­taires de France..

PAYRE, R., POLLET, G. (2013), Sociohistoire de l’action publique, Paris, La découverte.

PINSON, G. (2007), « Peut-on vraiment se passer de l’entretien en sociologie de l’action publique ? », Revue Française de Science Poli­tique, Vol 57, pp. 555-597.

POLLITT, C., BOUCKAERT, G. (2004), Public Management Reform. A comparative analysis, Oxford, Oxford University Press.

POUVOURVILLE (de) G., MINVIELLE E. (2002), « La mesure de la qualité des soins à l’hô­pital : l’état de l’art. Quelle information donner au public ? » In : Être à la hauteur. Mesurer et améliorer la performance des systèmes de santé dans les pays de l’OCDE (P. Smith, éd.). Éditions OCDE, chapitre XII, 2002, pp. 251-275.

RESTIER-MELLERAY, C. (1990), « Experts et expertise scientifique. Le cas de la France », Revue Française de Science Politique, vol. 40 (4), pp. 546-585.

SALAIS, R. (2011), « Indicateurs et conduite des politiques publiques : où sont les problèmes ? », Informations sociales, 167, pp. 60-70.

SCHILTE, A., MINVIELLE, E., (2008) « Le classement des hôpitaux : une nouvelle manière de rendre des comptes », Gérer et comprendre, mars 2008., pp. 36-47.

SICOTTE, C., CHAMPAGNE, F., CONTAN­DRIOPOULOS, A-P., BELAND, F., DENIS, JL., BILODEAU, H., BREMOND, M., LEMIEUX-CHARLES, L., BARNSLEY, J., LEGGAT, S., BARKER, R. (1998), « Conceptual framework for the analysis of health care organizations performance », Health Services Management Research, 11, 1, pp. 24-48.

SMITH, P., MOSSALIOS, E., PAPANICOLAS, I., « Mesure des performances pour l’améliora­tion des systèmes de santé : expériences, défis et perspectives », OMS « Systèmes de santé et prospérité », Tallinn, 25-27 juin 2008, 21 pages.

Haut de page

Notes

1 Cité et traduit par Philippe Bezes ( « Le renouveau du contrôle des bureaucraties. L’impact du New Pu­blic Management », Informations Sociales, 2005/6 (n° 126), p. 9).

2 « Les éléments de la performance hospitalières. Les conditions d’une comparaison », Études et Résultats, n° 42, Décembre 1999. Cette publication sera suivie de la rédaction d’un « Guide du bon usage des don­nées médico administratives pour la comparaison des performances hospitalières ».

3 Étude Internationale sur les Indicateurs de Qualité Synthétiques et globaux pour les établissements hos­pitaliers, ministère des Affaires Sociales et de la Ville, C&L Santé, janvier 1995.

4 Proposition d’Indicateurs pour le suivi des volets « Qualité et sécurité » des Contrats d’Objectifs et de Moyens, ministère de l’Emploi et de la Solidarité, Direction des Hôpitaux, Décembre 1997.

5 Pierre Lombrail « les données hospitalières permet­tent-elles de comparer valablement les établissements de santé ? Dans quel domaine et à quelles condi­tions ? » (Groupe Image).

6 « Éléments pour évaluer les performances des éta­blissements hospitaliers », Dossier Solidarité et Santé, n° 2, avril-juin 2001.

7 « Je souhaite ensuite mettre la production de la qualité au cœur du fonctionnement de nos services de santé. Dans toutes les industries de service et dans toutes les industries qui créent des risques, par exemple l’électronucléaire ou l’aéronautique, la qualité est un élément central du processus de production. Il doit en être de même dans le processus de soin (…) Elle repose sur des indicateurs objectifs et aussi sur l’ap­préciation par les usagers du service rendu ». Discours de JF. Mattei à l’académie nationale de médecine, 1er octobre 2002. Début mars 2003, il présente une com­munication sur la qualité des soins et l’évaluation des pratiques médicales en conseil des ministres, ce qui n’était jamais arrivé à ce niveau.

8 La compréhension de la position occupée par COMPAQH dans le champ institutionnel du point de vue de l’expertise illustre bien les vertus heuristiques de l’approche sociologique formalisée par le CRESAL, irréductible aux propriétés intrinsèques de l’expert, parce que abordée comme « une situation d’expertise est la rencontre d’une conjoncture problématique et d’un savoir spécialisé »).

9 Extrait du propos introductif d’Edouard Couty, Directeur de la DHOS (Direction de l’Hospitalisation et de l’Organisation des soins), Compaqh, Rapport d’étape, 2003.

10 Voir ANAES, « Construction et utilisation des indicateurs dans le domaine de la santé », mai 2002.

11 Plan stratégique de la DGOS 2010.

12 ANAES (2004) : Les coûts de la qualité et de la non qualité des soins dans les établissements de santé : état des lieux et propositions, La Documentation Française.

13 Récurrent, ce problème a conduit récemment la HAS à espacer le rythme des recueils tous les deux ans. Voir Comité de pilotage sur la généralisation des indicateurs de qualité et de sécurité des soins, le 24 mai 2012, ministère des Affaires Sociales et de la Santé. Direction de l’amélioration de la qualité et de la sécurité des soins.

14 Avec une circulation des personnels très forte entre Compaqh, la HAS et la DGOS.

15 Roselyne Bachelot avait affirmé avoir placé son mandat sous le signe de la qualité et de la sécurité des soins, et fait paraître symboliquement les premiers décrets d’application de la loi HPST du 30 décembre 2009 ceux qui portaient sur les indicateurs de qualité des soins.

16 Missions et travaux de la Haute Autorité de Santé en lien avec les Agences Régionales de Santé dans le cadre de la loi HPST, HAS, octobre 2010.

17 Guide méthodologique de diffusion publique des indicateurs de qualité des soins, HAS, 2012, p. 19.

Haut de page

Pour citer cet article

Référence papier

Philippe Fache, Étienne Minvielle, Claude Sicotte et Mathias Waelli, « Le déploiement d’une politique publique d’évaluation de la qualité par les indicateurs hospitaliers : genèse et développement du cas français »Quaderni, 85 | 2014, 9-28.

Référence électronique

Philippe Fache, Étienne Minvielle, Claude Sicotte et Mathias Waelli, « Le déploiement d’une politique publique d’évaluation de la qualité par les indicateurs hospitaliers : genèse et développement du cas français »Quaderni [En ligne], 85 | Automne 2014, mis en ligne le 05 octobre 2016, consulté le 18 avril 2024. URL : http://journals.openedition.org/quaderni/827 ; DOI : https://doi.org/10.4000/quaderni.827

Haut de page

Auteurs

Philippe Fache

ICD/Université Paris XIII

Étienne Minvielle

EHESP-MOS

Articles du même auteur

Claude Sicotte

Université de Montréal

Mathias Waelli

EHESP-MOS

Haut de page

Droits d’auteur

Le texte et les autres éléments (illustrations, fichiers annexes importés), sont « Tous droits réservés », sauf mention contraire.

Haut de page
Rechercher dans OpenEdition Search

Vous allez être redirigé vers OpenEdition Search