À noter

À lire

À consulter

Le mille-feuille des politiques publiques, ou le retour du vieux monde

 

« Tout ceci est conforme à ce qu’aurait pu prévoir l’analyse économique. La concurrence est bien imparfaite dans la restauration, comme dans la grande majorité des activités (…). Dans ces conditions, les prix incorporent une rente de situation. C’est ce que confirme la faible baisse des prix au bénéfice des consommateurs. La baisse de TVA a simplement permis d’accroître la rente, et celle-ci a été récupérée par ceux qui se la partageaient, en fonction de leur pouvoir de marché. Très peu donc pour les employés, un peu plus pour les fournisseurs, la plus grosse part est allée aux restaurateurs. »

En se basant sur une étude examinant l’impact de la baisse de la TVA sur les prix de la restauration en 2009, Charles Wyplosz détaille d’abord les objectifs annoncés de cette mesure qui a coûté dès la première année 3 milliards d’euros à l’État : « La promesse d’alors était de faire baisser les prix de la restauration (objectif : plaire au Français moyen friand de sorties culinaires), de stimuler l’emploi dans le secteur (objectif : faire baisser le taux de chômage) et d’y encourager les investissements (objectif : relancer la croissance après la crise financière) ». Un « contrat d’avenir » avait même été signé avec les organisations professionnelles du secteur qui avaient fait un certain nombre de promesses. Or, « d’après l’étude, ce n’est pas du tout ce qui s’est passé » : la baisse des prix se limita à un timide 2 % (au lieu des 12 % promis) et il n’y eut pas d’augmentation de l’activité ni donc de l’emploi. En fait, « plus de la moitié a été accaparée par les restaurateurs eux-mêmes, dont les profits ont augmenté de 24 %. Le reste a été consacré à une modeste augmentation des salaires des employés, de l’ordre de 1 %, et à une hausse des prix perçus par les fournisseurs des restaurants, évaluée à 5 % » … Pour Wyplosz, le véritable résultat, symptomatique des politiques publiques, a été d’ajouter une nouvelle couche au « célèbre mille-feuille budgétaire » et de créer une nouvelle rente de situation.

10 septembre 2019

Réseaux sociaux : ont-ils enterré le débat public ?

 

« Mais attention à ne pas tomber dans une forme de « solutionnisme technologique » inversé : il est très complexe d’évaluer les impacts précis des dynamiques à l’œuvre sur les réseaux sociaux dans le cas du référendum britannique ou de l’élection américaine, dont les résultats ont des causes profondes d’ordre social et politique. Et ni Facebook ni Twitter n’ont inventé ce que les sciences sociales nomment « homophilie » : la tendance à fréquenter prioritairement ses semblables. »

Remarquant que l’on est passé récemment, à propos des des réseaux sociaux, d’un « techno-optimisme sans doute excessif » à un « techno-pessimisme radical », Amaelle Guiton note que n’avaient pourtant pas manqué, dès le début des années 2010, les avertissements sur les manipulations autoritaires ou la désormais célèbre « bulle de filtrage » qui « enveloppe l’internaute quand les informations qui lui parviennent sont passées au tamis des algorithmes de personnalisation ». Si la polarisation idéologique et les « bulles informationnelles » ne datent pas d’aujourd’hui, c’est surtout « l’échelle inédite des réseaux sociaux » qui est nouvelle « et la place qu’ils ont prise dans l’accès à l’information ». La véritable question serait alors de « s’interroger sur les architectures techniques et les modèles économiques de ces intermédiaires d’un nouveau genre, ainsi que sur leurs potentiels effets dévastateurs ». Bref, « d’imaginer d’autres architectures et d’autres modèles » pour « favoriser l’ouverture plutôt que l’enfermement, encourager la confrontation des points de vue plutôt que l’invective et les contenus jouant sur le seul registre émotionnel ».

13 août 2019

La climatisation : un dilemme entre confort et survie

 

« Ces deux visions, foi dans l’innovation à venir ou repli sur des pratiques low tech déjà disponibles, peuvent s’avérer antagonistes, comme nous l’expliquait en mai dernier Philippe Bihouix, (…). « On a tendance à enrichir la complexité du monde aujourd’hui, alors que plus on va vers le simple, plus c’est résilient et efficace », assure-t-il, avant de déplorer que nous glorifiions en permanence les innovations technologiques, tout en délaissant les innovations économiques, politiques, sociales ou culturelles. Revenir à la bouteille consignée est peut-être moins prestigieux que d’inventer de nouveaux plastiques recyclables ou des technologies pour le transformer en énergie, mais sans doute plus efficace et rapidement applicable … »

Les trois effets pervers des climatiseurs sont, selon Vincent Lucchese, qu’ils « consomment énormément d’énergie » (10 % de la consommation mondiale d’électricité d’après un rapport AIE), qu’ils émettent en plus « directement des gaz à effet de serre » (les fluides réfrigérants qui fuient régulièrement) qui « ont un potentiel réchauffant 1 000 à 9 000 fois supérieur au CO2 », enfin que « mécaniquement, refroidir l’air quelque part, c’est le réchauffer ailleurs » (+2° à Tokyo où ils sont très nombreux). Et le réchauffement planétaire en cours ne semble pas devoir améliorer les choses : le parc « pourrait d’ici 2050 passer de 1,6 milliard à 5,6 milliards de climatiseurs installés dans le monde ». Face à cette « fuite en avant », il y a deux types de réponse qui suivent le clivage « entre le maintien d’un confort qui serait non négociable et le plaidoyer pour un nécessaire effort d’adaptation ». D’un côté, il s’agirait d’améliorer les climatiseurs pour limiter « leur impact sur le climat sans brider les désirs d’intérieur maintenus à 23°C en pleine canicule ». De l’autre, on met en avant « des solutions simples et connues » qui « permettent déjà de faire face à la canicule ». La France, où l’équipement reste faible (moins de 5 % des particuliers contre plus de 90 % aux États-Unis et au Japon), pourrait peut-être montrer l’exemple en choisissant cette deuxième réponse tout en réservant les climatiseurs aux endroits où « leur utilité est indiscutable » (hôpitaux, maisons de retraite …).

23 juillet 2019

« Je ne vois pas de nouveau Badinter à l’horizon »

 

« Il y a une vraie prise de conscience mais cela reste au niveau des déclarations d’intention. Le discours d’Agen de mars  2018 du président de la République posait les termes d’une refondation pénale. Mais rapidement, on se rallie à ce que l’opinion publique pense. Robert Badinter avait été capable de prendre des décisions fortes, de la suppression de la peine de mort, bien sûr, à la fin des quartiers de haute sécurité ou l’introduction de la télévision. Autant de mesures prises contre l’opinion … »

Interrogée par Stéphane Menu, Adeline Hazan (contrôleure générale des lieux de privation de la liberté depuis 2014) revient d’abord sur le rapport récent à propos des conditions de détention la nuit, un temps où « les libertés sont encore moins garanties que le jour » puisque « si quelque chose de grave survient au cours de la nuit, il est plus difficile encore d’alerter les surveillants, les infirmiers, voire les policiers dans les commissariats dans le cadre de gardes à vue ». Face aux demandes de sévérité et de sécurité de l’opinion publique, elle souligne qu’il y a une différence entre la psychiatrie (où « il y a une plus grande tolérance ») et « le reste, et notamment le monde carcéral et celui des centres de rétention » pour lequel « l’opinion est beaucoup moins souple ». Selon elle, « les gouvernements successifs n’ont pas fait assez de pédagogie pour montrer que la société elle-même aurait tout intérêt à être moins sécuritaire pour éviter la récidive qui est essentiellement liée à l’absence d’organisation en interne dans les prisons pour préparer la sortie vers une autre vie. La frilosité caractérise l’action des pouvoirs publics en la matière. Elle a du mal à se détacher de ce que l’opinion publique pense. »

22 juillet 2019

Le manager, corps intermédiaire ou acteur du dialogue professionnel ?

 

« Ce récit confirme que le dialogue professionnel permet d’embarquer les sujets qui hantent les conversations de façon lancinante : inutile d’avoir peur du dialogue professionnel car avec ou sans lui, ces sujets sont débattus autours de la machine à café. Le dialogue professionnel permet de leur donner un débouché performatif en les décrivant précisément (sans rester à la surface du travail) et en s’efforçant de leur trouver des solutions opérationnelles. »

« L’emprise bureaucratique, la puissance des technostructures anonymes et lointaines, la force des process informatisés et des régulations financières ont dévitalisé le travail et plongé bon nombre de salariés dans les tourments de la perte de sens. » Face à ce constat très partagé, Mathieu Detchessahar (professeur de management à l’Université de Nantes qui dirige l’ouvrage L’Entreprise délibérée ; Refonder le management par le dialogue) met l’accent sur le dialogue professionnel, « une approche de management prometteuse mais pourtant peu connue, qui elle, n’a jamais bénéficié des lumières qui inondent les modes managériales ». Martin Richer, qui rend compte de l’ouvrage, voit 6 raisons de s’intéresser à cette approche. La première, c’est que, pour revaloriser la « condition managériale » (6 salariés sur 10 ne souhaitent pas diriger) l’on propose ici un « management par la discussion » permettant de « refaire du travail un objet central du management ». La deuxième, ce sont les limites du modèle actuel de l’entreprise libérée qui insiste trop sur l’autonomie sans reconnaitre que l’entreprise doit d’abord être « le monde des dépendances assumées dans lequel chaque participant renonce à déterminer seul son action pour la définir de façon coopérative avec les autres ». La troisième est que l’on démontre « que ce n’est pas de l’excès de management dont les entreprises souffrent mais de son absence » puisque les managers sont « au chevet des machines de gestion » et pris par les « réunions d’information descendante ». La quatrième, c’est le rôle crucial donné aux managers de proximité et à la subsidiarité, évitant ainsi le « populisme d’entreprise » qui défait les corps intermédiaires au profit d’un utopique « rapport direct entre le leader libérateur et les salariés ». La cinquième est de profiter de l’expérience acquise dans les espaces de discussion sur le travail (EDT) qui permettent de décrire les problèmes et de trouver des solutions opérationnelles. Enfin la sixième raison (et non la moindre) de s’intéresser à l’entreprise délibérée, c’est que « le dialogue professionnel est bénéfique pour l’entreprise mais aussi pour la Société car il fabrique de la citoyenneté. La pratique du dialogue crée des compétences (écoute, synthèse, argumentation, recherche de compromis, …) précieuses en entreprises mais tout aussi cruciales pour préserver la vitalité de nos sociétés démocratiques fatiguées, attaquées par la vague populistes, la prolifération des infox et plus généralement la dégradation du débat public ».

17 juillet 2019

Le métier d’enseignant en France : une attractivité en déclin

« Cette étude montre que l’exigence d’un niveau de qualification plus élevé n’a pas toujours un impact positif sur le recrutement. Bien entendu, l’augmentation du niveau des diplômes des enseignants n’est pas un problème en soi. Elle s’est d’ailleurs produite plusieurs fois au cours de l’histoire, même si aucune étude n’a jamais démontré de lien de causalité entre le niveau du diplôme et la qualité de l’enseignement. La réforme de la « masterisation » montre avant tout un manque de réflexion sur le contexte et les modalités de sa mise en œuvre. »

Jusqu’en 2010, « les enseignants du primaire et la plupart des enseignants du secondaire (dans les secteurs public et privé) étaient recrutés au niveau licence ». Depuis 2011, « tous les candidats aux postes d’enseignant du primaire et du secondaire doivent être titulaires d’un master ou équivalent l’année d’obtention du concours ». Cette réforme de la masterisation avait 2 objectifs : « améliorer la qualité de l’enseignement en allongeant la durée d’étude des enseignants » et « réduire la dépense publique en ne rémunérant plus la formation initiale ». Examinant ses effets « sur le recrutement des enseignants du primaire public », Mélina Hillion (Dares) constate que le nombre de candidats a chuté de 50 % entre 2011 et 2013, de 40 % entre 2014 et 2017. De plus, cet « effet négatif de la réforme a été plus prononcé dans les académies où le nombre de candidats par poste était le plus faible avant la réforme, c’est-à-dire dans les académies où le besoin en enseignants est le plus élevé ». Une explication pourrait être que « l’écart salarial entre les enseignants et les autres professions est considérablement plus élevé chez les diplômés de master que chez les diplômés de licence ». En tout état de cause, comme l’a noté la Cour des comptes dans son rapport sur la question en 2018, la double conséquence directe de cette chute drastique du nombre de candidats a été « le recours accru à des enseignants contractuels, qui sont souvent dépourvus de formation initiale et n’ont pas toujours le niveau de qualification requis » et « l’introduction de concours supplémentaires, dits « concours spéciaux », dans l’académie de Créteil et plus récemment dans celle de Versailles afin de pourvoir les postes non attribués en première instance, générant au passage des frais d’organisation supplémentaires ».

16 juillet 2019

S’inscrire à la 7e convention du Forum protestant  S'inscrire