À noter

À lire

À consulter

« Devenir adulte, aujourd’hui, ça prend 10 ans »

 

« Il faut faire la différence entre le jeune en cours d’insertion et le salarié instabilisé, et arrêter de mettre le jeune en CDD dans la même catégorie que la maman de 40 ans avec deux enfants, elle aussi en CDD. Le jeune, lui, est en apprentissage. La discontinuité est le système normal de la jeunesse. »

« Comment tu montres que tu es un adulte ? Tu fais un enfant, et tu prends un emploi stable. » Pour Jean Viard (sociologue au Cevipof-CNRS interrogé par Annabelle Laurent à propos de son livre Un nouvel âge jeune), les deux critères de base du passage à l’âge adulte permettent d’observer un « allongement de la jeunesse » puisqu’aujourd’hui, « l’âge moyen du premier CDI est de 29 ans » et 30 ans « l’âge auquel arrive le premier bébé ». Pour Viard, ces 10 ans de jeunesse sont une période de « discontinuité » et d’insertion progressive qui sont différentes de l’instabilité non choisie et de la précarité des adultes. Ce « désir de vie discontinue » se retrouve dans les nouvelles mobilités géographique, professionnelle, familiale : « 60 % de bébés hors mariage, ça veut bien dire qu’on est sorti des cadres anthropologiques traditionnels, et notamment du mariage. La société de classes a explosé, nous sommes dans un monde d’individus, c’est la structure de la culture qui a changé. Et le fond du mouvement, c’est que la vie étant plus longue, on a tous envie d’avoir plusieurs vies. » Pour « repenser le cadre » de cette longue jeunesse et s’y adapter, Viard propose des « incitations » (à voyager, à devenir autonome, à travailler) mais aussi un « revenu pour tous » jusqu’à 28 ans et le droit de vote à 16 ans (pour obliger « les politiques à faire des propositions sur la jeunesse »). Et surtout faire confiance à une jeunesse qui « aspire à voir du sens dans ce qu’elle fait » puisqu’« on est passés d’une société de statut à une société où on est prêt à gagner moins si c’est pour faire quelque chose qui ait du sens pour soi-même et pour les autres ».

(8 octobre 2019)

Pourquoi la « gestion de crise » à la française est dépassée

 

« Ce qui frappe dans cette communication, c’est d’abord son caractère vertical et descendant : l’État, par la voix du préfet et des autres administrations déconcentrées, informe une population passive. Il tient un discours rassurant, s’appuie sur des mesures et la parole des experts pour écarter tout risque aigu puis tout risque tout court, pour ne retenir qu’un problème olfactif, puis psychologique. Ce discours, ensuite, n’exprime aucune inquiétude et ne prend pas au sérieux celle qui s’exprime dans la population. On ne relève aucune forme d’empathie dans les communiqués, aucune formule suggérant que l’État entend les questions qui remontent et s’engage à y répondre. À aucun moment l’État ne se place-t-il aux côtés de la population : au contraire, il la surplombe pour mieux la protéger. »

Notant que ni l’ « architecture centrale– organisée autour du préfet à l’échelon départemental – ni les principes sur lesquels elle s’appuie » n’ont « fondamentalement évolué » en matière de gestion de crise ces 20 dernières années en France malgré « d’importantes réformes et réorganisations », Olivier Borraz (sociologue des organisations au CNRS) se penche d’abord sur le discours des autorités après l’incendie de l’usine Lubrizol à Rouen. La première posture est celle « de l’État protecteur, qui se veut rassurant tout en prodiguant des conseils, mais qui n’exprime ni inquiétude ni souci de vigilance accrue ». Cette communication verticale et à sens unique peut laisser penser que « ce qui inquiète vraiment les autorités », ce n’est pas les conséquences sanitaires ou environnementales de l’accident mais « la saturation du service d’appel du SAMU, la mobilisation des agriculteurs inquiets pour leurs revenus ou encore d’éventuels comportements de panique au sein de la population ». Rien d’étonnant donc si se développe alors « dans la population une inquiétude mélangée à une colère croissante » puisqu’« à aucun moment la communication officielle » ne prend « au sérieux les questions que posent les habitants ». L’effet produit est « exactement inverse » à celui voulu par les autorités pour lesquelles « une crise est d’abord un moment de perturbation, une menace à l’ordre public, une source d’instabilité. Il est donc du devoir des représentants de l’État de maintenir l’ordre, en mobilisant des effectifs, en produisant des connaissances et en tenant un discours rassurant ». Pour éviter ces « erreurs récurrentes », Borraz propose « quatre prémisses » : prendre au sérieux l’inquiétude de la population (qui n’est pas le problème), « associer cette population et ses associations à la collecte et l’analyse de données, notamment par le biais des réseaux sociaux », utiliser ces réseaux sociaux pour communiquer « en adoptant une posture empathique » et enfin « dépasser une vision archaïque de l’État comme seul responsable de la sécurité des populations ».

(3 octobre 2019)

Kate Crawford : « l’IA est une nouvelle ingénierie du pouvoir »

 

« « Nous sommes confrontés à des systèmes techniques d’une puissance sans précédent, qui impactent très rapidement tous les secteurs, de l’éducation à la santé, de l’économie à la justice … Et la transformation en cours est concomitante à la montée de l’autoritarisme et du populisme ». Cette évolution n’est pas une coïncidence, avance la chercheuse : l’un et l’autre interrogent la centralisation du pouvoir et nécessitent d’améliorer notre compréhension critique des formes de pouvoir. Cette combinaison renforce les difficultés pour maîtriser ces outils et les rendre responsables et nécessite de comprendre en profondeur les relations entre politique, pouvoir et IA. »

« Je ne suis qu’un ingénieur » avait répondu l’un des coauteurs d’un projet de recherche de police prédictive dont les résultats s’étaient révélés particulièrement biaisés. Le genre de réponse qui énerve particulièrement Kate Crawford (dont la conférence d’inauguration de la chaire IA et Justice à l’ENS est ici résumée par Hubert Guillaud), spécialiste américaine des « implications sociales des systèmes techniques » comme le Big Data, les algorithmes et l’intelligence artificielle dont tout le travail consiste à faire comprendre aux concepteurs de nouveaux outils techniques qu’ils ont une responsabilité (alors que « cette façon de ne pas reconnaître sa responsabilité est en passe de devenir une norme »). Pour elle, « Nous entrons dans une époque où des procédés techniques sont transformés très rapidement en systèmes. Ce faisant, ils renforcent des biais culturels et les automatisent, en les rendant à la fois invisibles et incontournables ». Or l’intelligence artificielle n’est pas qu’une technique ou une technologie mais aussi une « pratique sociale qui nécessite de comprendre qui travaille sur ces systèmes, quelles données sont utilisées, comment sont-elles classées ». Et surtout une « infrastructure industrielle particulièrement concentrée » qui en fait « une nouvelle ingénierie du pouvoir ». Loin des rêves de neutralité objective, la démultiplication des données a démultiplié les discriminations puisque « les jeux de données reflètent les hiérarchies sociales et les structures de pouvoir existantes » et que « les biais sont devenus le matériel brut de l’IA ». Pour Crawford, « nous n’avons pas de procédures fiables pour améliorer ces systèmes décisionnels correctement … La correction « technique » de ces systèmes – présentée comme neutre et objective – risque surtout de refermer les débats et l’intérêt actuel à regarder concrètement comment ils fonctionnent et les problèmes qu’ils posent ». Au fond, ces systèmes sont « dangereux quand ils échouent, nocifs quand ils fonctionnent » et « améliorer un système injuste ne peut que créer un plus grand préjudice ». La vraie question que devraient ainsi se poser les concepteurs de systèmes serait alors : « Votre outil donne-t-il plus de pouvoir aux plus puissants ? »

(30 septembre 2019)

Le mille-feuille des politiques publiques, ou le retour du vieux monde

 

« Tout ceci est conforme à ce qu’aurait pu prévoir l’analyse économique. La concurrence est bien imparfaite dans la restauration, comme dans la grande majorité des activités (…). Dans ces conditions, les prix incorporent une rente de situation. C’est ce que confirme la faible baisse des prix au bénéfice des consommateurs. La baisse de TVA a simplement permis d’accroître la rente, et celle-ci a été récupérée par ceux qui se la partageaient, en fonction de leur pouvoir de marché. Très peu donc pour les employés, un peu plus pour les fournisseurs, la plus grosse part est allée aux restaurateurs. »

En se basant sur une étude examinant l’impact de la baisse de la TVA sur les prix de la restauration en 2009, Charles Wyplosz détaille d’abord les objectifs annoncés de cette mesure qui a coûté dès la première année 3 milliards d’euros à l’État : « La promesse d’alors était de faire baisser les prix de la restauration (objectif : plaire au Français moyen friand de sorties culinaires), de stimuler l’emploi dans le secteur (objectif : faire baisser le taux de chômage) et d’y encourager les investissements (objectif : relancer la croissance après la crise financière) ». Un « contrat d’avenir » avait même été signé avec les organisations professionnelles du secteur qui avaient fait un certain nombre de promesses. Or, « d’après l’étude, ce n’est pas du tout ce qui s’est passé » : la baisse des prix se limita à un timide 2 % (au lieu des 12 % promis) et il n’y eut pas d’augmentation de l’activité ni donc de l’emploi. En fait, « plus de la moitié a été accaparée par les restaurateurs eux-mêmes, dont les profits ont augmenté de 24 %. Le reste a été consacré à une modeste augmentation des salaires des employés, de l’ordre de 1 %, et à une hausse des prix perçus par les fournisseurs des restaurants, évaluée à 5 % » … Pour Wyplosz, le véritable résultat, symptomatique des politiques publiques, a été d’ajouter une nouvelle couche au « célèbre mille-feuille budgétaire » et de créer une nouvelle rente de situation.

10 septembre 2019

« Les forces populistes ne sont pas juste un accident de l’histoire »

 

« On trouve dans toutes nos études un sentiment de solitude beaucoup plus important dans les villes de taille intermédiaire où il y a eu une désindustrialisation, une érosion des services publics et aussi une perte des services de proximité. Le point commun des « gilets jaunes » est souvent leur solitude. »

« Les principaux risques aujourd’hui sont politiques », explique d’entrée Yann Algan (interrogé par Grégoire Normand et co-auteur du livre Les origines du populisme) et si la politique est aujourd’hui agitée par le populisme, « le premier facteur qui permet d’expliquer ces phénomène est d’ordre économique ». C’est l’économie et « l’incapacité des institutions à protéger les citoyens contre les dérèglements du capitalisme » qui expliqueraient la « très grande défiance » des citoyens à leur égard et le vote populiste des régions qui ont le plus souffert des destructions d’emplois dues au développement du commerce international. Algan pointe aussi la « désocialisation des catégories populaires » due « au passage d’une société de classe à une société d’individus isolés ». Pour « s’attaquer aux causes de cette solitude dans les sociétés post-industrielles », il pense qu’il faut « favoriser l’émergence de nouveaux lieux de socialisation » au travail et dans les territoires mais aussi « travailler sur une école de la confiance avec des méthodes pédagogiques adaptées ».

(2 septembre 2019)

Réseaux sociaux : ont-ils enterré le débat public ?

 

« Mais attention à ne pas tomber dans une forme de « solutionnisme technologique » inversé : il est très complexe d’évaluer les impacts précis des dynamiques à l’œuvre sur les réseaux sociaux dans le cas du référendum britannique ou de l’élection américaine, dont les résultats ont des causes profondes d’ordre social et politique. Et ni Facebook ni Twitter n’ont inventé ce que les sciences sociales nomment « homophilie » : la tendance à fréquenter prioritairement ses semblables. »

Remarquant que l’on est passé récemment, à propos des des réseaux sociaux, d’un « techno-optimisme sans doute excessif » à un « techno-pessimisme radical », Amaelle Guiton note que n’avaient pourtant pas manqué, dès le début des années 2010, les avertissements sur les manipulations autoritaires ou la désormais célèbre « bulle de filtrage » qui « enveloppe l’internaute quand les informations qui lui parviennent sont passées au tamis des algorithmes de personnalisation ». Si la polarisation idéologique et les « bulles informationnelles » ne datent pas d’aujourd’hui, c’est surtout « l’échelle inédite des réseaux sociaux » qui est nouvelle « et la place qu’ils ont prise dans l’accès à l’information ». La véritable question serait alors de « s’interroger sur les architectures techniques et les modèles économiques de ces intermédiaires d’un nouveau genre, ainsi que sur leurs potentiels effets dévastateurs ». Bref, « d’imaginer d’autres architectures et d’autres modèles » pour « favoriser l’ouverture plutôt que l’enfermement, encourager la confrontation des points de vue plutôt que l’invective et les contenus jouant sur le seul registre émotionnel ».

13 août 2019