Lourdes Pérez, enseignante-chercheuse en marketing à TBS Education, a étudié un programme qui vise à redynamiser les campagnes par le biais de « villages intelligents », dans une tribune Lemonde.fr. Quelles sont donc les démarches à effectuer et quels exemples suivre ?
Depuis la pandémie de Covid-19, une partie de la population s’est imaginée déménager à la campagne pour profiter de ses avantages nombreux : une proximité avec la nature, un cadre de vie agréable, de grands espaces… Néanmoins, la réalité vient parfois stopper certains rêveurs.
En effet, l’accès à l’emploi peut y être plus compliqué, la vie culturelle est limitée et la voiture est souvent nécessaire pour se déplacer alors que le prix de l’essence dissuade les piétons de se véhiculer.
Pourtant, l’Union Européenne souhaite faciliter l’installation des jeunes générations dans les zones rurales afin de les redynamiser. La solution qui émerge : le programme Smart Rural 21.
L’union Européenne souhaite rajeunir les territoires vieillissants en attirant les populations jeunes qui aspirent à « une vie plus calme, un air meilleur, une alimentation plus saine et des logements plus spacieux » de façon durable. Pour cela, elle propose des innovations organisationnelles afin d’optimiser les territoires ruraux, sans en dégrader l’environnement.
Cela passerait par des changements « économiques, sociaux et environnementaux », comme une connexion internet de qualité ou encore un accès aux services publics facilité dans toutes les communes de moins de 15 000 habitants.
Le message de Smart Rural 21 est « d’inventer [sa] vie plutôt que de la consommer ».
Lourdes Pérez analyse également les initiatives internationales qui se distinguent dans le cadre de ce programme. Ainsi, elle explique qu’en Suède, un village proche du cercle polaire a mis en place une application afin de connaitre, à l’avance, les prix des logements, les opportunités de travail ou encore le nombre d’établissements scolaires afin de pouvoir s’y projeter
L’enseignante-chercheuse cite également le village de 50 habitants d’Ostana, en Italie, qui capitalise sur les enfants du pays. Ces derniers reviennent dans leur village afin de partager leurs expériences en collaboration avec une association locale dans le but de promouvoir un tourisme de qualité.
Antonio Abrantes, professeur de gestion des ressources humaines à TBS Education, analyse dans une tribune Lemonde.fr l’avantage de l’improvisation en entreprise.
Selon Antonio Abrantes, l’instabilité est devenue une norme à laquelle il faut s’adapter dans le management en entreprise. Ainsi, être capable de rebondir en cas de crise sanitaire, climatique ou encore énergétique est indispensable pour les entreprises afin de conserver leur compétitivité.
Il cite notamment des exemples au cœur de notre actualité : une microbrasserie ukrainienne qui se réinvente en usine à cocktails Molotov pendant la guerre, ainsi qu’une société qui devient productrice de masques lors de la pandémie de Covid-19. Réagir face à la crise permet de contrer les aléas incombés par l’instabilité permanente de notre société.
Antonio Abrantes explique cependant que le management d’improvisation est souvent contraire à celui enseigné dans les écoles. Habitués à être dans l’anticipation et l’organisation, les managers doivent alors être rapides et intuitifs.
Le professeur en gestion des ressources humaines cite, par ailleurs, l’exemple d’IKEA qui a fait naître l’un de ses concepts phares dans la précipitation. « Dépassés par l’affluence, les responsables d’un des premiers magasins ont proposé ce jour-là aux clients de se servir eux-mêmes dans l’entrepôt […] Une organisation low cost devenue emblématique de la marque ».
Toutefois, Antonio Abrantes explique aussi que la planification n’est pas indissociable de l’improvisation. Selon ses études, « les équipes qui planifient le mieux sont aussi les plus à même d’improviser ».
Les professeurs et chercheurs de TBS Education Akram AL ARISS et Samuel FOSSO WAMBA figurent dans le TOP 2% des chercheurs les plus cités au monde selon le rapport Elsevier BV réalisé par des scientifiques de l’Université de Stanford en 2022.
“C’est une forme de reconnaissance par nos pairs que notre travail a un impact et une utilité pour les autres membres de la communauté scientifique. C’est toujours motivant de voir un tel résultat ! Cela encourage à continuer à travailler sur des sujets de recherche qui ont un impact scientifique, pratique, et social, et que nous partageons également dans nos enseignements auprès de nos étudiants. Pour TBS Education, je pense que cela montre que son corps professoral a un impact important dans le monde entier.” – Akram AL ARISS, professeur en gestion des ressources humaines à TBS Education
“C’est une forme de reconnaissance par nos pairs que notre travail a un impact et une utilité pour les autres membres de la communauté scientifique. C’est toujours motivant de voir un tel résultat ! Cela encourage à continuer à travailler sur des sujets de recherche qui ont un impact scientifique, pratique, et social, et que nous partageons également dans nos enseignements auprès de nos étudiants. Pour TBS Education, je pense que cela montre que son corps professoral a un impact important dans le monde entier.”
“Je suis heureux de faire partie de cette liste pour la troisième fois. Ce prix est une incroyable reconnaissance de la qualité de notre travail par nos pairs. Du côté de l’école, ces distinctions sont le résultat de tous les investissements réalisés pour développer une recherche de pointe à TBS Education.” – Samuel FOSSO WAMBA, Directeur de la Recherche et professeur en systèmes d’information et data science à TBS Education.
“Je suis heureux de faire partie de cette liste pour la troisième fois. Ce prix est une incroyable reconnaissance de la qualité de notre travail par nos pairs. Du côté de l’école, ces distinctions sont le résultat de tous les investissements réalisés pour développer une recherche de pointe à TBS Education.”
– Samuel FOSSO WAMBA, Directeur de la Recherche et professeur en systèmes d’information et data science à TBS Education.
Depuis 2019, l’Université de Stanford a publié les données annuelles des 2% des chercheurs les plus cités au monde dans 22 domaines scientifiques et 176 sous-domaines, comme indiqué :
“Une base de données accessible au public des scientifiques les plus cités qui fournit des informations standardisées sur les citations, l’h-index, l’hm-index ajusté pour les coauteurs, les citations d’articles dans différentes positions d’auteur et un indicateur composite (c-score).” – Elsevier BV
Le résultat du classement de l’Université de Stanford de cette année est une excellente reconnaissance du travail d’Akram AL ARISS et de Samuel FOSSO WAMBA qui a un impact à la fois sur leur carrière académique et sur la réputation de la recherche dans notre école.
La question de la gestion des talents a largement dépassé la sphère des Ressources Humaines : elle suscite un engouement croissant à la tête des entreprises, chez les universitaires et même au sein des gouvernements. Et plus elle est comprise dans une perspective globale intelligente, plus elle peut porter ses fruits.
La gestion globale des talents, tout le monde y pense, tout le monde en parle mais de quoi s’agit-il au juste ? Et que peut-on en attendre ? La gestion des talents serait-elle une nouvelle façon de gérer les Ressources Humaines ? Contrairement à de nombreux concepts répondant à des problématiques d’entreprises, la « gestion des talents » n’a pas été conçue par des universitaires: elle est née dans le monde des affaires et du conseil où elle s’est développée avant d’attirer l’attention du milieu académique.
Traditionnellement, la gestion des talents est définie comme la détection, le recrutement, le développement, la rétention et la gestion des individus répondant aux objectifs stratégiques et économiques des entreprises.
Les universitaires ont détecté deux démarches différentes dans les pratiques des entreprises : l’approche inclusive et l’approche exclusive. La première voit chaque collaborateur comme un talent, un « capital humain » qui doit se voir donner l’opportunité de développer ses compétences pour évoluer professionnellement. L’approche exclusive, en revanche, est élitiste. Elle concentre son action sur une sélection de collaborateurs ciblés, à haut potentiel pour l’entreprise, à qui est proposée une « voie rapide » de progression.
L’an dernier, le Tour de France, comme le Tour d’Italie (le Giro) et le Tour d’Espagne (la Vuelta), a modifié son règlement afin que les équipes se composent de 8 coureurs au lieu de 9.
Christian Prudhomme, directeur du Tour, dont le départ a été décalé cette année au 28 août en raison de la pandémie de Covid-19, avait justifié cette décision en évoquant des questions de sécurité (moins de coureurs, donc moins de risque de chute) et de dynamisme de la course (moins de coureurs, donc moins d’étapes cadenassées). L’Union cycliste internationale (UCI), l’instance fédérale, avait approuvé.
Les grandes épreuves sportives modifient effectivement leur règlement afin de favoriser la sécurité, le spectacle, l’équité ou d’éventuels intérêts économiques ; la Formule 1 est un exemple classique de modifications fréquentes de ses règlements.
Aujourd’hui, les commentateurs et téléspectateurs du Tour de France sont dans une affection, non feinte, du passé regrettant un « avant » plus épique. Plus d’incertitude, plus de spectacle, moins de courses verrouillées semblent marquer les épopées cyclistes d’avant où le tout technologique n’avait pas pris le dessus sur l’humain tandis que l’image sacralisant le moment épique pouvait être appréciée en noir et blanc. Le philosophe français Roland Barthes accorda au Tour de France le statut de mythe moderne lié à l’importance des croyances collectives construites dans le passé.
Les oreillettes relayant les ordres du directeur sportif ou la mesure des watts nivelant par le haut la puissance à maintenir – afin de rester devant – sont régulièrement mises au banc des accusés. Il y a déjà une dizaine d’années, nous nous étions intéressés – de façon scientifique – à comprendre l’impact réel des oreillettes sur le déroulé des courses. Le débat est loin d’être clos, encore aujourd’hui. Ce culte du passé magnifie des exploits et des défaillances qui n’auraient plus cours dans des épreuves aseptisées ?
Toujours le même scénario de course qui entraîne le désintérêt progressif des spectateurs : voilà la hantise des organisateurs d’épreuves sportives qui modifient les règlements. On s’interroge alors de savoir où sont passés les « forçats de la route » du journaliste Albert Londres en 1924 – en oubliant qu’ils furent également qualifiés de « nains de la route » par Jacques Goddet dans le journal L’Humanité en 1961.
Si le Tour 2019, où des coureurs français ont pesé sur la course, a connu une audience record en France avec 35,4 millions de téléspectateurs sur les antennes de France Télévisions, les chiffres étaient en baisse régulière ces dernières années.
Création de demi-étapes, bonification en temps, apparition de différents maillots, sprints intermédiaires ou autres ont été des réponses afin de dynamiser la course. D’où notre question : le Tour de France est-il moins intéressant à suivre qu’avant ?
À des fins de cohérence, notre analyse va retenir pour point de départ le Tour de 1969 où les équipes de marque reviennent définitivement, entraînant la disparition des équipes nationales.
Depuis 50 ans, la vitesse moyenne de l’épreuve augmente (de nos jours, un peu moins de 41 km/h) mais la distance totale à parcourir se réduit, le matériel est meilleur, les groupes sportifs sont plus structurés et la préparation des coureurs est plus importante. Nous voulons pour preuve la baisse du taux d’abandon sur le Tour de France. Plus que jamais et jusqu’au bout, la présence des équipiers est primordiale. La figure suivante indique le pourcentage d’abandon final et la vitesse moyenne finale.
Nous pouvons également remarquer qu’il y a une nette diminution des écarts moyens séparant le vainqueur final de ses poursuivants. La figure suivante indique, pour les cinq dernières décennies, l’écart entre le vainqueur et son second et entre le vainqueur et le troisième.
Serait-ce le témoin d’une course qui devient de plus en plus disputée ? Il faut se méfier d’une telle interprétation car les écarts peuvent être contrôlés tout en minimisant le risque, grâce au travail des équipiers qui contrôlent la course. Alors, quels critères objectifs permettent de penser qu’un Tour de France est véritablement disputé et potentiellement intéressant à suivre ?
Selon nous, et en mettant volontairement de côté les maillots annexes ou les victoires d’étapes, l’intérêt de la course est lié à la « bataille » pour le maillot jaune (le premier du classement en temps). En d’autres termes, si le contrôle du maillot jaune est incertain, il devrait en ressortir un intérêt supérieur dans le suivi de la course.
L’incertitude inhérente au contrôle du maillot jaune repose sur deux dimensions : la forte variation des porteurs du maillot jaune durant toute la course et la faiblesse des écarts finaux.
Ainsi, en fonction des données recueillies sur le site procyclingstats.com, nous avons procédé à une série de mesures concernant – pour chaque Tour – le nombre de porteurs du maillot jaune différents, le nombre de jours en jaune du vainqueur final, le numéro de l’étape qui a vu le dernier changement de maillot jaune, puis, comme vu plus haut, les écarts finaux entre les trois premiers.
Une analyse nous permet de positionner et de classer les 51 Tours de France depuis 1969 comme l’illustre le schéma suivant. Bien que non attribués par la suite, nous avons conservé les données des Tours de l’ère dominée par l’Américain Lance Armstrong (à qui l’on a retiré sept victoires du Tour pour cause de dopage).
Le quart nord-ouest (en rouge) correspond aux Tours fortement dominés (importance des écarts et peu de maillots jaunes différents). Nous les nommerons Tours « verrouillés ». Il s’agit selon nous des Tours les moins intéressants à suivre. Nous y retrouverons bon nombre de Tours des années 1970 avec la domination du champion belge Eddy Merckx. Le dernier Tour verrouillé en date est celui de 2014 avec la victoire de l’Italien Vincenzo Nibali où plusieurs favoris ont abandonné.
Le quart nord-est (en orange) correspond à des Tours ayant connu une forte variation des porteurs du maillot jaune mais au final, l’écart se révèle conséquent. Il s’agit d’un schéma classique durant les années 1980 où les écarts importants étaient creusés. Il s’agit de Tours « ouverts puis fermés ».
Le quart sud-ouest (en bleu) envisage des Tours où les écarts finaux sont plus réduits mais le contrôle du maillot jaune est plus élevé. Il s’agit des Tours « contrôlés ». C’est la tendance de fond des années 2010 avec les victoires de l’équipe britannique Sky avec Bradley Wiggins, Christopher Froome ou Geraint Thomas.
Les schémas de course de l’Espagnol Miguel Indurain dans les années 1990 sont à lier à cette catégorie. Fort de la puissance de son équipe et de sa domination en contre-la-montre, le vainqueur n’a pas besoin de creuser fortement l’écart. C’est une gestion scientifique de la course où les « gains marginaux » s’avèrent déterminants et où le suspense est de courte durée.
Le quart sud-est correspond aux Tours de France les plus intéressants à suivre – selon nous – car l’écart final est faible et il y a eu une forte variation des porteurs du maillot jaune. Ce sont des Tours disputés. Nous y retrouvons ceux de 1983 (la première victoire du Français Laurent Fignon, 20 vainqueurs d’étapes différents), 1987 (l’Irlandais Stephen Roche et son coude-à-coude avec son rival espagnol Pedro Delgado), 1989 (qui s’est soldé par la victoire de l’Américain Greg LeMond pour 8 petites secondes d’avance sur Laurent Fignon) et 1990 (remporté également par LeMond).
Heureuse surprise, s’il en est, le dernier Tour de France 2019 avec la victoire du Colombien Egan Bernal et la pugnacité du Français Julian Alaphilippe correspond à cette catégorie. Notons que l’issue de ce Tour a été perturbée par les intempéries.
Nos résultats indiquent clairement l’avènement de course où les écarts sont faibles mais où le vainqueur final se dégage très tôt ; ces Tours « contrôlés » sont dominants dans un passé proche (années 2010).
Oui, les instances du cyclisme ont raison de modifier le règlement des épreuves pour favoriser plus de dynamisme, mais le « avant » évoqué de façon générale n’est pas nécessairement plus exaltant. Certes, la réduction des écarts entre les premiers laisse supposer que les derniers Tours de France témoignent d’un plus grand contrôle de la course : le vainqueur, sans faillir, tient à proche distance ses adversaires. La mise au ban de la technologie (oreillettes, calcul des watts, positionnement GPS) a peut-être du sens mais la tendance récente se rapproche de celle des années 1970 qui étaient dépourvues de l’outillage informationnel.
La technologie n’explique pas tout et une réglementation concernant la composition des équipes semble plus judicieuse qu’une interdiction des technologies utilisées en course (comme la tentative de 2009).
La question de la perception de la course de la part du téléspectateur nous semble également capitale pour mieux comprendre le problème. Historiquement, le Tour a été une épreuve magnifiée par les récits de la presse écrite puis par la radio qui ont su capitaliser sur quelques faits de course pour raconter ce que l’auditoire ne pouvait voir. Pour mémoire, les plumes d’un Antoine Blondin ou d’un Pierre Chany ont contribué à la grandeur des Tours de France au même titre que ses vainqueurs.
De nos jours, les étapes sont couvertes en intégralité, le dispositif de caméra est plus important, le big data avec les transpondeurs GPS placés sur les vélos et le traitement en temps réel des données indiquent à tous la position précise des coureurs. Nous renvoyons le lecteur au récent ouvrage du journaliste Guillaume di Grazia qui relate dans le détail et de l’intérieur le Tour de France 2019 à travers son prisme décisionnel et informationnel.
L’incertitude, en théorie économique, repose sur une absence d’information. Le téléspectateur est de moins en moins dans l’incertitude et cela modifie sa perception de la course. De ce fait, il peut apparaître un effet modérateur, concept issu de la statistique, qui indique que les courses sans réelle bataille seront, comparativement à auparavant, perçues comme beaucoup plus ennuyeuses tandis que les courses animées seront plus appréciées.
Cet effet modérateur qui amplifie la relation entre le déroulé réel et sa perception par le téléspectateur ne cessera de grandir avec les technologies mises à la disposition des suiveurs et des médias.
Il est donc encore plus crucial que le règlement soit modifié, éventuellement de façon heuristique, afin de favoriser l’apparition de faits de course enthousiasmants. Donnons-nous rendez-vous à l’issue du Tour 2020 afin de savoir à quelle catégorie il appartiendra…
This article is republished from The Conversation under a Creative Commons license. Read the original article.
Par Baptiste Massenot
Afin de limiter les dégâts économiques associés à la pandémie actuelle, la Banque centrale européenne (BCE) a récemment décidé de racheter 750 milliards d’euros de dettes d’entreprise et d’état, soit environ 2 200 euros par habitant de la zone euro. Or, plutôt que d’acheter de la dette, pourquoi ne pas plutôt directement donner cet argent à la population, comme l’a proposé l’économiste libéral américain Milton Friedman en 1969 selon son principe d’hélicoptère monétaire (« helicopter money ») ?
Un célibataire toucherait ainsi directement 2 200 euros, une famille de quatre, 8 800 euros. Une goutte d’eau dans l’océan pour les plus aisés, mais un soulagement immense pour le reste, qui peine à boucler les fins de mois. À titre d’exemple, un Français sur 4 se déclarait en difficulté financière en 2017, selon le baromètre Cofidis-CSA.
Les plus démunis pourraient finalement effectuer les achats qui demeuraient en attente, ce qui relancerait l’économie. Des études économiques suggèrent que les ménages dépenseraient plus de la moitié de cette somme dans l’année qui suit, soit une croissance de l’économie de la zone euro d’environ 2 %.
Cette épargne accrue leur permettrait également de sortir d’un état d’esprit de rareté, au bénéfice de leur productivité et de leur bien-être.
Les leviers des banques centrales, qui reposent depuis quelques années sur le rachat de dette (programme d’assouplissement quantitiatif, ou quantitative easing), permettent de relancer l’économie et de stimuler l’inflation en facilitant l’accès au crédit et en faisant baisser les taux d’intérêt.
Ces mesures tendent à légèrement réduire les inégalités, grâce à une baisse du chômage, une augmentation des salaires, et une baisse des mensualités pour les propriétaires qui refinancent leur prêt immobilier ou qui bénéficient d’un prêt à taux variable.
Cependant, cette légère baisse globale de l’inégalité cache certaines injustices, notamment pour les personnes qui ne parviennent pas à trouver un emploi et pour qui il serait déraisonnable voire impossible de s’endetter. Ces groupes ne bénéficient pas des mesures de rachat de la dette. En revanche, l’hélicoptère monétaire bénéficierait à tout le monde de manière égalitaire.
De plus, ces mesures profitent aux plus riches, en augmentant la valeur de leurs actifs financiers. En effet, les taux d’intérêt bas poussent les investisseurs à s’orienter vers des actifs financiers plus rentables, tels que l’immobilier ou les actions en bourse. Ces réallocations font pression sur les prix de ces actifs, augmentant encore plus la richesse de leurs détenteurs.
Qu’elles le veulent ou non, les banques centrales influencent donc la répartition des richesses. Elles doivent décider si elles préfèrent favoriser les plus riches (en rachetant de la dette) ou les plus démunis (en ayant recours à l’hélicoptère monétaire).
Un meilleur accès au crédit permet de soulager certains ménages et entreprises à court terme. Cependant, cet endettement met également en danger leur pérennité financière. Lorsque les mensualités d’un prêt deviennent plus élevées, des évènements tels que la perte d’un emploi ou une baisse des ventes ont plus de chance de mener à la faillite.
Plusieurs études économiques montrent en effet qu’un endettement élevé de la population est l’un des signes les plus fiables de l’approche d’une crise financière et d’une récession. Étant donné que l’endettement des entreprises est déjà à un niveau historiquement élevé, les politiques de relance basées sur le rachat de la dette sont d’autant plus préoccupantes.
Ces politiques semblent en outre avoir atteint leurs limites. Les banques centrales ont en effet désormais une capacité limitée à faire baisser les taux d’intérêt, car ceux-ci ont atteint leur valeur plancher. Cet outil n’est donc plus disponible.
Les mesures d’assouplissement quantitatif ont également montré leurs limites au cours de la dernière décennie. La plus grande partie de la création monétaire associée au quantitative easing est restée dans les coffres des banques, sous forme de réserves excédentaires. Le quantitative easing améliore certes la santé financière des banques et des grandes entreprises mais pas celle des ménages et des petites entreprises. En conséquence, les effets sur l’économie se font attendre.
Alors, comment expliquer la frilosité des banques centrales à utiliser l’hélicoptère monétaire ? À l’inverse de ces politiques traditionnelles de rachat de dette qui n’augmentent que temporairement la quantité de monnaie dans l’économie, l’hélicoptère monétaire implique une augmentation permanente de la quantité de monnaie.
En conséquence, l’hélicoptère monétaire effraie et demeure un tabou car il rappelle les épisodes d’hyperinflation qu’ont connus l’Allemagne de Weimar ou le Venezuela de nos jours.
Cependant, contrairement à ces épisodes dramatiques, l’hélicoptère monétaire est une mesure temporaire et limitée. En conséquence, l’inflation augmenterait de manière temporaire et limitée.
Finalement, les banques centrales devraient donc se réjouir de la capacité de l’hélicoptère monétaire à créer de l’inflation, qui reste obstinément faible dans la zone euro ou aux États-Unis, en dépit des efforts massifs déployés par les banques centrales.
Par Alain Klarsfeld (TBS), Kevin Carillo (TBS) et Gaëlle Cachat-Rosset, (Université de Montréal).
Malgré les conditions difficiles du confinement, la satisfaction à l’égard du télétravail apparaît élevée, en particulier pour les personnes travaillant en autonomie, même si elles notent une hausse de la quantité de travail. C’est ce qu’il ressort d’une enquête que nous avons conduite entre le 2 et le 16 avril auprès d’environ 1 220 salariés français. L’ensemble des répondants était en télétravail, pour la plupart contraint par leur employeur (à 77 %).
D’après notre étude, 80 % des répondants se déclarent en effet « satisfaits » ou « très satisfaits » en télétravail. En outre, contre toute attente, la perception d’une quantité de travail fournie plus élevée en télétravail est allée de pair avec une satisfaction plus élevée. Cela s’explique en grande partie par le fait que les télétravailleurs se sont sentis plus productifs quand des conditions propices à leur satisfaction étaient réunies.
L’autonomie est un facteur décisif dans la satisfaction à l’égard du télétravail. Parmi les travailleurs étant « tout à fait d’accord » avec le fait qu’ils disposent d’une « grande autonomie » pour faire leur travail, le pourcentage de satisfaits et très satisfaits est de 83 %, alors qu’il n’est que de 56 % de satisfaits et très satisfaits chez les salariés les moins autonomes.
Mais les salariés sont plus mitigés en ce qui concerne le sentiment d’être plus productif (partagé par 34 % des répondants seulement contre 29 % d’un avis inverse, 37 % étant neutres), ou encore le désir de continuer à télétravailler (38 % y sont favorables, mais 41 % défavorables, 21 % étant neutres).
Si une certaine méfiance à l’égard du télétravail pouvait être de mise avant la crise, ce n’est relativement plus le cas à la suite du confinement. Le sentiment de méfiance qui ressort de notre enquête est en effet faible : une minorité de salariés pensent que « les membres de leur équipe en télétravail passent du temps à faire autre chose que les tâches qui leur sont assignées. »
Le pourcentage de confiants est même plus élevé chez les managers que chez les non-managers, ce qui est pour le moins inattendu, les managers étant parfois présentés – avant la crise du coronavirus – comme un frein à la diffusion du télétravail du fait de leur sentiment de perte de contrôle. Or, 65 % des managers (contre 60 % des non-managers) affichent une confiance élevée à l’égard des membres de leur équipe. Seuls 10 % avouent être méfiants. Le reste affichant une confiance moyenne.
Il ressort également de notre étude que, en situation de travail au domicile contraint, les femmes restent plus exposées à des risques d’épuisement que les hommes. Le télétravail tel qu’il a été organisé a effet contraint les salariés à travailler en présence de personnes dépendantes, généralement des enfants.
Parmi les télétravailleurs, les femmes ont été plus accaparées par des personnes dépendantes, c’est-à-dire demandant « plus de 4 heures d’attention qui empiètent sur le temps de travail » chaque jour. Elles sont 10,3 % des répondantes, en France, à être dans ce cas extrême, contre 7 % des hommes. On observe également que les femmes sont nettement plus nombreuses à avoir recherché du soutien émotionnel que les hommes (48 % contre 26 %) pendant le confinement.
Enfin, elles sont significativement moins nombreuses que les hommes à penser que « les choses allaient comme elles le voulaient » (60 % et 71 % respectivement) lorsqu’elles ont répondu à l’enquête. Pour autant, leur niveau de satisfaction à l’égard du télétravail est sensiblement le même que celui des hommes. Seraient-elles moins exigeantes que les hommes et si oui, pourquoi ? Seule une nouvelle recherche permettrait de répondre à ces interrogations.
Au bilan, nos résultats apparaissent comme encourageants quant à la diffusion de cette pratique dans le futur, notamment au vu du contexte difficile dans lequel le télétravail a été expérimenté (télétravail contraint, improvisé, souvent en présence de personnes dépendantes).
Il ressort en outre que, pour un développement du travail le plus satisfaisant possible pour tous, il existe de nombreux leviers d’action.
Cela passe par un certain nombre de conditions :
Il convient d’insister sur ce dernier point, car si une grande autonomie permet de bien vivre le télétravail, c’est à condition que soient préservées des relations avec autrui. L’isolement est le facteur qui impacte le plus négativement les variables de satisfaction à l’égard du télétravail. Il doit donc être combattu à tout prix.
Cet article s’inscrit dans le cadre d’une recherche internationale associant Kevin Carillo et Alain Klarsfeld (TBS Education), Gaelle Cachat-Rosset et Tania Saba (Université de Montréal) et Josianne Marsan (Université Laval).
Par Jean-François Verdié et Maxime Maury.
Pour sortir de la crise, la Banque centrale européenne (BCE) a accéléré son programme d’achat de titres publics et privés (quantitative easing, ou QE), porté à hauteur de 1 350 milliards d’euros début juin, qui intensifie les mesures engagées depuis 2015 ayant déjà mobilisé près de 2 500 milliards d’euros de liquidités.
Cette intervention non conventionnelle devrait porter son bilan à quelque 6 500 milliards d’euros à fin 2020, soit l’équivalent de la moitié du PIB de la zone euro. Surtout, la BCE semble s’éloigner de plus en plus de l’esprit de son mandat.
Rappelons que la BCE a notamment fait sauter, au cours des derniers mois, deux « règles d’or » qu’elle s’était librement fixées pour ne pas s’engager trop loin dans le financement indirect des déficits publics : elle s’était astreinte à ne pas détenir plus d’un tiers du gisement d’une dette nationale ; elle s’était astreinte également à limiter en termes relatifs la part dans son bilan de chaque gisement de dette nationale à la fraction détenue par chaque pays dans son capital ; cette règle disparue, la BCE peut donc acheter autant de titres de dette italienne qu’elle juge nécessaire pour contenir les spreads de taux, c’est-à-dire l’écart entre les taux de contraction de dette publique de deux pays (rappelons qu’en avril, la dette italienne se plaçait à 10 ans à + 1,88 % lorsque la dette allemande se négocie au taux négatif de – 0,49 %, soit un écart considérable pour une même zone monétaire).
Cet élargissement de son mandat de facto a entraîné une contestation de son action par des centaines de citoyens et universitaires allemands qui ont porté plainte devant la Cour constitutionnelle de Karlsrhue. Le 5 mai, le juge a sommé la BCE de justifier, sous 3 mois, son action depuis 2015 en se référant au simple principe de « proportionnalité » de la réponse. Autrement dit, la Cour s’interroge sur une réponse excessive par rapport aux objectifs à atteindre.
Les plaignants estiment que le rôle de la politique monétaire n’est pas d’assurer les dettes publiques. C’est un dévoiement qu’ils qualifient de « fiscalisation de la politique monétaire ».
En 2015, lors du lancement du programme de QE, la Cour constitutionnelle allemande avait déposé une première plainte, mais s’était inclinée devant la Cour de Justice européenne qui avait blanchi la BCE ; cette fois-ci, elle se rebelle et menace d’interdire à la Bundesbank de participer au programme de la BCE !
Il faut replacer ces faits dans le contexte de l’Allemagne, pays d’épargne et conservant en mémoire le traumatisme de la République de Weimar minée par l’hyperinflation dans les années 1920. Outre-Rhin, le retour de l’inflation grignoterait notamment les retraites par capitalisation d’une population vieillissante qui s’inquiète que la BCE ne devienne le bras armé des « cigales du Sud ».
Cette création monétaire massive en effet avoir plusieurs effets pernicieux, y compris pour d’autres pays que l’Allemagne : elle peut conduire, comme on l’a observé ces dernières années, à gonfler la bulle boursière au profit des détenteurs d’actifs financiers et la bulle immobilière au profit des plus riches et au détriment des salariés urbains, ce qui en fin de compte aggrave les inégalités.
Le défaut sur une dette souveraine constitue un autre risque : L’Italie au premier chef, mais aussi dans une moindre mesure la France, sont menacées, même si à court terme l’intervention de la BCE l’en empêche.
Les spreads ont déjà augmenté depuis le début de la crise. Que deviendront-ils si l’intervention de la BCE devait se ralentir, ou si simplement le gouvernement français perdait le sens de la mesure budgétaire sous la pression des événements ?
Enfin, cette situation pourrait aboutir à l’éclatement de l’euro : la zone euro se trouve en effet déjà prise en étau entre, d’une part, la dérive économique et financière des États du Sud, et d’autre part, les critiques croissantes contre la politique d’assouplissement quantitatif poursuivie par la BCE depuis 2015 émanant des pays du nord, notamment de l’Allemagne.
La crise sanitaire pourrait donc se transformer en crise politique et provoquer un choc asymétrique en aggravant les écarts dans la zone euro, qui pourrait lui être fatale.
La zone euro aurait au contraire besoin de mutualiser progressivement les dettes pour mieux les financer. Cela reste aujourd’hui nécessaire à l’achèvement de notre zone monétaire, car contribuerait à une « Union de transferts » au profit des pays les plus fragiles et verrouillerait la pérennité de la monnaie unique sans accroître l’endettement global de la zone euro. Elle supposerait cependant une convergence des trajectoires économiques et budgétaires des différents pays consolidées par des réformes communes. C’est le prix à payer pour l’acceptation des pays dont les taux sont les plus favorables, mais un prix trop lourd du point de vue allemand.
Quelle piste reste-t-il dès lors pour sortir de la crise ? La plus plausible serait que les chefs d’État se constituent demain en « directoire fédéral », nomment un ministre des finances de la zone euro, et émettent des eurobonds, c’est-à-dire des titres de dettes européens collectifs émis par l’ensemble des États membres. Il n’est pas besoin de modifier les Traités pour cela, ils en auraient le droit.
D’ailleurs, le plan de relance conjoint de 500 milliards d’euros annoncé par le président français Emmanuel Macron et la chancelière allemande Angela Merkel, le 18 mai dernier, devrait être financé en partie par des emprunts contractés par l’Union européenne en elle-même sur les marchés obligataires internationaux. Le fait que l’Allemagne adhère à ce mécanisme constitue une première, mais quatre pays ont d’ores et déjà marqué leur désaccord (Pays-Bas, l’Autriche, le Danemark et la Suède).
Le 27 mai, la Commission européenne a également semblé confirmer cette direction en confortant un plan de relance de 750 milliards d’euros qui pourrait permettre à terme d’arriver à une véritable union de transferts, conforme à la théorie des zones monétaires optimales.
Le chemin vers plus de solidarité européenne semble toutefois encore long, mais la BCE n’est plus seule et d’autres institutions prennent désormais part à la relance. Est-ce à dire qu’elle est bel et bien arrivée aux limites de son action ?
Par Sylvie Borau, Camilla Barbarossa et Leila Elgaaied-Gambier.
En moyenne, les hommes adoptent moins de comportements pro-environnementaux que les femmes. Comme la consommation écologique est implicitement perçue comme un comportement féminin, cette réticence des hommes peut être inconsciemment alimentée par la crainte de paraître féminin, et donc peut-être de ne pas être attractif aux yeux du sexe opposé. C’est ce que certains nomment la masculinité fragile. Les résultats de notre recherche suggèrent pourtant que la consommation verte pourrait en fait augmenter l’attractivité d’un homme en tant que partenaire pour le long terme.
L’écart en matière de comportement écologique entre les hommes et les femmes est désormais bien documenté dans la littérature sur les comportements pro-environnementaux, et la consommation verte en particulier. Les femmes sont plus impliquées dans la préservation de l’environnement et s’engagent dans des comportements de consommation plus respectueux de l’environnement que les hommes. Ces derniers semblent réticents à l’idée de s’engager dans des actes de consommation éthiques en général, car ce type de consommation serait associé à la féminité. Pourquoi ? Car le stéréotype « écolo = féminin » pourrait constituer une menace pour leur identité masculine.
Ce comportement d’évitement à l’égard des produits verts pourrait cependant avoir des conséquences dramatiques pour l’avenir de notre planète. Certains pointent la masculinité toxique comme élément inducteur de ces comportements non responsables des hommes. Dans un autre contexte, cette masculinité toxique a récemment été jugée comptable du faible port du masque par les hommes pour se protéger du Covid-19, car les masques ne seraient pas jugés assez virils.
La masculinité toxique tend en effet à être associée à la compétition, au productivisme, et à l’utilisation non raisonnée des ressources de la planète, alors que la féminité est assimilée à l’altruisme, l’empathie, et au désir d’être en harmonie avec les autres et les éléments qui nous entourent.
Mais ce stéréotype féminin associé à l’écologie constitue-t-il toujours une menace pour les hommes ? Ou les hommes peuvent-ils au contraire tirer profit de ce stéréotype ?
Notre recherche récente publiée dans Psychology & Marketing tente de répondre à ces questions, et montre effectivement que signaler des qualités féminines n’est pas toujours préjudiciable pour les hommes, au contraire.
Les résultats d’une série d’études que nous avons réalisée auprès de plus de 1 500 répondants américains montrent que les hommes respectueux de l’environnement ont des qualités très recherchées chez un partenaire de vie. Par exemple, dans une étude, nous avons exposé 200 femmes à un ensemble de produits verts ou à un ensemble de produits conventionnels (sans référence à l’écologie). Ensuite, nous avons demandé à ces femmes de noter le propriétaire imaginaire de ces produits sur une liste d’adjectifs pouvant le décrire. Les résultats ont révélé que les propriétaires de produits verts sont certes perçus comme étant plus féminins mais, fait intéressant, pas moins masculins.
De plus, les résultats montrent que les femmes imaginent ces hommes comme plus altruistes, comme des partenaires plus fidèles et des pères de famille plus engagés et impliqués. Ces hommes sont également considérés comme plus désirables comme partenaires potentiels pour une relation à long terme par les femmes (hétérosexuelles) célibataires. Ces résultats ont été répliqués dans deux études supplémentaires.
Dans une dernière étude, nous avons vérifié si ces conclusions sur les hommes sont vraies. Nous avons interrogé 400 hommes afin d’en savoir plus sur leurs comportements et leur consommation écologique. Les résultats montrent que les hommes en couple et impliqués avec leur partenaire sont des consommateurs plus respectueux de l’environnement.
Ce résultat suggère que la consommation verte est un signal honnête de l’engagement des hommes à l’égard de leur partenaire de vie. En revanche, les pères de famille ne se déclarent pas davantage écologiques que les hommes sans enfant, probablement car la présence d’enfants au sein du foyer augmente le nombre d’actes délétères pour la planète, comme l’utilisation de la voiture pour les trajets familiaux par exemple – mais aussi, la consommation de nouveaux produits jetables qui génèrent beaucoup de déchets comme les couches, les lingettes, ou encore les compotes individuelles.
Ce lien entre consommation écologique, altruisme et engagement sur le long terme, suggère que le signal de féminité envoyé par la consommation écologique n’est pas systématiquement négatif pour les hommes. Au contraire, la consommation verte des hommes s’avère être un signal positif et attractif concernant leur personnalité, et non pas répulsif comme laissaient penser les résultats de recherches précédentes.
D’un point de vue évolutionniste, les femmes ont en effet intérêt à préférer un homme altruiste, fidèle et engagé – ces qualités augmentant par le passé leur survie et celle de leur progéniture. Si la consommation écologique communique ces traits (altruisme, fidélité) les femmes vont préférer les hommes qui consomment des produits verts, au moins pour une relation à long terme. Et si les hommes ont conscience de cette préférence, ils risquent de s’y conformer.
En effet, les comportements des hommes ont tendance à être fortement influencés par les préférences des femmes. Si les hommes adaptent leur comportement écologique pour tenir compte des préférences des femmes, ils finiront par accroître leur valeur en tant que partenaires pour une relation sur le long terme.
Plus globalement, cette préférence des femmes pour les hommes écoresponsables et altruistes signe peut-être l’avènement d’une masculinité moins toxique. Il y a encore quelques années, les publicitaires s’employaient en effet à renforcer l’idée d’une masculinité traditionnelle, en mettant en scène des hommes dominants et compétitifs. Depuis le mouvement « metoo », certaines marques ont bousculé les codes de la masculinité en mettant en scène dans leurs publicités des hommes moins dominants, moins compétitifs, et plus à l’écoute de leurs émotions.
C’est le cas des publicités signées par Gilette et Meetic qui prônent plutôt l’image de compagnons et de pères aimants, fidèles, et coopératifs. Même si elles ont créé un tollé sur les réseaux sociaux auprès des hommes, elles ont été plébiscitées par les femmes. On entrevoit ainsi une disparité entre ce que les hommes croient être attractifs aux yeux des femmes, et ce que les femmes trouvent attractif chez un homme – en tout cas pour tisser une relation à long terme.
Par conséquent, un levier pertinent pour augmenter la consommation verte chez les hommes serait de les informer des bénéfices que confère ce type de consommation aux yeux des femmes. La consommation verte peut véhiculer une image positive en signalant l’altruisme, l’engagement, et l’attachement pour son partenaire, qualités recherchées par les femmes.
Les entreprises et les gouvernements pourraient ainsi utiliser ces résultats pour accroître le comportement écologique des hommes, ce qui pourrait in fine avoir un effet bénéfique pour l’avenir de notre planète. Par exemple, les professionnels du marketing pourraient développer des publicités et des campagnes pro-environnementales montrant que les hommes qui possèdent des produits verts, ou qui adoptent des comportements de consommation écologiques, sont considérés comme plus désirables pour une relation à long terme. Communiquer sur l’avantage procuré aux hommes par les produits verts en matière de « dating », et le caractère honnête de ce signal pour les femmes (c.-à-d. partenaire fidèle) est une stratégie à développer.
Les hommes écoresponsables sont perçus comme plus désirables comme partenaires de vie pour le long terme. Et le comportement écologique des hommes est un signal honnête de la valeur d’un homme pour une relation à long terme. Promouvoir une masculinité moins toxique pourrait non seulement augmenter la valeur des hommes aux yeux des femmes, mais aussi préserver notre planète. Alors que le changement climatique s’accélère, il y a urgence à rallier les hommes à la cause écologique.
Comme on a vu l’émergence du #RealMenWearMasks on attend désormais une campagne #RealMenRecycle. Que ce soit le port du masque ou les comportements pro-environnementaux, la question du genre dans le marketing est loin d’être bénigne. La survie de notre planète en dépend.
Par Laurent Bertrandias.
Parmi les 149 propositions de la Convention citoyenne pour le climat figure le CO2-score, cette mesure d’information du consommateur dédiée à lui indiquer si ce « qu’il mange ou achète est bon pour le climat ».
Facile à comprendre, crédible grâce à la présence de bonnes et mauvaises notes, ce dispositif est un levier de consommation responsable. Par un effet d’entraînement, il contribue à changer les pratiques des entreprises comme cela a été observé dans le cas de l’étiquette énergie.
Pour autant, aucun pays ne l’a rendu obligatoire sur l’ensemble des produits et services. En 2007, à la suite du Grenelle de l’environnement, le gouvernement envisageait d’imposer un affichage environnemental généralisé des produits et services. Après les votes du Parlement en 2009 et 2010, cette mesure d’information obligatoire des acheteurs devait entrer en vigueur 2011. Or il n’en fut rien. Elle fut remplacée par une expérimentation nationale d’un an qui déboucha sur… pas grand-chose.
Analyser les raisons de cet échec est particulièrement intéressant aujourd’hui si l’on souhaite éviter que le CO2-score ne termine à son tour au cimetière des bonnes idées jamais mises en œuvre.
L’engagement 217 du Grenelle de l’environnement de créer un droit des consommateurs à « disposer d’une information environnementale sincère, objective et complète portant sur les caractéristiques globales du couple produit et emballage » figure dans à l’article 54 de la loi Grenelle adoptée le 3 août 2009 : « La mention des impacts environnementaux des produits et des offres de prestation de services en complément de l’affichage de leur prix sera progressivement développée ». L’État n’est pourtant jamais parvenu à rendre obligatoire ce dispositif. Trois raisons principales expliquent cet échec.
Une expérimentation nationale a été mise en place en 2011-2012 auprès d’entreprises volontaires pour tester la faisabilité et l’efficacité d’un tel dispositif. À l’époque, certaines entreprises pionnières s’appuyaient sur leur démarche d’affichage environnemental pour se différencier au sein de leur filière et n’avaient donc pas intérêt à ce qu’elle soit généralisée. D’autres participaient à l’expérimentation afin de mieux pouvoir en contrôler les aboutissements. Le soutien des associations de défense de l’environnement n’a pas contrebalancé du lobbying des grands secteurs industriels.
Les pouvoirs publics ont également dû faire face à un adversaire bien involontaire : l’Union européenne. Alors que la France réfléchissait aux suites à donner à l’expérimentation nationale, une autre menée à l’échelle européenne à partir de 2013 a justifié l’attentisme. Enfin, le projet d’un affichage obligatoire a subi le jeu politique : en 2013, même si les fonctionnaires du ministère et des entités affiliés restaient mobilisés, la nouvelle équipe gouvernementale n’a pas défendu le projet initial du Grenelle, porté par des adversaires politiques.
En 2007, l’idée était de fournir un outil permettant aux consommateurs de distinguer les produits bons pour l’environnement de ceux qui l’étaient moins. Afin de donner une indication la plus objective possible, c’est la méthode de l’analyse en cycle de vie, encore en construction, qui s’est imposée. Cette méthode consiste à évaluer les effets environnementaux de la vie du produit en partant de l’extraction des matières premières nécessaires à sa fabrication jusqu’à son élimination ou sa valorisation.
Progressivement, le but de départ a dérivé vers celui de proposer une mesure la plus exacte et complète possible. Les groupes de travail avec les experts de la plate-forme Ademe/Afnor se sont épuisés à définir des référentiels précis que les opposants pouvaient toujours contester.
La France souhaitait alors jouer un rôle pionnier sur les questions environnementales. Avec le recul, il apparaît que l’ambition de généraliser un affichage environnemental des produits à échéance 2011 représentait un défi immense, l’élaboration des référentiels produits et des bases de données étant extrêmement longue : ce n’est qu’en 2014 que la première version de la base de données publique Impacts a été publiée. Les référentiels ne couvraient alors que 50 % des catégories de produits.
Avec ces éléments en tête, quels conseils donner pour qu’une véritable suite soit donnée à la préconisation de la Convention citoyenne pour le climat ?
Puisque certains produits se voient attribuer de mauvaises notes d’impact, le classement des produits doit paraître le plus juste possible aux entreprises. Il est essentiel de désamorcer les contestations possibles sur les référentiels techniques en obtenant au départ un consensus sur le socle méthodologique. Dans le cas de l’expérimentation française de 2007, les groupes de travail étaient composés d’experts volontaires. Peu d’entreprises étaient engagées et leur nombre a diminué avec le temps.
La Convention citoyenne semble avoir anticipé cette difficulté en prévoyant un délai de mise au point d’une méthode de calcul harmonisée. Les méthodologies déjà en place, comme celle du bilan d’émissions de gaz à effet de serre, pourront lancer la dynamique avant l’adoption de méthodologies déclinées par produit.
Les entreprises peuvent opposer que le CO2-score menace leur compétitivité en générant des coûts élevés de mise en œuvre. Il est donc essentiel de privilégier une solution simple, peu coûteuse, voire « clé en main ». L’exemple concluant des services de transport peut servir de base de réflexion.
Les entreprises du secteur, y compris les transporteurs routiers étrangers opérant en France, sont assujettis à un affichage carbone. Mais elles ont le choix entre plusieurs méthodes plus ou moins contraignantes. La plus simple et la moins coûteuse consiste à apposer une valeur générique de CO2 du mode de transport. C’est aussi souvent la moins favorable en matière d’affichage, ce qui peut inciter les entreprises à adopter un mode d’évaluation plus précis.
Si l’étiquetage des produits est un dispositif plein de promesses, il n’a encore jamais été mis en place en conditions réelles. Sur de tels sujets, les actes de consommation sont difficiles à estimer par enquêtes d’opinion. En 2011, l’expérimentation avait pour objectif d’apporter la preuve de l’impact du dispositif. Cela s’est révélé impossible puisque le caractère systématique de l’affichage est l’une des clés de son efficacité.
Pour le CO2-score, une nouvelle tentative pourrait connaître le même écueil. Pour autant, la mesure figure dans les premières places des propositions du collectif de la convention citoyenne. C’est un signal fort envoyé aux pouvoirs publics et aux entreprises qui révèle les attentes des consommateurs sur le sujet. Faute de mieux, c’est le contexte enthousiaste de sa genèse qui devra asseoir la légitimité d’un affichage obligatoire.
La mise en œuvre concrète du CO2-score rencontrera certainement les obstacles qui ont conduit à l’échec de la précédente tentative d’affichage environnemental des produits. Il revient donc aux citoyens de la Convention et aux ONG d’être particulièrement attentifs. Il faudra veiller aux mesures concrètes qui seront proposées par les groupes de travail ainsi qu’aux décrets d’application, en espérant que l’esprit des conventionnés se retrouvera dans le résultat final.
Mais à terme, ce sera bien aux consommateurs d’utiliser cette information lors de leurs achats afin d’inciter les producteurs à limiter leur impact et écarter du marché les produits les moins respectueux de l’environnement.
Cet article a été coécrit avec Yohan Bernard, Maître de conférences HDR à l’université de Franche-Comté et Agnès François-Lecompte, Maître de conférences HDR à l’université de Bretagne occidentale.