[su_pullquote align=”right”]Par David Le Bris[/su_pullquote]
Dès 1372, des centaines d’actionnaires partagent la propriété de moulins sur la Garonne. Ils trouvent les solutions pour prendre les grandes décisions en commun, déléguer et surveiller des dirigeants grâce à des administrateurs, auditeurs… De plus, les cours de ces actions médiévales sont cohérents avec les modèles financiers contemporains.
Les prestigieuses presses universitaires de Yale viennent de publier The Origins of Corporations. The Mills of Toulouse in the Middle Ages, traduction d’une thèse en histoire du droit, soutenue en 1952 par Germain Sicard (1928-2016). Une thèse française traduite en anglais est une chose rare, 60 ans après sa soutenance, c’est tout à fait exceptionnel ! Il faut dire que cette thèse bouscule notre compréhension de l’histoire économique.
C’est la Hollande, voire l’Angleterre qui s’attribuent, non sans fierté, la paternité des premières véritables sociétés par actions avec les diverses compagnies des Indes apparues vers 1600. Mais Germain Sicard expose magistralement comment des sociétés par actions parfaitement modernes se sont formées trois siècles auparavant pour gérer une activité privée : des moulins à blé sur la Garonne à Toulouse.
Germain Sicard détaille la genèse de deux authentiques sociétés médiévales. Fidèle au droit romain, le Midi ne connaît pas le droit d’aînesse, ce qui aboutit à la création de structures juridiques appelées pariage permettant la propriété collective d’un bien. Initiée pour permettre des héritages égalitaires, la technique du pariage est ensuite utilisée dans de multiples contextes. Le plus fameux est celui d’Andorre, co-administré par le comte de Foix, dont le président de la République française est l’héritier. A Toulouse, des pariages se forment dès le XIIème siècle pour gérer des moulins sur la Garonne.
Des centaines de propriétaires (pariers) possèdent des parts (uchaux) dans différents moulins situés à deux emplacements dans la ville. Progressivement les dépenses communes aux moulins d’un emplacement (chaussée barrant le fleuve, procès) deviennent prépondérantes, incitant à modifier les associations initiales. Dès 1194, une assurance mutuelle est signée entre les propriétaires pour reconstruire à frais communs une éventuelle destruction, puis différentes formes d’associations temporaires sont expérimentées. En 1372, une société, l’Honor del molis del Bazacle devient définitive ; sa charte de fondation de 3 mètres de long est toujours conservée aux archives. Après des siècles de meunerie, l’entreprise se convertit en 1888 dans la production d’électricité. Elle sera cotée à la bourse de Toulouse puis de Paris jusqu’à sa nationalisation en 1946 lors de la création d’EDF.
Avec Sébastien Pouget (TSE) et Will Goetzmann (Yale), nous avons repris cet extraordinaire sujet d’étude en explorant les archives au-delà du moyen-âge. Dans une étude consacrée à leur gouvernance, nous montrons comment ces moulins ont résolu les difficultés inhérentes à la séparation entre propriété et contrôle effectif d’une entreprise. Les problèmes de gouvernance sont centraux pour ces moulins ; meliori gubernatione est le premier motif invoqué à la constitution du Bazacle en 1372 ! Dès l’origine, les actionnaires bénéficient d’une responsabilité limitée. En 1417 puis 1587, des statuts détaillent la délégation du management par les actionnaires à différents agents, dont un CEO appelé Conterôlle qui dispose du contrôle effectif de l’entreprise, et un trésorier indépendant de ce dernier dont les comptes sont audités par des auditeurs indépendants. L’aléa moral¹ provenant de la délégation est limité, grâce à l’interdiction pour l’entreprise d’accumuler des réserves financières et à l’utilisation d’incitations explicites (une fraction des profits est versée aux employés) et implicites (les employés doivent prêter serment).
De plus, les actionnaires exercent une surveillance attentive des activités. Une assemblée générale (Cosselh general dels senhors paries am gran deliberacio) se tient chaque année pour prendre les grandes décisions, à la majorité des actionnaires présents. Dès 1390, huit actionnaires sont désignés chaque année pour composer un conseil d’administration supervisant l’activité de l’entreprise et deux autres pour auditer les comptes. Enfin, des investisseurs institutionnels formalisent leur surveillance, comme le collège universitaire de Mirepoix qui prévoit dans son statut de 1423 la manière de suivre ses investissements dans les uchaux toulousains.
Les solutions de gouvernance développées par ces moulins depuis le Moyen-Age sont donc très proches de celles observées dans les sociétés par actions contemporaines. Ces solutions ont été obtenues par de simples contrats privés, alors que les compagnies des Indes verront le jour grâce à des privilèges publics. Cela démontre que la société par actions est adaptée à différents contextes économiques et peut émerger dès lors que certaines conditions institutionnelles sont remplies, à commencer par des droits bien établis.
Ainsi, contrairement à une idée reçue, nous montrons que les droits de propriété sont parfaitement défendus depuis le 12ème siècle à Toulouse. Les actionnaires, qu’ils soient simple marchand, institution religieuse ou même roi de France, sont traités sur un strict pied d’égalité. Ils résistent à différentes tentatives d’expropriation qui ne réussiront finalement qu’au XXème siècle. Les outils conceptuels permettant le développement de la société par actions sont donc présents dans certaines parties d’Europe occidentale depuis le Moyen-Age. Cela bouscule la généalogie largement admise depuis les travaux de North d’une révolution institutionnelle en Europe du Nord qui aurait abouti à la Révolution Industrielle. La société par actions existait dès le Moyen-Age mais elle n’a pas entraîné un décollage économique décisif.
Pour un second travail, nous avons collecté les cours et de dividendes du moulin du Bazacle réunissant des séries quasiment complètes de 1530 à 1946. Les premiers résultats montrent un taux de dividende de 5 % avec des gains en capital proches de zéro sur la longue durée, malgré une grande volatilité des cours des actions conséquence de l’instabilité des prix du blé mais aussi des destructions provoquées par les crues. La valeur réelle du dividende observée dans l’entre-deux-guerres est sensiblement identique à celle perçue par un actionnaire au début du XVIème siècle. Nous démontrons également que les cours sont cohérents avec les anticipations de flux futurs, validant ainsi la théorie de la valeur actuelle : théorie financière fondamentale mais rarement vérifiée empiriquement. Ces flux futurs sont actualisés à un taux qui varie de concert avec des variables macro-économiques et climatologiques, telles que la température estivale (mesurée approximativement grâce aux dates des vendanges en Bourgogne). Malgré le risque de désastre, les investisseurs n’ont pas obtenu une rentabilité excessivement élevée par rapport au risque supporté ce qui contraste avec les observations contemporaines. Ces observations montrent que dans l’histoire récente, notamment américaine, les actions semblent offrir une rentabilité anormalement élevée par rapport aux autres actifs financiers (equity premium puzzle).
[su_note note_color=”#f8f8f8″]Par David Le Bris et ses publications : Le Bris D., Goetzmann W. and Pouget S. (2014) Testing Asset Pricing Theory on Six Hundred Years of Stock Returns: Prices and Dividends for the Bazacle Company from 1372 to 1946, NBER Working Paper, wp. 20199 ; Le Bris D., Goetzmann W. and Pouget S. (2015) The Development of Corporate Governance in Toulouse, NBER Working Paper, 2014, wp. 21335 ; Sicard G. (2015) The Origins of Corporations. New Haven, Yale University Press. [/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Ces moulins montrent que la société par actions est une solution efficace dans des contextes très variés limitant l’attrait pour d’autres formes de capitalismes. Nos recherches permettent aussi de distinguer les caractéristiques institutionnelles qui rendent possible cette forme de coopération qu’est la société par actions. Offrir des conditions favorables au développement des sociétés par actions dans les pays ou les secteurs qui en sont dépourvus serait source de prospérité. Ils montrent aussi que les hommes sont capables, y compris au moyen-âge, de donner un prix cohérent aux actifs financiers. Cela permet de penser que les exubérances parfois constatées sur les marchés actuels sont attribuables à des facteurs autres qu’une irrationalité des agents parfois envisagée. [/su_box]
[su_spoiler title=”Méthodologie”]Pour la première étude, nous avons parcouru les très riches archives des moulins à la lumière de la compréhension contemporaine de la gouvernance d’entreprise. Pour chaque problématique fondamentale de gouvernance, la solution développée dans les moulins est identifiée, analysée et comparée aux pratiques contemporaines apportant une observation précieuse car totalement indépendante de ce qui est observable aujourd’hui. Pour l’étude quantitative, un dépouillement exhaustif des archives comptables et financières a permis de construire des séries comparables de cours et dividendes. Un modèle d’ « asset pricing » idoine est ensuite développé puis testé en faisant des hypothèses sur le comportement des dividendes et la compréhension que pouvait en avoir les investisseurs de l’époque.[/su_spoiler]
[su_spoiler title=”Définition”]L’aléa moral est le risque que l’agent agisse en fonction de son intérêt personnel.[/su_spoiler]
[su_pullquote align=”right”]Par Delphine Gibassier[/su_pullquote]
Depuis une quinzaine d’années, nombre d’entreprises – répondant aux incitations du GHG Protocol, du CDP et d’autres classements – se sont engagées à mettre en place une comptabilité carbone et à se fixer des objectifs de réduction des émissions de gaz à effet de serre (GES) liées à leurs activités.
Selon le CDP, quelque 500 entreprises ont pris des « engagements sérieux concernant leur action sur le changement climatique par le biais de l’initiative « We Mean Business ».
De leur côté, des ONG ont constitué des groupes d’entreprises, comme le WWF Climate Savers, tandis que certaines agences nationales de l’environnement, dont celle des États-Unis, ont initié d’autres groupes tels que les Climate Leaders.
Lors de la Conférence de Paris sur le climat fin 2015, les médias traditionnels et sociaux ont relayé une augmentation massive de l’engagement des entreprises dans la lutte contre le réchauffement climatique.
Des multinationales ont fait des annonces tonitruantes, s’engageant à décarboner leur modèle économique, se fixant des objectifs « basés sur la science », soutenant la mise en place d’une réglementation des États, prenant des engagements ambitieux pour passer à l’énergie 100 % renouvelable, réclamant l’application de la neutralité carbone ou encore appelant au désinvestissement dans les énergies fossiles.
Le PDG de Marks and Spencer n’a pas hésité à qualifier la COP21 de « tournant ». Plusieurs mois après la Conférence de Paris, qu’en est-il de ces promesses ?
Les entreprises les plus audacieuses se sont engagées à décarboner intégralement leur modèle économique. Une démarche qui passe par l’instauration d’objectifs ambitieux pour réduire les émissions de gaz à effets de serre de 80 à 100 %, ou se procurer 100 % de l’énergie nécessaire à partir de sources renouvelables. En décembre 2015, 87 entreprises faisaient partie de ce mouvement de décarbonation.
• La neutralité carbone
Populaire au début des années 2000, la neutralité carbone s’est rapidement vue associée à du greenwashing. Difficile en effet d’évaluer si les entreprises avaient vraiment fait le maximum pour réduire leurs émissions ; les crédits carbone ont d’autre part été pointés du doigt pour leur manque de crédibilité.
Plusieurs annonces de neutralité carbone ont d’ailleurs fait l’objet de mesure de retrait : ce fut le cas de Dell qui avait promis d’être neutre en carbone en 2008 et s’est désengagé en 2011.
Ce mouvement en faveur de la neutralité carbone est réapparu avec des initiatives de plus petite envergure : à la conférence Climate Action 2016, Paul Polman a ainsi promis de rendre neutre en carbone sa filiale Ben&Jerry ; Danone, après avoir fait d’Evian une marque neutre en 2012 pour l’année 2011, a indiqué vouloir rééditer cet effort.
• Les renouvelables
En décembre 2015, l’initiative RE100 du Climate Group a réussi à obtenir l’engagement de 53 entreprises pour un objectif de 100 % d’électricité renouvelable. Aujourd’hui, 58 entreprises figurent sur cette liste, dont Coca-Cola qui s’est récemment exprimé à ce propos sur les réseaux sociaux.
• S’appuyer sur la recherche
Lors de la COP21, le groupe s’engageant à se fixer des objectifs basés sur la science comprenait 114 entreprises. Elles sont aujourd’hui 160. Les objectifs scientifiques sont essentiels en ce qu’« ils permettent aux entreprises de chercher à les atteindre en alignant leurs réductions de GES sur des budgets d’émissions globales générées par le modèle climatique », souligne le groupe We Mean Business.
• Donner un prix au carbone
89 multinationales ont rejoint la Carbon Pricing Leadership Coalition. Né lors de la COP 21, cet ensemble a tenu sa première réunion en avril 2016, appelant à une expansion des politiques de prix du carbone, pour passer d’un taux de couverture de 12 % des émissions mondiales de gaz à effet de serre aujourd’hui à 25 % en 2020, puis de doubler à nouveau ce chiffre pour passer un à taux de couverture de 50 % dans les dix ans.
Près de 40 gouvernements et 23 villes, États ou régions ont déjà mis un prix sur la pollution carbone. Selon le CDP, plus de 437 entreprises utilisent ainsi un prix interne du carbone ; et ce sont plus de 500 entreprises qui prévoient de les rejoindre dans les deux années à venir.
Cependant, les signataires de ces différentes initiatives constituent bien souvent un groupe d’acteurs commun s’engageant dans de multiples directions.
C’est sans doute le mouvement le plus emblématique lié aux affaires et au changement climatique. Le 2 décembre 2015, en pleine COP21, plus de 500 institutions, représentant selon Fossil Free plus de 3,4 trillions de dollars d’actifs, disaient vouloir retirer leur argent des énergies fossiles.
Encouragé par des ONG telles que 350.org et des associations étudiantes, ce mouvement touche aussi certaines universités anglo-saxonnes ayant pour investisseurs des fonds de pension. L’université d’Ottawa a ainsi accepté d’en finir avec les investissements dans les énergies fossiles, le président de l’université du Massachusetts a indiqué vouloir prendre des mesures similaires et l’université de Yale a partiellement cédé ses investissements dans ce secteur en avril.
Le GPFG, qui gère des fonds de 828 milliards de dollars et poursuit une stratégie de désinvestissement basée sur la gestion des risques, a indiqué dans son dernier rapport annuel s’être séparé d’une nouvelle compagnie de charbon. Un engagement que l’on retrouve du côté du fonds Rockfeller.
Toutefois, selon un rapport publié par le Projet de divulgation des propriétaires d’actifs (Asset Owners Disclosure Project, AODP), c’est moins d’un cinquième des principaux investisseurs – soit 97 investisseurs ayant en gestion 9,4 trillions de dollars en actifs – qui sont réellement en train de prendre des mesures concrètes pour atténuer les conséquences des changements climatiques.
Un autre pas en arrière, atténuant la portée de ce mouvement, est venu de l’Université de Stanford qui a rejeté une demande de désinvestir les 22,2 milliards de dollars de participations qu’elle détient dans des sociétés pétrolières et gazières. Harvard a affiché le même refus.
La COP22 doit devenir la COP de l’action – et de la transformation des engagements. Les entreprises devront donc prouver que ceux-ci se sont concrétisés et, surtout, qu’ils se sont diffusés à tous les secteurs et à travers les chaînes de valeur. Même si la conversion des promesses en action s’inscrit dans le moyen et le long terme, le suivi annuel de la montée en puissance de l’engagement des entreprises est un axe essentiel de la réussite de l’Accord de Paris.
Delphine Gibassier, Professeur de contrôle de gestion et de comptabilité environnementale, Toulouse Business School
La version originale de cet article a été publiée sur The Conversation.
[su_pullquote align=”right”]Par Kévin Carillo[/su_pullquote]
Le développement rapide des technologies de communication collaboratives comme une alternative à l’usage des e-mails offre aux entreprises des opportunités de transformation en profondeur. Mais il nécessite des mesures d’accompagnement pour générer une véritable culture du partage des connaissances.
L’irruption dans les entreprises des technologies de communication collaboratives issues du web 2.0 est rapide et massive. Réseaux sociaux internes, vidéoconférences, blogs et microblogs, wikis, partage de documents : toujours plus nombreuses sont celles qui adoptent ces outils interconnectés ouvrant des perspectives de transformation en profondeur de leur organisation et des habitudes de travail de leurs salariés, avec l’espoir d’améliorer leur productivité et leurs performances. A l’organisation traditionnelle en silos, dans laquelle les différents départements, fonctions ou niveaux hiérarchiques fonctionnent de manière cloisonnée et dans une forme de compétition interne, se substitue ainsi peu à peu un nouveau modèle d’entreprise 2.0, plus ouvert, caractérisé par une collaboration accrue des salariés par-delà ces cadres rigides et par le partage de connaissances, dans une sorte de forum en lui-même créateur de connaissances.
Parallèlement à cette révolution organisationnelle, les outils collaboratifs sont de nature à apporter une solution efficace au problème devenu récurrent de la prolifération des e-mails. Révolutionnaire en son temps, unanimement adopté dans le monde du travail, cet outil est victime de son succès, au point que son usage excessif devient un frein sérieux à la productivité : les salariés en reçoivent des dizaines par jour, passent des heures à les lire, ne les ouvrent pas tous, en perdent, voient leurs messageries saturer… Au final, la communication se fait mal et la collaboration au sein de l’entreprise se trouve pénalisée, alors que certains types d’interaction qui ont lieu par e-mail sont plus adaptés à d’autres types de canaux. C’est le cas par exemple des échanges de nature conversationnelle ou des conversations au sein d’un groupe ou d’une communauté pour partager des connaissances ou générer des idées.
Cependant, la coopération et le partage des connaissances ne se décrètent pas. Il est très pertinent de mettre à la disposition des salariés des outils alternatifs, encore faut-il faire en sorte qu’ils se les approprient et en fassent bon usage. D’autant plus qu’il s’agit de technologies disruptives qui modifient radicalement les habitudes et travail et les modes de relation.
Nos recherches visent précisément à déterminer dans quelle mesure l’habitude d’utilisation des outils collaboratifs, c’est-à-dire leur usage courant et automatique, routinier, influent sur la propension des salariés à partager les connaissances, dans un contexte où ils ne disposent plus d’e-mail. Pour cela, le modèle théorique développé identifiait trois bénéfices perçus de l’usage d’une plateforme collaborative de communication : l’avantage relatif que cela procure (c’est utile pour mon travail), la compatibilité (cela a du sens par rapport à mes besoins, aux tâches que je dois accomplir dans mon travail, à la nature même de ma fonction) et la facilité d’utilisation. Il émettait l’hypothèse que ces bénéfices avaient un effet direct sur l’habitude d’utilisation ainsi que sur le fait de partager les connaissances. Nous postulions également que, l’habitude d’utilisation avait un effet catalyseur sur chacun de ces bénéfices perçus dans leur relation avec le partage des connaissances.
Pour mesurer la validité de ces différentes hypothèses, une étude de terrain a été réalisée auprès d’une société de services IT et de consulting. Les résultats sont les suivants : la perception d’un avantage relatif à utiliser les outils collaboratifs favorise fortement l’habitude d’utilisation et le partage de connaissances ; de même, la facilité d’utilisation a un impact sur l’habitude. En revanche, aucun lien direct n’a été confirmé entre la facilité d’utilisation et le partage des connaissances. L’étude n’a pas non plus établi d’effet immédiat de la compatibilité sur l’habitude et sur le partage des connaissances. Concernant l’interrogation principale de l’étude, c’est-à-dire le rôle joué par l’habitude, les résultats montrent qu’il est très important puisqu’elle amplifie l’impact de l’avantage relatif et de la compatibilité sur le partage des connaissances.
Cela confirme que la mise à disposition de technologies, aussi performantes soient-elles, ne suffit pas à changer les comportements, elle doit s’accompagner d’un sentiment d’habitude : plus les salariés seront à l’aise avec les outils collaboratifs, plus le partage des connaissances entrera dans leurs mœurs et plus ils adopteront les codes et les méthodes de l’entreprise 2.0.
Dès lors, tout l’enjeu pour le management est de générer ce sentiment d’habitude, et pour cela, les résultats de l’étude montrent qu’il dispose de deux leviers d’action privilégiés : faire percevoir aux salariés qu’utiliser une plateforme collaborative est non seulement réellement utile mais également facile. Cela suppose de mettre en œuvre un ensemble de mesures parfois très simples : communiquer, proposer des incitations, sous forme de jeu ou de concours, partager des expériences d’utilisateurs avancées, organiser des actions pédagogiques ciblées…
Au bout du compte, ce travail de recherche souligne une problématique classique lorsqu’on étudie les systèmes d’information : l’importance du facteur humain. Il ne suffit pas d’implanter une plateforme collaborative pour que l’entreprise devienne 2.0. L’acquisition d’une culture collaborative doit précéder la mise en œuvre des outils.
[su_note note_color=”#f8f8f8″]Par Kévin Carillo et l’article « Email-free collaboration: An exploratory study on the formation of new work habits among knowledge workers », Jean-Charles Pillet et Kévin Carillo, International Journal of Information Management, novembre 2015.[/su_note]
[su_spoiler title=”Méthodologie”] Jean-Charles Pillet et Kévin Carillo ont réalisé pour cette recherche une étude de cas quantitative. A partir de l’état de la recherche, les auteurs ont construit un modèle théorique basé sur l’idée que l’habitude modère la relation entre les bénéfices perçus de l’utilisation d’une plateforme collaborative et la capacité des salariés à partager des connaissances. Afin de mesurer la validité de 9 hypothèses, ils ont élaboré un questionnaire en 21 items, avec pour chacun une échelle de réponse en 5 points allant de « totalement en désaccord » à « tout à fait d’accord ». L’étude a été réalisée en août 2014 dans une société de services IT et de consulting de plus de 80000 salariés, implantée dans une quarantaine de pays. Depuis plusieurs années, sa direction a lancé une politique globale d’abandon des e-mails en développant une plateforme collaborative composée de trois outils principaux : un système de vidéoconférence, un réseau social interne et un système de partage de documents. L’étude s’est focalisée sur un département particulier de l’entreprise, le service chargé de gérer, dans les plus brefs délais, les interruptions de services IT des clients. Sur les 120 personnes concernées, réparties en 5 équipes en France et en Pologne, 66 réponses valides ont été collectées (55%). Leur analyse a ensuite permis de confirmer une partie des hypothèses émises.[/su_spoiler]
[su_pullquote align=”right”]Par Gilles Lafforgue [/su_pullquote]
Aujourd’hui, les questions de climat sont plus que jamais au cœur des négociations internationales. La solution de captage et stockage de carbone (CSC) serait-elle la plus prometteuse pour réduire les émissions sans diminuer la consommation d’énergies fossiles ?
Les énergies fossiles représentent aujourd’hui près de 80% des apports mondiaux en énergie primaire[1], et leur coût modeste les rend plus compétitives que les énergies renouvelables (solaire, éolien, biomasse…). Seulement, leur utilisation massive contribue à hauteur de 65% aux rejets de gaz à effet de serre, principalement du CO2, qui s’accumulent dans l’atmosphère et contribuent au réchauffement climatique.
En attendant une transition énergétique plus durable, le captage et la séquestration de carbone (CSC) apparaît comme une alternative viable à moyen terme, pour limiter les émissions, sans contraindre à réduire la consommation d’énergies fossiles. Mise au point dans les années 1970 pour améliorer l’efficacité dans l’extraction des gisements de pétrole, la technique du CSC consiste à capter à la source les émissions carbonées avant leur rejet dans l’atmosphère, et à les injecter ensuite dans des réservoirs naturels (par exemple, des aquifères salins, qui sont des formations géologiques renfermant une eau salée impropre à la consommation), dans d’anciens sites miniers ou encore dans des gisements d’hydrocarbures (en cours d’exploitation ou épuisés). Le CSC s’avère efficace, puisqu’il peut éliminer 80 à 90% des émissions provenant des centrales thermiques à charbon ou à gaz.
Reste à déterminer le coût d’utilisation d’un tel procédé. Le déploiement du CSC devient rentable si le montant de la taxe carbone[2] atteint entre 30 et 45 dollars/tonne pour les centrales thermiques à charbon, et 60-65 dollars/tonne pour les centrales à gaz (sachant que ce niveau de prix devrait baisser, compte tenu des évolutions technologiques). Cependant, le CSC ne peut être mis en œuvre à des coûts raisonnables que pour les secteurs qui produisent les émissions les plus importantes et les plus concentrées : les industries lourdes (cimenteries, aciéries…) ou les centrales électriques thermiques (notamment à charbon). Pour les rejets diffus et de faible ampleur, émanant par exemple du transport ou de l’agriculture, cette technologie est inappropriée.
Quelle stratégie faut-il donc adopter pour optimiser la séquestration de CO2 ?
Pour répondre à cette question, et afin d’associer efficacement l’exploitation des ressources fossiles à la séquestration de CO2, nous avons développé un modèle dynamique. Ce modèle permet de définir le rythme optimal de déploiement du CSC. Il prend en compte trois paramètres essentiels : la disponibilité des ressources fossiles, l’accumulation du carbone dans l’atmosphère (et son absorption très partielle par la biosphère et les océans), et la capacité limitée des sites de stockage. A travers ce modèle, nous montrons qu’il est optimal de séquestrer le plus grand pourcentage possible de CO2 dégagé par l’activité industrielle, dès le démarrage de l’opération du CSC. Ensuite, la séquestration de CO2 diminue progressivement jusqu’à ce que le site de stockage soit totalement rempli. A noter que tant que le CO2 peut être séquestré, la consommation d’énergies fossiles reste soutenue. Elle ralentit une fois que le réservoir est saturé et que tout le CO2 dégagé se trouve soumis au paiement de la taxe carbone. Interviennent alors les énergies renouvelables.
Dans une autre recherche, nous avons cherché à déterminer les politiques optimales de capture des émissions de CO2 en comparant deux secteurs. Le secteur 1, l’industrie lourde (aciéries, cimenteries…) ou les centrales électriques thermiques par exemple, dont les émissions sont concentrées, a accès au CSC et peut ainsi réduire ses émissions à un coût raisonnable. Le secteur 2, le secteur des transports par exemple, dont les émissions sont plus diffuses, n’a accès qu’à une technologie de capture de CO2 plus coûteuse (par exemple, la capture atmosphérique, une technique qui consiste à récupérer le CO2 dans l’atmosphère en utilisant un procédé chimique qui isole les molécules polluantes). En considérant ces deux secteurs dits “hétérogènes”, nous avons pu montrer qu’il est optimal de commencer à capturer les émissions du secteur 1, avant d’atteindre le plafond de pollution autorisé. La capture des émissions du secteur 2 commence une fois que le plafond de pollution est atteint, et n’est que partielle. En ce qui concerne la taxe carbone, la recherche montre qu’elle doit augmenter pendant la phase avant le plafond. Une fois que le plafond est atteint, la taxe doit diminuer par paliers jusqu’à zéro.
Dans l’économie de marché, il semble clair que le seul moyen d’inciter les industriels à capter et stocker le CO2, est d’attribuer un prix au carbone, par le biais d’une taxe par exemple. En effet, raisonnant en termes de “coût-efficacité”, les industriels comparent le coût de séquestration d’une tonne de carbone au montant de la taxe dont ils devraient s’acquitter si cette tonne était relâchée dans l’atmosphère. Cette taxe doit être unique et elle doit s’appliquer à tous les secteurs, quels qu’en soient le nombre et la nature. Quel niveau de taxe garantit une compétitivité minimale du CSC, et assure ainsi son développement ? Selon le GIEC (Groupe d’Experts Intergouvernemental sur l’évolution du climat), et afin de limiter la hausse globale des températures à 2°C, il faudrait que le plafond de pollution atmosphérique ne dépasse pas 450ppmv (parties par millions). Celui-ci se traduit par un niveau de taxe carbone d’environ 40 dollars/tonne de CO2 en 2015, qui atteindrait 190 dollars/tonne de CO2 en 2055 (date à laquelle le seuil est atteint), ce qui permettrait de stimuler largement le développement du CSC.
Il est cependant essentiel de noter que le captage n’est qu’une solution transitoire, qui permet de soustraire à l’atmosphère des émissions carbonées, tout en bénéficiant d’une énergie relativement bon marché, par rapport aux énergies renouvelables. D’ici 2030, les politiques devront mettre en place des stratégies pour opérer une transition durable vers des énergies propres.
[1] Energie primaire : énergie disponible dans la nature avant toute transformation (gaz naturel, pétrole…)
[2] Taxe carbone : officiellement appelée Contribution Climat Energie (CCE) en France, la taxe carbone est une taxe ajoutée au prix de vente de produits ou de services en fonction de la quantité de gaz à effet de serre, comme le gaz carbonique (CO2, dioxyde de carbone), émis lors de leur utilisation. Elle est entrée en vigueur en janvier 2015 et s’élève à 7 euros/tonne de carbone. Ce plafond préconisé de concentration atmosphérique de CO2 est établi en fonction des objectifs de limitation de la hausse des températures que l’on souhaite atteindre (par exemple, le fameux +2°C).
[su_note note_color=”#f8f8f8″]Par Gilles Lafforgue, et les articles « Lutte contre le réchauffement climatique : quelle stratégie de séquestration du CO2? » publié dans le magazine TBSearch, « Optimal Carbon Capture and Storage Policies » (2013), publié dans Environmental Modelling and Assessment, co-écrit par Alain Ayong le Kama (EconomiX, Université Paris Ouest Nanterre), Mouez Fodha (Paris School of Economics) et Gilles Lafforgue, et « Optimal Timing of CCS Policies with Heterogeneous Energy Consumption Sectors » (2014), publié dans Environmental and Resource Economics, co-écrit par Jean‐Pierre Amigues (TSE), Gilles Lafforgue et Michel Moreaux (TSE).[/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Les modèles macroéconomiques développés permettent de réfléchir à la façon dont la séquestration du CO2 peut être mise en œuvre pour contribuer efficacement à la lutte contre le réchauffement climatique, tout en maximisant les avantages de l’exploitation des énergies fossiles. Exprimés en taux d’émissions de CO2 à réduire, les résultats théoriques fournissent un éclairage pragmatique, matière à inspirer les politiques publiques afin d’inciter les industriels à séquestrer le CO2, plutôt que de payer la taxe carbone.[/su_box]
[su_spoiler title=”Méthodologie”] Dans la première étude, un modèle dynamique de gestion optimale de ressources énergétiques a été élaboré, prenant en compte les interactions économie-climat. Une valeur est attribuée au carbone, qui vient directement pénaliser l’activité économique. Pour le deuxième modèle, nous adoptons une approche “coût-efficacité”. En supposant un seuil maximal de rejets à ne pas dépasser (issu du protocole de Kyoto), l’échelle à laquelle le CSC doit être déployé est déterminée et nous associons une valeur financière au carbone. [/su_spoiler]
Outil de communication innovant, le reporting intégré permet aux entreprises de mettre en lumière l’ensemble de la valeur – y compris extra-financière – qu’elles créent. Une aubaine pour les organisations ayant fait le choix d’intégrer le développement durable à leurs pratiques !
Une part de plus en plus importante de la valeur créée par les entreprises n’est pas intégrée dans leurs résultats financiers. Elles doivent donc se tourner vers des méthodes innovantes pour donner une image complète de leurs activités. Le reporting intégré remplit cette fonction et permet ainsi de mieux répondre aux attentes de l’ensemble des parties prenantes : clients, actionnaires, collectivités, ONG, etc. Et, puisqu’il implique une réflexion globale sur la création de valeur, il favorise également dans une meilleure intégration des pratiques du développement durable dans les stratégies des entreprises. Les entreprises ainsi reconnaissent le lien entre l’innovation des produits verts et la croissance de leur chiffre d’affaires (Philipps en 2010), aussi bien que l’impact négatif de licenciements sur la perte de mémoire collective de l’entreprise (AEP en 2011).
Le reporting intégré répond à un projet ambitieux relier la performance économique, sociale et environnementale et la gouvernance de l’entreprise : Un réel défi. Les équipes comptables ont également ainsi l’opportunité d’intégrer à leur analyse les enjeux du développement durable. La démarche ne va pas de soi dans la mesure où elle nécessite d’acquérir des connaissances en matière d’environnement et d’adopter un regard global sur les activités de l’entreprise. Il n’est pas toujours simple de compter du CO2 ou des litres d’eau à la place des euros ! Toutefois, de plus en plus de multinationales (Danone, Engie ou Unilever par exemple) ont compris qu’intégrer la problématique du développement durable dans leurs activités industrielles et commerciales était une des conditions même de leur croissance future, et même de leur survie. Pour elles, passer d’une stratégie environnementale à une comptabilité environnementale est alors logique. Elles invitent de plus en plus leurs parties prenantes (collectivités, ONG, clients, etc.) à participer à l’élaboration de leur stratégie, elles conçoivent et fabriquent des produits éthiques, réalisent des investissements durables, etc.
Pour piloter ces initiatives, les contrôleurs de gestion ont dû mettre en place des modalités de calcul adaptées. Le reporting intégré donne l’occasion d’aller plus loin en valorisant le capital social, environnemental et économique de l’entreprise. Cela commence généralement par un produit, une gamme de produits ou une région, puis la démarche s’étend progressivement à l’ensemble des activités. Le bénéfice est alors réel : le reporting intégré devient un instrument qui favorise la transformation des pratiques (production, marketing, RH, etc.), permettant ainsi d’améliorer le processus de création de valeur.
En Afrique du Sud, les entreprises sont légalement obligées de mettre en place un reporting intégré. Au Brésil, elles ne sont pas soumises à une contrainte réglementaire, mais à une injonction des marchés (pression des investisseurs). Dans ces deux pays, les bonnes pratiques et les retours d’expérience sont donc nombreux. Ils le sont moins en Europe, où rien n’oblige les entreprises à mettre en œuvre un reporting intégré. Le sujet a beau faire l’objet de recherches depuis 40 ans, un tout petit nombre d’entreprises (Novo Nordisk, Vancity, Natura) s’y était vraiment attelée avant la naissance de l’IIRC qui, depuis 2010, met de nombreux outils à leur disposition. Mais le large panel d’outils existants ne peut remplacer le travail de fond qu’elles doivent mener. Car l’idée de cette approche ne vise pas simplement à uniformiser les pratiques des entreprises grâce à des outils standardisés (de toute façon en évolution constante). Elle consiste également à refléter leur mode de création de valeur propre et leur business model unique.
C’est toute la particularité du reporting intégré : il est à la fois global (des entreprises du monde entier et de tous secteurs s’y engagent) et spécifique à chacune (car aligné sur leurs activités). Aussi, en Europe, bien que des groupes de travail existent sur le sujet, les entreprises ont tendance à imaginer leurs règles de reporting de façon isolée car c’est ce qui leur permet de montrer en quoi elles sont uniques. Au fil des années, les firmes les plus en avance sur le sujet ont ainsi pu développer des expertises spécifiques (par exemple pour comptabiliser les litres d’eau consommés ou tenir compte de leur impact sur des populations locales). Elles sont aujourd’hui fières d’avoir réussi à mettre en place une comptabilité environnementale performante avec des outils maison. L’IIRC ne cherche d’ailleurs pas à leur imposer de standard, elle adhère pleinement aux démarches innovantes de ces multinationales. Son ambition étant que le reporting intégré se développe dans le plus grand nombre d’entreprises.
[su_note note_color=”#f8f8f8″]Par Delphine Gibassier et l’article « IR, it’s like God, no one met Him but everybody talks about Him », de Delphine Gibassier, Michelle Rodrigue et Diane-Laure Arjaliès (à paraître).[/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]En Europe, aux États Unis et en Australie, les firmes qui s’engagent dans cette démarche le font de manière volontaire, parce qu’elles y voient l’opportunité de mettre en lumière l’ensemble de leurs activités tout en favorisant l’intégration des enjeux de développement durable. Les travaux observent depuis leurs tout débuts les entreprises pionnières dans ce mode de reporting, constituent une aide précieuse pour toutes les organisations souhaitant s’y engager.[/su_box]
[su_spoiler title=”Définition”]Le reporting intégré est un rapport concis qui mêle des données financières et extra-financières et qui vise à démontrer aux investisseurs, ainsi qu’à l’ensemble des parties prenantes, la capacité de l’entreprise à créer de la valeur d’une part et à maîtriser ses risques à moyen et long termes d’autre part. Le concept est promu par l’International Integrated Reporting Council (IIRC), une association internationale basée à Londres. Créée en 2010, cette association rassemble des entreprises pilotes, des investisseurs, des promoteurs de normes de reporting ainsi que de grands cabinets d’audit.[/su_spoiler]
[su_spoiler title=”Méthodologie”]Nous avons étudié la mise en œuvre du reporting intégré par une multinationale (nom confidentiel) qui participe au programme de l’International Integrated Reporting Council (IIRC). Les travaux s’appuient également sur sa collaboration avec l’IIRC et les discussions approfondies menées avec différentes entreprises qui, à travers le monde, cherchent à mettre en œuvre un reporting intégré.[/su_spoiler]
[su_pullquote align=”right”]Par Geneviève Cazes-Valette[/su_pullquote]
Cet article constitue le second volet d’une série sur la consommation de viande en France. Le premier volet se proposait d’analyser les résultats d’une étude* réalisée en juin dernier. Ces résultats témoignaient d’une baisse de la consommation carnée dans l’Hexagone ces dernières années, et de l’intention d’un nombre grandissant de personnes de réduire cette consommation à l’avenir.
La plupart des travaux de recherche expliquent – tout particulièrement depuis la première crise de la « vache folle » du printemps 1996 –, la baisse de consommation de viande en se référant au risque perçu par les consommateurs à l’idée d’en manger. Ce « risque perçu » peut être motivé par différentes raisons. Avant même la crise de la « vache folle », le danger de cette consommation sur un plan médical était déjà clairement évoqué, principalement via l’excès de cholestérol. Depuis, c’est la question du lien entre consommation carnée et cancer qui préoccupe, comme en témoignent les récentes annonces de l’OMS.
Une autre source de risque, apparue récemment dans les médias, concerne les menaces que l’élevage fait peser sur l’environnement, à cause des émissions de gaz mais aussi de l’utilisation de quantités de protéines végétales pour nourrir les troupeaux et ne produire au final que peu de protéines animales. Enfin, si, dès 1996, la question du risque éthique lié à la mort infligée à un animal pour le manger était présente, on constate depuis une préoccupation grandissante concernant les conditions de vie de l’animal avant sa mort (dans ce cadre précis, les élevages intensifs s’opposent aux extensifs).
Notre étude avait pour but de déterminer si la fréquence de consommation de viande, ainsi que la baisse de celle-ci dans le passé ou à l’avenir, pouvait s’expliquer par le risque perçu, lui-même influencé par la préoccupation des répondants concernant leur santé, la protection de l’environnement ou le bien-être animal.
Que disent les résultats bruts relatifs à ces différentes mesures ? Sur une échelle de 1 à 7 points (le score le plus bas signifiant « pas de risque perçu », « pas de préoccupation envers la santé, l’environnement ou le bien-être animal »), on note que le risque perçu à consommer de la viande est globalement très moyen (3,7/7). Au niveau des différentes préoccupations liées à ce risque, les chiffres sont les suivants : 5,43/7 en ce qui concerne la préoccupation des répondants à l’égard de l’environnement, 5,51/7 pour leur propre santé et, 5,86/7, pour le souci du bien-être animal. Ces données nous semblent refléter un nouvel état d’esprit chez les mangeurs, assez différent du discours médiatique centré sur les arguments santé.
La question du bien-être animal préoccupe une part grandissante des consommateurs français. iStock Photos
La fréquence de consommation et son éventuelle diminution dépend-elle bien du risque perçu ? Oui : plus on perçoit de risque, plus on aura tendance à s’abstenir fréquemment de viande maintenant et à l’avenir. Le risque perçu dépend-il des facteurs que nous avions prévu ? Pas tout à fait : la préoccupation pour sa santé en général et le souci du bien-être animal n’augmentent pas le risque perçu. Seule la préoccupation pour l’environnement, en particulier pour la biosphère (règnes végétaux et animaux), augmente le risque perçu. En revanche, la fréquence actuelle de consommation de viande ne dépend pas seulement du risque perçu, mais aussi du souci du bien-être animal : plus cette question est importante aux yeux des répondants, moins souvent ils consommeront de la viande.
Ces résultats ne préfigurent probablement pas une augmentation massive du nombre de végétariens ; en revanche, ils doivent interpeller les acteurs de la filière et en particulier les éleveurs : l’élevage intensif risque d’être de moins en moins bien toléré. Il semblerait qu’une partie des mangeurs de viande se dirigent vers une consommation moindre, mais de plus haute qualité. Un phénomène qu’a connu le milieu viticole à la fin du siècle dernier. Et qui permettrait peut-être aux éleveurs extensifs de mieux vivre de leur travail ? À condition que les déclarations des répondants soient suivies d’actes, et qu’ils acceptent de payer le prix d’une production naturellement moins productive…
* Enquête auprès de 500 personnes représentatives de la population française de 15 ans et plus, conduite online avec le panel Toluna du 29 mai au 1er juin 2015 et financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay). Elle a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).
Par Geneviève Cazes-Valette, Anthropologue, Professeur de marketing, Toulouse Business School
Les Français sont de grands amateurs de viande : ils en ont consommé 88,7 kg en 2011, contre une moyenne mondiale de 42 kg. Cette consommation de viande de boucherie (hors charcuterie et plats cuisinés) marque cependant le pas depuis 1998. Et il fait peu de doute que les récentes annonces de l’OMS quant à l’incidence avérée ou probable de la consommation de charcuterie et de viande rouge sur la santé vont encore accélérer le processus de baisse déjà enclenché.
À travers une récente étude menée auprès de 500 personnes de 15 ans et plus, représentative de la population française (1), conduite online avec le panel Toluna du 29 mai au 1er juin 2015, nous (2) avons cherché à mieux comprendre les comportements passés, présents et prévus dans l’avenir en matière de consommation carnée, quelle qu’en soit la forme (brute ou transformée).
Nos données – déclaratives – corroborent les tendances énoncées plus haut et mentionnées par d’autres études. Les Français apprécient la viande : ils sont près de 24 % à en manger au moins une fois par jour, 34 % tous les jours ou presque, 33 % plus d’une fois par semaine et seulement 7 % plus d’une fois par mois. Quant aux végétariens déclarés, ils ne sont que 2,4 %.
La tranche d’âge des 15-24 ans se caractérise par des comportements extrêmes : ils sont 30 % à manger de la viande au moins une fois par jour, et près de 10 % à être végétariens (ou végétaliens). À l’opposé, les 50 ans et plus affichent des comportements plus nuancés : seulement 18 % d’entre eux mangent de la viande au moins une fois par jour, mais ils sont moins de 1 % à être végétarien. En termes de genre, la viande est clairement virile : les femmes en consomment moins souvent et la grande majorité des végétariens sont des végétariennes. Au niveau des catégories socioprofessionnelles, trois groupes se distinguent nettement : les cadres et professions intellectuelles supérieures par une surconsommation, les retraités par une plus faible fréquence et les personnes sans activité professionnelle par un taux de végétarisme plus élevé.
Les Français ont toutefois revu leur consommation à la baisse au cours des trois années précédentes : si 45 % déclarent n’avoir rien changé à leurs habitudes, seulement 8,4 % disent avoir augmenté leur fréquence de consommation, contre 46,6 % qui l’ont diminuée. Si l’effet sur la baisse des quantités globales de viande consommée n’est pas aussi intense que ces chiffres pourraient le laisser présager, c’est parce que les personnes ayant diminué leurs apports carnés s’observent plus souvent parmi les consommateurs moyens à faibles (ceux qui consomment seulement plus d’une fois par semaine ou par mois).
Les plus de 50 ans, les femmes et les retraités sont plus nombreux à avoir baissé leur consommation. À contrario, ceux qui l’ont augmentée figurent chez les moins de 35 ans, les hommes, les cadres et les employés. À noter toutefois que les 15-24 ans se caractérisent, comme déjà évoqués, par des comportements contrastés : plus nombreux que la moyenne à avoir accru leur consommation, ils sont aussi plus nombreux à avoir adopté le végétarisme.
Les intentions de comportement pour les trois années à venir vont dans le sens de ces résultats, tout en étant plus modérées : près de 6 % des Français projettent d’augmenter leur fréquence de consommation, 57 % de ne pas en changer et 37 % de diminuer. Globalement, les choix passés se confirmeront à l’avenir. Un gros tiers de ceux qui disent avoir augmenté leur consommation dans le passé déclarent toutefois avoir l’intention de diminuer à l’avenir, alors que seulement 5 % de ceux qui avaient diminué ont l’intention de l’augmenter. La tendance à la baisse de fréquence de consommation est donc nette et devrait se confirmer. Elle concerne surtout les femmes et les moins de 25 ans qui sont près de 10 % à manifester l’intention d’arrêter totalement de consommer de la viande, alors que, dans le même temps, les actuels végétariens de cette tranche d’âge comptent tous persister dans leur choix.
Au-delà de ces comportements, quelles sont les raisons invoquées par les répondants pour expliquer la baisse de leur consommation ou leur intention de le faire ? Les réponses sont multiples. À l’instar de l’étude publiée par Le Monde, ce sont les raisons de budget et de santé qui arrivent en tête (respectivement pour 45 et 40 % des répondants), puis la protection de l’environnement (28 %), la maîtrise de son poids (24 %), la pitié pour les animaux d’élevage (23 %) et enfin les scandales du type « horsegate » (22 %). Les diminutions prévues pour l’avenir sont, elles, d’abord liées à la santé et au budget (respectivement 48 et 39 %), puis à l’environnement et aux animaux (resp. 38 et 37 %) et enfin aux scandales alimentaires et à la maîtrise du poids (resp. 27 et 24 %).
(1) Représentativité assurée par quotas sur âge, sexe du répondant et CSP du responsable du foyer.(2) Cette étude, financée par la chaire SDSC (Sustainable Demand-Supply Chain) d’AgroParisTech (Université Paris-Saclay), a été réalisée à des fins scientifiques par G. Cazes-Valette (Toulouse Business School), P. Gurviez et L. Valette-Blanc (toutes deux Université Paris-Saclay).
Par Geneviève Cazes-Valette, Professeur de marketing, Toulouse Business School
En s’appuyant sur les résultats du Tour de France cycliste, cette étude montre que les différences culturelles entre coureurs d’une même équipe n’ont pas d’impact sur la performance. Un constat qui, sous certaines conditions, est transposable au monde du travail où les questions de diversité font encore l’objet de débats.
Dans quelle mesure peut-on transposer au sport, notamment le cyclisme, certains concepts bien connus du management (collaboration au sein d’une équipe, stratégie, concurrence, etc.) ? L’objectif final étant de mieux comprendre le fonctionnement du cyclisme, mais également, par effet de ricochet, d’améliorer notre connaissance de l’entreprise. Début de réponse avec les travaux de Gaël Gueguen, qui se demande si la diversité culturelle des équipes participant au Tour de France (évaluée notamment par le nombre de pays représentés) impacte leurs résultats sportifs.
Le sport de haut niveau nécessite de faire appel aux meilleures ressources, qu’elles soient humaines ou matérielles. Pour un budget donné, une équipe de haut niveau recherchera les meilleurs athlètes possibles et sera donc incitée à faire son recrutement au sein d’un marché mondial. Dans le cadre du Tour de France, où l’internationalisation des équipes s’est accélérée ces dernières années, on constate ainsi entre 1987 et 2009 une diminution de la part des pays « terres de cyclisme » (France, Italie, Espagne, Belgique et Pays-Bas) au profit d’équipes constituées de cinq nationalités différentes ou plus. Et la tendance se confirme puisqu’en 2015, pour la première fois, une équipe sud-africaine et deux Erythréennes participaient au Tour. Mais cette mondialisation qui touche le sport professionnel n’est pas sans risque : la diversité culturelle peut poser des problèmes de coordination (difficultés de compréhension mutuelle par exemple quand les langues parlées au sein des équipes varient) et nuire à la cohésion des coureurs (différences de valeurs et d’attitudes). La question est d’autant plus cruciale dans le cyclisme, discipline pour laquelle l’importance des sponsors et le caractère mondial des compétitions, impose parfois de recruter des sportifs étrangers parce que leurs pays sont ciblés par les marques.
Doit-on privilégier, au sein des équipes de haut niveau, des sportifs de cultures proches ou peut-on s’affranchir de cette dimension ? Un groupe focalisé sur une tâche précise et composé de ressources complémentaires rares (grimpeurs exceptionnels, sprinteurs, rouleurs hors-pair, ou leaders plus polyvalents …) devant se coordonner en situation de compétition, ne risque-t-il pas de souffrir d’une trop grande diversité de ses membres ? Il semble que non. La diversité culturelle n’a aucun impact sur les résultats sportifs. Les coachs d’équipes cyclistes peuvent privilégier la valeur d’un coureur, quelle que soit sa nationalité, sans avoir à craindre une différence culturelle forte. Explication possible : le professionnalisme des coureurs et de leurs managers compensent les problèmes de coordination. En effet, comme la synchronisation des efforts de chacun est supervisée par un directeur sportif, les rôles des membres de l’équipe sont parfaitement définis. L’entraînement régulier permet par ailleurs de transformer chaque tâche des cyclistes en routine parfaitement maîtrisée.
Une entreprise est composée de ressources humaines rarement homogènes : sexe, âge, expérience, nationalité, salaires, etc. L’importance de ces différences est-elle plutôt favorable ou défavorable à la performance des équipes de travail ? L’analyse des travaux sur la diversité dans l’entreprise montre des résultats contradictoires. Par exemple, la diversité des membres d’une équipe peut dans certains cas accroître sa créativité et améliorer la prise de décisions (les opinions diverses favorisant l’émergence de bonnes idées). Dans d’autres, elle peut nuire à la cohésion, à la confiance et à la communication avec pour corolaire une hausse des tensions et des conflits. L’absence de lien entre diversité culturelle et performance dans le cyclisme peut-elle aider à mieux comprendre ce qui se passe dans l’entreprise ? Sans doute, mais sous certaines conditions. L’épreuve du Tour de France est en effet un cas d’étude bien particulier, ce qui limite sa généralisation. D’abord parce que, dans le cyclisme professionnel, les membres des équipes sont extrêmement spécialisés. Ensuite parce que l’épreuve reine du cyclisme met en compétition des équipes seulement composées de leurs neuf meilleurs éléments parmi la trentaine de coureurs sous contrat (et non de la totalité de son effectif, comme c’est le cas au sein d’une entreprise).
Reste que la méthodologie utilisée peut parfaitement être transposée pour étudier l’impact de la diversité culturelle des équipes de top managers sur la performance des multinationales. Une approche intéressante alors que de plus en plus d’entreprises diversifient leur comité exécutif à mesure qu’elles se développent à l’international. Dans une multinationale comme L’Oréal, par exemple, le recrutement de managers issus de pays divers est considéré comme le principal facteur de succès des lancements de produits dans les pays émergents. Et pour limiter le « syndrome Tour de Babel »*, les équipes multiculturelles sont organisées autour d’un leader qui, grâce à ses propres expériences dans des pays variés, sait gérer les tensions interculturelles**.
* Difficulté à coordonner les efforts en raison des différentes langues parlées dans l’équipe.** “L’Oréal Masters Multiculturalism” de Hae-Jung Hong et Yves Doz (Harvard Business Review, juin 2013).
Par Gaël Gueguen et l’article « Diversité culturelle et performance des équipes sportives de haut niveau : le cas du Tour de France », (Management International, 2011).
Applications pratiques
Même si le cyclisme est une activité bien spécifique, notamment en raison d’une très forte spécialisation de tous les participants, les résultats de cette recherche peuvent être appliqués au monde de l’entreprise sous certaines conditions. Dans le cas d’équipes réunissant des collaborateurs dont les rôles sont bien définis et ayant des tâches dédiées, on peut considérer que la diversité culturelle (mais c’est sans doute également le cas pour d’autres différences comme le genre, l’origine, l’âge, l’éducation …), ne nuit pas à la performance collective. Comme dans le cyclisme, une culture spécifique à l’équipe et transcendant les frontières culturelles est même susceptible d’apparaître.
Afin de déterminer si la diversité culturelle nuit à la performance, j’ai analysé les résultats de 487 équipes (4 375 coureurs) ayant participé à 23 Tours de France entre 1987 et 2009. Il s’est appuyé sur plusieurs indices permettant de qualifier l’hétérogénéité culturelle des équipes (en se basant notamment sur le nombre de pays représentés). L’objectif était de comparer la performance des équipes cyclistes (leurs résultats) et leur niveau de diversité culturelle grâce à la méthode de la régression linéaire qui vise à mesurer la force des liens entre plusieurs variables explicatives et une variable à expliquer.
[su_pullquote align=”right”]Par Gregory Voss[/su_pullquote]
La réforme lancée en 2012 par l’Union européenne (UE) en vue d’assurer un haut niveau de protection des données à caractère personnel pour les citoyens des 28 pays membres verra-t-elle le jour en 2017 ? C’est possible, mais il reste encore à trouver un accord entre le Parlement européen, le Conseil de l’UE et la Commission européenne : c’est la phase du trilogue.
Depuis juin 2015, ces trois institutions de l’UE négocient pour parvenir à un texte unique, le Règlement général sur la protection des données (RGPD). Il existe encore des points de désaccord entre le Parlement et le Conseil, en particulier sur l’obtention du consentement individuel concernant le traitement des données personnelles, les droits et devoirs des collecteurs de données, le montant des amendes en cas d’infraction.
Dès 2012, la Commission européenne a proposé une nouvelle législation sur la protection des données à caractère personnel. Mais ce texte voté par le Parlement européen le 12 mars 2014, attend désormais d’être validé par le Conseil de l’UE. Cette réforme permettra de protéger les citoyens européens et leurs données personnelles même pour les entreprises transnationales responsables du traitement des données via Internet dont le siège ne se trouve pas dans l’UE. Si le niveau de protection des données personnelles en Europe est en général élevé, le niveau des sanctions financières est trop bas, contrairement à ce qui se passe aux Etats-Unis.
Dès que les trois instances de l’UE se seront mises d’accord sur un projet de texte, celui-ci ne pourra être adopté qu’après deux lectures consécutives du même texte par le Parlement, directement élu par les citoyens, et le Conseil qui réunit les gouvernements des 28 états membres. Une fois adopté (sans doute en 2016, même si certains penchent pour une adoption fin 2015), il deviendra applicable dans les deux années suivant l’adoption.
Ce RGPD harmonisera le droit européen et pourrait avoir pour autre atout d’engager un processus d’harmonisation du droit international en matière de protection des données personnelles vers le haut. Par ailleurs, la réduction du fardeau administratif grâce à ce seul texte de loi permettra d’économiser 2,3 milliards d’euros par an, selon les calculs de la Commission.
Le processus peut sembler long mais il convient de rappeler qu’il a fallu 5 années pour négocier la Directive européenne de 1995 sur la protection des données à caractère personnel. Pour le RGPD nous n’en somme qu’à 3 ans et demi, il reste donc de la marge.
Le RGPD fait l’objet d’un intense travail de lobbying par les représentants des responsables du traitement des données. Ces derniers, même s’ils ralentissent le travail législatif, peuvent jouer un rôle légitime en informant le législateur sur les réalités des sociétés collectrices de données.
Depuis l’affaire Snowden, la réforme législative a connu de nombreux soubresauts. Edward Snowden, ancien consultant de la CIA et membre de la National Security Agency (NSA), révélait en juin 2013, que le gouvernement des Etats-Unis avait collecté auprès de 9 géants américains des nouvelles technologies des informations à caractère personnel au sujet de personnes vivant hors des Etats-Unis, notamment dans le cadre d’un programme de surveillance électronique appelé PRISM. Dès le 21 octobre 2013, le Parlement européen proposait un texte dans lequel une des dispositions stipulait que « le responsable du traitement ou le sous-traitant informent […] la personne concernée de toute communication de données à caractère personnel à des autorités publiques au cours des douze derniers mois consécutifs ». Cette disposition est de toute évidence influencée par l’affaire PRISM.
En général, les affaires liées à la protection des données stimulent le débat sur la vie privée en Europe, même si elles ont ébranlé la confiance entre l’UE et les Etats-Unis. Ainsi, le 6 octobre 2015, dans une affaire sur le transfert des données d’un citoyen autrichien aux États-Unis par la filiale de Facebook en Europe, la Cour de justice de l’UE (CJUE) a invalidé les Principes de la sphère de sécurité (Safe Harbor Principles) qui permettaient un tel transfert. En cas de menaces sur la sécurité des Etats-Unis, une clause permettait aux autorités étatsuniennes d’accéder aux données personnelles des Européens. La CJUE a tout naturellement suivi les conclusions de l’avocat général suite à l’annonce de la décision de la CJUE qui selon lui, « pose un problème pour les plus de 4000 sociétés américaines et européennes qui dépendent des Safe Harbor Principles pour transférer des données à caractère personnel aux États-Unis ». Reste à voir les actions que les institutions et les entreprises européennes et américaines vont engager suite à cette décision.
D’un autre côté, même en l’absence d’un RGPD, l’affaire Google Privacy Policy, révèle que les Etats membres de l’UE ont à leur disposition des outils pour contraindre le moteur de recherche à respecter la vie privée et les données à caractère personnel. Ainsi, après plusieurs injonctions, les autorités de surveillance de la protection des données personnelles d’Allemagne d’Espagne, de France, d’Italie, des Pays-Bas et du Royaume Uni ont prononcé à l’encontre de Google des sanctions, notamment des amendes de plusieurs centaines de milliers d’euros. Même si ces pénalités sont relativement peu élevées par rapport au chiffre d’affaires annuel de Google (59 milliards d’euros en 2014), elles annoncent des mesures coercitives plus sévères basées sur le chiffre d’affaires de l’entreprise sanctionnée dans le projet de législation européen.
En France, la Commission Nationale de l’Informatique et des Libertés (CNIL) est en désaccord avec Google sur le déréférencement suite à la décision Google Spain de la CJUE. Depuis la reconnaissance de ce droit par le tribunal, en 2014, toute personne peut demander à un moteur de recherche d’effacer les résultats apparaissant en cas de requête à partir de son nom. Conséquence: Google a reçu plusieurs dizaines de milliers de demandes de citoyens français. Elle a donc procédé au déréférencement de certains résultats sur les extensions européennes du moteur de recherches (.fr ; .es ; .co.uk ; etc.). Mais elle n’a pas procédé au déréférencement sur les autres terminaisons géographiques ou sur google.com, consultable par tout internaute. En mai 2015, la CNIL a mis en demeure Google de procéder au déréférencement sur tous les noms de domaine. Mais Google fait valoir que cette décision constitue une atteinte au droit à l’information du public et donc une forme de censure. Un rapporteur sera sans doute nommé pour trouver une solution.
Pendant que l’Union européenne tente d’arracher un texte commun sur la protection des données personnelles, les états comme la France continuent de renforcer leur arsenal législatif. Le gouvernement a ainsi présenté le 26 septembre 2015 un projet de texte soumis à l’avis du public pour une « République numérique » : une trentaine d’articles portant sur le secret des correspondances électroniques, la portabilité des fichiers, le libre accès aux données publiques. La consultation des citoyens dans l’élaboration du document est une procédure intéressante dont il conviendra de suivre l’évolution.
[su_note note_color=”#f8f8f8″]Par Gregory Voss et les articles « European Union Data Privacy Law Developments », publié dans The Business Lawyer (volume 70, number 1, Hiver 2014-2015), « Looking at European Union Data Protection Law Reform Through a Different Prism : the Proposed EU General Data Protection Regulation Two Years Later », publié dans Journal of Internet Law (volume 17, number 9, mars 2014) et « Privacy, E-Commerce, and Data Security », publié dans The Year in Review, publication annuelle de ABA/Section of International Law (Printemps 2014), co-écrit avec Katherine Woodock, Don Corbet, Chris Bollard, Jennifer L. Mozwecz, et João Luis Traça.[/su_note]
[su_box title=”Applications pratiques” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]L’impact du RGDP pour les entreprises va dépendre du texte final adopté par l’UE. Ce qui est certain c’est qu’il y aura une plus grande responsabilisation des entreprises qui gèrent les données. Certaines entreprises vont sans doute devoir créer des postes de délégué à la protection des données (DPD) sur le modèle du Correspondant Informatique et Libertés (CIL) en France. Des entreprises spécialisées dans l’impact des juridictions en matière de protection de la vie privée vont également voir le jour. Il conseille donc aux chefs d’entreprises d’effectuer une veille législative en matière de protection des données personnelles afin de se conformer à la législation dès que celle-ci entrera en vigueur. Il suggère de sensibiliser les employés par des formations sur la protection des données personnelles. Enfin, les entreprises devront mettre en place des procédures adéquates pour se conformer à la législation sur la protection des données à caractère personnel, y compris celles qui permettront les notifications qui seront requises par le RGDP des violations de données à caractère personnel.[/su_box]
[su_spoiler title=”Méthodologie”]Pour rédiger ses articles sur la législation en matière de protection des données à caractère personnelle, j’ai analysé de nombreux documents juridiques ainsi que « des centaines de pages de propositions, d’amendements, d’avis » émanant surtout des travaux du G29, le groupe de travail indépendant de l’UE sur le traitement des données à caractère personnel. Dans ses articles, je mets en perspective les propositions des instances européennes pour l’adoption d’un RGPD et offre des conseils pratiques pour les entreprises. J’ai également examiné l’évolution des positions des différentes instances européennes, Commission européenne, Parlement, Conseil de l’UE et a étudié les réactions du législateur suite aux révélations d’Edward Snowden en matière de surveillance électronique..[/su_spoiler]
Par Alain Klarsfeld.
Entre 2010 et 2012, trois lois majeures ont été promulguées, imposant aux entreprises et aux administrations de progresser sensiblement en matière d’égalité homme-femmes. La loi de 2011 a porté en particulier sur l’équilibre de la représentation hommes-femmes dans les conseils d’administration et de surveillance des entreprises et des administrations publiques. Tour d’horizon de l’impact de cette loi avec l’enseignant chercheur Alain Klarsfeld.
Malgré les lois et les actions volontaristes en faveur de l’égalité professionnelle et de la lutte contre les discriminations, les progrès restent mineurs dans bien des domaines. Les entreprises se sont certes rapprochées du quota de 6% exigés par la loi en matière d’intégration des personnes handicapées, alors que l’on atteignait à peine 4% il y a dix ans. Mais on est encore loin du compte. En matière d’emploi des seniors, elles ont également fait de réels efforts pour le maintien dans l’emploi (+ 8% en 7 ans), avec un taux de 44.5% des 55-64 ans fin 2012, après une longue période de stagnation durant les années 2000. Parmi les évolutions positives, citons encore la création en 2011 d’une nouvelle instance, le Défenseur des Droits, qui intègre la Haute Autorité de Lutte contre les Discriminations et pour l’Egalité (Halde) et grâce auquel l’accès aux droits, désormais simplifié et rationnalisé, devrait être plus efficace dans la lutte contre les discriminations.
Cependant, la situation de l’emploi des jeunes reste préoccupante, et sans amélioration notable. A titre d’exemple, un jeune diplômé de niveau Bac + 5 ne décrochera son première poste qu’au bout d’un an de recherche d’emploi en moyenne, et ce malgré l’incitation législative dite du « contrat de génération* ». De même, le taux d’emploi des personnes issues de l’immigration, qu’elles soient de première ou seconde génération, évolue peu.
Ce tableau plutôt sombre est pourtant éclairé d’une réelle lumière : celle de l’entrée des femmes dans les organes d’administration des entreprises et des institutions : les conseils d’administration et de surveillance. Le point de départ est une loi de 2011, relative à la représentation équilibrée des femmes et des hommes au sein des conseils d’administration et de surveillance et à l’égalité professionnelle, qui prévoit l’instauration progressive de quotas pour aller vers la féminisation des instances dirigeantes des grandes entreprises. L’objectif à horizon 2017 est une proportion de 40% de femmes, obligation assortie de sanctions, financières et non financières, en cas de non-respect. C’est une véritable évolution culturelle qui s’est opérée, elle a ouvert la voie à des rôles majeurs pour les femmes.
Les politiques de quotas n’ont pas forcément une image positive. Elles sont même fréquemment génératrices de polémiques. Leur mise en place peut même être contre-productive, comme en témoignent les tensions autours de quotas ethniques ou de castes en Inde ou en Malaisie. Totalement inexistantes jusqu’en 2008, puis adoptées par la Norvège, suivie par 11 autres pays depuis, ces politiques de quotas dans les conseils d’administration et de surveillance ont eu des impacts encourageants en faveur de l’égalité. On aurait pu penser que les femmes à ces postes souffriraient d’un manque de légitimité. Or, des études montrent que le fonctionnement et le travail des conseils d’administration s’en sont trouvés améliorés. Les femmes, recrutées pour leurs compétences, apparaissent moins conformistes, posent davantage de questions, rendent ces organes plus actifs
Cette obligation légale a également eu pour conséquence de mettre un coup d’arrêt à un système de cooptation qui s’avérait délétère. Les conseils d’administration avaient tendance à vivre en vase clos, on se cooptait par connaissance. L’injonction de quotas a ouvert des horizons vers des processus de recrutement professionnel, par des chasseurs de tête par exemple, pour constituer des bases de données de femmes hautement qualifiées et leur proposer ces postes. A l’avenir, il faudra vérifier que la constitution de viviers de compétences a initié un recrutement globalement plus professionnel des administrateurs, et pas forcément uniquement des femmes.
Grâce à cette loi, qui impose une « obligation de faire », sont apparues des offres de formation au métier d’administrateur, contribuant à la professionnalisation du rôle. Dans les années qui viennent, il faudra vérifier que les femmes des conseils d’administration constituent un appui ou un levier pour favoriser la parité dans les postes opérationnels de direction des entreprises, sans qu’il y ait besoin de nouvelles lois pour la parité. Déjà, hors du champ de la loi, on a vu des grands groupes, notamment parmi les entreprises cotées au CAC 40, mettre en place des objectifs de recrutement de managers femmes. Une pratique moins brutale qu’une obligation de quotas, mais dont les « effets de ruissellement » potentiels dans les entreprises, à tout niveau hiérarchique, seront, là encore, à vérifier.
* dispositif, voté en 2013, d’aide aux employeurs de droit privé pour favoriser l’emploi, dont celui des jeunes en contrat à durée indéterminée).
[su_note note_color=”#ebebeb”]Par Alain Klarsfeld et le chapitre “ Equality and Diversity in years of crisis in France”, coécrit avec Anne-Françoise Bender et Jacqueline Laufer, publié dans l’ouvrage “International Handbook on Diversity Management at Work – Country Perspectives on Diversity and Equal Treatment (second edition)”, mai.[/su_note]
[su_spoiler title=”Définition”]Egalité professionnelle : c’est l’égalité des droits et des chances entre les femmes et les hommes notamment en ce qui concerne l’accès à l’emploi, les conditions de travail, la formation, la qualification, la mobilité, la promotion, l’articulation des temps de vie et la rémunération (égalité salariale).[/su_spoiler]
[su_spoiler title=”Méthodologie”]Le chapitre « Equality and diversity in years of crisis in France », publié en 2014, fait le point sur les évolutions en France en matière d’égalité professionnelle et de diversité depuis la première édition de l’ouvrage « International Handbook on Diversity Management at Work – Country Perspectives on Diversity and Equal Treatment » en 2010. Le travail est le fruit d’une analyse des évolutions du cadre législatif européen et français et des différents rapports et publications référents sur le sujet, ainsi que d’un travail d’écoute et de suivi des think-tanks, associations et entreprises qui abordent les thèmes de lutte contre la discrimination et l’importance de la diversité.[/su_spoiler]