[su_pullquote align=”right”]Prof. Jean-François Verdié [/su_pullquote]
On a dit, à juste titre, que l’accord européen intervenu le 21 juillet était le plus important depuis la naissance de l’euro en 1999. En effet, en se dotant de ressources fiscales propres fondant la possibilité d’emprunter en son nom, et en lançant une « union de transferts » pour quelque 390 milliards d’euros complétée par 360 milliards de prêts à bas taux, l’Union européenne a franchi un pas fédéral que l’on espère décisif.
Preuve que cet accord stratégique va dans le bon sens, les écarts de taux d’intérêt (spreads) ont baissé significativement : le plus mauvais emprunteur, l’Italie, se situe désormais à 150 points de base de l’Allemagne à 10 ans (contre 200 points il y a encore quelques semaines) lorsque la France emprunte, comme l’Allemagne, à taux nettement négatifs à 5 et 10 ans. Ce qui rend possible une politique massive d’investissement public en faveur de l’éducation, de la santé et de la transition énergétique.
Cet accord constitue donc une première étape dans la consolidation de la zone euro pour pérenniser la monnaie unique, telle que l’avait décrit Robert Mundell, lauréat du prix « Nobel » d’économie en 1999. Ce dernier avait en effet défini en 1961 les trois conditions de la pérennité d’une monnaie unique entre de nombreux pays différents :
Mais l’union de transferts prévus dans l’accord ne suffira pas. Le choc économique de la crise sanitaire liée à la pandémie de Covid-19 confronte en effet la zone euro à des risques très dangereux de divergence entre les États membres :
D’abord, la récession reste aujourd’hui presque deux fois plus forte au sud qu’au nord.
Ensuite, les pays dits « frugaux » (Allemagne en premier lieu, Pays-Bas, Danemark et Finlande) sont entrés dans la crise avec des finances publiques équilibrées, ce qui leur donne beaucoup plus de marges de manœuvre que les pays du sud pour soutenir et relancer leurs économies.
Enfin, leur capacité à négocier entre partenaires sociaux responsables est beaucoup plus efficace qu’au sud (la « cogestion »), où le chômage connaîtra à coup sûr une envolée nettement plus forte en raison de notre incapacité à conclure des accords de flexibilité. Il risque de s’en suivre un cortège de désordres politiques et sociaux débouchant sur un populisme augmenté.
Face à ces risques qui pourraient conduire in fine à l’éclatement de la zone euro, quatre orientations principales devront être approfondies, dans le sens préconisé par la théorie des zones monétaires optimales de Mundell, pour renforcer le caractère fédéral de l’Union et y adosser l’efficacité économique et la pérennité de la monnaie commune.
Il s’agit d’abord de refonder le Pacte de stabilité et de croissance, en séparant clairement les dépenses de consommation courante de l’investissement qui devra sortir du champ du déficit maximum. À taux d’intérêt négatif, il est rationnel de s’endetter pour investir, notamment dans une phase de transition énergétique et climatique.
En revanche, le Pacte devra être plus strictement appliqué par des pays comme la France qui ne l’ont jamais respecté s’agissant des dépenses courantes. Ce qui suppose de renforcer l’automaticité des sanctions contre les « passagers clandestins ».
Si cette condition première est remplie, il sera possible de gagner pleinement la confiance des pays dits « frugaux » et de pousser plus avant « l’union de transferts » qui permettra de muscler l’investissement au sud et à la périphérie de la zone.
L’Union européenne pourra se doter progressivement et régulièrement de nouvelles ressources propres en renforçant sa lutte pour la décarbonation et la réduction des inégalités dont elle est inséparable. Parmi les pistes de réflexion : la taxe carbone, une taxe sur les GAFA et les transactions financières (ainsi que sur une épargne surabondante), un écrêtement des très grosses rémunérations.
Ce serait d’ailleurs le seul moyen d’éviter en 2022 une augmentation générale des impôts nationaux sur les particuliers et les entreprises (comme on l’a vu en 2012 après la récession de 2008-2009). Seule une démarche de type fédéral permettra de positionner des prélèvements d’un type nouveau allant dans le sens d’un « nouveau monde » décarboné.
Parallèlement, la zone euro devra renforcer sa coordination et son management propre. Un directoire des chefs d’État pourrait se constituer – sans modification des traités – pour accélérer les travaux de l’Eurogroupe. La question à laquelle il devra répondre sera de savoir comment créer dans les 19 pays de l’euro des conditions fiscales, de protection sociale et de retraite équivalentes à moyen terme et quelles réformes de structure communes sont nécessaires ?
Si l’ensemble de ces conditions sont réunies, il sera possible de passer à la dernière étape, celle de la mutualisation des titres de dettes qui fut à l’origine il y a deux siècles de la fondation des États-Unis d’Amérique.
La dette nationale mutualisée des 13 premiers États fédérés américains s’est faite sous l’autorité du premier secrétaire d’État au Trésor, Alexander Hamilton. Des propositions ont déjà été formulées dans ce sens, comme celles de Jacques Delpla de la Toulouse School of Economy visant à distinguer la « dette bleue » (celle correspondant aux critères de Maastricht) à mutualiser rapidement de la « dette rouge » (celle dépassant les 60 % du PIB) restant à la charge des États.
Dès maintenant, il faudrait lancer une « union pour le financement de l’investissement et de l’innovation » comme suggéré par le gouverneur de la Banque de France pour disposer de titres de dettes et d’épargne communs en euros pour financer les entreprises sur un marché des capitaux complètement intégré, profond et liquide.
Premier marché d’exportation et première zone mondiale d’épargne, la zone euro pourrait alors disposer d’une monnaie aussi puissante et recherchée que le dollar si ces conditions étaient enfin respectées. Elle disposerait donc de moyens accrus pour faire face à la dépression en cours et à venir.
This article is republished from The Conversation under a Creative Commons license. Read the original article.
Par Alain Klarsfeld.
Le problème, pour la communauté française, n’est pas l’existence de diverses communautés en son sein mais la tendance au séparatisme observée parmi certaines d’entre elles.
S’il est une évolution terminologique bienvenue, et sans aucun doute nécessaire depuis longtemps, c’est la remise en cause de la notion de « communautarisme » et l’avènement de celle de « séparatisme ». Utilisée pour désigner un ennemi supposé, la notion de communautarisme a pour effet de stigmatiser le plus souvent l’islam (mais parfois tout autre groupe visé au travers de ce terme, tels les LGBT, les juifs, les handicapés, les corses, les bretons) et la notion de communauté à laquelle elle emprunte sa racine. Elle n’a aucun fondement scientifique. Le terme de « séparation » (ou son cousin « séparatisme ») pointe bien mieux ce qui pose problème que celui de « communautarisme », et a l’avantage de ne pas stigmatiser la notion plus ancienne et positive de communauté.
Selon les tenants de l’utilisation de la notion de communautarisme, être français impliquerait de n’être membre que d’une seule communauté : la communauté nationale. Toute autre communauté est réputée ne pas exister. Cette idée est battue en brèche par plus d’un siècle de sciences sociales, notamment la sociologie et l’histoire. Nous développons des liens tant avec notre « communauté » ou environnement relationnel et culturel proche (Durkheim, dès 1893, parle de solidarité mécanique) qu’avec la société plus englobante dans laquelle s’inscrit cet environnement relationnel (Durkheim parle de solidarité organique).
S’il est indispensable de construire une société française (que d’aucuns appellent communauté nationale) pour que notre espace national ne soit pas la juxtaposition de différentes communautés coupées les unes des autres, cette « communauté nationale » ne peut se faire en niant complètement les communautés qui la composent. Ainsi, contrairement à une idée reçue, les instituteurs sous la Troisième République respectaient les parlers et les traditions locaux, traditions dont ils étaient souvent eux-mêmes issus. Un terme traduisait même la reconnaissance de ces communautés : celui de « petite patrie ».
Au contraire des termes de « communauté » et de « communautaire » qui désignent des ensembles géographiques, administratifs ou culturels, et renvoient à la notion de partage, le terme de communautarisme, qui se développe à partir du milieu des années 1990, vise à proscrire, à fabriquer un ennemi menaçant, davantage qu’il ne revêt un sens précis.
La deuxième idée sous-jacente à l’emploi du terme de communautarisme, c’est donc la stigmatisation, le plus souvent de l’islam, et parfois d’autres groupes perçus comme menaçants dès lors qu’ils affirment leur existence de manière visible. Les musulmans (ou tel autre groupe visé par le terme de communautarisme, tels les juifs, les handicapés, les Bretons, les corses, les LGBT) formeraient une « communauté » dans la communauté et, ce faisant, se soustrairaient à la communauté nationale, supposé la seule légitime.
Or, le paragraphe qui précède rappelle ce principe de réalité : nous sommes tous simultanément membres d’une petite patrie et d’une grande patrie ; d’une communauté et de la nation qui englobe ces communautés. Plutôt que d’une communauté musulmane, on serait d’ailleurs davantage fondé à parler de communautés de musulmans au pluriel, tant celles-ci peuvent varier en fonction de leur origine géographique et de leur implantation territoriale.
Le terme de « communautarisme » souffre par ailleurs d’un inconvénient majeur : il n’a pas de validité scientifique. Aucune discipline scientifique n’en a fait un concept opératoire. Personne ne peut le définir. Il n’existe pas en anglais, langue partagée par les scientifiques du monde entier. Il ne bénéficie même pas d’un article Wikipédia en anglais. Il sert surtout (en France) à stigmatiser un groupe minoritaire dès lors que celui-ci affirme son existence.
Il n’en va pas de même à l’étranger, où nombre de pays arrivent à conjuguer allégeance forte à un socle de valeurs partagées et respect de communautés affirmant explicitement leur droit d’exister, dès lors qu’une telle affirmation ne porte pas atteinte à ce socle. Ces politiques, parfois qualifiées de multiculturalistes, se retrouvent dans des pays qui atteignent les niveaux les plus élevés de développement économique et humain : Australie, Canada, Finlande, Norvège, Nouvelle-Zélande, Suède.
Or, comme le souligne l’utilisation du terme plus rigoureux de séparation, employé depuis plusieurs décennies dans les recherches scientifiques sur les processus d’acculturation, le problème n’est pas dans l’existence de différentes communautés au sein de la nation française, mais dans l’existence de stratégies identitaires visant à mettre à l’écart et à se mettre à l’écart, à se séparer d’un autre groupe (réel ou fantasmé) perçu comme l’incarnation du mal.
Ainsi, il y a bien une stratégie identitaire nationaliste visant à constituer un bloc « français de (supposée) souche », séparé d’un bloc supposément homogène, les « musulmans visibles », bloc censé être « inassimilable ». Et, comme son miroir inversé, il y a bien une stratégie identitaire chez les mouvements fondamentalistes islamistes visant à constituer un bloc de (supposés) « vrais musulmans », séparé d’un bloc supposé « mécréant », par définition « infidèle », incluant tant les non-musulmans que les très nombreux musulmans ne se reconnaissant pas dans cette construction.
Mais ni la notion de « français de souche », ni celle de « vrai musulman » ne correspondent à des communautés réelles au sens sociologique du terme. Il s’agit en revanche de constructions séparatistes visant à stigmatiser une identité supposée ennemie.
De telles stratégies ont été observées non seulement en France, mais aussi au Canada et dans la plupart des pays dans lesquels vivent des personnes issues de plusieurs cultures, c’est-à-dire dans la plupart des nations actuelles. Aucun système politique ne met complètement à l’abri de stratégies de séparation. Ces stratégies séparatistes qui menacent la cohésion de la société doivent être prévenues par des politiques inclusives. Elles doivent également être sanctionnées là où les politiques inclusives s’avèrent inopérantes. Mais pas les communautés qui existent de fait dans l’espace de notre nation, et qui en font la richesse, pour autant qu’on leur laisse le droit d’exister à l’air libre.
Cet article est republié à partir de The Conversation sous licence Creative Commons. Lire l’article original.
[su_pullquote align=”right”]Jean-François Verdié et Maxime Maury, TBS Education[/su_pullquote]
Le monde va aborder plusieurs risques de crise en 2020 ou 2021 au plus tard. D’abord, un risque de récession et de crise financière avec un ralentissement économique confirmé, dans un contexte d’endettement sans précédent (plus de trois années de PIB) et de pénurie de pétrole annoncée.
Ensuite, un choc pétrolier imminent puisque, pour la première fois dans son histoire, l’Agence internationale de l’énergie (AIE) évoque un risque d’oil crunch avec le franchissement du « pic du pétrole » prévu entre 2020 et 2025, pic au-delà duquel la production d’or noir va décroître irrémédiablement.
Chaque année, la demande augmente d’un million de barils-jour alors que la déplétion, qui désigne la diminution des réserves de pétrole et hydrocarbures, atteint les 2 millions de barils ; il faudra donc extraire des réserves mondiales l’équivalent de la production de l’Arabie saoudite tous les trois ans ! Cette tâche acrobatique est menacée par l’absence de nouvelles découvertes et la fragilité financière des pétroles de schiste américains.
Enfin, une crise climatique avec l’échec retentissant de la conférence de Madrid sur le climat qui laisse pendant le défi énergétique : réduire notre consommation d’énergies fossiles pour empêcher l’emballement climatique. Avec un inévitable adieu à la croissance !
Ces défis appellent des changements radicaux de notre modèle de société et de notre pensée économique. D’autant plus que la théorie de « l’effondrement » nous rappelle, sous la plume de plusieurs auteurs, à l’image de l’ancien député écologiste Yves Cochet, l’avertissement du célèbre rapport Meadows de 1972 (du Massachusetts Institute of Technology pour le Club de Rome) sur « les limites de la croissance » dont la réactualisation, en 2012, par le Smithsonian Institution de Washington a malheureusement montré toute la pertinence prédictive.
Le rapport Meadows est un modèle prévisionnel biophysique qui prévoit un effondrement général de la production et de la population mondiale dans le courant de la décennie 2020 (scénario principal dit business as usual) du fait de l’épuisement des ressources énergétiques (pétrole essentiellement) et de la pollution. Il est à la base de la collapsologie.
Rien n’est fatal pour autant car la mobilisation collective et l’élan donné aux technologies peuvent encore changer la donne. Les bases de la nouvelle politique économique à mener face aux défis énergétiques et climatiques pourraient être représentées par un « carré » de sobriété et de solidarité, dont chaque pilier soutiendrait fermement les trois autres.
Il faut d’abord confier à l’Organisation des Nations unies (ONU) une délégation de souveraineté (premier pilier) pour mettre en place un prix mondial du carbone comme demandé, depuis 2015, par le prix Nobel Jean Tirole.
Ce prix doit se situer autour de 50 euros la tonne et s’appuyer sur la généralisation des permis d’émission, pays par pays, secteur économique par secteur économique. Le prix mondial du carbone devra faire l’objet d’une progression fixée à l’avance jusqu’en 2025 pour orienter l’économie.
La séquence des « gilets jaunes » a révélé que, pour les particuliers, la taxe carbone pouvait s’avérer socialement dangereuse. Cette piste reste d’autant plus à écarter que le soutien au pouvoir d’achat des salariés constitue le deuxième pilier de la nouvelle politique économique à déployer.
À lire aussi : Taxe carbone, les centimes de la discorde
Dans la mesure où la taxe carbone imposée à’l’économie risque également de se répercuter sur les particuliers, il s’agirait donc, pour éviter de dégrader la compétitivité des entreprises, de s’intéresser à d’autres leviers : l’approfondissement de l’intéressement et de la participation, le développement de l’actionnariat salarié, ou encore, comme suggérés par l’essayiste Alain Minc ou l’économiste Patrick Artus. Ces mesures permettraient un partage plus équilibré de la valeur ajoutée qui corrigerait les déséquilibres observés ces 30 dernières années. Cela redonnera goût au travail.
Ce dispositif devrait être complété par une « monnaie-carbone » récompensant les innovations, les investissements et les procédés permettant d’économiser le CO2, comme suggéré par l’économiste Michel Aglietta.
À titre d’illustration, une opération de « monnaie hélicoptère » financée par la Banque centrale européenne (BCE) pourrait être envisagée. Cette émission de monnaie gratuite et sans contrepartie, théorisée par l’économiste libéral Milton Friedman dès 1969, pourrait ainsi inspirer un grand mouvement d’innovation et d’investissement anti-carbone.
Le troisième pilier passe par la réduction des inégalités ; l’échelle des rémunérations de 1 à 500 actuellement en cours dans les grandes multinationales est incompatible avec la sobriété et la solidarité qui s’impose désormais à l’humanité.
C’est incontestablement le « côté » le plus difficile à construire. Sans tomber dans l’utopie, il faut là aussi s’accorder au niveau des pays du G20 ou a minima au niveau des pays les plus importants. Il faudrait « écrêter » les revenus à partir d’un certain montant (encore à définir !) et affecter le produit de cette taxe au financement des infrastructures anti-réchauffement. Cela aurait aussi pour vertu de contribuer à stimuler l’activité.
Enfin, comme nous l’avons suggéré dans un article publié sur le Cercle des Échos, il faut profiter des taux d’intérêt durablement bas pour relancer l’investissement public autour de grandes infrastructures anti-carbone (quatrième pilier). Il est en effet maintenant probable que les taux d’intérêt ne remonteront jamais en raison de la forte « descente énergétique » à laquelle, libres ou contraints par le climat, nous allons devoir nous astreindre.
Si l’on suit les recommandations de Jean‑Marc Jancovici, président du Shift Project pour la transition énergétique, nous pouvons identifier quatre principales pistes de relance :
Il n’est plus possible d’attendre car le réchauffement climatique et la déplétion pétrolière ne sont pas des phénomènes linéaires mais systémiques. Le temps nous est compté.
[su_pullquote align=”right”]Article initialement publié dans “The Conversation” par Philippe Delacote, Etienne Lorang et Gilles Lafforgue[/su_pullquote]
Le projet de loi sur l’économie circulaire, dévoilé le 3 juin dernier devant le Conseil national de la transition écologique (CNTE), est présenté comme la grande loi écologique du quinquennat d’Emmanuel Macron. Au même titre que la loi Grenelle 1 sous Nicolas Sarkozy ou la loi de Transition énergétique sous François Hollande.
Ce projet, dont la deuxième mouture apparaît plus ambitieuse que la première version ayant fuité au début de l’année, préconise entre autres : la création de nouvelles filières de Responsabilité élargie des producteurs (notamment les matériaux de construction et les cigarettes) chargées d’impliquer les acteurs économiques dans la fin de vie des produits mis sur le marché ; des incitations à l’incorporation de matières recyclées dans les produits avec la mise en place d’un bonus-malus ; et un retour à l’usage de la consigne afin d’améliorer la collecte des déchets recyclables.
Cette démarche apparaît comme une promesse de concilier efficacité environnementale et création de valeur économique. Toutefois un certain nombre de limites environnementales du recyclage sont à prendre en compte et se doivent d’être prises en compte.
Le recyclage et la valorisation de certains co-produits ont deux impacts environnementaux majeurs.Ils permettent d’une part d’exercer une moindre pression sur les ressources naturelles. Leur surexploitation engendre de lourds dommages environnementaux, et peut menacer l’approvisionnement. Une réutilisation des déchets de production ou de consommation permet un certain relâchement de ces contraintes.
La gestion des stocks de déchets représente elle aussi un enjeu environnemental majeur. Risques de contamination des sols et des nappes phréatiques, d’émanations toxiques ou encore d’incendies, elle avait par exemple alimenté les débats sur le centre de stockage StocaMine. Des taux de recyclage plus importants permettraient aussi d’amoindrir le volume et donc le poids environnemental de ces stocks.
Cette double « externalité positive » de l’économie circulaire en fait donc un modèle pour l’économie de demain. Elle encourage la société à créer de la valeur tout en réduisant l’empreinte écologique de son activité.
L’économie circulaire présente toutefois certaines limites, voire des effets pervers. Un effet rebond, c’est-à-dire une augmentation potentielle de la consommation en lien avec une meilleure utilisation des déchets, est tout d’abord à craindre. Les économistes mettent en garde contre ce phénomène dans le cas où l’amélioration des performances environnementales d’un bien entraîne une augmentation de son utilisation. En économie comportementale, certaines études montrent que l’individu, dès lors qu’il sait que le recyclage de son bien est possible, va d’autant plus consommer. Encourager à recycler peut, paradoxalement, générer des comportements moins respectueux de l’environnement du fait d’une surconsommation des biens en question.
Il est également crucial de prendre en compte les limites physiques de l’application du recyclage. Même pour des taux de recyclage très élevés, il existera une fraction de matière qui sera perdue après utilisation. C’est justement le cas des matières dont l’usage est dit « dispersif », c’est-à-dire très difficile techniquement et coûteux à récupérer. C’est par exemple le cas de l’électronique, domaine friand de matériaux rares utilisés en très faibles quantités. Dans ce cas précis, l’opportunité de recycler permet tout au plus de retarder l’échéance d’un épuisement des ressources et d’une saturation des capacités de stockage des déchets, mais en aucun cas d’atteindre cette circularité parfaite si souvent fantasmée dans le cadre d’une économie soutenable.
Ce constat est d’autant plus déterminant lorsque la consommation est croissante : la circularité, même parfaite, n’a alors que peu d’effets sur le long terme, et ne fait que retarder de quelques années les pressions sur les ressources.
Au final, améliorer l’efficacité des usages des déchets par une augmentation des taux de recyclage et une valorisation de ceux-ci peut induire des effets négatifs qui limiteraient voire annuleraient l’impact bénéfique de l’économie circulaire sur les ressources naturelles et les stocks de déchets.
Au-delà de l’effet rebond, il est important de prendre en compte le fait que le recyclage, potentiellement souhaitable sous l’angle des ressources et des stocks de déchets, n’est pas neutre d’impacts. Il ne constitue donc pas le remède miracle aux menaces qui pèsent sur nos environnements. En matière d’émissions de gaz à effet de serre (GES), les filières de recyclage sont certes parfois plus efficaces que les filières issues de ressources vierges, mais elles ne sont pas pour autant synonymes de neutralité carbone, comme le montre le tableau ci-dessous.
Atteindre des taux élevés de récupération de matières premières implique des opérations de séparation de matériaux qui peuvent nécessiter des processus industriels complexes, coûteux et énergivores (hydrométallurgie, pyrométallurgie…) même s’ils le sont moins que l’alternative classique de l’extraction. C’est par exemple le cas du Lithium, critique pour le développement de la mobilité électrique. On voit ci-dessous le différentiel d’émission de GES entre l’extraction de lithium vierge et différents processus de recyclages de cette matière.
Au-delà des émissions de gaz à effet de serre, d’autres impacts nocifs sont à considérer : l’utilisation massive d’eau ou d’éléments chimiques lors du traitement de certains déchets. Ou encore la présence de produits considérés comme toxiques, difficilement maîtrisable lorsque le stock de matière première est celui de déchets, comme pour le cas des retardateurs de flammes bromés dans les plastiques.
Dans ce cas particulier du traitement des déchets incorporant des substances dangereuses ou préoccupantes, les arbitrages ne peuvent pas se faire uniquement sur les critères de préservation des ressources ou de stocks de déchets. Ils doivent également prendre en compte des éléments de risque sanitaire.
Schématiquement, le traitement de ce type de déchet peut s’effectuer selon trois procédés, dont chacun a des impacts différenciés : le recyclage présente un intérêt pour la préservation des ressources vierges, mais pose de possibles problèmes sanitaires et d’émissions de gaz à effet de serre ; le stockage est intéressant dans une optique de moindres émissions de GES, mais génère potentiellement des risques sanitaires importants ; l’incinération permet de traiter efficacement les composantes dangereuses mais génère de fortes émissions de GES.
Jusqu’à présent, l’objectif de la filière par l’incinération a consisté à convertir des risques sanitaires localisés et de court terme, en risque climatique global de plus long terme. L’accent mis sur l’économie circulaire et le recours accru au recyclage feront sans doute basculer certains arbitrages, au risque d’augmenter certaines menaces sanitaires. Il est ainsi nécessaire ici de prioriser l’éco-conception des produits, au travers le renforcement du concept de Responsabilité Élargie du Producteur, afin de circonscrire ces risques.
Pour espérer un véritable effet de l’économie circulaire sur la durabilité de nos modes de vie, il est donc nécessaire que ces usages accrus du recyclage et de la valorisation des déchets ne se fassent pas au détriment d’une remise en question de nos habitudes de consommation et de production.
L’économie circulaire est donc un beau et bon principe de base, mais le risque serait de le considérer comme une alternative à la sobriété de nos modes de vie. Ces préceptes d’économie circulaire sont indissociables d’une maîtrise de la consommation des biens générateurs de déchets.
Si le constat est peu mis en avant par les décideurs, il est en revanche souvent mis en avant par de nombreuses associations impliquées dans la transition écologique. Négawatt en fait par exemple un de ses trois axes de transition énergétique, avec l’efficacité et la substitution. C’est cette question de la sobriété qui est l’axe de transition principal menant à une empreinte écologique amoindrie et une remise en question de notre modèle actuel.
[su_pullquote align=”right”]Par Lambert JERMAN et Alaric BOURGOIN [/su_pullquote] A l’heure où de nombreuses professions s’interrogent sur leur sens profond, tiraillées entre les contraintes économiques et l’automatisation annoncée d’une partie de leurs activités, l’auditeur des grands cabinets du Big Four se révèle précieux pour comprendre ce qui fait le sens du travail d’un professionnel du service aujourd’hui.
De la stature valorisante de l’expert aux difficultés du terrain
Sur le terrain, les auditeurs doivent faire face à un ensemble de difficultés qui contribuent à nuancer la vision idéalisée du professionnel du chiffre. La pratique exige du praticien qu’il résiste, parfois transgresse, les standards du cabinet, s’ajuste continuellement aux contraintes des missions, selon des logiques liées à sa propre subjectivité. Les clients réfractaires au planning surchargé ou le désordre des pièces comptables confrontent l’auditeur à une anxiété permanente sur sa capacité à faire aboutir les missions. La peur de mal faire est omniprésente, puisqu’une erreur non détectée dans les états peut avoir de graves conséquences financières et pénales. Toutes ces facettes du travail de l’auditeur suggèrent que sa construction identitaire n’est pas toujours synonyme de valorisation, d’apaisement, ni porteur d’une harmonie intérieure. Elle s’apparente également à un rapport pressant de l’individu à ses faiblesses, où l’exercice de son activité professionnelle le confronte aux limites de son expertise, à ses échecs et à ses erreurs.
Voici pourquoi nous avons cherché à comprendre les pratiques et les discours par lesquels l’auditeur se construit en « bon » professionnel. Comment les difficultés du terrain déterminent-elles la capacité de l’auditeur à devenir le professionnel attendu ?
Pour répondre à cette question, nous avons mené une enquête ethnographique de six mois dans un grand cabinet d’audit international.
L’identité négative : se construire en « bon » professionnel par l’expérience, la confession et l’administration de ses faiblesses
Nos résultats montrent que la construction identitaire des professionnels se joue dans une mise en tension de l’individu porté à s’ausculter sans complaisance, pour espérer incarner en public l’image idéalisée du professionnel. Notre étude de l’auditeur nous permet de préciser la notion « d’identité négative » au cœur de notre argument. L’identité négative correspond à l’ensemble des pratiques et des discours par lesquels l’auditeur se construit en « bon professionnel » dans un rapport pressant et continu à ses faiblesses. Plus spécifiquement, ces pratiques et discours s’articulent autour de (1) l’expérience, de (2) la confession et de (3) l’administration de ses faiblesses par l’auditeur.
Par l’expérience de ses faiblesses, l’auditeur se livre à une enquête pratique lui permettant de prendre conscience de la distance qui existe entre son image de professionnel du chiffre et la réalité du terrain. L’ambigüité des situations, l’équivoque de la matière, la pression de l’erreur et des clients, l’empêchent de s’en remettre aux seules prescriptions du cabinet pour régler son comportement. Cette prise de conscience, anxiogène, l’oblige à s’interroger sur ses points de vulnérabilité, à prendre des risques, à se mettre dans une « position basse » qui tient compte des exigences et des contraintes des clients. Cette posture fait écho aux observations réalisées dans d’autres professions de services comme celles des consultants , qui doivent composer avec l’anxiété liée à la multiplication d’interventions de court-terme, dans des environnements nouveaux et au contact de clients exigeants.
Par la confession de ses faiblesses, l’auditeur opère un rapprochement entre sa position personnelle vulnérable et l’image plus valorisante du professionnel du chiffre. Cette pratique entretient la tension entre la perception négative de l’individu par lui-même, et les discours plus laudatifs portés par le cabinet. La confession s’apparente d’abord à un exercice d’humilité, par lequel l’auditeur est de nouveau confronté à lui-même dans un effort réflexif. Il doit apprendre à « s’autoévaluer mauvais », c’est-à-dire à extérioriser et à verbaliser ses faiblesses sur une base volontaire dans les dispositifs d’évaluation du cabinet. Ces dispositifs encouragent ensuite la définition « d’axes de progrès » qui opèrent un retournement fondamental. La prise en compte circonstanciée des points faibles de l’individu se transforme en la stabilisation d’un profil professionnel rétribué à sa juste valeur. Toutefois, cette transformation n’est jamais entièrement accomplie car la confession sanctuarise l’imperfectibilité au cœur du professionnalisme.
Enfin, par l’administration de ses faiblesses, l’auditeur opère un travail de rationalisation des enjeux clés du métier et se découvre des appuis relationnels et formels permettant de composer avec les difficultés du terrain. Le retournement opéré par la confession demeurant largement rhétorique et confiné à l’intérieur du cabinet, il ne suffit pas pour que l’individu compose durablement avec ses faiblesses. La vision globale des missions et des enjeux du client, la solidarité d’équipe et le souci formel, lui permettent de faire de nécessité vertu, et d’assimiler les contraintes et les imprécisions du métier, tant sur le plan intellectuel que sur le plan pratique. L’auditeur, empreint de doute car aux prises avec les difficultés du terrain, est ainsi replacé dans le giron de l’identité sociale prestigieuse du professionnel, créant chez l’individu un équilibre temporaire et toujours à renouveler entre ces deux pôles.
Le « bon » professionnel, Sisyphe de l’imperfection
En prenant au sérieux les faiblesses de l’auditeur et ses difficultés sur le terrain, « l’identité négative » réintroduit son identité personnelle derrière l’image balisée et valorisante de l’expert apposant un jugement définitif sur la rectitude des comptes. Nous observons un auditeur vulnérable, aussi inquisiteur de lui-même qu’il peut l’être de son client. Confronté à l’ambiguïté des situations d’intervention, l’auditeur nourrit son professionnalisme de sa capacité à douter de lui-même et d’un regard anxieux sur son aptitude à faire aboutir ses missions. Véritable Sisyphe de l’imperfection, il se présente comme un individu mis en tension entre une expérience parfois douloureuse du métier et l’image valorisante portée par les cabinets. Nos observations permettent de comprendre comment la construction identitaire se joue aussi dans et par la difficulté, plaçant l’individu dans une posture introspective entretenant un doute constant sur sa propre valeur. Par-delà la menace des circonstances économiques ou de l’automatisation annoncée des opérations de vérification, notre étude suggère que l’auditeur doit son succès comme professionnel au caractère adaptable d’une pratique alimentée par un questionnement structurant sur sa propre valeur.
[su_spoiler title=”Méthodologie”]Le premier auteur a lui-même travaillé comme auditeur et consigné ses observations (dans le cabinet et en mission) dans un journal de bord. Cette méthode ethnographique permet aux chercheurs de se situer au plus près des enjeux du terrain et d’acquérir une connaissance indigène des phénomènes observés. Cette méthode est pertinente pour analyser la construction identitaire, qui est expérimentée intimement par les acteurs et donc difficile à verbaliser au cours d’entretiens. Le rôle du second auteur a été crucial pour contrôler les biais d’immersion et trouver un juste équilibre entre la distance professionnelle et l’implication personnelle indispensables à la recherche ethnographique. Référence de l’article complet : JERMAN, L., & BOURGOIN, A. (2018). L’identité négative de l’auditeur. Comptabilité – Contrôle – Audit, 24 (1), 113-142. doi:10.3917/cca.241.0113 [/su_spoiler]
[su_pullquote align=”right”]Par Gregory Voss et Kimberly Houser[/su_pullquote] La débâcle du Cambridge Analytica et l’audience du Sénat américain qui a suivi ont révélé sans équivoque qu’aux États-Unis, les lois relatives à la protection des données personnelles ne sont pas appropriées. Malgré leurs grands discours, les sénateurs ont fait preuve d’un manque de compréhension, non seulement du fonctionnement de l’économie des données, mais également des lois de leur propre pays.
Lorsque le Règlement général sur la protection des données en Europe (RGPD) est entré en vigueur le 25 mai 2018, les inégalités entre les lois européennes et américaines sont devenues assez évidentes. Dans notre document de travail intitulé « RGPD : la fin de Google et Facebook ou un nouveau paradigme dans la protection des données personnelles ? », à paraître dans l’édition d’automne du Richmond Journal of Law and Technology, nous étudions ces différences en termes d’idéologie, de mesures d’application, ainsi que les lois elles-mêmes.
Le modèle économique américain relatif à la technologie consiste à fournir des services gratuits en échange des données personnelles d’un utilisateur. Cela est cohérent avec la loi américaine de protection des données personnelles, qui est spécifique à chaque secteur. En effet, seul un certain type de données – médicales et financières, par exemple – est protégé, mais seulement dans la limite prévue par la loi applicable. Aux États-Unis, il n’existe pas de loi fédérale omnibus sur la protection des données dans le secteur privé. Bien que la Federal Trade Commission (FTC) soit l’autorité de facto en matière de protection des données aux États-Unis, ses antécédents en matière de mesures d’application de la loi contre les entreprises américaines de technologie sont plutôt limités. Historiquement, la FTC n’a pris des mesures que lorsqu’une entreprise ne respectait pas la politique de protection des données personnelles qu’elle a fournie, en vertu de l’Article 5 de la loi de la FTC concernant les « pratiques trompeuses et déloyales ».
Le modèle européen de protection des données personnelles est basé sur la fondation des droits de l’Homme et considère comme fondamentales la vie privée ainsi que la protection des données. Sous le prédécesseur du RGPD (la Directive de 1995), de nombreuses mesures ont été prises contre les entreprises américaines de technologie pour cause de violation des lois des États membres de l’Union européenne. Malgré ces nombreuses mesures d’application de la loi réussies, ces entreprises américaines de technologie n’ont pas changé de façon significative leur modèle économique par rapport aux données obtenues de l’UE, en raison de la faiblesse du plafond des amendes prévues par les législations nationales (par exemple, 150 000 € en France pour une entreprise évaluée à 500 milliards d’euros).
L’idéologie américaine qui sous-tend la protection des données personnelles est l’équilibre entre la capacité d’une entité à monétiser les données qu’elle collecte (encourageant ainsi l’innovation) et les attentes des utilisateurs en matière de vie privée (ces attentes étant visiblement faibles aux États-Unis). Dans l’UE, l’accent est mis sur la protection des données personnelles des utilisateurs. Le cas de Google Espagne illustre parfaitement cette dichotomie. Un citoyen espagnol a voulu faire retirer de Google certaines informations le concernant, comme le permet la loi en vigueur dans l’Union européenne. Google s’y est opposé et a saisi le tribunal. Étaient opposés la liberté d’expression (d’une importance capitale aux États-Unis) ainsi que le droit de Google à revendiquer les informations du public, et le droit européen à la vie privée et à l’oubli, invoqué par le plaignant européen. La Cour de justice européenne a jugé que l’équilibre des intérêts a penché en faveur du plaignant.
Comme expliqué dans notre publication, les lois fédérales des États-Unis sont spécifiques à chaque secteur, les principaux domaines étant couverts par la loi américaine de l’assurance maladie (Health Insurance Portability and Accountability Act) (informations relatives aux soins de santé), la loi Gramm-Leach-Bliley (Gramm-Leach-Bliley Act) (informations financières), la loi « Fair Credit Reporting Act » (informations relatives au crédit) et la loi visant à protéger la vie privée des enfants sur Internet (Children’s Online Privacy Protection Act) (informations sur les enfants). En outre, les États ont également adopté diverses lois relatives à la sécurité des données, exigeant la notification des atteintes à la protection des données.
D’un autre côté, l’approche européenne a toujours été plus large. Par exemple, pour atteindre ses objectifs, la Directive de 1995 stipule que chaque État membre de l’Union européenne est dans l’obligation d’adopter des lois exhaustives relatives à la protection de la vie privée. Même si l’adoption d’une directive était synonyme, pour les États membres, de flexibilité quant à la création de leur propre loi sur la protection de la vie privée, en 2012, la Commission européenne a décrété que la loi devait être mise à jour. Le RGPD a été promulgué pour : assurer l’harmonisation entre les lois des États membres, intégrer des avancées en matière de technologie, débarrasser les entreprises des charges administratives liées aux demandes d’enregistrement et, comme nous l’indiquons dans notre publication, uniformiser les règles du jeu pour les entreprises de technologie utilisant les données personnelles de celles situées en Europe.
Étant donné que les entreprises américaines ont pu monétiser leurs données avec peu de restrictions ou de conséquences, elles se sont imposées dans le domaine de la technologie, avec une part de marché de 80 % pour Facebook, et de 90 % pour Google. Toutefois, les règlementations ont été mises à jour conformément aux données de l’Union européenne. Le RGPD exige, entre autres, un consentement vérifiable et préalable à l’utilisation des données de l’utilisateur ainsi qu’un consentement pour toute utilisation secondaire. Il n’existe pas d’exigence similaire aux États-Unis : les entreprises opérant sous la loi américaine reposent essentiellement sur un mécanisme de retrait et n’ont pas l’obligation de révéler les utilisations secondaires des données. Le RGPD prévoit également un droit à l’oubli, un droit à la portabilité des données personnelles, la possibilité de refuser le traitement automatique des données (profilage), et exige que le traitement des données ait lieu sur une base légale. Aucun de ces droits ne sont accordés aux citoyens des États-Unis sous les lois fédérales américaines en vigueur.
Le RGPD ayant une portée extraterritoriale, la loi sera appliquée si l’entreprise, peu importe où elle est située, collecte et traite les données personnelles de celles situées en Europe, et lorsque le traitement concerne l’offre de biens ou de services (payants ou « gratuits ») aux personnes concernées, ou le contrôle de leur comportement, dans la mesure où celui-ci a lieu au sein de l’UE. Cela soulève la question suivante : le RGPD sera-t-il synonyme de la mort de Google et Facebook ou présentera-t-il un nouveau paradigme dans la protection des données personnelles ? Le temps nous le dira. Toutefois, étant donné que, sous le RGPD, les amendes pourraient passer de plus de 100 000 euros à plus d’un milliard d’euros, il semblerait que le modèle économique américain (les données pour le service) doive s’adapter, au moins en ce qui concerne les données de l’UE.
Cet article a été publiée dans Oxford Business Law Blog.
[su_pullquote align=”right”]Par David LE BRIS[/su_pullquote] Malgré l’importance du phénomène, la notion de krach boursier ne renvoie à aucune définition économique précise. A priori, les krachs devraient être la conséquence d’évènements importants mais il est souvent difficile d’établir un lien clair entre des faits historiques et des réactions boursières.
La baisse de l’indice boursier français enregistrée lors du déclenchement de la Première Guerre mondiale en juillet 1914, est de seulement 7,14 %, une chute mensuelle modeste qui la place seulement en 105e position de toute l’histoire des pires baisses. Mais une baisse d’un certain pourcentage a un impact plus fort sur un marché stable que sur un marché hautement volatile. Un krach ne représente pas seulement un pourcentage brut de baisse mais constitue une variation significative par rapport à ce qui était observé antérieurement.
Par conséquent, les krachs sont à analyser en fonction de la situation financière précédente. Une nouvelle méthode de mesure des krachs est proposée en mesurant chaque variation mensuelle, non en pourcentage brut, mais en nombre d’écart-types de la période antérieure. Avant 1914, l’indice boursier français est habitué à une faible volatilité. En conséquence, la modeste baisse de 7,14 % correspond à une chute de 6,09 écarts-types, la situant au second rang des pires crises financières françaises. Cette seconde place est plus cohérente avec l’histoire.
Dans un article à paraître dans la revue Economic History Review, cette méthode est appliquée à des séries de long terme d’indices actions nord-américains et français et aux emprunts d’État britanniques. Cette nouvelle technique donne une vision différente de l’histoire des chocs financiers. Une meilleure adéquation est ainsi établie entre les krachs et les événements. Des événements qui, évalués en pourcentage, sont sans importance, deviennent de véritables crises après ajustement pour la volatilité. Ce « matching amélioré » apporte de nouveaux éléments à de nombreux débats historiques.
Conformément à d’autres sources historiques pointant la gravité de la crise de 1847, cet épisode fait partie des dix krachs majeurs sur le marché obligataire britannique alors qu’il se situe au 102e rang en termes de pures variations de prix. Le déclenchement de la guerre de Sécession provoque un krach de grande ampleur soutenant l’aspect coût dans le débat coût/avantage au sujet de ce conflit. La conférence de Berlin marque l’organisation du partage de l’Afrique et entraîne un effondrement des obligations britanniques comme si le marché intégrait le futur coût de la colonisation africaine pour les finances publiques britanniques.
Les guerres antérieures à la Première Guerre mondiale (guerres franco-prussienne, russo-turque, guerre des Boxers en Chine, guerre des Boers, etc.) engendrent plusieurs krachs sur le marché boursier français comme sur le marché obligataire britannique qui confortent la vision traditionnelle de l’importance de ces conflits malgré les modestes variations de prix qu’ils provoquent dans cette période de faible volatilité.
La Première Guerre mondiale génère des krachs majeurs aussi bien sur la place boursière française que sur les marchés obligataires britanniques relativisant la théorie d’une marche aveugle vers le désastre. Aux États-Unis, il n’est pas identifié plus de krachs avant 1913, date de la création de la Réserve fédérale, dont le rôle de régulateur des marchés financiers est aujourd’hui remis en question.
En France, dans les années 1920, deux chocs monétaires confirment que la politique monétaire française fût un facteur essentiel des troubles de l’entre-deux-guerres. Les moments chauds de la guerre froide provoquent des krachs sur les marchés boursiers nord-américains et français, ce qui est cohérent avec les craintes de désastre des contemporains. L’absence de crise en 1929 à la Bourse de Paris et sur le marché obligataire britannique va dans le sens d’une propagation de la Grande Dépression vers l’Europe par d’autres canaux que celui des marchés financiers. La crise de 2008 diffère sur ce point car les bourses française et nord-américaine chutent de concert. Cette nouvelle méthode de mesure nous permettra probablement d’améliorer notre compréhension des mécanismes financiers.
[su_pullquote align=”right”]Par Louise Curran[/su_pullquote]
Dans cet article, écrit avec Michael Thorpe de l’Université de Curtin en Australie, nous explorons l’évolution récente de l’investissement chinois dans les industries du vin de la région de Bordeaux en France et les comparons avec des investissements dans le même secteur en Australie occidentale (WA : « Western Australia »).
Nous avons constaté que les investissements ne sont pas aussi répandus que ce qui est souvent impliqué par les médias, bien que la vitesse de croissance à Bordeaux ait été impressionnante. Plusieurs difficultés ainsi que des synergies potentielles ont été identifiées avec ces investissements.
Situation variée en France et en Australie Nous avons choisi d’étudier la France et l’Australie, respectivement, les premiers et seconds exportateurs de vin sur le marché chinois en 2013. Nous avons examiné deux régions avec un positionnement assez similaire au marché : Bordeaux et WA se concentrent tout deux sur l’extrémité supérieure du marché et se spécialisent dans le vin rouge. Le phénomène de l’investissement chinois dans le secteur est plutôt récent dans les deux contextes, bien que l’investissement chinois dans l’économie australienne soit antérieur. L’objectif de notre étude était d’explorer l’ampleur de l’investissement et de mettre en évidence les difficultés rencontrées.
Nous avons constaté que l’ampleur de l’investissement chinois dans les deux régions était assez faible, même si le nombre d’investissements à Bordeaux (d’environ 80) est impressionnant, tout comme leur croissance rapide. Pourtant, moins d’un pour cent des vignobles bordelais appartiennent à des investisseurs chinois et beaucoup de ces vignobles sont très petits, c’est pourquoi la surface réelle couverte par les investissements est faible. Le nombre d’investissements est encore plus faible en Australie occidentale (7 vignobles), mais la grande taille de certaines acquisitions rend sa couverture plus élevée (6% de la superficie des vignobles). En effet, la grande taille des vignobles australiens est un avantage évident pour les investisseurs chinois, qui favorisent des structures de production à grande échelle répondant mieux au marché chinois.
Difficultés pour les investisseurs, mais aussi avantages potentiels
Nous avons constaté toutes les difficultés classiques rencontrées par les investisseurs étrangers identifiées dans d’autres études, mais la plus importante était leur manque de connaissance du contexte local. Cela a été particulièrement problématique en France, où il y a peu d’investissement chinois et peu de diaspora chinoise. Les problèmes habituels liés à la compréhension d’une culture étrangère ont été aggravés par le fait que la plupart des investisseurs chinois provenaient de secteurs qui n’étaient pas liés au vin, ni même à l’agroalimentaire, tels que la bijouterie, les métaux et le pétrole. La spécificité du secteur du vin a ainsi engendré d’autres difficultés. En Australie, nous avons constaté beaucoup moins de problèmes, principalement parce que les investisseurs avaient souvent des relations commerciales préalables dans le pays avant d’investir dans le vin et ont fréquemment investi en partenariat avec un homme d’affaires local plutôt que tout seul. Alors que la plupart des investisseurs chinois à Bordeaux n’ont pas investi avec des partenaires locaux et ont généralement conservé la direction qui était en place pour continuer le fonctionnement quotidien du vignoble. On a reconnu la nécessité de s’appuyer sur cette expertise locale afin que l’activité prospère. Les institutions locales de WA et de Bordeaux ont reconnu qu’il fallait fournir un soutien aux investisseurs chinois afin d’assurer leur succès. La Chambre de commerce et d’industrie de Bordeaux organise des séminaires réguliers sur Bordeaux et Hong Kong afin de s’assurer que les investisseurs connaissent le potentiel, mais aussi les pièges, de ces investissements. Le Département de l’agriculture de WA a organisé un séminaire similaire pour les investisseurs chinois intéressés par l’ensemble du secteur agricole en 2014. Enfin, les investisseurs chinois dans les deux régions ont apporté deux avantages clés. Le premier était la capacité financière. Beaucoup des vignobles acquis étaient en mauvais état et, dans plusieurs cas, des sommes importantes ont été investies dans la modernisation des installations et l’augmentation de la productivité. L’autre avantage clé était leur connaissance du marché intérieur et la capacité à tirer parti de leurs réseaux commerciaux pour développer ce marché. La Chine est devenue un marché mondial clé pour le vin, en particulier pour le vin rouge, au cours des dernières années. Bien que les exportations aient chuté par rapport à leur pic en 2014, leurs importations de vin valaient 1,4 milliard de dollars. Pour les vignerons plus petits et de qualité inférieure, la capacité de leurs propriétaires chinois à soutenir leur évolution sur ce marché important a été un facteur clé pour permettre leur développement.
L’avenir – la consolidation plutôt que l’expansion
En ce qui concerne l’avenir, la plupart des personnes interrogées ont convenu que le pic des investissements était passé et que nous entrions dans une phase de consolidation. Il y a eu beaucoup moins d’investissements à Bordeaux en 2015 qu’en 2014 et en particulier 2013-2. Cela reflète en partie que le marché du vin chinois est en pleine maturité et que les taux de croissance sont maintenant moins attrayants. Plusieurs d’entre eux ont souligné que la Chine n’est pas, et n’a jamais été, l'”El Dorado” pour les marchands de vins, c’est un marché plutôt exigeant et difficile. La chute récente des investissements ainsi qu’une lutte contre la corruption en Chine, a entraîné une chute importante des ventes de vin liées aux cadeaux (une préférence majeure pour les ventes de vin haut de gamme) et des banquets officiels (qui ont été considérablement réduits). Les personnes fortunées ont également signalé que les investissements de haut niveau dans les produits de luxe comme le vin pourraient attirer l’attention indésirable des autorités.
[su_spoiler title=”Méthodologie”]Notre recherche comporte vingt interviews dans les deux régions étudiées avec des agents institutionnels, des consultants et d’autres fournisseurs de services travaillant avec des investisseurs, le personnel dans trois sociétés locales détenues (entièrement ou en partie) par des investisseurs chinois ainsi que deux investisseurs chinois, un en Chine et un autre directeur d’un investissement en Australie. Les entretiens ont eu lieu au cours de la période de décembre 2013 à octobre 2014. Nous avons également utilisé des articles de presse pour identifier les investissements pertinents. [/su_spoiler] [su_box title=”Implications managériales” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Notre recherche indique que les investissements les plus réussis dans les deux contextes que nous avons étudiés, étaient ceux qui se sont associés avec des entreprises locales. Il semble que dans les cas où il y a de grandes différences concernant les environnements institutionnels et culturels entre le pays d’origine et le pays d’investissement, travailler avec une personne d’affaires locale constitue un pont important pour réduire le manque de familiarité. Les investisseurs qui ont acquis des vignobles sans partenaires locaux ont plus souvent eu des difficultés, même si beaucoup ont conservé le personnel local et ont adopté une approche plutôt « non-interventionniste » du côté de la production, ce qui semble prudent étant donné qu’ils manquaient souvent de connaissances en matière de vin. L’atout le plus important que les investisseurs chinois aient apporté fut leur expertise et leurs liens avec leur marché domestique, de sorte que le potentiel de synergie soit significatif, à condition que la compréhension et la confiance soient présentes. [/su_box] Par Louise Curran, IDE chinois dans les industries du vin français et australien : handicap de la firme étrangère et effets du pays d’origine. Co-écrit par Michael Thorpe, département des sciences économiques, Curtin University Western Australia. Apparu dans “Frontiers of Business Research in China”, Volume 9, numéro 3 en 2015. Cette recherche a été soutenue par une bourse de recherche décernée à Louise Curran par l’Université Curtin en 2013.
[su_pullquote align=”right”]Par Servane Delanoë[/su_pullquote]
Dans la création d’entreprise, on s’intéresse souvent plus au projet qu’à l’entrepreneur. Or cette démarche a des implications personnelles très fortes. L’évaluation des programmes de soutien personnalisé gagnerait en pertinence à prendre davantage en considération l’évolution du ressenti des entrepreneurs sur leur capacité à mener à bien leur projet, notamment sur les aspects liés à la stratégie et au financement.
Qu’y a-t-il derrière une démarche d’entrepreneuriat ? Un projet, bien sûr, qui aboutit ou non à une création d’entreprise, mais aussi et surtout un individu, le porteur de projet ou entrepreneur naissant, qui, quelle qu’en soit l’issue, sortira durablement transformé par l’expérience. Cette démarche constitue en effet une forme d’apprentissage, au cours duquel la création acquiert de nouvelles compétences, des perceptions, développe des réseaux. S’il parvient à créer son entreprise, cette transformation personnelle apportera des armes utiles à son développement. Dans le cas contraire, il pourra mettre à profit cet acquis pour préparer un projet d’entrepreneuriat ultérieur voire l’utiliser dans une activité salariée.
Le porteur de projet a la possibilité de ne pas rester isolé dans sa démarche. Il est même encouragé à participer à des programmes d’accompagnement, qui peuvent impacter le projet mais aussi avoir un effet sur la personne. Malheureusement, dans l’évaluation de ces programmes, cette dimension personnelle n’est que rarement prise en compte : pour juger de leur efficacité, on a tendance à s’intéresser davantage à la satisfaction des participants ou au fait qu’ils parviennent à créer leur entreprise, mais pas aux effets que les programmes peuvent avoir sur l’entrepreneur naissant. Le but de notre étude, menée auprès des participants d’un programme d’accompagnement mis en place par les CCI de Bretagne, était précisément d’analyser cet impact personnel, en se focalisant non pas sur les compétences réelles du porteur de projet mais sur son auto-efficacité entrepreneuriale perçue, c’est-à-dire le jugement qu’il porte sur sa capacité à créer une entreprise.
Cette perception d’auto-efficacité entrepreneuriale, développée à l’origine en psychologie, est un déterminant essentiel pour se lancer dans la création d’entreprise, car le fait de ne pas s’en sentir capable peut constituer un frein majeur. Si elle est correctement évaluée, elle peut même favoriser la ténacité de l’entrepreneur face aux difficultés rencontrées. Toutefois, il s’agit d’une perception, qui n’est pas forcément représentative des capacités réelles, certains individus ayant tendance à se sous-estimer quand d’autres, à l’inverse, surestiment leurs capacités. Elle est enfin évolutive, en fonction de quatre grandes influences, l’expérience personnelle, l’observation des autres, la persuasion verbale par des tiers et l’état émotionnel ressenti.
L’étude cherchait à mesurer l’évolution de l’auto-efficacité perçue par des entrepreneurs naissants ayant suivi un programme d’accompagnement en les interrogeant au début de leur projet, puis un an plus tard. Alors qu’on pouvait s’attendre à ce que la participation à un dispositif de soutien personnalisé ait un effet positif sur l’évolution de l’auto-efficacité entrepreneuriale perçue (c’est-à-dire que les porteurs de projet se sentent plus capables de créer leur entreprise) les résultats indiquent plutôt une baisse globale. Dans le détail, seule l’auto-efficacité entrepreneuriale administrative, qui concerne la planification du projet et les différentes formalités, évolue positivement, alors que les perceptions liées à la stratégie et au financement ont tendance à se dégrader.
Ces résultats peuvent s’expliquer par la confrontation avec la réalité. Au début du processus, beaucoup d’entrepreneurs naissants ont en tête une image de complexité administrative et se focalisent sur cet aspect, pour se rendre compte que, contrairement à ce qu’ils présupposent, ce n’est pas le plus compliqué, d’autant plus que depuis plusieurs années un certain nombre de mesures de simplification ont facilité ces procédures. Dans le même temps, ils prennent conscience de la difficulté à trouver des clients et des financements, de l’existence de concurrents, du manque de temps… autant d’aspects stratégiques parfois sous-estimés au moment de monter leur projet.
Ce résultat, pour surprenant qu’il soit, montre l’intérêt d’avoir une appréciation objective de l’aide à l’entrepreneuriat, en s’intéressant aux impacts individuels : l’objectif des programmes d’accompagnement est en effet d’aider les porteurs de projet à mettre en place des entreprises viables et à prendre conscience des réalités du terrain, pas nécessairement qu’un maximum d’entre eux aillent au bout de leur projet. Ce n’est donc pas une mauvaise chose que des candidats à la création d’entreprise se sentent moins capables à la fin du processus qu’au début. Un participant qui décide finalement de ne pas créer son entreprise, en prenant conscience de l’importance de la clientèle, du réseau, a l’occasion de se poser les bonnes questions, de réajuster sa capacité perçue, voire, parfois, de se rendre compte qu’il n’est pas fait pour l’entrepreneuriat. Il pourra se lancer dans le projet suivant mieux armé, en tout cas avec des perceptions plus réalistes.
Cette méthode d’évaluation constitue un outil précieux pour faire évoluer les programmes d’accompagnement, avec des implications pratiques quasi immédiates. Il pourrait par exemple être intéressant d’adopter une approche différenciée selon que les personnes au départ sous-estiment ou surestiment leurs capacités à créer une entreprise, afin de les amener à une perception plus réaliste. Concernant le cas analysé dans le cadre de cette étude, les programmes d’accompagnement pourraient insister davantage sur les aspects stratégiques et la recherche de financement. Ces résultats constituent une avancée vers une évaluation objective des dispositifs de soutien aux entrepreneurs naissants. Il serait désormais intéressant de les affiner en travaillant sur un échantillon d’entrepreneurs naissants plus représentatif et d’étendre la recherche à différents types de soutien possibles.
[su_note note_color=”#f8f8f8″]Servane Delanoë-Gueguen est enseignant-chercheur en entrepreneuriat et en stratégie d’entreprise à Toulouse Business School, responsable de l’incubateur TBSeeds et co-responsable de l’option professionnelle « entrepreneur ». Elle est titulaire d’un PhD de l’Open University (UK) portant sur l’entrepreneuriat naissant. Ses recherches portent sur l’entrepreneuriat naissant, les écosystèmes entrepreneuriaux, l’aide à la création d’entreprise, l’intention entrepreneuriale et les processus d’incubation. Cette publication est une synthèse de l’article « Aide à la création d’entreprise et auto-efficacité entrepreneuriale », publié en 2015 dans la Revue de l’entrepreneuriat.[/su_note]
[su_spoiler title=”Méthodologie”]Pour mener ce travail de recherche, Servane Delanoë-Gueguen a réalisé une étude longitudinale. A partir d’une revue de littérature, elle a élaboré un modèle théorique avec 3 hypothèses de recherche postulant l’évolution sur un an de l’auto-efficacité entrepreneuriale des porteurs de projet ayant suivi un programme d’accompagnement et ayant concrétisé ou non leur projet, avec une différenciation par sexe. Le modèle a ensuite été testé auprès d’un groupe d’entrepreneurs naissants. La première année, 506 personnes ont répondu à un questionnaire permettant d’évaluer leurs perceptions entrepreneuriales. L’année suivante, 394 d’entre elles ont pu être recontactées, sur lesquelles 325 avaient réellement un projet de création en cours. Sur cet échantillon, 193 personnes ont répondu à nouveau au questionnaire. [/su_spoiler]
[su_pullquote align=”right”]Par Pierre-André Buigues et Denis Lacoste[/su_pullquote]
Au fil de la décennie 2000, les exportations des constructeurs automobiles français n’ont cessé de décroitre. Au début des années 2000, PSA exportait 54 % de la production faite en France et Renault 47 %.
10 ans plus tard, ce pourcentage a baissé de plus de 20 points pour PSA et le cas de Renault est encore plus critique puisque ce constructeur est devenu importateur de véhicules en France. Renault produit désormais en France moins de véhicules qu’il n’en y immatricule ! Et la balance commerciale de la France dans l’automobile est devenu largement déficitaire, le dernier excédent datant maintenant de 2004 !
Pas du tout. En effet, dans le même temps, les constructeurs hexagonaux ont entrepris un vaste mouvement d’implantations d’usines d’assemblages à l’étranger. Au début des années 2000, la production à l’étranger des deux constructeurs représentait environ 70 % de la production domestique. En 2010, le rapport entre la production à l’étranger et la production domestique est voisin de 170 % pour PSA et atteint presque 300 % pour Renault.
On pourrait penser que ces évolutions sont liées aux conditions macro-économiques et monétaires de la zone euro. L’observation des évolutions des stratégies des constructeurs automobiles allemands montre qu’il n’en est rien. Sur la même période 2000-2010, on peut constater que l’intensité d’exportation de Volkswagen est restée stable et que celle de Mercedes et de BMW a augmenté.
Les spécialistes de la stratégie s’accordent à penser que le choix des modalités d’internationalisation est lié à deux éléments principaux : les avantages concurrentiels des firmes d’une part et les conditions économiques de la production dans le pays d’origine d’autre part.
Les avantages concurrentiels des constructeurs français. Schématiquement, Les entreprises industrielles ont le choix entre des stratégies de coût faible ou des stratégies de différenciation qui visent l’innovation technologique. Une stratégie orientée vers des prix bas conduit les entreprises à délocaliser une part importante de la production vers des pays à bas coût. A l’inverse, une stratégie de différenciation est synonyme d’une propension plus forte à l’exportation car l’avantage concurrentiel repose sur la R&D et donc sur des compétences fortes disponibles dans les seuls pays développés. Les premières vont chercher à l’étranger une main d’œuvre à moindre coût alors que les secondes seront moins pénalisées par des coûts de production plus élevés liés à la production domestique et pourront bénéficier des effets positifs liés à l’interaction entre la production et la R&D.
Dans le cas de l’automobile, les différences en matière de stratégie d’innovation sont considérables entre les entreprises françaises, qui privilégient les implantations à l’étranger, et leurs homologues allemands, qui maintiennent un niveau d’exportation élevé. Volkswagen investissait déjà plus de deux fois plus en recherche que Renault et PSA au début des années 2000 et ce rapport est passé à 3 en 2010. Si l’on observe plus précisément le contenu en R&D de chaque véhicule vendu, on constate bien sûr qu’il est très important chez les constructeurs haut de gamme comme Mercedes et BMW (supérieur à 2000 € par véhicule) mais même chez les généralistes, le contenu en R&D d’une voiture Volkswagen est de 20 % supérieur à celui de Renault et 45 % supérieur à celui de PSA. Là aussi, l’écart se creuse sur la décennie 2000 : la progression des dépenses en R&D par véhicule des constructeurs allemands est bien supérieure à celle des français.
Les conditions économiques françaises. L’environnement plus ou moins favorable des entreprises dans leur pays d’origine, en particulier en termes de coût, a également une incidence sur leurs choix en termes d’internationalisation. Qu’en est-il pour l’automobile française et en quoi se l’environnement français se distingue-t-il de l’environnement allemand ? Si l’on observe les choses à un niveau très général, on constate que sur la décennie 2000, le coût horaire du travail dans l’ensemble de l’industrie a augmenté de 38% en France, contre seulement 17% en Allemagne. Par ailleurs, une observation plus fine de la filière automobile fait apparaitre une productivité par salarié qui est plus faible en Allemagne qu’en France en 2000 mais qui augmente très fortement sur la période alors qu’en parallèle elle baisse en France. En 2008, la productivité des salariés est de 25 % supérieure dans l’industrie automobile allemande par rapport à la France ce qui s’explique par les investissements faibles des constructeurs français en France, la priorité étant les usines à l’étranger.
Ainsi, même si l’on peut en déplorer les conséquences très négatives en termes d’emploi et de création de richesses sur le territoire français, les constructeurs automobiles français ont fait des choix stratégiques cohérents en matière d’internationalisation compte tenu de leur faible dépense en R&D, de leur positionnement en moyen et bas de gamme et de l’évolution défavorable des conditions de production domestique en termes de coût. Il n’est toutefois pas surprenant de constater que les niveaux de marges des constructeurs français sont inférieurs à ceux des allemands. Par exemple, sur la période 2000-2010, la marge opérationnelle par véhicule était de 635 euros pour VW et autour de 250 euros pour Renault et PSA.
Malheureusement pour le commerce international français et l’emploi, le secteur automobile n’est pas un cas isolé. La France compte en effet beaucoup moins d’entreprises exportatrices que l’Allemagne et la part des exportations dans le PIB y est presque deux fois plus faible. En revanche, la France compte plus de grandes multinationales que l’Allemagne (par exemple 14 dans le top 100 mondial contre 10) et ces multinationales françaises ont une part plus importante de leurs effectifs à l’étranger que leurs homologues allemandes.
Ainsi, c’est seulement au prix d’une modification radicale du positionnement stratégique des entreprises localisées en France et d’une amélioration des conditions de production dans l’hexagone que la France pourra redevenir une terre d’exportation !
[su_note note_color=”#f8f8f8″]Par P.A. Buigues et D. Lacoste. Les données de ce texte sont issues des articles : « Les déterminants des stratégies internationales des constructeurs automobiles européens : exportation ou investissements directs à l’étranger, publié en 2015 dans la revue Gérer et Comprendre, écrit par les auteurs en collaboration avec M. Saias M, et « Les Stratégies d’internationalisation des entreprises françaises et allemandes : deux modèles d’entrée opposés », écrit par les auteurs et à paraitre dans Gérer et Comprendre en 2016 ainsi que de l’ouvrage écrit par les auteurs « Stratégies d’Internationalisation des entreprise » paru en 2011 aux éditions De Boeck. [/su_note]
[su_spoiler title=”Méthodologie”]La base de données a été constituée principalement à partir des informations publiées par les constructeurs dans leurs rapports annuels, des données fournies par le Comité des Constructeurs Français d’Automobiles (CCFA), par l’Organisation Internationale des Constructeurs Automobiles (OICA) et par Eurostat. Les données relatives aux modes d’internationalisation, aux stratégies et aux conditions économiques ont été analysées sur l’ensemble de la période 2000-2010. [/su_spoiler]
[su_spoiler title=”Applications pratiques”]Ce travail montre que le diagnostic des choix des entreprises en matière d’internationalisation ne peut pas se faire indépendamment de l’analyse des autres dimensions de sa stratégie (en particulier en termes de positionnement) et des conditions économiques de son territoire d’origine. Ce travail suggère également que les investissements à l’étranger ne sont pas nécessairement le nec plus ultra de l’internationalisation. Le cas de l’industrie automobile indique qu’il est possible, même dans une industrie globale, de conserver une part importante de sa production sur son territoire domestique tout en étant performant. [/su_spoiler]