[su_pullquote align=”right”]Par Victor DOS SANTOS et Najoua TAHRI[/su_pullquote] La promotion de l’innovation comme moteur clé de la croissance économique n’est pas un concept nouveau. Mais, la France, avec le reste de l’Europe, continue de faire face à des défis importants pour stimuler l’innovation dans son économie et maintenir son avantage concurrentiel.
Dans une étude sur les facteurs décourageant l’innovation dans les entreprises françaises, nous constatons que les obstacles les plus importants sont d’ordre financier ou liés au marché, et non technologiques. Les contraintes financières, le manque de personnel qualifié et la perception de l’inutilité de l’innovation sont quelques-uns des principaux facteurs à l’origine de ce retard en matière d’innovation. De façon surprenante, très peu d’entreprises ont mentionné des obstacles technologiques, et le même constat a été fait dans d’autres parties du monde.
La bonne combinaison de compétences
En y regardant de plus près, nous constatons que bon nombre des obstacles peuvent être attribués à une pénurie de managers possédant les compétences pertinentes. Diverses études sur l’innovation soulignent que la réussite en matière d’innovation implique de combiner de manière efficace des compétences de nature différente, tant techniques que commerciales. Mais les managers présentant les deux types de compétences sont rares, surtout en France. Et l’absence de managers polyvalents peut donner lieu à des approches divergentes entre les responsables techniques soucieux des performances technologiques et les responsables commerciaux focalisés sur les évolutions du marché. Cela peut entraîner une mauvaise communication et un échec de la coopération, et entraver le processus d’innovation.
À cela s’ajoute la culture prédominante de l’innovation fondée sur une stratégie technology push en France, autrement dit, les processus d’innovation sont pilotés par la R&D dans les nouvelles technologies mais sont pénalisés par une mauvaise compréhension du marché. Cela tend non seulement à renforcer les obstacles à l’innovation au niveau du marché mais également à générer des contraintes financières. Au final, des ressources considérables doivent être injectées, prolongeant la phase R&D et favorisant la confusion entre invention, innovation et innovation réussie, comme l’illustre parfaitement l’exemple du Concorde. À ce jour la question de savoir si l’avion de ligne supersonique a été une innovation réussie, fait toujours débat. Pour certains, les avancées technologiques liées à cet appareil sont telles qu’elles éclipsent la vente de seulement 14 appareils à deux clients. En bref, les entreprises sont peu enclines à innover parce que l’innovation, selon leur point de vue, exige des ressources considérables pour couvrir les coûts excessifs de l’invention.
Impact des soutiens publics
En Europe et notamment en France, les institutions publiques sont obsédées par le progrès technologique, laissant peu de place aux compétences commerciales dans le processus d’innovation. Les inventions et les technologies discontinues sont privilégiées, mais s’avèrent souvent en décalage avec la dynamique du marché et très coûteuses. Trop souvent, les programmes de financement public, par exemple dans le secteur aérospatial, poussent les entreprises à réaliser des projets qui ne sont pas toujours économiquement viables. Ainsi, celles-ci ont tendance à orienter leur stratégie en fonction des objectifs technologiques, au détriment des objectifs du marché, déterminants pour anticiper le retour sur investissement.
Facteurs contextuels
L’examen des obstacles ventilés par secteur d’activité révèle que l’industrie aérospatiale fait face aux obstacles les plus importants, suivie de l’industrie manufacturière et des services. On pouvait s’y attendre car les entreprises aérospatiales sont plus susceptibles d’innover, de faire face à des coûts de production élevés et de dépendre fortement de l’investissement public. À l’opposé, les entreprises du secteur des services sont celles qui rencontrent le moins d’obstacles. Le développement de produits innovants est rare dans le secteur des services, caractérisé par la réalisation de produits intangibles, qui sont par ailleurs facilement imitables par les entreprises concurrentes, ce qui pose un sérieux problème pour convaincre les investisseurs de financer de nouvelles entreprises. Les entreprises axées sur les services ont donc tendance à adopter une stratégie orientée demande (market pull) qui met l’accent sur les innovations continues, en améliorant ou modernisant légèrement l’offre de services, moyennant des coûts relativement moins élevés. Il n’est donc pas étonnant que les entreprises de ce secteur soient les moins affectées par les obstacles à l’innovation.
Surmonter les obstacles à l’innovation
Pour commencer, les entreprises devraient tenir compte des études de marché dans leurs processus d’innovation. C’est plus facile à dire qu’à faire, car les managers techniques doivent parfois s’affranchir de certains réflexes – du type « si vous ne savez pas comment fabriquer un produit, vous ne saurez pas comment le vendre ». Ils doivent reconnaître l’importance d’intégrer la perspective du marché dans le processus d’innovation. Afin de remédier à la pénurie de managers avec des compétences à la fois techniques et commerciales, les entreprises pourraient proposer une formation en cours d’emploi axée sur les compétences déficientes (par ex. en offrant la possibilité aux managers techniques de préparer un diplôme en gestion des affaires). De surcroît, pour s’attaquer aux causes profondes du problème, les établissements d’enseignement supérieur délivrant des diplômes scientifiques devraient intégrer un solide volet de sciences sociales dans leurs programmes. Cela permettrait d’introduire une dimension commerciale dans le processus d’innovation, mais aussi de contribuer à résoudre les problèmes de communication entre les équipes techniques et commerciales et d’ajouter de la légitimité aux analyses marketing.
Toutefois, cela ne doit pas dispenser les managers commerciaux de s’impliquer directement dans le processus d’innovation. Idéalement, les entreprises devraient aller encore plus loin et mettre en place une unité de veille commerciale chargée de fournir des informations sur l’évolution du marché et de travailler côte à côte et de manière complémentaire avec l’équipe de veille technologique . Le poids accordé aux compétences commerciales dans le processus d’innovation varie généralement en fonction des caractéristiques du secteur d’activité.
Un changement fondamental devra également venir des institutions publiques qui doivent réorienter leur financement pour soutenir les innovations réussies plutôt que la réalisation d’inventions, et permettre aux entreprises de se concentrer sur les innovations continues, ce qui est naturel pour la plupart d’entre elles. En accordant la priorité aux processus d’innovation descendants, tels que la commercialisation de l’innovation, les entreprises seront confrontées à moins d’obstacles liés au marché et verront une baisse des coûts d’innovation. À cette fin, les institutions publiques doivent laisser plus de place aux entreprises dans la définition des orientations stratégiques des politiques de soutien public. L’innovation est un outil puissant qui permet aux entreprises d’assurer leur pérennité à long terme. Sans innovation, il est extrêmement difficile de s’adapter à un environnement en mutation. Le taux d’échec des nouveaux produits est certes élevé, mais il est impossible d’innover sans échec. En résumé, une innovation réussie exige non seulement un changement de l’état d’esprit et de la culture des entreprises en matière d’innovation, mais aussi des changements dans le cadre institutionnel public afin qu’il devienne plus favorable à l’innovation continue. Les entreprises, les organismes gouvernementaux et les établissements d’enseignement supérieur ont tous un rôle à jouer pour surmonter les obstacles à l’innovation et créer un environnement propice à l’innovation.
Cet article est inspiré de l’étude intitulée « Les obstacles à l’innovation en France : analyse et recommandations », corédigée par Victor Dos Santos Paulino et Najoua Tahri, et publiée dans la revue Management & Avenir, 2014/3, no. 69, p. 70 – 88, consultable ici
[su_spoiler title=”Méthodologie”]L’étude, réalisée en 2014, est basée sur les résultats de la Quatrième enquête communautaire sur l’innovation (ECI 4) menée en France entre 2002 et 2004 et publiée par Eurostat. Il a été demandé aux 175 533 entreprises qui ont participé à l’enquête en France, si elles avaient rencontré l’un des 11 obstacles à l’innovation étudiés. Pour les besoins de notre étude, nous avons regroupé les obstacles en quatre catégories : obstacles de connaissance, obstacles de marché, obstacles financiers et obstacles externes et nous avons analysé les obstacles en fonction de la nature de l’entreprise et par secteur d’activité (secteur manufacturier, services et industrie aérospatiale, ce dernier représentant un secteur clé en France). [/su_spoiler]
[su_pullquote align=”right”]Par David LE BRIS[/su_pullquote] Malgré l’importance du phénomène, la notion de krach boursier ne renvoie à aucune définition économique précise. A priori, les krachs devraient être la conséquence d’évènements importants mais il est souvent difficile d’établir un lien clair entre des faits historiques et des réactions boursières.
La baisse de l’indice boursier français enregistrée lors du déclenchement de la Première Guerre mondiale en juillet 1914, est de seulement 7,14 %, une chute mensuelle modeste qui la place seulement en 105e position de toute l’histoire des pires baisses. Mais une baisse d’un certain pourcentage a un impact plus fort sur un marché stable que sur un marché hautement volatile. Un krach ne représente pas seulement un pourcentage brut de baisse mais constitue une variation significative par rapport à ce qui était observé antérieurement.
Par conséquent, les krachs sont à analyser en fonction de la situation financière précédente. Une nouvelle méthode de mesure des krachs est proposée en mesurant chaque variation mensuelle, non en pourcentage brut, mais en nombre d’écart-types de la période antérieure. Avant 1914, l’indice boursier français est habitué à une faible volatilité. En conséquence, la modeste baisse de 7,14 % correspond à une chute de 6,09 écarts-types, la situant au second rang des pires crises financières françaises. Cette seconde place est plus cohérente avec l’histoire.
Dans un article à paraître dans la revue Economic History Review, cette méthode est appliquée à des séries de long terme d’indices actions nord-américains et français et aux emprunts d’État britanniques. Cette nouvelle technique donne une vision différente de l’histoire des chocs financiers. Une meilleure adéquation est ainsi établie entre les krachs et les événements. Des événements qui, évalués en pourcentage, sont sans importance, deviennent de véritables crises après ajustement pour la volatilité. Ce « matching amélioré » apporte de nouveaux éléments à de nombreux débats historiques.
Conformément à d’autres sources historiques pointant la gravité de la crise de 1847, cet épisode fait partie des dix krachs majeurs sur le marché obligataire britannique alors qu’il se situe au 102e rang en termes de pures variations de prix. Le déclenchement de la guerre de Sécession provoque un krach de grande ampleur soutenant l’aspect coût dans le débat coût/avantage au sujet de ce conflit. La conférence de Berlin marque l’organisation du partage de l’Afrique et entraîne un effondrement des obligations britanniques comme si le marché intégrait le futur coût de la colonisation africaine pour les finances publiques britanniques.
Les guerres antérieures à la Première Guerre mondiale (guerres franco-prussienne, russo-turque, guerre des Boxers en Chine, guerre des Boers, etc.) engendrent plusieurs krachs sur le marché boursier français comme sur le marché obligataire britannique qui confortent la vision traditionnelle de l’importance de ces conflits malgré les modestes variations de prix qu’ils provoquent dans cette période de faible volatilité.
La Première Guerre mondiale génère des krachs majeurs aussi bien sur la place boursière française que sur les marchés obligataires britanniques relativisant la théorie d’une marche aveugle vers le désastre. Aux États-Unis, il n’est pas identifié plus de krachs avant 1913, date de la création de la Réserve fédérale, dont le rôle de régulateur des marchés financiers est aujourd’hui remis en question.
En France, dans les années 1920, deux chocs monétaires confirment que la politique monétaire française fût un facteur essentiel des troubles de l’entre-deux-guerres. Les moments chauds de la guerre froide provoquent des krachs sur les marchés boursiers nord-américains et français, ce qui est cohérent avec les craintes de désastre des contemporains. L’absence de crise en 1929 à la Bourse de Paris et sur le marché obligataire britannique va dans le sens d’une propagation de la Grande Dépression vers l’Europe par d’autres canaux que celui des marchés financiers. La crise de 2008 diffère sur ce point car les bourses française et nord-américaine chutent de concert. Cette nouvelle méthode de mesure nous permettra probablement d’améliorer notre compréhension des mécanismes financiers.
[su_pullquote align=”right”]Par Sylvie BORAU [/su_pullquote] Les effets néfastes des mannequins féminins dans la publicité sur l’estime de soi et la satisfaction corporelle des femmes ne sont plus à démontrer. Il existe cependant un nouvel effet néfaste qui n’avait pas encore été évoqué : ces mannequins peuvent être perçus comme de véritables rivales sexuelles par les consommatrices et susciter une forme d’agression indirecte.
Les publicitaires mettent généralement en scène des mannequins parfaits, ultra-minces, digitalement retouchés, et dans des postures provocantes (par exemple avec des lèvres pulpeuses et des hanches archées). Les modèles peuvent alors être perçus par les consommatrices comme de véritables rivales sexuelles. Même si les consommatrices sont conscientes qu’elles ont très peu de chances de les rencontrer dans la vie de tous les jours, elles continuent de les considérer comme de véritables concurrentes sexuelles. Dans le cadre d’une récente recherche réalisée avec Jean-François Bonnefon de Toulouse School of Economics, nous avons étudié les conséquences de cette compétition intra-sexuelle imaginaire.
Dans une première série d’études, nous avons interrogé 452 femmes qui ont répondu à des enquêtes en ligne. Les répondantes ont d’abord été exposées soit à un mannequin idéal (physiquement très attractif, mince, et sexuellement provocateur), soit à un mannequin normal (moyennement attractif, de taille moyenne, et non provocateur). Ensuite, les femmes ont répondu à quelques questions concernant leurs réactions à l’égard du mannequin. Les résultats ont montré que les femmes ressentent une forte jalousie à l’égard du mannequin (par exemple, elles sont inquiètes à l’idée que leur compagnon puisse les quitter pour une femme aussi belle que le mannequin). Elles font des commentaires très désobligeants vis-à-vis du modèle (comme par exemple du fat-shaming ou du slut-shaming ) et elles ostracisent cette rivale imaginaire (par exemple, elles ne voudraient pas être amies avec une femme ressemblant à ce mannequin). En résumé, les femmes s’engagent dans une compétition intra-sexuelle imaginaire avec les mannequins idéalisés dans la publicité en utilisant les mêmes stratégies agressives que celles qu’elles utiliseraient face à des rivales réelles.
Nous avons ensuite mené une autre étude pour identifier les caractéristiques physiques du modèle qui déclenchent ces stratégies agressives. Est-ce la posture provocante des mannequins ou la finesse de leur corps ? Pour répondre à cette question, nous avons croisé les critères taille du mannequin/attitude. Les répondantes étaient exposées à un mannequin soit : • mince et provocateur • mince et non provocateur • de taille moyenne et provocateur • de taille moyenne et non provocateur
Nos résultats montrent que c’est l’attitude provocante des mannequins, et non leur minceur, qui suscite le plus d’agressions indirectes. C’est un résultat surprenant et important compte-tenu de l’attention que les médias portent à la minceur des mannequins plutôt qu’à leur posture aguicheuse. Mais pourquoi cette posture déclenche-t-elle plus de compétition intra-sexuelle et d’agression indirecte que leur minceur ? C’est étonnant au regard de l’obsession actuelle des femmes et des médias pour la minceur.
Des analyses plus poussées ont montré que les femmes deviennent agressives car la posture provocante du mannequin (plus que sa minceur) communique une intention de séduire les hommes, d’éveiller en eux un désir sexuel, et potentiellement une intention de « voler » les hommes. Comme dans la vie quotidienne, une attitude sexuellement provocante communique que la personne a confiance en son son pouvoir de séduction, de charme, et communique une certaine disponibilité et promiscuité sexuelle. Il n’est pas donc pas surprenant que les femmes se sentent menacées par des mannequins féminins provocateurs qui représentent un danger pour leurs relations amoureuses actuelles ou futures.
Dans la vie de tous les jours, face à une rivale potentielle, les femmes ressentent généralement de la jalousie. La jalousie est une émotion qui prévient la personne qu’elle doit agir pour protéger son compagnon actuel ou futur d’une rivale potentielle. Et l’agression indirecte (propos négatifs, exclusion sociale) est la stratégie la plus courante pour écarter les rivales dangereuses. Notre étude montre en effet que les femmes mettent en place une stratégie d’agression indirecte quand elles sont exposées à des mannequins provocateurs quelle que soit la taille du modèle.
Ainsi, quand les publicitaires présentent un mannequin sexuellement provocateur, ils contribuent insidieusement à une culture d’agression indirecte chez les consommatrices, fondée sur le slut-shaming et la stigmatisation. En effet, la simple exposition à un mannequin sexuellement provocateur est suffisante pour déclencher une compétition intra-sexuelle et de l’agression indirecte comme si les femmes étaient exposées à des rivales réelles. Nous pouvons donc imaginer que l’exposition répétée à des rivales imaginaires renforce inévitablement ce type de comportement, qui dépasse les interactions quotidiennes avec des femmes réelles – et ce pour au moins deux raisons. La première est l’utilisation généralisée des mannequins provocateurs dans la publicité. La seconde est que le niveau de provocation sexuelle des mannequins est largement supérieur à celui des femmes dans la vie de tous les jours. En résumé, notre recherche montre que la mise en scène de mannequins provocateurs renforce et encourage inutilement une culture d’agression indirecte entre les femmes, alimentant ainsi la tendance alarmanted’agression intra-sexuelle et de slut-shaming. Compte-tenu du nombre très élevé de mannequins provocateurs dans la publicité, les femmes sont fréquemment sujettes à cette compétition intra-sexuelle.
Afin de limiter l’impact négatif de la provocation sexuelle dans la publicité, il serait judicieux d’en contrôler leur utilisation et d’éviter que les consommateurs les plus vulnérables y soient exposés de façon excessive. L’exposition à ces modèles étant inévitable, et les mentions précisant leur caractère irréel inefficaces, nous recommandons de sensibiliser le jeune public, qui est à la fois plus ciblé par les publicités à caractère sexuel et plus vulnérable. Nous ne préconisons pas l’interdiction d’images sexualisées dans la publicité car cela donnerait une image politiquement correcte et archaïque des femmes. Toutefois, les organisations de défense des consommateurs, les organismes de surveillance des médias et les citoyens concernés ont un rôle primordial à jouer, tant pour sensibiliser le public que pour inciter les entreprises à adopter des pratiques responsables.
L’article original a été publiée dans Brand Quarterly (Janvier 2018) sous le titre « Provocative Female Models In Advertising: Triggering Indirect Aggression ».
[su_pullquote align=”right”]Par Jean-Marc Décaudin et Denis Lacoste[/su_pullquote] Les offres de service présentent bien des différences par rapport à celles des produits. Le service est intangible, sa production et sa consommation sont très souvent simultanées. Le service ne peut pas être stocké. Sa qualité est très difficile à maintenir constante et le client est impliqué dans la production du service, ce qui n’est pas dans le cas d’un bien tangible.
Ces différences ont commencé à être prises en compte par les spécialistes du Marketing dans les années 80. Deux chercheurs français, Pierre Eiglier et Eric Langeard ont créé le concept de « Servuction », néologisme bâti à partir des mots Service et Production, ce qui marque bien la nécessité d’avoir une approche tout à fait spécifique du management d’une offre immatérielle. Depuis lors, de nombreux travaux ont été conduits dans le domaine du marketing des services, faisant écho à leur place croissante dans la création de richesses et d’emplois . Le but de ces recherches est d’aider les managers du secteur bancaire, du transport aérien, de la location, de la santé et de bien d’autres domaines, à prendre en compte les spécificités de la consommation et de la production induites par les caractéristiques des services. En particulier, des recherches ont été conduites dans le domaine de la communication publicitaire. De nombreuses questions se posent en effet aux marketers dont la principale est sans doute la suivante : comment communiquer sur quelque chose que l’on ne peut ni voir, ni toucher, ni sentir, ni entendre, ni goûter ? Les publicitaires s’interrogent également sur la façon de communiquer sur une expérience, qui sera différente d’un client à l’autre, et dont on ne peut pas garantir que la qualité sera en tous lieux et en tous temps identique. Trouver des axes de communication pour une voiture, un ordinateur, un téléviseur, en s’appuyant sur des caractéristiques techniques objectives est relativement facile. Il est beaucoup plus difficile de communiquer sur une expérience comme celle que peut connaitre un client dans un parc d’attraction, sur un site de rencontres, ou encore dans une université.
L’enjeu pour les publicitaires est donc d’arriver à matérialiser le service, à en donner au client potentiel une représentation suffisamment forte pour qu’il soit attentif à la marque, qu’il s’y intéresse et qu’il ait envie de faire l’expérience du service. Cinq stratégies ont été identifiés par les spécialistes du domaine. Il est conseillé aux entreprises de communiquer : • Sur le bénéfice consommateur (en termes de prix et de performance), • Sur le client (communication testimoniale sur la base d’un client consommant le service), • Sur le personnel en contact avec le client (mise en avant de la compétence, de la qualité de l’accueil), • Sur le support physique du service (qualité des avions pour le transport aérien, des équipements et du matériel pour un club de plongée ou une station de ski) • Sur l’image corporate en insistant notamment sur les valeurs et les engagements de l’entreprise.
L’efficacité de ces différentes stratégies n’a été que peu testée empiriquement et les études n’ont souvent porté que sur une seule stratégie de communication, ce qui en limite l’utilité pour un publicitaire.
Notre recherche a donc visé à tester l’efficacité respective des différents axes de communication possibles en exposant les consommateurs à des publicités utilisant chacune un axe particulier. Les résultats montrent que l’efficacité de la publicité dépend largement de l’axe qui est mis en avant !
Dans les deux secteurs étudiés (banque et tourisme) les publicités les plus efficaces sont celles qui mettent en avant le client. Il peut s’agir d’un enfant hilare dans un wagon du Train de la Mine de Disneyland, d’une famille à la table d’un restaurant Mc Donald ’s ou encore d’un couple ravi d’entrer dans son premier logement acquis grâce à un crédit bancaire. Cela peut s’expliquer par le fait que la présence d’un client dans la publicité rassure le consommateur qui s’identifie à quelqu’un qui apprécie le service. Or, on sait que rassurer le client est fondamental dans les secteurs des services où le risque perçu est élevé. Dans les deux secteurs, mettre en avant le support physique du service semble également être une stratégie très efficace (même si elle l’est un peu moins que la première). Les trois autres axes publicitaires étudiés ont une efficacité beaucoup plus limitée, soit à l’un des deux secteurs, soit à une seule variable d’efficacité.
Les résultats de cette recherche sont utiles pour les entreprises du secteur des services ainsi qu’aux publicitaires car elle leur donne des éléments précis pour imaginer de nouvelles campagnes. Il convient toutefois d’être prudent car les résultats pourraient être différents dans un autre contexte culturel, dans un autre format publicitaire ou dans d’autres secteurs.
[su_spoiler title=”Méthodologie”]L’étude porte sur 50 publicités presse dans deux secteurs très différents : la banque (25 publicités) et le tourisme (25 publicités). Chaque publicité choisie utilise clairement un des axes de communication (avantage concurrentiel, personnel en contact, client, support physique du service, image de marque). Dans chacun des deux secteurs, 5 publicités différentes ayant recours au même axe ont été utilisées afin de limiter l’influence de la créativité sur l’appréciation des interviewés. L’échantillon comprend 249 répondants qui ont été interrogés en ligne. Chaque répondant a évalué 25 publicités. 1245 évaluations sont donc in fine disponibles : 620 pour la banque et 625 pour le tourisme. Pour chaque publicité, une série de 22 questions est posée pour mesurer l’attention, l’intérêt vis-à-vis de la publicité, la compréhension du message, la curiosité suscitée par la publicité, l’attitude vis-à-vis de la publicité et de la marque et enfin l’impact de la publicité sur l’intention d’achat. Des analyses de variance et des tests Tukey’s HSD sont utilisés pour mesurer l’efficacité respective des différents axes publicitaires. La solidité des résultats est validée en comparant les thèmes utilisés par les 250 publicités les plus efficaces avec ceux des 250 publicités les moins efficaces. [/su_spoiler]
Cette recherche a été publiée dans Journal of Marketing communications (2016) sous le titre « Services Advertising : Showcase the Customer ! ».
Nombreux étaient les participants à la 5ème édition des Matinales de la Recherche de Toulouse Business School, concernés par la nouvelle législation européenne sur la protection des données.
Applicable à toutes les entreprises dont les activités ciblent le territoire européen, le règlement général pour la protection des données personnelles (RGPD) entrera en vigueur à partir du 25 mai 2018. Son objectif est de protéger les citoyens européens contre une utilisation malveillante de leurs données à caractère personnel. Gregory Voss, Juris Doctor et enseignant-chercheur à TBS et Maître Stanley Claisse, avocat spécialiste en droit de la propriété intellectuelle, droit de l’informatique et des télécommunications, ont fait le point sur cette nouvelle réglementation : plus uniforme, plus responsabilisant, plus vertueuse.
Une évolution réglementaire nécessaire
Big Data, stockage biométrique… De nombreuses évolutions technologiques sont intervenues depuis la directive européenne de 1995 qui régit actuellement la protection des données en Europe. La législation n’est plus adaptée mais surtout elle présente d’importantes disparités entre les états membres qui ont transposé la directive avec des différences. L’harmonisation de la réglementation constitue donc un objectif de la réforme. Autre ambition du nouveau règlement : alléger le fardeau administratif et le coût engendrés par les formalités de déclaration préalable dont doit s’acquitter toute entreprise traitant des données personnelles.
Enfin, si le niveau de protection des données personnelles en Europe est globalement satisfaisant, les sanctions financières prévues par la directive à l’encontre de contrevenants demeuraient très faibles dans certains états, comme la France.
C’est dans ce contexte et à l’issue d’un long processus que l’Union européenne a adopté le nouveau règlement général pour la protection des données personnelles (RGPD). Il sera applicable à partir du 25 mai 2018. Une étape pour l’établissement du marché numérique européen Le choix de légiférer via la forme du règlement n’est pas anodin. A la différence de la directive, les règlements européens ne nécessitent pas de transposition dans les Etats membres. Le règlement européen général pour la protection des données personnelles permet donc une harmonisation quasi-parfaite de la législation dans les 28 Etats membres. Son champ d’application concerne toutes les entreprises, quelle que soit leur taille qu’elles aient, ou non, leur siège dans l’Union européenne. Ainsi, les entreprises transnationales dont les activités ciblent le territoire européen tombent désormais sous le coup de la réforme.
“ On parle d’effet extraterritorial du nouveau règlement européen. Il inclut les cas classiques d’entreprises qui traitent des données à caractère personnel dans l’union européenne ou y ayant un siège social, mais aussi les entreprises hors de ce territoire dont les activités ciblent les personnes sur le territoire de l’union européenne. Qu’il s’agisse de la fourniture de produits et de services ou du suivi du comportement dans l’union européenne qui visent ces personnes. ” Grégory Voss, Juris Doctor et enseignant-chercheur à TBS
Une réglementation responsabilisante pour les entreprises
La philosophie du nouveau règlement général pour la protection des données personnelles est résolument tournée vers la responsabilisation des entreprises. Cette volonté se traduit, d’une part, par l’obligation faite aux entreprises de démontrer à tout moment qu’elles sont en conformité avec la législation. Cette obligation va engendrer une modification dans la gouvernance des entreprises qui devront recruter des profils adaptés. Ces « délégués à la protection des données à caractère personnel » auront pour mission de cartographier les traitements de données personnelles mis en œuvre par l’entreprise et d’assurer leur conformité à la réglementation. On estime à 75 000 postes le gisement mondial d’emplois dans ce domaine.
L’objectif de responsabilisation des entreprises s’exprime, d’autre part, à travers l’obligation, pour toutes les entreprises, et pas seulement les fournisseurs de services de communications électroniques, de déclarer, aux personnes ciblées par le traitement des données, toute attaque ou piratage subis par leur base de données. Sauf exception prévue dans le règlement, elles doivent informer les personnes physiques de la potentielle corruption de leurs données personnelles, dès lors que la violation est susceptible d’engendrer un risque élevé pour leurs droits et libertés. Cette obligation d’information exposera l’entreprise, de façon prévisible, à la multiplication des actions collectives ou des demandes de réparation de préjudice.
En cas de manquement à ses obligations, l’entreprise s’expose à de lourdes sanctions financières, lesquelles ont été considérablement renforcées puisqu’elles peuvent atteindre 4% de leur chiffre d’affaires mondial pour certaines violations dans le cas d’une entreprise. Plus responsabilisant, ce dispositif se substitue à la déclaration préalable que doit aujourd’hui effectuer toute entreprise traitant des informations à caractère personnel. Vers une amélioration du niveau de sécurité global des entreprises Si l’objectif de cette nouvelle réglementation est, au premier chef, de minimiser les risques de violations des données personnelles et les préjudices subséquents, son effet sera bénéfique sur le niveau de sécurité des entreprises. Pour protéger les données personnelles qu’elles traitent, les entreprises devront mettre en place des outils de sécurité informatique, de chiffrement, de contrôle d’accès… Si elles ont recours à des sous-traitants, elles devront s’assurer qu’ils sont en conformité avec leurs exigences de sécurité. Ces obligations renforcées devraient contribuer à l’amélioration globale du niveau de sécurité des systèmes d’information et avoir un effet préventif sur la cybercriminalité. En revanche, cette amélioration ne sera pas immédiate dans toutes les entreprises :
“ Si les grandes entreprises se sont préparées à ce changement réglementaire, les petites et moyennes entreprises vont mettre plus de temps à s’adapter. Espérer qu’elles seront en conformité dans les 6 mois est largement illusoire. Ce sera un travail de longue haleine qui de plus nécessitera de la régularité dans la vérification de la conformité des données. ” Stanley Claisse, avocat au barreau de Toulouse, spécialiste en droit de la propriété intellectuelle, droit de l’informatique et des télécommunications.
Gregory Voss est Juris Doctor et enseignant-chercheur à Toulouse Business School. Ses recherches portent essentiellement sur la question de la protection des données personnelles et le droit de l’internet. Il a publié de très nombreux articles et ouvrages sur ce thème. Son article « Internal Compliance Mechanisms for Firms in the EU General Data Protection Regulation » vient d’être publié dans la Revue juridique Thémis de l’Université de Montréal et beaucoup de ses articles de recherche sont accessibles depuis http://ssrn.com/author=1740804 et http://tbs-education.academia.edu/WGregoryVoss
Maitre Stanley Claisse est avocat inscrit au barreau de Toulouse, conférencier et formateur. Il est spécialisé en droit de la propriété intellectuelle, droit de l’informatique et des télécommunications. Il est également ingénieur en informatique.
[su_pullquote align=”right”]Par Louise Curran[/su_pullquote]
Dans cet article, écrit avec Michael Thorpe de l’Université de Curtin en Australie, nous explorons l’évolution récente de l’investissement chinois dans les industries du vin de la région de Bordeaux en France et les comparons avec des investissements dans le même secteur en Australie occidentale (WA : « Western Australia »).
Nous avons constaté que les investissements ne sont pas aussi répandus que ce qui est souvent impliqué par les médias, bien que la vitesse de croissance à Bordeaux ait été impressionnante. Plusieurs difficultés ainsi que des synergies potentielles ont été identifiées avec ces investissements.
Situation variée en France et en Australie Nous avons choisi d’étudier la France et l’Australie, respectivement, les premiers et seconds exportateurs de vin sur le marché chinois en 2013. Nous avons examiné deux régions avec un positionnement assez similaire au marché : Bordeaux et WA se concentrent tout deux sur l’extrémité supérieure du marché et se spécialisent dans le vin rouge. Le phénomène de l’investissement chinois dans le secteur est plutôt récent dans les deux contextes, bien que l’investissement chinois dans l’économie australienne soit antérieur. L’objectif de notre étude était d’explorer l’ampleur de l’investissement et de mettre en évidence les difficultés rencontrées.
Nous avons constaté que l’ampleur de l’investissement chinois dans les deux régions était assez faible, même si le nombre d’investissements à Bordeaux (d’environ 80) est impressionnant, tout comme leur croissance rapide. Pourtant, moins d’un pour cent des vignobles bordelais appartiennent à des investisseurs chinois et beaucoup de ces vignobles sont très petits, c’est pourquoi la surface réelle couverte par les investissements est faible. Le nombre d’investissements est encore plus faible en Australie occidentale (7 vignobles), mais la grande taille de certaines acquisitions rend sa couverture plus élevée (6% de la superficie des vignobles). En effet, la grande taille des vignobles australiens est un avantage évident pour les investisseurs chinois, qui favorisent des structures de production à grande échelle répondant mieux au marché chinois.
Difficultés pour les investisseurs, mais aussi avantages potentiels
Nous avons constaté toutes les difficultés classiques rencontrées par les investisseurs étrangers identifiées dans d’autres études, mais la plus importante était leur manque de connaissance du contexte local. Cela a été particulièrement problématique en France, où il y a peu d’investissement chinois et peu de diaspora chinoise. Les problèmes habituels liés à la compréhension d’une culture étrangère ont été aggravés par le fait que la plupart des investisseurs chinois provenaient de secteurs qui n’étaient pas liés au vin, ni même à l’agroalimentaire, tels que la bijouterie, les métaux et le pétrole. La spécificité du secteur du vin a ainsi engendré d’autres difficultés. En Australie, nous avons constaté beaucoup moins de problèmes, principalement parce que les investisseurs avaient souvent des relations commerciales préalables dans le pays avant d’investir dans le vin et ont fréquemment investi en partenariat avec un homme d’affaires local plutôt que tout seul. Alors que la plupart des investisseurs chinois à Bordeaux n’ont pas investi avec des partenaires locaux et ont généralement conservé la direction qui était en place pour continuer le fonctionnement quotidien du vignoble. On a reconnu la nécessité de s’appuyer sur cette expertise locale afin que l’activité prospère. Les institutions locales de WA et de Bordeaux ont reconnu qu’il fallait fournir un soutien aux investisseurs chinois afin d’assurer leur succès. La Chambre de commerce et d’industrie de Bordeaux organise des séminaires réguliers sur Bordeaux et Hong Kong afin de s’assurer que les investisseurs connaissent le potentiel, mais aussi les pièges, de ces investissements. Le Département de l’agriculture de WA a organisé un séminaire similaire pour les investisseurs chinois intéressés par l’ensemble du secteur agricole en 2014. Enfin, les investisseurs chinois dans les deux régions ont apporté deux avantages clés. Le premier était la capacité financière. Beaucoup des vignobles acquis étaient en mauvais état et, dans plusieurs cas, des sommes importantes ont été investies dans la modernisation des installations et l’augmentation de la productivité. L’autre avantage clé était leur connaissance du marché intérieur et la capacité à tirer parti de leurs réseaux commerciaux pour développer ce marché. La Chine est devenue un marché mondial clé pour le vin, en particulier pour le vin rouge, au cours des dernières années. Bien que les exportations aient chuté par rapport à leur pic en 2014, leurs importations de vin valaient 1,4 milliard de dollars. Pour les vignerons plus petits et de qualité inférieure, la capacité de leurs propriétaires chinois à soutenir leur évolution sur ce marché important a été un facteur clé pour permettre leur développement.
L’avenir – la consolidation plutôt que l’expansion
En ce qui concerne l’avenir, la plupart des personnes interrogées ont convenu que le pic des investissements était passé et que nous entrions dans une phase de consolidation. Il y a eu beaucoup moins d’investissements à Bordeaux en 2015 qu’en 2014 et en particulier 2013-2. Cela reflète en partie que le marché du vin chinois est en pleine maturité et que les taux de croissance sont maintenant moins attrayants. Plusieurs d’entre eux ont souligné que la Chine n’est pas, et n’a jamais été, l'”El Dorado” pour les marchands de vins, c’est un marché plutôt exigeant et difficile. La chute récente des investissements ainsi qu’une lutte contre la corruption en Chine, a entraîné une chute importante des ventes de vin liées aux cadeaux (une préférence majeure pour les ventes de vin haut de gamme) et des banquets officiels (qui ont été considérablement réduits). Les personnes fortunées ont également signalé que les investissements de haut niveau dans les produits de luxe comme le vin pourraient attirer l’attention indésirable des autorités.
[su_spoiler title=”Méthodologie”]Notre recherche comporte vingt interviews dans les deux régions étudiées avec des agents institutionnels, des consultants et d’autres fournisseurs de services travaillant avec des investisseurs, le personnel dans trois sociétés locales détenues (entièrement ou en partie) par des investisseurs chinois ainsi que deux investisseurs chinois, un en Chine et un autre directeur d’un investissement en Australie. Les entretiens ont eu lieu au cours de la période de décembre 2013 à octobre 2014. Nous avons également utilisé des articles de presse pour identifier les investissements pertinents. [/su_spoiler] [su_box title=”Implications managériales” style=”soft” box_color=”#f8f8f8″ title_color=”#111111″]Notre recherche indique que les investissements les plus réussis dans les deux contextes que nous avons étudiés, étaient ceux qui se sont associés avec des entreprises locales. Il semble que dans les cas où il y a de grandes différences concernant les environnements institutionnels et culturels entre le pays d’origine et le pays d’investissement, travailler avec une personne d’affaires locale constitue un pont important pour réduire le manque de familiarité. Les investisseurs qui ont acquis des vignobles sans partenaires locaux ont plus souvent eu des difficultés, même si beaucoup ont conservé le personnel local et ont adopté une approche plutôt « non-interventionniste » du côté de la production, ce qui semble prudent étant donné qu’ils manquaient souvent de connaissances en matière de vin. L’atout le plus important que les investisseurs chinois aient apporté fut leur expertise et leurs liens avec leur marché domestique, de sorte que le potentiel de synergie soit significatif, à condition que la compréhension et la confiance soient présentes. [/su_box] Par Louise Curran, IDE chinois dans les industries du vin français et australien : handicap de la firme étrangère et effets du pays d’origine. Co-écrit par Michael Thorpe, département des sciences économiques, Curtin University Western Australia. Apparu dans “Frontiers of Business Research in China”, Volume 9, numéro 3 en 2015. Cette recherche a été soutenue par une bourse de recherche décernée à Louise Curran par l’Université Curtin en 2013.
[su_pullquote align=”right”]Par Sveinn Gudmundsson[/su_pullquote] Compte tenu de la croissance exponentielle du transport aérien, les principaux aéroports pivots – les hubs – en Europe sont proches du point de saturation, quand ils ne l’ont pas déjà dépassé, et perdent du trafic au profit de la concurrence. L’analyse des transferts d’activité excédentaire dus à la congestion des aéroports d’Heathrow et de Francfort montre le rôle important des réseaux de compagnies aériennes. Les autorités publiques devraient en tenir compte lors des décisions sur l’évolution de la capacité aéroportuaire, comme la création de nouveaux aéroports, pistes ou terminaux.
Alors que les prévisions annoncent la forte croissance à venir du trafic aérien, de nombreuses questions se posent quant aux aéroports pivots, notamment en Europe plus que dans toute autre partie du monde. Les prévisions indiquent une augmentation annuelle du nombre de passagers de 5,5% sur une période de 20 ans : en 2013, cela se traduisait par 170 millions de passagers en plus dans l’ensemble du système aéroportuaire et sur ces bases, la croissance annuelle s’élèvera à 330 millions de passagers supplémentaires en 2025. En raison des pressions pesant sur le développement des infrastructures, cette croissance rapide s’accompagne de controverses autour de l’expansion des aéroports. L’exemple de l’aéroport de Londres-Heathrow, qui a déjà atteint son point de saturation, est tout à fait significatif à cet égard, avec des débats incessants sur son agrandissement, qui sont source d’incertitudes pour les compagnies aériennes qui l’utilisent comme hub de transit, et pour les aéroports qui bénéficient des retombées de sa saturation. Malgré la récente décision d’ajouter une troisième piste et un sixième terminal à Heathrow, il faudra attendre au moins une décennie avant la mise en service de ces capacités supplémentaires et les inquiétudes concernant les effets de cette expansion sur l’environnement et la santé risquent fort de s’intensifier entretemps.
Nécessité de trouver des compromis
Aujourd’hui, les compagnies aériennes assurent les liaisons long-courriers en ayant de moins en moins recours aux vols court-courriers qui ne sont pas soutenables pour un hub saturé, en particulier dans la mesure où la réduction de la disponibilité des créneaux de décollage et d’atterrissage influence la valeur monétaire des créneaux existants. Afin de maximiser le rapport coût-efficacité des créneaux intéressants, les compagnies ont tendance à remplacer les vols les moins rentables par des vols long-courriers utilisant des avions de plus grande capacité et dans le même temps le nombre moyen de passagers par vol est en hausse (impliquant l’augmentation de la taille moyenne des appareils utilisés et des facteurs de charge). Les avionneurs tels qu’Airbus sont directement concernés par les décisions d’expansion des capacités aéroportuaires des hubs congestionnés car elles se répercutent sur les incitations financières à exploiter de plus gros avions tels que l’A380 dans ces aéroports. Face aux contraintes découlant des capacités saturées des hubs, les compagnies n’ont guère d’alternative de croissance, si ce n’est augmenter la taille moyenne de leurs appareils. Aujourd’hui Heathrow et Francfort sont respectivement les deuxième et troisième principaux aéroports pivots en termes de vols d’A380, derrière l’aéroport de Dubaï (Emirates Arlines est le principal exploitant de l’A380 au monde).
Mais, dans le même temps, l’impossibilité de rajouter des liaisons et d’accroitre les fréquences de vol dans les aéroports congestionnés entraîne le risque de fragmenter les réseaux de compagnies aériennes et d’intensifier la concurrence pour récupérer le trop-plein. Face à cette situation, les compagnies ont le choix entre plusieurs stratégies : elles peuvent augmenter leurs prix pour refléter la forte hausse de la demande, déployer des avions de plus grande capacité pour acheminer un plus grand volume de passagers ou transférer une partie de leurs activités vers d’autres aéroports, ou bien encore permettre à des compagnies partenaires et concurrentes de récupérer l’activité en surplus découlant de l’incapacité de leurs hubs, congestionnés, à répondre à la croissance du trafic.
Dans le cas d’Heathrow, un chiffre clé illustre l’effet négatif de la congestion sur les liaisons court-courriers à l’intérieur de l’UE : en 2010, Heathrow n’avait que 46 liaisons court-courriers, contre 78 à Paris CDG, 67 à Amsterdam et 74 à Francfort. Cette évolution tend non seulement à réduire la desserte dans l’UE et le reste du monde des aéroports d’Heathrow et de Francfort, mais également à renforcer les réseaux de compagnies à bas coûts qui proposent des offres croissantes de « self-connecting » dans l’UE.
Dans le cadre de cette étude, nous nous sommes intéressés aux conséquences de cette évolution sur le trafic passagers et le trafic de correspondances, en analysant les effets des retombées de la congestion d’Heathrow et de Francfort, plus particulièrement sur le Royaume-Uni, l’Europe et les États du Golfe. L’objectif est de comprendre comment les compagnies adaptent leur stratégie de réseau en fonction de ces changements, d’évaluer l’impact négatif de la limitation de la croissance des liaisons et fréquences de vols due à la congestion des hubs saturés, et les effets positifs pour les aéroports alternatifs, et également de déterminer les effets néfastes sur les autres aéroports lorsqu’un grand aéroport pivot voit ses capacités renforcées. Les contraintes de croissance des capacités influencent la stratégie de flotte des compagnies (taille moyenne de leurs appareils), leur stratégie de réseau (fragmentation du réseau pour maintenir la croissance), leur stratégie en matière de concurrence (retombées de la congestion aéroportuaire en raison de la demande non satisfaite de nouveaux vols et de nouvelles liaisons) et leur stratégie en matière d’alliance et de fusion (pour sécuriser l’accès à de nouveaux hubs et aéroports en vue de renforcer les flux de réseaux).
Les retombées liées à l’établissement d’alliances Nous avons été amenés à créer des modèles pour calculer en premier lieu le trop-plein en termes de trafic passagers transféré d’Heathrow vers d’autres aéroports britanniques, et ensuite le trop-plein en termes de trafic de correspondances transféré d’Heathrow et Francfort vers neuf aéroports alternatifs de l’UE et des pays du Golfe. S’agissant du trafic de correspondances, nous avons examiné l’impact sur les liaisons intercontinentales et intra-européennes, en prenant en compte le trafic total. Ensuite, nous avons utilisé les informations provenant de la base de données OAG afin de comparer ces modèles avec le trafic réel de janvier 1997 à décembre 2013 pour Heathrow, et jusqu’à décembre 2011 (date à laquelle les capacités ont été accrues) pour Francfort.
Pour Heathrow, les résultats montrent d’importants excédents de passagers intercontinentaux transférés vers Gatwick et, dans une moindre mesure, vers Manchester et Birmingham, ainsi qu’un excédent important de correspondances transféré vers Munich, Paris CDG, Madrid et Doha pour les liaisons intercontinentales, et vers Munich pour les liaisons européennes. Concrètement, cela signifie que les limites des capacités aéroportuaires profitent essentiellement aux grosses compagnies telles que Lufthansa et Star Alliance (Munich), et Air France et Skyteam (Paris CDG), et dans une moindre mesure, aux aéroports pivots dans les États du Golfe (Dubaï, Doha et Abu Dhabi).
L’analyse croisée d’Heathrow et de Francfort montre une certaine asymétrie au niveau des retombées par rapport au trafic de correspondances global : le trop-plein d’Heathrow a principalement profité à Munich, Paris, Madrid et Doha, tandis que celui de Francfort a profité à Munich, Amsterdam, Abu-Dhabi et Istanbul Ataturk, dont la principale compagnie, Turkish Airlines, est liée à Lufthansa via la Star Alliance.
Cette asymétrie est due à la capacité de réserve de ces aéroports alternatifs, mais également aux différentes alliances entre les compagnies aériennes et à la situation géographique des hubs ; par exemple, il importe peu à un passager en correspondance entre deux vols, de changer à Heathrow, Munich ou Istanbul : ce n’est pas la ville abritant le hub qui l’attire, mais plutôt le côté pratique de la correspondance. Les bénéficiaires de ces transferts d’activité excédentaire due à la congestion aéroportuaire varient en fonction du hub concerné, ce qui montre bien l’importance de la stratégie commerciale adoptée par les compagnies en réponse à la saturation des hubs. Cette dimension stratégique et la concurrence croissante entre les différentes alliances devraient être davantage prises en considération dans les débats sur l’expansion des aéroports qui sont généralement plus axés sur les avantages pour l’économie locale, que sur le réseau global (y compris les partenaires d’alliances et de fusions) ou les coûts sociaux au sens large.
Enfin, les décisions sont prises par des responsables politiques locaux alors qu’elles ont une portée déterminante sur l’ensemble du réseau et la composante sociale. Tandis qu’un nombre croissant de hubs, notamment en Europe, sont confrontés à l’insuffisance de leur capacité, les décideurs politiques devaient s’interroger sur la façon d’équilibrer la croissance des aéroports tout en tenant compte du « transfert naturel » de l’excédent au sein d’un pays et d’autres pays, vers les partenaires d’alliance, les compagnies concurrentes et les régions. Pourtant, comme nous l’avons souligné dans notre premier article « Spillover effects of the development constraints in London Heathrow Airport » publié en 2014, il n’est pas forcément plus simple, du point de vue de la stratégie de l’ensemble du réseau, de développer uniquement le principal aéroport pivot d’un pays. De telles décisions nuisent aux aéroports régionaux qui se renforcent en prenant en charge le trafic excédentaire et elles risquent également de sacrifier – au nom des avantages économiques – les hubs alternatifs éventuellement mieux placés du point de vue géographique pour minimiser les coûts sociaux (impact sur l’environnement et sur la santé au niveau local) de l’agrandissement d’un aéroport. Dans cette étude initiale, nous avions montré que le trafic en excès à Heathrow retombait pour l’essentiel sur l’aéroport de Gatwick qui, grâce à sa situation géographique et aux coûts sociaux potentiellement faibles, aurait été le meilleur candidat pour l’expansion des capacités aéroportuaire s’il avait été décidé pour Heathrow d’augmenter seulement la taille moyenne des appareils desservant les liaisons long-courriers. Le gouvernement britannique en a décidé autrement en donnant son feu vert officiel, le 25 octobre 2016, à la construction de la troisième piste et du sixième terminal ; la fin du chantier est prévue vers 2030, s’il n’y a pas de retards majeurs.
[su_spoiler title=”Méthodologie”]Les travaux sur les retombées de la congestion aéroportuaire en Europe ont été dirigés par Sveinn Vidar Gudmundsson (TBS) et Renato Redondi (université de Bergame). Le projet a nécessité le développement de deux modèles de retombées : un modèle simple (Heathrow) et un double (Heathrow et Francfort), utilisant la base de données OAG et une nouvelle approche d’estimation statistique appliquée à cette problématique, inspirée de la littérature financière concernant les flux sur les marchés obligataires. Les résultats de l’étude ont été publiés dans deux articles distincts : l’un dans le Journal of Transport Geography, en 2014, sous le titre : « Spillover Effects of the Development Constraints in London Heathrow Airport », examinant les retombées de la congestion de Londres-Heathrow sur les autres aéroports britanniques ; et le second article, paru dans Transportation Research Part A sous le titre : « Congestion spill effects of Heathrow and Frankfurt airports on connection traffic in European and Gulf hub airports », examinant les retombées de la congestion d’Heathrow et de Francfort en termes de trafic de correspondances, sur d’autres aéroports pivots en Europe et dans les pays du Golfe.
Ces articles peuvent être consultés via les liens suivants :
• Spillover effects of the development constraints in London Heathrow Airport
• Congestion Spill Effects of Heathrow and Frankfurt Airports on Connection Traffic in European and Gulf Hub Airports
Le professeur Gudmundsson a également participé à un débat sur ce sujet en 2014 avec Daniel Moylan, alors conseiller du maire de Londres sur les questions de transport aérien ; ce débat intitulé « London Airports: Meeting demand » a été organisé dans le cadre de la série de séminaires TSU « Transport Controversies », à l’université d’Oxford. Voir ci-dessous les liens vers l’évènement et le podcast :
• http://www.tsu.ox.ac.uk/events/ht14_seminars/ • http://www.tsu.ox.ac.uk/events/ht14_seminars/ht14-week3.mp3 [/su_spoiler]
[su_pullquote align=”right”]Par Pierre-André Buigues[/su_pullquote]
En dépit des aides publiques importantes dont bénéficie la filière viande française, celle-ci perd pieds face aux autres pays européens qui sont pourtant, eux aussi dans la zone euro. C’est, en effet le marché européen qui explique l’essentiel de la dégradation des positions françaises, et non la mondialisation, la Chine ou les pays émergents.
Quelle que soit la filière, volaille, porc ou bovin, l’élevage français est en difficulté par rapport à ses concurrents européens . – La filière porcine française : Sa production a sensiblement baissé, passant d’environ 25,5 millions de porcs par an en 2000 à 21 millions en 2016 alors qu’elle augmentait dans plusieurs autres pays européens. En 2000, les productions françaises et espagnoles étaient équivalentes, l’Espagne produit aujourd’hui 46 millions de porcs annuellement. La France est désormais importatrice nette de viande de porc. La compétitivité de la filière s’est érodée car elle souffre de coûts trop élevés et d’un manque d’investissements. – La filière bovine française : La France est le premier producteur européen de viande bovine, en 2015 : 1,49 millions de tonnes contre 1,12 en Allemagne et 0,9 au Royaume-Uni. 79% de la viande consommée en France est d’origine nationale. Les importations sont essentiellement européennes. Cependant, les revenus moyens des éleveurs spécialisés en viande bovine sont parmi les plus bas de l’agriculture et sont fortement orientés à la baisse. En 2014, le revenu courant après impôt serait inférieur de 22 % à la moyenne sur longue période (2000-2013). – La filière avicole française a également enregistré une baisse de sa production au cours de la dernière décennie. La France a été le deuxième exportateur mondial de volaille mais elle importe aujourd’hui 40% des volailles qu’elle consomme. Le pays est déficitaire en volume et en valeur avec les pays de l’Union européenne, et ce déficit continue de se creuser. Les importations françaises de viande de volailles proviennent surtout de pays européens et beaucoup moins des pays non européens comme le Brésil, ou les USA. Comment expliquer cette forte dégradation du commerce de la viande française ? Nous retiendrons ici deux des principales causes de ce déclin :
Le refus français d’une industrialisation de la filière viande, d’où des économies d’échelle insuffisantes La France a toujours soutenu l’agriculture familiale mais les marchés internationaux de la viande sont surtout des marchés de volume où le prix est le critère déterminant. Contrairement au marché domestique français où la qualité mesurée par des labels (label rouge, fermier) constitue un avantage compétitif, à l’international le prix est déterminant. Alors que l’Allemagne se positionne sur des produits bon marché et standardisés et a une image « industrielle » pour les produits carnés, la France a une image « gastronome » de produits chers. Malheureusement, à ce stade de développement du marché international de la viande dont la croissance est portée par les marchés émergents, il y a peu d’intérêt pour la qualité. Le coût est donc la variable stratégique du succès sur les marchés internationaux or la filière viande française souffre de coûts élevés et d’une absence d’économies d’échelle.
Dans la production de porc, la taille moyenne des élevages est en France comprise entre 1000 et 2000 porcs contre de plus grandes structures de 2000 à 5000 porcs au Danemark et aux Pays-Bas. De plus, entre 2000 et 2010, la taille moyenne d’un élevage de porc a augmenté de 98% au Danemark, 37% aux Pays-Bas, 29% en Espagne et seulement 16% en France. Enfin, les abattoirs allemands dépassent souvent 50 000 porcs abattus annuellement. En France, il faudrait beaucoup moins d’abattoirs et bien plus modernes.
Dans la viande bovine, la France souffre également d’un problème de taille des exploitations. Le procès fait en France à la seule ferme de mille vaches ( ferme ultramoderne avec une installation géante qui transforme la bouse en énergie grâce à un méthaniseur et est équipée de panneaux solaires), montre que l’opinion française est hostile à l’industrialisation de l’élevage. Il y aurait en Allemagne, plus de 200 unités qui dépassent le millier de têtes quand en France, les unités de plus de 350 têtes se comptent sur les doigts d’une main.
Dans la production de poulet, les exploitations françaises sont beaucoup plus nombreuses et de bien plus petite taille qu’en Allemagne : Les élevages allemands, néerlandais et britanniques sont les plus grands d’Europe et dépassent en moyenne 60 000 places. En France, plus de la moitié des élevages de poulet ont entre 1 000 et 10 000 places, du fait de l’importance des productions sous signes de qualité et d’origine (Label Rouge, biologique, AOC), dont les cahiers des charges limitent la taille des bâtiments.
Avec une taille d’exploitation qui ne permet pas d’économie d’échelle et avec des coûts de main d’œuvre supérieur à certains de ses concurrents européens, l’élevage français est en grande difficulté et perd des parts de marché.
Une avalanche de normes coûteuses et une surrèglementation par rapport aux normes européennes
La sévérité des normes constitue un facteur incontestable des difficultés économiques de la filière viande française. Souvent compliquées et quelquefois incompréhensibles, ces normes impliquent une charge administrative très lourde pour les exploitants. Un rapport du Sénat chiffre, en moyenne à 15 heures par semaine le travail de bureau de l’agriculteur. Deux raisons principales expliquent le coût relatif élevé de ces normes en France. En premier lieu, dans l’élevage français, les entreprises sont souvent, comme nous l’avons vu, de petite taille par rapport aux concurrents européens. Elles n’ont donc pas de moyens humains et financiers suffisants pour assimiler et mettre en œuvre ces normes. En second lieu, les normes changent souvent dans ce secteur, les normes environnementales sont de plus en plus exigeantes et nécessitent des investissements très lourds.
Quel avenir pour l’élevage français ?
L’Europe agricole n’est plus seulement un espace régulé par la Politique Agricole Commune mais un espace de concurrence. Pour le développement de l’élevage français, deux stratégies sont possibles : – Stratégie de développement d’un élevage orienté vers la qualité : Comment trouver des débouchés pour une production haut de gamme avec des labels forts à l’exportation qui permettent à de petites exploitations de survivre avec des coûts élevés ? Le modèle est celui des vins français qui ont des prix en moyenne deux fois supérieurs à ceux des concurrents et se vendent pourtant très bien. Ce scénario « haut de gamme » pourrait sauver l’élevage français. Cependant, cette stratégie suppose des investissements considérables dans le marketing et les réseaux de distribution à l’international. – Stratégie du développement d’un élevage intensif à coût bas : Comment baisser les coûts de production ? Par des restructurations lourdes, et la disparition des « petits élevages » non compétitifs. Des investissements massifs seraient alors également nécessaires pour un élevage ultra moderne, les pouvoirs publics favorisant les fermes de très grandes tailles, automatisées, ce qui n’est pas le cas aujourd’hui. Existe-t-il un scénario intermédiaire ? Xavier Beulin, l’ancien Président de la FNSEA donnait le chiffre de 6 milliards d’euros d’investissement nécessaire « pour développer une troisième voie entre l’agriculture industrielle et la diversité, l’agriculture plurielle et la high-tech, l’agriculture bio et la robotique ».
[su_spoiler title=”Méthodologie”]Cette article s’appuie sur: Elie Cohen et Pierre-André Buigues « Le décrochage industriel », Fayard, 2014; et Pierre-André Buigues, « Refonder l’agriculture française » Journée de l’économie, Jeco , Lyon, Novembre 2016 [/su_spoiler]
Le vote britannique pour quitter l’UE a d’énormes implications pour les deux parties, et beaucoup d’entre elles commencent à peine à apparaitre. L’une des politiques les plus touchées est la politique commerciale. Au cours des quarante dernières années, le Royaume-Uni n’a pas réellement eu de politique indépendante sur les relations commerciales internationales. La politique commerciale était décidée par la majorité qualifiée au sein du Conseil européen et le consensus qui en résultait était la politique du Royaume-Uni.
Une grande partie de la discussion sur le Brexit s’est concentrée sur les relations commerciales futures entre l’UE et le Royaume-Uni. Cependant, le Brexit aura également des impacts importants sur le reste du monde, ces derniers sont souvent ignorés dans le débat public.
Dans un récent article de conférence , j’ai exploré l’impact potentiel du Brexit sur les chaînes globales de valeur (CGV), en analysant ses impacts probables sur les fournisseurs britanniques. Le livre blanc sur le Brexit rejette l’appartenance à l’Espace économique européen ou à une union douanière. Dans ce scénario, le Brexit conduira à une politique commerciale indépendante du Royaume-Uni. En consequence, le Royaume-Uni doit créer une nouvelle politique commerciale pour régir ses relations avec ses fournisseurs (et ses clients) à travers le monde. En effet, le désir de reprendre l’indépendance sur la politique commerciale était une des raisons principales du rejet d’une union douanière.
Le gouvernement du Royaume-Uni a fait de grandes déclarations au sujet de son intention de négocier des accords de libre-échange (ALE) avec divers partenaires émergents (la Chine et l’Inde, par exemple) et pays développés (les États-Unis, l’Australie…) dans le cadre de leur vision « Global Britain ». Il n’a pas dit grand-chose sur ce que le changement de régime commercial signifie en termes de relations commerciales avec des partenaires économiques moins intéressants. Cette situation crée une grande incertitude pour les fournisseurs des pays en développement qui s’appuient sur des accords commerciaux existants avec l’UE pour accéder au marché britannique. Dans cet article, j’ai cherché à souligner quels pays étaient les plus vulnérables aux changements de politique.
Afin de comprendre pourquoi certains fournisseurs sont vulnérables, il est important de comprendre que la politique commerciale ne concerne pas seulement les ALE. Il s’agit également de toute la structure des régimes commerciaux unilatéraux de l’UE qui ont évolué au fil des décennies. Ceux-ci offrent des régimes d’accès spéciaux aux marchés pour les pays en développement ainsi que des niveaux d’accès très élevés aux pays les plus pauvres. Ce que cela signifie, en réalité, c’est que si vous êtes un exportateur du Bangladesh (classé comme un des pays les moins avancés (PMA) par l’ONU), vous ne payez aucun tarif douanier sur vos exportations de chemises vers l’UE (et donc vers le Royaume-Uni), alors qu’un exportateur de chemise chinoise paiera 12%. De même, si vous êtes un exportateur pakistanais de draps, vous ne payez pas de droit de douane sur vos exportations, tandis que l’Inde paiera également 12%. Ceci est dû au fait que le Pakistan bénéficie d’un régime spécial d’accès à l’UE pour les pays qui ont ratifié et appliqué une longue liste d’accords internationaux dans tous les domaines, du droit du travail à la protection de l’environnement (appelé SPG+).
Au cours des vingt dernières années, des recherches approfondies sur l’évolution des CGVs ont été menées afin de comprendre comment elles sont structurées et pourquoi. Les régimes commerciaux sont apparus comme un facteur important quant au choix de la localisation de la production dans l’économie mondiale. Ils jouent un rôle particulièrement important dans les secteurs où les régimes d’accès spéciaux fournissent des avantages tarifaires élevés, comme le textile et l’habillement pour le Bangladesh et le Pakistan dans l’exemple ci-dessus. Les autres secteurs où les régimes commerciaux ont été définis comme importants, concernant la zone géographique des CGVs, sont la transformation du poisson, en particulier le thon (La Papouasie-Nouvelle-Guinée ne paie pas de tarif douanier alors que la Thaïlande paie 25%) et les fleurs coupées (Le Kenya ne paie pas de tarif douanier alors que l’Australie paie 8%). En outre, l’accès à ces régimes d’accès spéciaux est subordonné au fait que les marchandises exportées soient considérées par l’UE comme « fabriquées » dans ce pays. La définition de ces « règles d’origine » est complexe et résulte de longues heures de débat et de consultation. La recherche a constaté que ces règles ont toujours une influence importante sur la zone géographique des CGVs. Par exemple, les règles américaines stipulent que, pour qu’une chemise puisse être considérée comme « fabriquée » (made in) dans un pays, elle doit être cousue à partir de tissus tissés dans ce pays, à partir de fils qui ont également été filés dans ce pays. Un pays qui a théoriquement un accès gratuit au marché, a cependant besoin d’une industrie de textile et de filature compétitive afin d’éviter de payer des tarifs douaniers. L’UE a une approche plus libérale à l’égard des règles, en particulier pour les PMA comme le Bangladesh. Ma propre recherche a confirmé que ces règles ont eu un effet stimulant important sur les importations de l’UE issues du Bangladesh et du Cambodge.
Afin d’identifier quels pays sont les plus vulnérables aux changements dans le régime commercial du Royaume-Uni, j’ai analysé les exportations non pétrolières [1]. Je me suis concentrée sur les pays qui d’un côté, comptent beaucoup sur l’UE pour leurs exportations et, qui d’autre part, réalisent une part importante de leurs exportations vers l’UE vers le Royaume-Uni. Les pays soumis à un accès unilatéral et les plus dépendants du marché britannique sont : le Kenya, le Bangladesh, le Cambodge et le Pakistan. Les plus grands flux commerciaux proviennent du Bangladesh – plus de 3,5 milliards de dollars d’exportation vers le au Royaume-Uni, en grande partie dans l’habillement.
Pour continuer après le Brexit à être intégrés aux CGVs, ces pays émergents ont besoin d’un accès continu et important au marché. Il n’y a aucune garantie que le Royaume-Uni fournira cela, même s’il serait surprenant qu’il abandonne son soutien aux pays en développement en vue de leur intégration à l’économie mondiale. Il y aura très certainement un régime d’accès spécial au Royaume-Uni pour les pays en développement après le Brexit, mais il ne sera surement pas aussi généreux que celui de l’UE et il est susceptible de changer dans le temps. Une question clé sera de savoir dans quelle mesure le Royaume-Uni conservera le très généreux régime d’accès pour les PMA, comme le Bangladesh et le Cambodge, et s’il maintiendra un régime proche du SPG+ actuel, qui est vital pour le Pakistan. Cette incertitude pose problème. Les CGVs actuelles ont été construites au fil du temps en réponse aux régimes commerciaux existants ainsi qu’aux réglementations. Il sera plus facile pour les acteurs des CGVs de s’adapter et d’intégrer les changements dans leurs stratégies quand la nouvelle politique sera clarifiée. Le Département du commerce international du Royaume-Uni (DIT) explore les différentes possibilités, mais il y a tant de questions à considérer pour l’après Brexit que les pays en développement craignent de ne pas être prioritaires pour les décideurs britanniques. La recherche académique confirme que cette inquiétude est fondée
[su_spoiler title=”Méthodologie”]The impact of Brexit on trade regimes and Global Value Chains, Paper for the GIFTA seminar: Implications of Brexit: Navigating the Evolving Free Trade Agreement Landscape. Commonwealth House, London, February 6-7 2017 [/su_spoiler]
La quatrième Matinale de la Recherche organisé par Toulouse Business School s’est tenue le 21 septembre, sur le thème de l’industrie spatiale. Elle en a exploré sa situation « entre deux époques », les perspectives florissantes qui s’offrent aux opérateurs spatiaux mais aussi les menaces qui guettent ce secteur d’activité. Tout comme l’aéronautique, le spatial est un domaine d’expertise avancé, caractéristique de TBS. Son centre de recherche abrite la première chaire internationale dédiée au droit et au management du secteur spatial, développée en partenariat avec l’Université Toulouse Capitole, avec le soutien d’industriels du secteur (CNES, Airbus et Thales Alenia Space) : La Chaire Sirius.
Acceder à la vidéo de La Matinale de la Recherche « Un nouveau souffle pour l’industrie spatiale : modèle, opportunités et menaces »
Jusqu’à la fin de la guerre froide, dans les années 90, le marché du spatial adressait exclusivement une clientèle étatique tournée vers des besoins de Défense. Aujourd’hui, on assiste à un double phénomène :
Cette situation conduit les industriels historiques du secteur à changer de paradigme et à fournir une offre en adéquation avec les besoins de ces nouveaux acteurs. Comme l’indique Victor Dos Santos Paulino, professeur à Toulouse Business School et responsable de la Chaire Sirius, le secteur spatial ne bénéficie pas encore des effets de cette dynamique émergente, il est entre deux époques : “Il est difficile de faire des projections parce que l’incertitude est maximale. On devrait toutefois assister, dans les 20 prochaines années à une montée en puissance des acteurs commerciaux. Une fois amorcé, ce mouvement devrait durer plusieurs décennies. Mais, le secteur n’est pas à l’abri d’un faux départ, comme il l’a déjà vécu avec l’éclatement de la bulle internet, phénomène qui a fortement freiné les ambitions de croissance du secteur.”
En 2016, le Sénateur américain, Ted Cruz, affirmait que les prochains multi-milliardaires seraient des opérateurs spatiaux. Les experts présents à la Matinale de la Recherche se sont accordés à confirmer cette prédiction.Domaine stratégique pour les Etats qui ont des ambitions de puissance dans le monde, le marché de l’espace est préempté par des acteurs issus de secteurs très compétitifs et concurrentiels. Leur dynamisme, conjugué à la volonté des Etats, permet donc d’envisager des perspectives florissantes. “Le secteur spatial ouvre des perspectives considérables. S’il était besoin de démontrer que l’on a affaire à un marché particulièrement porteur, depuis l’an 2000, 400 sociétés ont été créées sur ce segment et plus de 35% d’entre elles ont levé des capitaux auprès de capitaux risqueurs” affirme Lucien Rapp, professeur à l’Université Toulouse Capitole, directeur scientifique de la Chaire Sirius
Parmi les secteurs les plus porteurs, on trouve l’observation de la terre et en son sein, toute l’imagerie spatiale qui, associée au data-mining, permet l’exploitation des données issues de l’observation de la terre. Il offre un potentiel d’applications important et ouvre des marchés considérables.
Parmi les opportunités de croissance, on peut citer :
Dans le cadre de cette Matinale de la Recherche, Murielle Lafaye, Expert Prospective spatiale et Enjeux socio-économiques au CNES, Cédric Balty, VP Innovation chez Thales Alenia Space et Thierry Duhamel, Manager R&D et prospective chez Airbus ont livré leur regard de praticiens sur les perspectives présentées par Victor Dos Santos Paulino et Lucien Rapp.
Ils ont notamment mis en avant que la bataille mondiale pour ces marchés est déjà bien engagée : les Etats-Unis sont positionnés sur l’intégralité des segments d’activités dérivés du spatial. La Chine et la Corée du Sud sont des concurrents sérieux, avec une offre compétitive et réactive. Ils ont par ailleurs souligné que, si les nouveaux acteurs du secteur spatial, particulièrement ceux issus de l’économie numérique, convoitent des positions dominantes, ils se tournent inévitablement vers les acteurs traditionnels dont l’expérience permet de produire des satellites de façon compétitive et à grande échelle.
SIRIUS, « Space Institute for Researches on Innovative Uses of Satellites » est une chaire d’entreprise, fondée sur un partenariat public-privé original entre trois opérateurs majeurs du secteur spatial mondial (le CNES, Airbus et Thales Alenia Space) et deux établissements d’enseignement supérieur réputés pour leur expertise dans ce domaine : l’Université Toulouse 1 Capitole et Toulouse Business School.
Lucien Rapp, professeur à l’Université Toulouse 1 Capitole, assure la direction scientifique de SIRIUS, aux côtés de Denis Lacoste, directeur de la recherche à TBS. Sous leur égide, une équipe d’experts internationaux de haut niveau mène des travaux de recherche sur les défis juridiques et managériaux que posent les mutations de l’industrie spatiale. Jusqu’alors peu explorées, ces thématiques s’inscrivent parmi les priorités de la France et de l’Europe, mais aussi de la région Occitanie, au regard des 12 000 salariés, soit près du quart de la filière spatiale européenne, qui y évoluent aujourd’hui.
Quelques exemples de sujets de recherche :