0% ont trouvé ce document utile (0 vote)
19 vues54 pages

Presses Des Mines: Chapitre II. Stratégie Pour Un Domaine D'activité

Transféré par

jephet
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd
0% ont trouvé ce document utile (0 vote)
19 vues54 pages

Presses Des Mines: Chapitre II. Stratégie Pour Un Domaine D'activité

Transféré par

jephet
Copyright
© © All Rights Reserved
Nous prenons très au sérieux les droits relatifs au contenu. Si vous pensez qu’il s’agit de votre contenu, signalez une atteinte au droit d’auteur ici.
Formats disponibles
Téléchargez aux formats PDF, TXT ou lisez en ligne sur Scribd

Presses

des
Mines
Stratégie d’entreprise
| Thierry Weil

Chapitre
II.
Stratégie
pour un
domaine
d’activité
p. 39-65

Texte intégral
Ainsi que nous l’avons indiqué,
l’analyse stratégique a d’abord
été développée pour améliorer
la gestion de conglomérats
complexes. Elle devait
permettre à la direction
générale d’assigner des feuilles
de routes claires aux directeurs
délégués des entités
opérationnelles et de leur
allouer les ressources
nécessaires. Le premier travail
consiste donc à segmenter
l’entreprise en domaines
d’activité homogènes et
indépendants. Nous en
discuterons au prochain
chapitre.
Nous supposerons dans ce
premier chapitre soit que ce
travail de segmentation a déjà
été fait, soit que nous travaillons
dans une entreprise « simple »,
constituée d’un seul domaine
d’activité.
L’art d’« articuler heureusement
les forces et les faiblesses de
l’entreprise aux opportunités et
menaces de l’environnement »
s’est notamment développé dans
la tradition de Harvard déjà
citée, grâce à des professeurs
comme Derek F. Abell et
Michael E. Porter.
Les différentes étapes que nous
allons traiter consistent à :

définir son champ


d’activité,
surveiller les déterminants
de sa profitabilité,
mettre en adéquation sa
stratégie et les ressources
maîtrisées par l’entreprise
(notamment les
compétences),
adapter sa stratégie au
cycle de vie du secteur et à
la nature du jeu
concurrentiel.

1. DÉFINIR SON
ACTIVITÉ ET SON
POSITIONNEMENT
ACTUEL
La première étape de l’analyse
stratégique consiste pour
l’entreprise à comprendre qui
elle est et où elle est (repérer
son espace de compétition).

1.1. Quoi ? Pour qui ?


Comment ?
L’activité de l’entreprise se
définit d’abord par son « offre
de valeur » : quelle fonction
réalise-t-elle (quel problème
résout-elle) ? Pour quels clients
(quels utilisateurs) ? Comment
réalise-t-elle sa prestation
(quelle technologie) ?

Par exemple, la fonction


« transporter » peut concerner
des marchandises (fret), des
touristes sensibles au prix, des
hommes d’affaires sensibles à la
rapidité au confort et à la
flexibilité, viser la clientèle
coréenne ou mexicaine… Elle
peut être mise en œuvre grâce à
la route, au train, à l’avion ou au
bateau, voire en combinant ces
technologies (transport
multimodal)…
Les spécialistes du marketing
utilisent plutôt une
segmentation produit*marché,
dans laquelle le plan des
produits recouvre les
dimensions « quoi et
comment » et le marché les
dimensions « quoi pour quoi ».
Mais leurs catégories se prêtent
à l’analyse du positionnement
d’une gamme de produits bien
définis sur un marché identifié.
L’analyse en trois dimensions
permet mieux d’imaginer des
combinaisons nouvelles et
d’élargir l’espace concurrentiel
potentiel analysé. Par exemple,
la stratégie d’une compagnie de
transport en avion entre Paris et
Marseille dans les années 1980
doit tenir compte de la
concurrence des autres
compagnies, mais aussi de
l’arrivée d’une technologie
alternative (le TGV) sur le
marché du transport rapide de
personnes entre les deux villes,
le transport routier classique sur
longue distance doit tenir
compte des baisses de coût que
les conteneurs standardisés vont
permettre dans le transport
multimodal.
Une entreprise peut se
spécialiser sur un créneau précis
(fonction, clientèle, technologie)
ou chercher à tirer parti de
synergies ou d’économies
d’échelle en offrant plusieurs
fonctionnalités (intégration), en
s’adressant à plusieurs
clientèles, en utilisant plusieurs
technologies.

un constructeur
d’automobiles peut se
contenter de vendre une
voiture, ou proposer des
services plus ou moins
élaborés de maintenance
(avec des services annexes
comme le prêt d’un
véhicule de remplacement,
le fait d’aller chercher et de
rapporter le véhicule à
domicile), de financement,
d’assurance, pouvant aller
jusqu’à la garantie de mise
à disposition d’un véhicule
de catégorie donnée pour
un abonnement mensuel…
il peut se spécialiser sur le
véhicule individuel ou sur
le véhicule utilitaire, se
focaliser sur une aire
géographique ou vouloir
une distribution mondiale,
viser la clientèle
individuelle, les flottes
d’entreprises ou les
loueurs.
il peut se spécialiser sur la
propulsion à essence, le
diesel, l’électrique ou les
technologies hybrides ; il
peut proposer des véhicules
à vendre ou un système
« multimodal » permettant
d’en louer facilement où
que l’on soit.

On voit que le domaine


« naturel » d’une entreprise
n’existe pas. Certaines des
prestations évoquées ci-dessus
ont été proposées par des
entreprises de production
d’automobiles, d’autres par des
entreprises de services (comme
la location de voitures).
Certaines ont été intégrées
(Renault avait à une époque sa
propre filiale de financement)
puis externalisées, ce qui
n’exclut pas des partenariats
éventuels et des offres agrégées.

1.2. Comment lutter contre


la baisse tendancielle du
taux de profit ?
Marx avait montré que
lorsqu’on approche des
conditions d’un marché parfait,
les producteurs ne préservent
leurs parts de marché qu’en se
battant sur les prix et donc en
acceptant une baisse de leur
taux de profit. Pour échapper à
cette baisse tendancielle du taux
de profit, les entreprises tentent
de construire une rente, c’est-à-
dire une source d’avantage par
rapport aux concurrents.
Longtemps cet avantage est
venu de l’accès privilégié à une
ressource dont les concurrents
ne disposent pas. C’est le cas de
la rente minière1 (l’accès à un
gisement où le minerai est plus
riche ou plus facile à extraire
qu’ailleurs) ou de l’accès à une
main d’œuvre qualifiée mais
bon marché. Dans d’autres
secteurs, des barrières à l’entrée
en général temporaires peuvent
parfois protéger les acteurs, par
exemple une réglementation
restrictive ou une politique
protectionniste. Sinon, ils ne
peuvent préserver des marges
confortables qu’en construisant
un avantage par rapport aux
autres producteurs. La stratégie
consiste alors à définir des
sources d’avantage durable ou
renouvelable.

1.3. Avantage sur les coûts


ou sur la différenciation
Selon Michael Porter, un
avantage compétitif peut être
obtenu soit par une stratégie de
maîtrise des coûts, permettant
d’offrir avec des marges
correctes un produit moins cher
que la norme du marché, soit
par une stratégie de
différentiation, permettant
d’augmenter la propension à
payer du client auquel on offre
des fonctionnalités plus riches
ou originales, ou un niveau de
qualité et de raffinement
supérieurs.
Porter a longtemps insisté sur le
fait que beaucoup d’entreprises
avaient du mal à faire ce choix
stratégique sur leur avantage
compétitif et demeuraient
piégées dans un positionnement
intermédiaire, selon lui
défavorable (stuck in the
middle). Une analyse du secteur
automobile réalisée dans les
années 1980 étayait sa théorie et
montrait que ceux qui s’en
sortaient le mieux avaient soit
fait le choix des volumes (Ford,
Volkswagen) soit du
positionnement sur le haut de
gamme (BMW, Porsche). Par
exemple, BMW vendait des
voitures 40 % plus cher que
Peugeot, pour un coût de
fabrication 15 % plus élevé. Un
positionnement intermédiaire
aurait probablement conduit à
des voitures trop chères (par
rapport aux modèles des
constructeurs misant sur
l’avantage de coûts) mais pas
assez sophistiquées pour
justifier le consentement à payer
supplémentaire des clients de
BMW.
Il semble qu’on observe le
même type de segmentation
dans le marché aérien entre
compagnies traditionnelles
offrant un niveau de prestation
standardisé et de grandes
capacités d’interconnexion
d’une part et d’autre part des
low-cost au modèle bien
différent, spécialisées sur les
trajets entre deux villes, avec
des prestations simplifiées.
1.4. Étendue du marché
visé (scope) et
différenciation
Le repère tridimensionnel
(utilisateurs*fonction*technologie
ou qui*quoi* comment) permet
de repérer l’étendue du marché
visé. Une entreprise peut par
exemple se focaliser sur une
niche étroite de clientèle, mais
apporter une valeur par sa très
bonne connaissance de ce
marché (par exemple, les
enceintes acoustiques pour le
marché professionnel et haut de
gamme, les coiffeurs et dentistes
pour enfants). Elle peut au
contraire décider de servir un
marché plus étendu et espérer
des économies d’échelle.
Cette définition du marché visé
permet aussi de définir
comment l’entreprise différencie
son offre de celle du reste du
marché, parfois aussi,
lorsqu’elle décide de s’adresser à
plusieurs segments de marché,
comment elle différencie son
offre entre ses différents
produits. Par exemple, un des
problèmes de Renault au
lancement de la Twingo était de
ne pas cannibaliser le marché de
la Clio. Un des problèmes de la
fabrication des Logan à 5000 €
est de ne pas cannibaliser le
marché de la petite voiture à
10 000 €.

1.5. Le sur-mesure au prix


de la confection ?
La prescription de Porter selon
laquelle il serait impératif de
choisir entre l’avantage de coûts
souvent lié à une rationalisation
extrême de l’outil de production
et à une faible variété (la
stratégie de Ford offrant une
voiture d’un rapport
qualité/prix exceptionnel
pourvu que le client veuille un
modèle T de couleur noire) ou
une forte différenciation visant
un marché de niche a été mise
en doute.
Une stratégie intermédiaire a
consisté pour certaines
entreprises à tenter d’allier une
bonne maîtrise des coûts et une
bonne faculté d’adaptation aux
besoins d’une clientèle
hétérogène. On a ainsi vu
apparaître des concepts de
plate-forme, d’architecture
modulaire, de composants
communs, d’interfaces
standardisées et de
différenciation retardée. Ainsi
Thomson Consumer
Electronics, dans les années
1980, déclinait ses gammes de
téléviseurs entre produits haut
de gamme vendus en magasins
de ville sous les marques
Thomson et Telefunken,
produits vendus en
hypermarché (Brandt, Téléavia),
produits ciblés vers une clientèle
plus jeune sensible à un design
adapté (Saba), etc. La grande
variété de références contrastait
avec un faible nombre de
châssis standardisés et de kits
de composants plus ou moins
sophistiqués. Des matériaux
plus ou moins raffinés pour les
parties visibles, du plastique au
bois précieux, augmentaient les
différences apparentes.
Dans l’automobile, la maîtrise
des flux de production dans les
années 80, dont Toyota a été le
pionnier, a permis de faire des
voitures sur-mesure (couleur,
options diverses) avec un temps
raisonnable entre la prise de
commande et la fabrication d’un
modèle spécifique2 .
Auparavant, il fallait soit faire
attendre longtemps le client,
soit constituer des stocks dont le
coût devenait rédhibitoire si les
options proposées étaient trop
nombreuses.
Une architecture de produits
reposant sur des plates-formes
communes, un design
modulaire reposant sur des
composants standards faciles à
combiner grâce à une
standardisation des interfaces,
ont donc permis d’avoir des
lignées de produits réutilisant
beaucoup de composants et une
différenciation retardée sur les
lignes de production.
Porter, qui insistait sur la
différence entre les outils
d’efficience opérationnelle
(permettant de mieux réaliser
les tâches choisies) et le champ
de la stratégie (décider des bons
objectifs), n’a pas vu que des
innovations importantes dans
l’art de l’exécution pouvaient
modifier la formulation des
questions de choix stratégiques,
notamment dans le domaine de
ce positionnement entre
l’avantage de coût et l’avantage
de différenciation.
Pour autant, la réflexion sur le
positionnement de l’entreprise
reste un aspect essentiel de la
stratégie, même si les catégories
de ce positionnement sont
devenues plus subtiles. Nous en
verrons un exemple lorsque
nous discuterons du cas
spécifique des start-up. Une
start-up qui maîtrise une
technologie aux applications
potentielles nombreuses doit
souvent faire un choix déchirant
pour se limiter au départ à une
niche de marché sur laquelle
elle peut concentrer ses efforts
de conception, de
développement et de marketing.
Sinon, elle risque de disperser
des moyens limités et de ne
s’imposer sur aucun marché.
Nous y reviendrons.

1.6. Stratégie d’accès au


marché, positionnement
dans la chaîne de valeur
Une entreprise peut intégrer
elle-même toutes les fonctions
de production et de distribution
ou se concentrer sur certaines
étapes de la chaîne de valeur.
C’est particulièrement évident
en ce qui concerne la
distribution des produits où
l’entreprise peut avoir son
propre réseau commercial,
passer par des distributeurs
(exclusifs ou non), ou vendre à
une entreprise qui appose sa
propre marque sur son produit3
(éventuellement en l’intégrant
avec d’autres).
Une entreprise peut avoir une
action commerciale directe
auprès des consommateurs
finaux de ses produits (cas des
marques de l’industrie agro-
alimentaire) ou laisser le
distributeur promouvoir son
produit (marques blanches ou
marques anonymes, sans action
commerciale, qui fait que le
consommateur s’attache plutôt à
un point de vente).
Ce choix se pose même dans le
cas où une entreprise fabrique
un composant a priori invisible
pour l’utilisateur final, elle peut
se contenter d’une action
commerciale auprès de
l’intégrateur ou construire
directement sa notoriété auprès
du consommateur (ce qu’a fait
Intel avec sa campagne « Intel
inside »).

1.7. Autres facteurs


caractérisant le
positionnement de
l’entreprise
L’entreprise est le produit d’une
histoire complexe qui
conditionne dans une large
mesure les actions collectives
qu’elle peut mener efficacement.
L’analyste avisé sera souvent
conduit à s’interroger sur ce qui
fait l’identité de l’entreprise,
examinant la nature et les
attentes de l’actionnariat, le
climat social, les compétences
spécifiques qu’elle a
développées, l’image qu’elle
donne à son environnement, les
parties prenantes auxquelles
elle accorde de l’importance au
cours de son processus de
décision.
Une entreprise est aussi une
collectivité où ceux qui ont voix
au chapitre (ceci peut désigner
dans certains cas l’unique
autocrate qui dirige l’entreprise,
dans d’autres toute l’entreprise,
parfois même un collectif encore
plus large incluant une partie de
l’environnement) partagent des
valeurs et une culture.
Comme l’explique Jean-Marc
Oury4, l’entreprise est
sédentaire sur certaines
dimensions et nomade sur
d’autres. Mettre en cause les
premières menace son identité,
les secondes sont considérées
comme des variables pouvant
donner lieu à des compromis
divers et à des plus-values
opportunes.

2. CONSTRUIRE LA
PERENNITE OU
PREPARER
L’EVOLUTION DE SON
POSITIONNEMENT

2.1. Surveiller les forces


déterminant sa profitabilité
(Porter)
Porter a proposé une grille pour
analyser l’environnement
concurrentiel de l’entreprise.
La profitabilité dépend de six
facteurs5 :

1. Les concurrents actifs sur


le même marché : comme
on l’a vu, l’avantage
concurrentiel vient alors
d’une meilleure maîtrise
des coûts (parfois par
l’accès privilégié à une
ressource clé) ou d’une
différenciation dont la
pertinence par rapport aux
attentes du marché doit
être régulièrement
réévaluée.
2. De nouveaux entrants
potentiels : dans un secteur
industriel mûr,
d’importantes barrières à
l’entrée protègent les
acteurs installés. Mais une
innovation technologique
ou une modification de
l’environnement peut
modifier les règles du jeu.
Ainsi le marché de la
distribution des pneus aux
États-Unis était protégé par
le coût important de mise
en place d’un réseau de
distribution présent sur
tout le territoire et le
marché était réparti entre
quelques grandes
entreprises locales
(Dunlop, Goodyear,
Firestone,…). L’invention
brevetée du pneu radial a
donné à Michelin un
avantage suffisamment
différenciant pour pénétrer
ce marché. La fin de la
période de protection d’un
brevet majeur permet aussi
l’arrivée de nouveaux
entrants (cas du brevet sur
l’édulcorant Aspartam de
Nutrasweet ou des
génériques
pharmaceutiques légaux).
3. Les technologies de
substitution : l’existence
d’une ligne de TGV
déstabilise le transport
aérien sur une destination
en offrant une
« technologie de
substitution ». De même, la
profitabilité d’un fabricant
de bouteilles en verre peut
être mise en danger par les
perfectionnements des
canettes en acier ou en
aluminium ou l’apparition
d’emballages en carton
perfectionnés permettant
une bonne conservation
des liquides. De même, les
montres à affichage
électronique ont déstabilisé
le marché de la montre
mécanique.
4. Le pouvoir de négociation
avec les fournisseurs : les
clients d’IBM des années
60 ne pouvaient changer de
fournisseur sans mettre en
péril toutes leurs
applications, tandis qu’un
possesseur de PC
compatible peut
aujourd’hui changer de
fournisseur sans
inconvénient majeur.
5. Le pouvoir de négociation
avec les clients : l’existence
d’internet a permis à des
producteurs d’accéder plus
facilement au client final et
renforcé leur capacité de
négocier l’accès aux canaux
de distribution
traditionnels. Les grandes
centrales d’achat restent
cependant en position de
force dans la plupart des
secteurs de la grande
distribution (donc
conservent une capacité de
marges élevées).
6. L’environnement
réglementaire (facteur
ajouté aux cinq facteurs
originels de Porter)
conditionne également la
compétitivité des
entreprises : la manière
dont les fréquences
d’émission UMTS ont été
attribuées a fortement pesé
sur la structure de la
compétition entre acteurs
de la téléphonie mobile en
Europe. Dans les industries
de réseaux, les autorités de
régulation jouent un rôle
essentiel, mais également
dans des secteurs comme la
chimie, où la
réglementation
environnementale peut
contraindre à des
investissements
importants, voire rendre
obsolète l’outil de
production, ou dans
l’automobile où les choix de
régulation de l’impact
environnemental peuvent
avantager certains
constructeurs.

L’analyse des six forces de


Porter permet d’imaginer des
scénarios d’évolution possibles
du domaine et de tenter de
mettre l’entreprise en bonne
position pour parer aux
menaces et saisir les
opportunités.

2.2. Évaluer les forces et


faiblesses actuelles de
l’entreprise
L’examen des conditions
actuelles de la concurrence liées
aux forces de Porter permet
d’identifier les facteurs-clés de
succès. On peut alors comparer
le positionnement par rapport à
chacun de ces facteurs de
l’entreprise, de ces principaux
concurrents et de nouveaux
entrants potentiels. Ce
positionnement est souvent lié à
la maîtrise de ressources
spécifiques. Il peut s’agir des
compétences et technologies
que l’entreprise peut mobiliser,
de l’accès à une clientèle
particulière, de la réputation de
l’entreprise vis-à-vis de
certaines parties prenantes
(capital social), parfois d’une
rente de situation (accès
privilégié à une ressource rare).
Il est important de détecter
rapidement une évolution des
facteurs clés de succès, et donc
des points critiques à surveiller,
voire d’anticiper ces évolutions.
Ainsi, par exemple, l’activité de
contrôle du trafic aérien a
longtemps dépendu de la qualité
des antennes de radar de ces
équipements6. Les concurrents
de référence que considérait
Thomson-CSF (ancien nom de
Thales) en comparant les profils
de maîtrise des facteurs-clés de
succès étaient alors Hugues, le
premier fabricant mondial de
radars, Westinghouse, Raytheon
ou Texas Instruments. Mais les
performances des radars sont
bientôt devenues suffisamment
bonnes pour repérer des avions
à grande distance, de sorte que,
dans les années 1980, le défi
principal devenait d’analyser les
signaux correspondant à de
nombreux objets volants
identifiés par de nombreux
capteurs différents (radars
situés dans des lieux divers ou
autres systèmes de détection).
Un facteur de succès primordial
devenait alors la capacité de
traitement du signal, de fusion
de données, de traitement et de
représentation de l’information
collectée en temps réel sous une
forme ergonomique pour le
contrôleur aérien civil et
militaire. Le radar pouvait
presque être considéré comme
un équipement banalisé que la
plupart des concurrents
maîtrisaient ou pouvaient
acquérir. Le principal
concurrent à surveiller devenait
alors IBM, en position
dominante sur le traitement
d’information, et non plus
Hugues.
De même, la cellule de
prospective stratégique de
Kodak avait prévu dans les
années 1990 que l’émergence
plus ou moins prochaine de la
photographie numérique
changerait radicalement les
compétences-clés à maîtriser.
Les spécialistes de la
photochimie seraient alors
moins utiles que des experts en
traitement du signal7.
L’analyse des facteurs-clés de
succès permet aussi de
distinguer parmi les
fonctionnalités que l’entreprise
doit proposer celles qui sont
indispensables mais n’apportent
pas d’élément de différenciation
(les must have, comme de
pouvoir satisfaire aux normes
réglementaires de sécurité) et
celles qui permettent de se
distinguer de la concurrence8.
La politique de maîtrise des
capacités correspondantes ne
sera pas la même. Il conviendra
bien sûr de s’assurer de la
disponibilité des premières,
mais on pourra les partager avec
d’autres, donc les externaliser,
tandis qu’on envisagera plutôt
pour les secondes soit une
maîtrise interne soit un
partenariat privilégié.
Par exemple, la qualité des
peintures, notamment leur
tenue à la corrosion, avait été un
problème pour Renault dans les
années 70. Lorsque l’entreprise
obtint un niveau satisfaisant, sa
direction réalisa que la plupart
de ses concurrents savaient
aussi construire des véhicules
qui ne rouillaient pas, et que
maintenir sa compétence en
peinture coûterait cher pour
entretenir un savoir-faire qui
n’était plus différenciant.
Renault vendit donc sa branche
peinture au chimiste Hoechst en
1984, tout en négociant des
accords d’approvisionnement
avec cette entreprise.
Nous rediscuterons dans le
paragraphe consacré aux
réseaux des moyens de s’assurer
à un prix raisonnable la maîtrise
de compétences
complémentaires par une
politique de partenariat et
d’alliances.

2.3. Construire des


scénarios d’évolution
On voit donc que l’analyse des
forces concurrentielles ne doit
pas être statique. Pour chacune,
on peut identifier des tendances
lourdes assez prévisibles. Par
exemple, on peut assez bien
prédire l’évolution des
performances et des prix des
circuits intégrés qui seront
disponibles sur le marché (loi de
Moore), on peut aussi prévoir
un durcissement des
réglementations
environnementales et des
exigences de traçabilité, etc.
À ces évolutions prévisibles
s’ajoutent de nombreux
éléments d’incertitude. Quel
standard émergera dans tel
domaine des
télécommunications ? Tel pays
se dotera-t-il rapidement d’un
système juridique permettant
d’y faire respecter les contrats
passés ou ses droits de
propriétés industrielles ? Tel
marché restera-t-il ouvert aux
importateurs étrangers ? etc.
Chaque sujet d’incertitude met
en cause les positions acquises
dans le jeu concurrentiel.
Certains de ces sujets peuvent
être traités indépendamment les
uns des autres, par un plan de
contingence spécifique (s’il se
passe ceci, nous pourrons faire
cela), d’autres donnent lieu à
une combinatoire rapidement
inextricable, qu’il est impossible
ou prohibitif d’explorer
totalement.
On peut, en revanche, après
avoir dressé la liste des
principaux éléments
d’incertitude, imaginer quelques
scénarios plausibles et se
demander comment l’entreprise
est positionnée pour y faire face.
Cette méthode stimule la
réflexion et la créativité des
équipes de direction. Elle peut
conduire à altérer certains
choix. Telle action qui ne serait
pas optimale dans le cas
considéré comme le plus
probable procurera, par
exemple, une plus grande
résilience face à d’autres
scénarios plausibles. Je peux
ainsi penser que le dollar va
monter, mais me couvrir à un
certain niveau contre un risque
de baisse qui mettrait en péril
mon entreprise.
Un domaine particulièrement
sensible est celui des ressources
techniques, car les experts de
l’entreprise ont souvent du mal
à imaginer spontanément les
risques de substitution, le
besoin de maîtrise de nouvelles
technologies loin de leur
domaine et surtout le risque
d’obsolescence de leur
spécialité. Le problème n’est pas
seulement d’encourager l’expert
en architecture de bateaux à
voile à se tenir au courant de
toutes les avancées dans le
domaine des nouveaux textiles
pour les voiles, des matériaux
permettant de faire des mâts
aux capacités mécaniques
supérieures, des dispositifs
facilitant la manœuvre et
optimisant le gréement en
fonction du vent et de la route
suivie. Des technologues
motivés entreprendront assez
volontiers cette veille
technologique sur le
perfectionnement de leur art. La
difficulté est de faire qu’ils
imaginent que les bateaux à
vapeur, qui utilisent une
technologie radicalement
différente, deviendront des
concurrents sérieux, alors que
cette technologie est inefficace
lorsqu’elle apparaît et présente
des défauts évidents (bruit,
pollution, risques d’explosion ou
d’incendie, vibrations…). Il faut
aussi qu’ils aient la volonté de
sensibiliser les décideurs de
l’entreprise à ce scénario qui
peut conduire à leur mise sur la
touche...
Cette réflexion sur les
principaux facteurs
d’incertitude et sur des
scénarios possibles permet
d’identifier ce qu’il est
important de surveiller dans
l’environnement et de mettre en
place les actions de veille
technologique, économique,
concurrentielle et réglementaire
pour détecter au plus tôt des
évolutions déterminantes. Elle
permet également de réfléchir à
des « plans B » (ou plans de
contingence) permettant de
réagir efficacement à de telles
évolutions. Il suffit parfois de
s’assurer à l’avance de pouvoir
disposer en cas de besoin de
certaines compétences qui
deviendraient critiques. Ceci
peut parfois être obtenu à
moindre coût en s’engageant
dans une politique de
construction de réseaux.

3. STRATÉGIE
D’ALLIANCES ET DE
RÉSEAUX
Nous avons déjà évoqué la
stratégie d’alliances à propos de
l’accès au marché. On observe
une tendance à une
décomposition des réseaux de
valeur ajoutée, ce qui permet
aux entreprises de se spécialiser
sur une niche. Quelques acteurs
ont un pouvoir plus fort s’ils
contrôlent des étapes
essentielles de la chaîne de
valeur. Un exemple classique est
Benetton, qui ne contrôle que la
teinture, le marketing et
l’organisation de la distribution.
De nombreuses PME, voire
entreprises individuelles ou
travailleurs à domicile font le
tricotage, tout un réseau de
franchisés assure la distribution
en ville. Dans le secteur des
circuits intégrés sont apparues
des fonderies de circuits qui
fabriquent des composants pour
les clients qui auront conçu ou
fait concevoir ceux-ci en
respectant les règles de design
compatibles avec la technologie
de la fonderie. La part des
achats a crû très fortement dans
l’industrie automobile, avec
l’apparition de sous-traitants de
premier niveau capables de
concevoir des sous-ensembles
complets et innovants, au lieu
de fabriquer selon les plans
fournis par le constructeur.

3.1. Ni marché ni
entreprise intégrée
Ronald Coase (prix Nobel
d’économie 1991) et Oliver
Williamson considéraient deux
formes de coordination, le
marché pur, sur lequel des
acteurs indépendants concluent
des transactions ponctuelles, et
les entreprises, où le travail est
organisé par la hiérarchie. Selon
qu’il s’agit de répartir
efficacement la récolte de fruits
ou la pêche du jour ou que
l’objectif est de construire ou
d’opérer des systèmes
complexes comme des avions ou
des centrales nucléaires, une
approche présente plus
d’efficacité en termes de coûts
de transaction.
Comme l’a montré Walter
Powell9, le réseau constitue une
forme de coordination
différente car les acteurs ne sont
ni indépendants, ni dépendants,
mais interdépendants les uns
des autres. Ils sont engagés dans
des transactions répétées et le
succès de chacun dépend de la
qualité du travail de tous les
autres. Ces formes de
coordination s’observent depuis
longtemps dans le bâtiment, où
différents corps de métier
travaillent ensemble et doivent
s’ajuster de manière souple aux
aléas rencontrés ou aux erreurs
de planification10.
Dans un réseau, les acteurs font
des investissements dédiés à un
projet commun qui ne seront
rentables que si le projet réussit,
et si chacun se comporte de
manière loyale, que cette
loyauté soit spontanée ou
résulte de contrats bien ficelés.
Ainsi, un programmeur qui
développait un logiciel dans le
système d’exploitation d’Apple
(avant que celui-ci n’intègre une
forme d’Unix avec le système X)
dépendait du succès commercial
de cette entreprise. De même
quand Valeo, pour obtenir un
contrat important, construit une
usine à côté de celle que Renault
met en route au Mexique, il faut
qu’elle puisse espérer que
Renault n’abusera pas du fait
que cette usine ne sera rentable
pour Valeo que si la relation de
collaboration est pérenne.
La capacité à s’intégrer dans des
réseaux permet à une entreprise
de se spécialiser sur une étape
où sa valeur ajoutée est
maximale ou d’intervenir sur un
marché qui serait inabordable
pour elle si elle devait fournir les
prestations complémentaires
qu’apporteront d’autres
membres du réseau. Un
producteur de beurre peut ainsi
profiter de l’engouement des
consommateurs pour les
tartines en construisant un
réseau avec un producteur de
pain, un producteur de confiture
et un spécialiste de tartinage.

3.2. Quelques exemples


d’amélioration de son
positionnement grâce aux
réseaux et aux partenariats
Nous avons déjà évoqué plus
haut la vente par Renault de son
activité de peinture automobile
à Hoechst, qui peut être
analysée comme un arbitrage
entre faire soi-même ou acheter
(make or buy). Considérer des
possibilités de partenariat évite
de se limiter à ce choix binaire.
Ainsi, par exemple, la division
de réseau d’entreprises d’un
groupe de télécommunication
français prévoyait en 1995 que
certains clients voudraient
pouvoir utiliser le standard de
communication de données
ATM (asynchronous transfer
mode), que l’entreprise ne
maîtrisait pas encore.
Développer la maîtrise de cette
technologie en interne coûtait
cher, l’acheter à un des peu
nombreux fournisseurs qui la
maîtrisaient sans être lié à un
concurrent aussi. Après
quelques investigations, le
groupe rencontra un trio
d’ingénieurs de la Silicon Valley
spécialistes de la technologie
convoitée qui voulaient quitter
leur employeur pour créer une
start-up. Un accord gagnant-
gagnant fut trouvé, la start-up
assurerait l’intégration de la
technologie dans les
commutateurs du groupe
français, s’assurant ainsi des
revenus dès la création de
l’entreprise, tandis que le
groupe français distribuerait en
Europe et peut-être en Asie le
produit que la start-up
développait initialement pour le
marché américain. On voit que
le fait que la négociation porte
sur de multiples dimensions
liées à ce que les deux
partenaires pouvaient s’apporter
mutuellement permettait à
chacun d’accéder dans de
meilleures conditions à des
ressources dont il avait besoin.
Parfois, pour accéder à certains
clients qui ne veulent pas
dépendre d’un fournisseur
critique ou prendre le risque
d’un embargo politique, une
entreprise peut conclure des
accords de seconde source. Elle
transfère sa technologie à un
concurrent qui pourra ainsi
garantir une pérennité
d’approvisionnement au client
et permettre une renégociation
des tarifs équilibrée. Ainsi,
après qu’un accord de seconde
source fut trouvé, la direction
générale de l’armement autorisa
des équipementiers militaires
français à intégrer des
microprocesseurs d’une
entreprise étrangère (voir
l’exemple traité dans la section
finale de ce chapitre). Au cas où
cette entreprise n’aurait pas pu
ou voulu fournir de
microprocesseurs, un double
des masques de fabrication était
consigné chez un tiers de
confiance.
Une stratégie de partenariat
permet aussi d’enrichir les
fonctionnalités disponibles pour
le client en évitant de se
disperser dans des
développements multiples pour
lesquels l’entreprise n’est pas
forcément la plus compétente.
Ainsi un éditeur de navigateur
comme Netscape, Internet
Explorer, Firefox ou Opera
diffusera largement ses règles
d’interface afin que d’autres
éditeurs de logiciels puissent
développer des plug-in et autres
add-on améliorant la
fonctionnalité de son
environnement. Intel va jusqu’à
investir (sous forme de capital-
risque d’entreprise) dans des
entreprises qui développent des
applications intéressantes et
gourmandes en puissance de
calcul, qui inciteront les clients à
renouveler plus vite leur
ordinateur. Texas Instrument
fait de même avec ses
processeurs de signal
numérique (DSP). Sur son
campus de Redwood Shores,
Oracle réserve tout un bâtiment
à ses partenaires pour que ceux-
ci enrichissent l’environnement
des prochaines versions de son
logiciel de gestion de bases de
données.
Conclure un partenariat dans de
bonnes conditions suppose
parfois un investissement
substantiel dans la technologie
qu’on veut intégrer. Cet
investissement permet de
repérer la bonne technologie et
de savoir l’intégrer dans son
système11. Parfois, il rend la
négociation possible ou plus
facile dans la mesure où le client
peut au besoin se passer du
fournisseur. Ainsi le fait que la
France ait développé une
technologie complète de
centrales nucléaires civiles (la
filière UNGG eau lourde
graphite gaz) a permis de
négocier dans de bonnes
conditions la licence de la
technologie américaine plus
efficace de Westinghouse (et
permis d’acquérir les savoir-
faire nécessaires pour la mettre
en œuvre, malgré une
coopération parfois
problématique du partenaire
américain).
Un partenariat peut ouvrir des
options multiples. Ainsi, IBM et
Apple se sont-elles alliées dans
les années 1990 pour
développer et fabriquer un
microprocesseur, le PowerPC.
Ceci a permis à Apple de
disposer d’un bon processeur
dans la technologie qu’il avait
alors choisie (RISC) et à IBM de
négocier en position de force
avec Intel, puisqu’une option
d’approvisionnement alternative
crédible avait été construite.
Grâce à IBM et à la joint-
venture de fabrication créée
ensemble, Apple disposait à un
coût raisonnable d’un
microprocesseur conforme à ses
besoins. Grâce à Apple, IBM
avait une alternative lui
permettant de faire pression sur
Intel pour obtenir de meilleures
conditions commerciales.
A contrario, des partenariats
judicieux peuvent permettre à
une entreprise de valoriser
certains de ses propres savoir-
faire quand elle constate qu’ils
ont une valeur stratégique pour
d’autres entreprises. IBM tire
ainsi un revenu annuel de deux
milliards de dollars de licences
de son portefeuille de brevet,
auquel il faudrait ajouter les
économies engendrées par de
nombreux accords de licences
croisées.

4. MANAGEMENT DES
COMPÉTENCES-CLÉS
ET DES RESSOURCES
TECHNOLOGIQUES
Nous verrons au prochain
chapitre que les atouts d’une
entreprise et les opportunités
qu’elle peut saisir dépendent
largement de ses compétences-
clés, d’autres actifs ayant une
moindre inertie et pouvant donc
être acquis plus rapidement. Ces
compétences recouvrent des
technologies au sens
traditionnel, mais aussi des
savoir-faire organisationnels
(gérer des grands chantiers,
faire travailler ensemble de
multiples sous-traitants),
commerciaux (savoir répondre à
des appels d’offres publics, avoir
noué de bonnes relations avec
des acheteurs ou les rédacteurs
des spécifications techniques
des marchés de telle ou telle
institution), relationnels (être à
l’aise avec les codes culturels et
les usages d’affaires de tel pays).
Le schéma qui suit concerne
surtout les capacités
technologiques, mais la plupart
des raisonnements peuvent être
transposés à d’autres
compétences12.
Ce graphique présente le
management des ressources
technologiques de l’entreprise
comme celui d’un stock de
compétences et de
connaissances qu’elle maîtrise,
ainsi que d’un réseau lui
permettant d’accéder à des
compétences externes lorsque
c’est judicieux. Le stock est
constitué en fonction des
besoins anticipés des projets de
développement de l’entreprise.
Son évolution résulte de la
surveillance et de l’analyse de
l’évolution des technologies, des
marchés et de l’environnement
concurrentiel ainsi que des
choix stratégiques de
l’entreprise (que par ailleurs il
conditionne). L’augmentation
de ce stock se fait grâce aux
programmes de recherche de
l’entreprise, grâce à l’absorption
ou à l’intégration de
technologies développées
ailleurs et grâce à la
capitalisation des savoirs
développés lors des projets. Son
exploitation se fait à travers
l’offre de l’entreprise, mais
aussi, hors de ses marchés, par
la valorisation externe des
technologies qu’elle maîtrise.
Selon les époques, l’attention
des chercheurs s’est plutôt
portée sur certaines de ces
questions.

5. SYNTHÈSE : PLAN-
TYPE D’ANALYSE
D’UN DOMAINE
STRATÉGIQUE
En conclusion des généralités de
ce chapitre, nous présentons un
plan possible de description de
l’activité d’une entreprise ou
d’un domaine stratégique. Cet
exercice est une étape
indispensable du processus
d’analyse stratégique d’un
groupe multidivisionnel, qu’on
décrira au chapitre suivant13.

1. Définition du domaine
(Quoi ? Pour qui ?
Comment ?)
2. Sous-segmentations
possibles
en domaines
stratégiquement
homogènes ;
changements de
l’environnement qui
rendraient une autre
segmentation
pertinente.
14

3. Nota : si une sous-


segmentation apparaît
souhaitable dès
maintenant, mieux vaut
considérer qu’on a
plusieurs domaines
stratégiquement
homogènes et faire autant
d’analyses que de
domaines.
4. Inventaire des ressources
partagées et
interdépendances (lorsque
le domaine d’activité fait
partie d’un groupe, ceci ne
s’applique pas pour une
entreprise indépendante).
Liste des domaines
partageant ces
ressources.
Domaines affectés par
une évolution de la
stratégie dans le
domaine décrit.
Domaines dont une
évolution de la
stratégie affecterait le
domaine décrit.
5. Stratégie de pénétration
historique (définition
précise du marché,
différenciation,
pénétration) : difficultés
éventuelles rencontrées par
cette stratégie.
6. Analyse des évolutions du
paysage concurrentiel :
clients (actuels ou
potentiels), fournisseurs,
cadre réglementaire,
concurrents, nouveaux
entrants potentiels,
technologies de
substitution possibles.
Opportunités et menaces
identifiables.
7. Facteurs-clés de succès
(inventaire, position
actuelle, évolutions
possibles). Evolutions
probables des compétences
nécessaires et des
technologies. Forces et
faiblesses de l’entreprise
par rapport à ces facteurs-
clés de succès.
8. Analyse des concurrents
(actuels, potentiels,
position par rapport aux
facteurs-clés de succès,
autres atouts, faiblesses,
stratégie ?).
9. Politique de maîtrise des
savoir-faire ayant un
impact sur les facteurs clés
de succès, en fonction de
l’importance de cet impact
et de la disponibilité de ces
savoir-faire (accessibles sur
le marché ouvert,
accessible dans le cadre
d’un partenariat
stratégique, indisponible
donc devant être maîtrisé
en interne)15.
10. Opportunités d’extension
du marché de l’entreprise
(bénéfices et risques
envisageables),
opportunités de
valorisation des
compétences, savoir-faire
et technologies sur d’autres
marchés (cession de
licences, transferts de
technologie, JV, essaimage,
prestations de service ou
d’assistance). Coopérations
possibles (y compris avec
des concurrents)
11. Construction éventuelle de
quelques scénarios
possibles à partir des
différentes sources
d’incertitudes évoquées aux
rubriques précédentes.
Pour chaque scénario,
analyse des
technologies et
ressources à mettre en
œuvre, besoin de
compétences
prévisibles, modes de
maîtrise possibles et
souhaitables de ces
compétences,
partenariats et
alliances
envisageables.
Choix du scénario de
référence.
Actions à prendre si
les autres scénarios
envisagés se réalisent.
Options possibles.
Action de veille à
entreprendre
(technologique,
concurrentielle,
autre…), notamment
pour vérifier que les
principales hypothèses
utilisées pour
construire la stratégie
restent valides.
12. Sommes-nous le meilleur
actionnaire possible ?
Sinon qui ? (Cette question
se pose même pour une
entreprise indépendante, si
elle peut créer plus de
valeur en se rapprochant
d’une autre entreprise).
13. Principales décisions
stratégiques à prendre dans
les années qui viennent (et
événements capables de les
influencer).

6. UN EXEMPLE : LE
CAS DES START-UP
DE LOGICIEL
Le cadre et les contraintes de
l’analyse stratégique ne sont pas
les mêmes pour une division
d’un grand groupe, pour une
entreprise établie centrée sur
une activité et pour une
entreprise en création. L’accès
aux ressources critiques repose
sur des procédures assez
différentes. La division d’un
grand groupe pourra disposer
des ressources nécessaires à la
conquête d’un nouveau marché
si l’état-major du groupe est
convaincu de son intérêt
stratégique (nous y reviendrons
en détail au chapitre suivant).
Elle bénéficiera aussi d’un accès
facilité aux compétences des
autres divisions ou d’un
laboratoire central. Une
entreprise établie pourra aussi
s’appuyer sur une base de
clientèle et de technologies, sur
sa réputation de partenaire
sérieux et correct. Une start-up
devra convaincre des
investisseurs et différents
détenteurs de ressources de la
viabilité de son projet et trouver
rapidement un premier
débouché.
Nous allons nous appuyer sur
différents ouvrages de Geoff
Moore pour préciser quelques
spécificités de la stratégie pour
les start-up introduisant des
technologies nouvelles. Ce qui
suit s’applique notamment dans
le domaine de l’édition
logicielle, la dynamique de
certaines filières, comme les
biotechnologies, pouvant
présenter des caractéristiques
assez spécifiques.

6.1. Le cycle d’adoption


des technologies
Dans les années 1950, Everett
Rogers, étudiant la dynamique
des innovations a catégorisé les
individus selon leur aversion au
risque (en abscisse le temps, en
ordonnée le nombre de
nouveaux utilisateurs) :

Des innovateurs, ou
explorateurs amoureux de
nouvelles technologies,
aiment tester les idées
émergentes, même dans
des conditions
inconfortables
(équipements peu fiables,
programmes pleins de bugs
ou peu ergonomiques). Ils
apportent un retour
intéressant ou une caution
vis-à-vis de tiers, mais ils
ne constituent pas un
marché solvable. Il peut
être intéressant de leur
faire essayer gratuitement
des prototypes pour
bénéficier de leurs apports
et de leur support.
Des pionniers sont prêts à
investir pour essayer la
technologie, parfois parce
qu’ils ont un besoin très
particulier. Ils ont besoin
de développements
spécifiques, qui
consomment des
ressources de R&D. Ce sont
souvent les premiers clients
critiques nécessaires au
démarrage de la start-up16.
Les pragmatiques sont
prêts à adopter une
innovation pertinente, mais
veulent s’assurer au
préalable que la
technologie fonctionne bien
avant de prendre une
décision. Ils préfèrent
acheter au leader du
marché pour avoir de
meilleures garanties de
fiabilité et de service.
Les conservateurs sont
méfiants ou sceptiques vis-
à-vis des nouveautés, très
sensibles au prix et veulent
une grande simplicité
d’emploi.
Les traînards sont hostiles
aux innovations
technologiques et il est
inutile de les démarcher.

Geoff Moore a montré qu’il y


avait un gouffre à franchir entre
les visionnaires et les
pragmatiques, une vallée de la
mort où beaucoup d’entreprises
innovantes succombaient.
L’erreur classique est de tenter
de développer un produit qui
répond aux demandes de tous
les segments du marché et de
déployer un marketing et des
efforts de développement tous
azimuts, en épuisant les maigres
ressources de l’entreprise.
L’auteur prescrit, au contraire,
de définir une niche et de
développer un produit complet
spécifique intégrant toutes les
exigences des acteurs de cette
niche. Par exemple, les
concepteurs d’un logiciel de
gestion pour une activité
libérale identifieront une
profession (comme la
comptabilité des dentistes ou
des médecins de ville) et
développeront un produit
prenant en compte les besoins
de ces utilisateurs spécifiques.
S’ils arrivent à conquérir cette
niche, ils progresseront ensuite
pas à pas en offrant plus de
fonctionnalités à la même
clientèle (gestion du fichier des
patients, de la paye des
assistantes, des déclarations
fiscales) ou chercheront à
adapter leur produit aux besoins
d’une clientèle aux
caractéristiques proches. C’est la
« stratégie du bowling », où une
quille représente un couple
fonctionnalité*clientèle (F, C) et
peut faire tomber les quilles
voisines (F’, C) ou (F, C’). On
évite ainsi un double saut (de
clientèle et de produit) et on
s’appuie à chaque fois sur des
références solides obtenues sur
la niche précédente.
Si tout va bien, la traversée
prudente du gouffre débouche
sur la « tornade » : le produit est
devenu une référence reconnue
et tout le monde veut l’acheter
en même temps. Les directeurs
de systèmes informatiques sont
grégaires, ils veulent avoir le
standard du marché et ont peur
d’acheter trop tôt (quand on
n’est pas encore sûr du standard
émergent) ou trop tard (quand
ils auront l’air de ringards
technophobes). Ils veulent aussi
un changement de technologie
le plus rapide et indolore
possible. Dans cette phase, il est
essentiel de pouvoir satisfaire la
demande et de livrer le plus
possible afin d’éviter qu’un
nouveau venu n’utilise une
défaillance logistique pour
prendre une part du marché
qu’on a péniblement créé. Il faut
étendre le réseau de distribution
le plus rapidement possible. Les
financements viennent
facilement (car le succès du
produit est avéré). Il ne faut pas
perdre de temps à prendre en
compte des demandes
spécifiques de certains clients.
C’est la période critique où l’on
établit une part de marché
dominante, dans des secteurs où
le vainqueur rafle la mise (the
winner takes all). Un acteur
dominant, le « gorille », a 40 à
80 % des parts de marché et 70
à 95 % des bénéfices (Google,
eBay, Microsoft, Yahoo ! et
longtemps Intel dans leurs
créneaux respectifs), un ou deux
« chimpanzés » peuvent
prétendre à 10 ou 20 % du
marché, et les « petits singes »
se partagent les miettes. La
croissance future dépend
surtout de la base installée et
non de l’attaque des clients
acquis à la concurrence.
Après cette tornade vient la
phase du boulevard. La
croissance n’est plus explosive.
L’offre excède la demande et la
compétition devient vigoureuse
sur les prix et le contenu du
produit. Il faut alors améliorer
régulièrement les performances,
se concentrer sur les demandes
insatisfaites des utilisateurs
pour se différentier des
concurrents. Le marketing est à
l’honneur.
Ce scénario implique de
privilégier des aptitudes
différentes à chaque étape.
Parmi les qualités des leaders de
marché identifiées par
Wieserma17 (leadership produit,
excellence opérationnelle,
intimité avec le client) :

dans la phase de mise au


point du produit
(innovateurs et pionniers)
seules comptent les
performances supérieures
et nouvelles de celui-ci
(leadership) ;
pour vendre aux
pragmatiques, il faut en
plus parfaitement connaître
les besoins et les critères
d’achats des utilisateurs de
la première niche visée
(intimité) ;
quand la demande
s’emballe, on peut oublier
l’intimité avec le client mais
il faut une excellence
opérationnelle (livrer avec
efficacité à des clients
nombreux) ;
ensuite, les parts de
marchés se stabilisent, il
faut offrir de nouvelles
fonctionnalités à la base
installée, le produit n’a plus
besoin d’être le leader du
marché, mais il faut à
nouveau privilégier la
connaissance des besoins
des clients.

À chaque étape correspond


aussi une politique de
partenariats et d’alliances
stratégiques. Au moment de la
conquête des premiers clients, il
faut recruter des partenaires.
Lorsque les parts de marché se
stabilisent et que la croissance
ralentit, on cherchera souvent à
éliminer les partenaires associés
à l’élaboration du produit pour
récupérer une plus large part de
la valeur ajoutée18, quitte à
recruter plus tard des
partenaires qui assureront le
service après-vente du produit
pendant que l’entreprise se
redéploiera sur la construction
de nouvelles versions ou de
nouveaux produits.

7. UN EXEMPLE
D’ANALYSE DES
SAVOIR-FAIRE ET
TECHNOLOGIES
CRITIQUES ET DE
LEUR POLITIQUE DE
MAÎTRISE
NB L’exemple choisi remonte
volontairement à plus de vingt
ans et est édulcoré pour éviter
tout problème de
confidentialité. Il est fourni pour
illustrer une méthode de
raisonnement mais toutes les
considérations de l’époque sur
la liste des facteurs-clés de
succès, des savoir-faire et
technologies, de leur criticité et
de leur disponibilité sont
évidemment caduques.
PFI est une filiale d’un grand
équipementier militaire, qui
fournit des plates-formes
informatiques aux différentes
branches d’activité du groupe.
Son existence se justifie (au
moment de l’analyse) par la
mise en commun d’une
compétence difficile à maintenir
au meilleur niveau dans chaque
entité du groupe.
L’entreprise a inventorié les
facteurs-clés de succès dans son
domaine d’activité :

garantir la pérennité des


plates-formes, dont
certaines seront utilisées
dans des systèmes devant
pouvoir être utilisés
pendant plusieurs
décennies ;
permettre à ces plates-
formes d’évoluer
(upgradability), pour
permettre plusieurs
« retrofits » (amélioration
des performances grâce à
de nouveaux
microprocesseurs plus
puissants et quelques
circuits périphériques
critiques, parfois de
nouveaux logiciels, sans
modification sensible du
reste de l’équipement) ;
coût compétitif, dans un
marché de plus en plus
ouvert, notamment à
l’export ; − disponibilité
des principaux logiciels du
marché que les clients
voudront pouvoir faire
tourner sur cette plate-
forme ;
respect des spécifications
d’environnement
opérationnel particulières
des équipements militaires
(robustesse, résistance aux
radiations,…).
L’entreprise a également
inventorié les savoir-faire
et technologies critiques à
mettre en œuvre pour
satisfaire au cahier des
charges des clients :
architecture et conception
de plates-formes pour
l’informatique temps réel
(hard, soft et circuits),
accès aux composants clés
(microprocesseur
notamment),
fabrication,
logiciels de tierces parties,
robustification des
matériels et intégration
dans l’environnement
(pour les clients militaires),
vigilance et réactivité sur
l’évolution des matériels et
des standards,
présence commerciale.

Ensuite pour chacun de ces


savoir-faire ou compétence, on a
évalué :

les facteurs-clés de succès


sur lesquels cette
compétence a un impact
et son niveau d’impact ;
la disponibilité de cette
compétence, en distinguant
trois niveaux :
possibilité d’achat ou
de sous-traitance,
besoin d’accord
privilégié avec les
fournisseurs
(partenariat sécurisé),
besoin d’autonomie ;
ces données permettent de
proposer une politique de
maîtrise, en considérant
quatre options (non
exclusives) :
possibilité d’acheter,
possibilité de partager,
possibilité de maîtriser en
interne,
possibilité de valoriser la
maîtrise acquise en
interne ;
enfin, pour chaque
compétence, on évalue le
coût :
de la barrière à l’entrée
(coût nécessaire à un
concurrent disposant
des informations
disponibles
aujourd’hui pour
arriver à une
compétence de même
niveau ou suffisante
pour être présent sur
le marché) ;
de l’investissement
cumulé de l’entreprise
(qui peut être
beaucoup plus
important si des voies
alternatives ou
infructueuses ont été
explorées) ;
de l’effort annuel à
consentir pour
entretenir la
compétence ;
des études
complémentaires
souhaitées pour
surveiller l’évolution
de la technologie.

Ainsi, par exemple, le premier


savoir-faire d’architecture et de
conception des plates-formes
est considéré comme le cœur du
système, ayant un impact
maximal sur la pérennité, les
capacités d’évolution du
système et son coût. Il n’est pas
achetable, représente alors une
barrière à l’entrée de 15M€, de
l’ordre de grandeur de
l’investissement cumulé réalisé,
occupe 40 personnes pour
maintenir la compétence à
niveau. Certains aspects de ce
savoir-faire peuvent être
valorisés, notamment la
conception de circuits intégrés
spécifiques (ASIC).
L’accès au microprocesseur est
critique pour la pérennité, mais
un accord a été trouvé avec un
fournisseur étranger, qui a
transféré sa technologie à une
filiale du groupe, lequel pourra
donc être autonome en quelques
mois s’il ne trouve plus de
conditions d’approvisionnement
acceptables avec le fournisseur
ou en cas d’embargo. Il
économise ainsi un
développement très coûteux
qu’il ne peut espérer amortir sur
les quantités limitées qu’il
produit.
Si la disponibilité de certains
logiciels tiers est exigée par
certains clients, ceux-ci peuvent
être achetés à l’éditeur et le
portage sur la plate-forme sous-
traité à des SSII. Le portage
pourrait être maîtrisé en
interne, mais peut aussi être
partagé ou sous-traité.
La vigilance et la réactivité sont
considérées comme essentielles
pour garantir les capacités
d’évolution et l’adéquation à la
demande, l’acquisition
d’information peut-être
largement sous-traitée à des
prestataires externes, mais
l’entreprise estime nécessaire de
réaliser elle-même la synthèse
de cette information.

Notes
1. Si une matière première est extraite
de différentes mines de coûts
d’exploitation différents, à l’équilibre
économique toutes les mines d’un coût
inférieur à un certain niveau sont
mises en exploitation (en supposant
toutefois qu’on peut rapidement et à
moindre coût cesser ou reprendre
l’exploitation d’une mine !), les autres
n’étant pas rentables. La mine de coût
le plus élevé fixe le prix du marché.
Celles de coût inférieur bénéficient
d’une rente (leur différence de coût).
2. En fait, au début des années 1990,
les combinaisons exotiques étaient
fabriquées à la demande, mais les
modèles les plus fréquemment vendus
étaient produits d’avance, ce qui
permettait une régulation plus facile
de l’ordonnancement, avec un système
d’information sur les ventes réelles
permettant de maintenir les stocks à
un niveau très faible.
3. Le fournisseur « anonyme » est
alors qualifié d’OEM, Original
Equipement Manufacturer
4. Economie politique de la vigilance,
opus cité.
5. Porter ne considérait que les cinq
premiers dans les publications
originales de sa théorie.
6. Les performances de ces radars
pouvaient elles-mêmes être analysées
comme la combinaisons de différentes
compétences sur la conception et la
fabrication de circuits analogiques
hyperfréquences, d’électronique de
commande et ou de traitement du
signal, etc.
7. Beaucoup considèrent que Kodak a
manqué le virage du numérique, mais
l’identification d’une menace au
calendrier imprécis ne suffit pas à
garantir la mise en œuvre d’une
stratégie efficace, surtout si certains
concurrents sont potentiellement
mieux placés pour tirer parti des
nouvelles opportunités, ou peuvent le
faire sans craindre d’accélérer le
déclin d’un marché qui constitue le
cœur de leur activité.
8. Un exemple de mise en œuvre
d’une telle analyse est proposé dans la
dernière section de ce chapitre
9. W. W. Powell, 1990, Neither Market
nor Hierarchy : Network Forms of
Organization, Research on
Organizational Behavior, 12, (1990),
295-336.
10. Claire Tutenuit-Hocquard avait
montré dans Le modèle du chantier
qu’il se créait une solidarité
économique de fait entre les
entreprises participant à un chantier
de construction. Quand les choses
vont mal, chacun fait des concessions
pour éviter la catastrophe pour un des
acteurs, notamment l’entrepreneur
général. Il y a un consensus tacite sur
le fait qu’on se rattrapera lorsque les
temps seront meilleurs, sur un
prochain chantier où les choses se
passeront bien et où les marges seront
plus confortables (ou le client moins
bon négociateur). Ceci est possible
dans la mesure où les mêmes acteurs
travaillent souvent ensemble,
l’entrepreneur général ne faisant appel
qu’à un petit nombre de fournisseurs
dans chaque corps de métier. Le
modèle du chantier (C. Hocquard)
Gérer et Comprendre n° l7, déc 89.
11. W. Cohen et D. Levinthal ont
montré qu’une bonne capacité
d’absorption reposait sur la
construction de compétences internes.
M. Iansiti et J. West expliquent le
retour des entreprises américaines de
microélectronique sur un marché
dominé par les firmes asiatiques à la
fin des années par la construction de
capacités d’intégration.
12. Pour plus d’information, voir
[Link]
13. Certaines des notions qui suivent
sont expliquées au chapitre suivant
(notamment les ressources partagées
et les évolutions de la segmentation).
Le lecteur qui n’a jamais entendu
parler de segmentation stratégique
pourra donc sauter cette section et y
revenir après la lecture du chapitre 3.
14. La notion de segmentation est
discutée au chapitre 3. Une sous-
segmentation est pertinente lorsque le
domaine d’activité est hétérogène au
regard des questions abordées dans la
présente liste (concurrents différents
pour différents produits,
compétences-clés différentes en
fonction des clients, par exemple).
15. Un exemple de ce type d’analyse
est fourni en annexe 2 de ce chapitre.
16. Les lead users de von Hippel (Eric
von Hippel, The sources of innovation,
Oxford University Press, 1988).
17. Treacy and Fred Wieserma, 1995,
The discipline of market leaders.
18. Ainsi IBM et les fabricants de PC
se seraient volontiers passés de la
domination d’Intel et de Microsoft qui
les avaient aidés à mettre rapidement
des produits complets sur le marché.
Certaines entreprises visent plutôt une
stratégie de plateforme, en définissant
leur cœur de valeur ajoutée et les
domaines qu’ils laissent à leurs
partenaires complémentaires.

© Presses des Mines, 2008

Licence OpenEdition Books

Référence électronique du
chapitre
WEIL, Thierry. Chapitre II. Stratégie
pour un domaine d’activité In :
Stratégie d’entreprise [en ligne].
Paris : Presses des Mines, 2008
(généré le 21 décembre 2022).
Disponible sur Internet :
<[Link]
ISBN : 9782356710949. DOI :
[Link]

Référence électronique du livre


WEIL, Thierry. Stratégie d’entreprise.
Nouvelle édition [en ligne]. Paris :
Presses des Mines, 2008 (généré le 21
décembre 2022). Disponible sur
Internet :
<[Link]
ISBN : 9782356710949. DOI :
[Link]
Compatible avec Zotero

Vous aimerez peut-être aussi