Comment les algorithmes sont susceptibles de déstabiliser le business

EntrepriseRégulationsSurveillance

L’Autorité de la concurrence s’inquiète des multiples aspects de l’influence des algorithmes sur différents secteurs de l’économie.

Des algorithmes de tarification pourraient-ils « s’entendre » sans qu’on les ait programmés pour cela ?

L’Autorité de la concurrence pose la question dans une étude (document PDF, 88 pages) menée avec le Bundeskartellamt, son homologue allemande.

Les deux organismes se sont plus globalement intéressés aux formes de collusion horizontale – parfois appelée « cartel » – auxquels ces algorithmes sont susceptibles de contribuer.

Ils ont dégagé trois « grands scénarios » :

  • l’algorithme en support d’une entente explicite ;
  • des concurrents qui utilisent – sciemment ou non – un même algorithme tiers ;
  • l’utilisation parallèle d’algorithmes différents.

Pour illustrer le premier scénario, l’Autorité de la concurrence et le Bundeskartellamt donnent plusieurs exemples, dont :

  • Trod et GBE. Ces deux vendeurs de posters avaient convenu d’une non-concurrence sur les prix de certains modèles qu’ils étaient les seuls à proposer sur Amazon UK.
  • Deux fournisseurs d’énergie britanniques qui s’étaient arrangés pour ne pas démarcher l’un l’autre leurs clients.

Le code ou la data ?

Le deuxième scénario pose davantage de problèmes du point de vue juridique.

L’utilisation d’un même algorithme par des concurrents peut être impulsée aussi bien par le développeur de l’algorithme en question que par un tiers ; typiquement, un consultant.

L’étude distingue deux sources potentielles de collusion : le code même de l’algorithme et les données dont il s’alimente. Avec, pour ce dernier cas, l’exemple de deux sociétés espagnoles de l’industrie du tabac. Elles s’étaient accordées pour accéder à leurs chiffres de vente respectifs grâce à une fonctionnalité sur le logiciel d’un distributeur.

Se pose aussi la question des décisions qu’une société délègue explicitement à un tiers qui se fonde sur des algorithmes… éventuellement connectés à d’autres services.

Entre algorithmes

Le troisième scénario est celui qui soulève le plus de défis au regard du droit de la concurrence. Particulièrement sous le prisme des algorithmes autoapprenants.

L’Autorité de la concurrence fait référence aux expérimentations menées à ce sujet. Plus précisément sur des algorithmes dits « opaques » ; c’est-à-dire dont on ne peut entrevoir le fonctionnement au niveau du code.

On a constaté des tendances à la collusion, sans parvenir à déterminer dans quelle mesure elle serait reproductible « en conditions réelles ». Entre autres de par la complexité des dynamiques de certains marchés, non prises en compte dans le cadre de ces tests.

Légalement, il importe de différencier la collusion de simples comportements parallèles. Ces derniers, au vu du droit actuel, pourraient se voir catégoriser non pas comme une forme de coordination, mais une « adaptation intelligente au marché ».

L’exemple GAFAM

L’étude interpelle aussi quant au « pouvoir » que les algorithmes pourraient conférer aux entreprises qui en font usage.

L’un des aspects de ce pouvoir porte sur la collecte de données. Le cas Google Shopping l’illustre, bien qu’il soit devenu plus simple d’accéder à des algorithmes de tarification et de les implémenter (disponibilité de frameworks, élasticité du cloud…).

Autre source potentielle de déséquilibre : le refus d’une société de fournir à la concurrence des informations sur un algorithme.
L’Autorité de la concurrence évoque, à cet égard, une décision que la Commission européenne avait prise en 2004. Elle avait considéré Microsoft en situation de position dominante dans l’univers des systèmes d’exploitation. Parmi ses griefs figurait la rétention d’informations qui auraient permis à des concurrents de rendre leurs logiciels compatibles avec des protocoles de communication.

Photo d’illustration © TheSupe87 – Fotolia.com

Lire aussi :

Lire la biographie de l´auteur  Masquer la biographie de l´auteur