Skip to main content
Bulle de l'IA : 70 % du cloud est contrôlé par trois entreprises américaines

legrandcontinent.eu · 20 min


Notepad

Le constat d’une concentration massive du pouvoir aux mains de quelques entreprises, dopée par l’IA, n’est pas une opinion : elle repose sur une analyse matérielle et une vision politico-économique de l’histoire de l’industrie technologique […]

Au cours des quatre-vingt dernières années, de nombreuses approches technologiques très hétérogènes ont été regroupées sous le terme générique d’« IA ».

Le deep learning est l’une de ces approches, aujourd’hui dominante.

Au cours des années 2010 s’est opéré à bas bruit un grand tournant dont peu ont alors vraiment compris l’ampleur.

Le deep learning s’est imposé pour devenir synonyme de ce qu’on nomme aujourd’hui IA.

Dans les années 1990, les plateformes numériques ont été incitées à se développer à tout prix selon une logique éprouvée : créer des réseaux de communication non réglementés, capturer l’effet de réseau, conquérir le marché, parvenir à des économies d’échelle et collecter autant de données que possible pour alimenter un modèle économique fondé sur la publicité et la surveillance.

Ce dont nous parlons, c’est d’une forme politique et économique de captation du marché fondée sur un modèle commercial de surveillance et une concentration du pouvoir qui s’appuie sur les effets de réseau. C’est ce modèle qui a rendu un certain type d’IA à nouveau pertinent.

L’IA a été faussement présentée comme une innovation scientifique, alors qu’elle est en réalité le résultat d’une concentration de pouvoir entre quelques acteurs historiques qui se sont imposés pendant la phase d’accumulation primitive de la commercialisation d’Internet.

Ainsi, même si Mistral est capable de construire son propre modèle, l’accès au marché rend toujours ce modèle dépendant d’un hyperscaler. Une startup donne accès au modèle de Mistral via un serveur d’Amazon Web Services ou un autre fournisseur d’infrastructure.

Le jour où Open AI — ou Microsoft, qui semble être en train de vouloir en prendre le contrôle — voudra changer son modèle, sa tarification ou ses autorisations, ou qu’il se verra infliger des sanctions par la puissance publique, les plus petits acteurs en subiront directement les effets — et devront s’aligner.

C’est évident : il y a une bulle de l’IA.

Les entreprises sont valorisées, mais ne font pas de bénéfices — elles ne parviennent même pas au seuil de rentabilité.

Les dépenses d’investissement sont fantaisistes et les promesses de plus en plus difficiles à croire.

Je nuancerais toutefois cela par une dimension non négligeable : au plan géopolitique, l’IA est un outil de contrôle stratégique.

70 % du marché mondial des infrastructures cloud est contrôlé par trois entreprises américaines.

Le gouvernement américain et le secteur privé en sont profondément conscients.

C’est un avantage géopolitique extraordinaire.

Les règles élémentaires de la cybersécurité ont été totalement oubliées. Des choses qui auraient fait rire tout le monde chez Google il y a huit ans sont aujourd’hui acceptées sans sourciller.

Une étude récente d’Anthropic a montré qu’il suffisait de 250 documents « contaminés » dans la base de données d’un LLM, quelle que soit sa taille — ils peuvent parfois contenir plusieurs milliards de datapoints — pour créer une faille permettant des manipulations poussant les LLM à des actions malveillantes.

Il est également dans notre intérêt de dénoncer l’intégration des « agents » — qui est en fait un terme de marketing désignant des robots qui effectuent des tâches complexes à notre place sans nous demander la permission. Pour réserver un billet pour aller au cinéma, prévenir vos amis, faire une réservation au restaurant, ces « agents » ont besoin d’accéder à une énorme quantité de données d’une manière très peu sécurisée. « L’agent » a besoin d’accéder à votre carte de crédit, à votre navigateur pour rechercher un restaurant, à votre historique de navigation, à votre calendrier, à tous vos événements — même à votre messagerie Signal, que vous utilisez pour pouvoir communiquer avec vos amis.

C’est une faille dans l’architecture de sécurité sur laquelle nous nous appuyons. Elle est en partie présupposée par une croyance erronée mais encore très répandue : les développeurs et les utilisateurs ont confiance dans le fait qu’il s’agit de plateformes neutres qui feront ce que nous leur demandons. Or ces plateformes sont instrumentalisées par des agents IA très peu sûrs, qui utilisent des commandes en langage naturel très difficiles à sécuriser, des données presque impossibles à assainir, et qui créent une porte dérobée dans des applications telles que Signal — où notre cryptage n’a plus d’importance puisqu’il suffit de profiter de cet agent qui dispose d’un accès interne à votre appareil pour accéder à vos données Signal.