«Nous devons faire en sorte que ces géants [du numérique] restent nos serviteurs et ne deviennent pas nos maîtres»

Rencontre avec Pascal Boniface, géopolitologue.

Dans son nouvel ouvrage, «Géopolitique de l’Intelligence artificielle», Pascal Boniface dresse un panorama des enjeux qui attendent l’humanité face à l’Intelligence artificielle et met en garde face aux dangers d’une société inégalitaire à deux vitesses. Entretien.

L’Intelligence artificielle a bouleversé nos vies depuis 30 ans. Parmi ces changements, quels sont ceux les plus significatifs de ces dernières années ?

❚ Pascal Boniface : Ce qui paraît le plus significatif, c’est l’apparition de structures géantes digitales qui ont autant d’importance que les États et peuvent les concurrencer sur la scène internationale. La plupart d’entre elles ont plus d’adhérents que les États n’ont de citoyens et ont un PIB supérieur. Cette remise en cause du rôle majeur des États par les Gafa et par la Chine est absolument sidérante et remet également en cause les certitudes les mieux établies sur l’ordre westphalien et sur la structure même des relations internationales. C’est la première fois que les États sont autant challengés par l’apparition d’un acteur nouveau.

À quoi cela a-t-il conduit ?

❚ P. B. : On peut se demander si les nouvelles technologies vont conduire à un développement de la production ou, à l’inverse, si cela va aboutir à des structures extrêmement inégales avec, d’un côté une poignée de personnes qui vont s’accaparer des richesses et, à l’inverse, une multitude de personnes réduites au chômage et à l’inutilité. Cette révolution technologique pourrait déboucher sur une société extrêmement inégalitaire et injuste où des gens pourraient s’affranchir des contraintes subies par les autres personnes.

Est-ce inédit ?

❚ P. B. : Oui. Les inégalités ont toujours existé par le passé, mais les plus riches savaient qu’ils avaient besoin de gens pour les protéger, pour produire et pour venir les servir. Là, ils pourraient se dire qu’ils n’en ont plus besoin. On a créé des systèmes de sécurité sociale et de rémunération pour satisfaire des besoins. Si aujourd’hui des robots peuvent le faire, qu’est-ce qu’on fera si tous ces bras deviennent inutiles et que toutes ces bouches restent à nourrir ? Comment les prendra-t-on en charge ?

À la différence des États, Bill Gates n’a de compte à rendre à personne

Vous remarquez que les entreprises de la Tech ont acquis un pouvoir qui dépasse presque celui des États et quelles ont participé à l’accentuation des inégalités économiques. Sommes-nous à la croisée des chemins ou au bord du précipice ?

❚ P. B.: On est à la croisée des chemins. Coup sur coup, le Département américain de la Justice et la Commission européenne s’inquiètent de la trop grande place prise par les Gafa et du pouvoir qu’elles se sont arrogé. En Chine, Jack Ma a été rappelé à l’ordre par le pouvoir politique qui lui a dit qu’il avait pris un peu trop d’importance et trop de libertés par rapport à l’État chinois. Il y a une réaction des États.

À la lecture de votre livre, on semble pourtant bien au bord du précipice… Vous êtes assez pessimiste, non ?

❚ P. B.: Cela dépend s’il y a une prise de conscience. La pente naturelle est vers l’inégalité parce que ceux qui ont tout n’ont pas vocation à partager parce qu’ils estiment que leur fortune est due à leur mérite et que finalement ils se donnent bonne conscience en créant des fondations. Il y a deux problèmes à cela : l’argent de ces fondations n’est que la redistribution d’argent gagné soit sur le dos du consommateur soit sur le dos des autres contribuables. Deuxièmement, à la différence des États, Bill Gates n’a de compte à rendre à personne. C’est la différence entre la charité et la justice. La fondation est libre et sans obligation. Elle peut s’arrêter du jour au lendemain selon la bonne humeur de celui qui la dirige. C’est, en ce sens-là, extrêmement dangereux.

À l’échelle géopolitique, vous faites remarquer la lutte de pouvoir entre la Chine et les États-Unis face aux enjeux de l’Intelligence artificielle. L’Europe ne risque-t-elle pas d’être la grande oubliée de ce combat ?

❚ P. B.: Elle l’est pour le moment. C’est à elle de se réveiller. Il semble qu’elle en ait maintenant pris conscience et que les dirigeants nationaux aient pris conscience de ce retard, qu’il était minuit moins deux et que si on ne se réveillait pas, nous allions tomber dans un sommeil éternel. La commission semble s’être mise en ordre de bataille.

Et nous, Français ?

❚ P. B. : Nous avons les meilleures écoles de mathématiques et d’ingénierie du monde mais comment faire pour ne pas servir de pouponnière pour les gens du digital ? Car il est plus intéressant d’aller travailler à l’étranger ou pour les filiales de groupes étrangers établis en France. Cela contribue à piller encore plus nos ressources.

Vous plaidez pour une plus forte régulation des acteurs de la Big Tech : par quoi passerait cette régulation ?

❚ P. B.: Il y a je pense un double-mouvement. À la fois, une régulation par les États mais aussi par l’action des individus qui – tout en étant consommateurs – doivent redevenir citoyens. Nous ne sommes pas obligés d’acheter chez Amazon plutôt qu’aller à la librairie du coin. On peut aussi faire valoir ses droits. Si WhatsApp est trop intrusif, on peut aller sur d’autres applications. C’est ce double mouvement, à la fois d’États qui ne doivent pas se laisser marcher sur les pieds et préserver leur fonction régalienne face aux industries du Big Tech mais aussi de nous, individus, qui devons faire en sorte que ces géants restent nos serviteurs et ne deviennent pas nos maîtres.


Pascal Boniface est directeur et fondateur de l’Institut de relations internationales et stratégiques (IRIS). Spécialiste de géopolitique, il a traité, au travers de plus de soixante ouvrages, traduits dans plusieurs langues, des conflits géopolitiques mondiaux. «Géopolitique de l’Intelligence artificielle – Comment la révolution numérique va bouleverser nos sociétés» (208 pages, Éditions Eyrolles) est sa première incursion dans le monde des nouvelles technologies.