Cette lettre hebdomadaire est bien prévue tous les jeudis, sauf quand Milan joue la veille en Champions League, ce qui était malheureusement le cas cette semaine.
Edition du vendredi donc, spéciale IA, en conclusion d’une semaine riche en communications et réflexions, entre le Sommet pour l'action sur l'Intelligence Artificielle à Paris et le World Artificial Intelligence Cannes Festival.
Quel bilan pour cette “semaine 🇫🇷 de l’IA” ?
La France était pour quelques jours la capitale mondiale de l’intelligence artificielle, avec comme souvent, la démonstration d’un très grand savoir-faire dans l’organisation d’événements majeurs, que cela fut à Paris ou à Cannes.
Il y a naturellement de quoi en être fier. Les deux événements étaient très complémentaires : d’une part un premier grand sommet international, très politique et orienté “communication”, à Paris, et d’autre part, à Cannes, la quatrième édition d’un salon de renommée mondiale, très fortement voulu par son maire David Lisnard, réunissant les principaux acteurs, penseurs et praticiens de l’Intelligence Artificielle.
La première partie de la semaine parisienne a cependant nourri un peu de perplexité. Si de nombreux débats intéressants relatifs au futur de l’IA ont éclos un peu partout, on peut regretter qu’une communication politique présidentielle parfois décalée et une insistance sur les seuls milliards investis (109 pour être précis) aient détourné l’attention sur les seuls concepts d’autosatisfaction et de volume investissement.
Certes, il est agréable de lire sous la plume flatteuse du patron d’OpenAI, Sam Altman, dans une tribune enflammée publiée dans Le Monde, que la France est le centre névralgique de l’IA.
Certes, il est positif de constater que la France va attirer de significatifs capitaux étrangers dédiés à l’IA.
Mais, sans aucune volonté de grincherie, tout cela fait-il de notre pays une superpuissance de l’IA ?
Le plan de 109 milliards d’euros pour l’IA annoncé par le gouvernement repose en grande partie sur des capitaux étrangers, sans garantir une véritable souveraineté technologique. La France ne doit pas se contenter d’héberger des serveurs, mais maîtriser l’ensemble de la chaîne de valeur numérique, des algorithmes aux supercalculateurs.
Plutôt que d’accumuler les subventions et les régulations, il faut créer un écosystème compétitif avec des clients et une stratégie industrielle cohérente, ce qui passe par un ensemble de politiques à entreprendre à cette fin : débureaucratisation et simplification des normes pour accueillir les grands centres opérationnels de manière bien plus rapide, une fiscalité plus “accueillante” pour séduire et retenir les talents, un système éducatif performant pour créer des ingénieur et développer l’esprit critique des populations qui vont être confrontées à l’IA, c’est à à dire tout le monde.
Enfin, l’IA ne sera un levier de puissance que si nous assurons une énergie fiable et décarbonée, en réinvestissant dans le nucléaire (merci à ceux qui nous ont fait perdre 10 ans en la matière…) et des infrastructures adaptées.
Faire de la France une superpuissance de l’IA, ce qui doit être un objectif, ne peut se résumer à de l’autocongratulation et à des annonces de milliards d’investissements.
IA, de la suite dans les idées
Plus largement, du sommet mondial parisien étaient attendues des décisions ou avancées de niveau mondial.
Or, de ce point de vue, l’événement fut assez pauvre. Une déclaration finale, assez convenue, fait le vœu d’une IA “ouverte, inclusive et éthique” (il manque solidaire, écologique et sociale). Les Etats-Unis et le Royaume-Uni ont refusé de la signer.
Des réflexions intéressantes ont tout de même émergé de cette semaine, voici trois points saillants.
Dario Amodei (Anthropic) alerte : les démocraties doivent accélérer sur l’IA
Dario Amodei, cofondateur et PDG d’Anthropic, fait partie des voix les plus influentes sur l’avenir de l’intelligence artificielle. Son entreprise, spécialisée dans le développement d’IA avancées comme Claude, se veut pionnière en matière de recherche sur les modèles alignés et sécurisés. Lors du Paris AI Action Summit, il a livré un message clair : l’IA progresse plus vite que les décisions politiques, et les démocraties risquent d’être dépassées si elles ne réagissent pas immédiatement.
Son constat ? D’ici 2026-2027, peut-être avant 2030, l’IA atteindra un niveau qui pourrait être comparé à une "nation de génies dans un data center". Mais plutôt que de subir cette transformation, il exhorte les gouvernements à prendre les devants sur trois fronts majeurs : le rapport de force géopolitique, la gestion des risques sécuritaires et l’anticipation du choc économique.
1. Garder la main sur l’IA face aux régimes autoritaires
La bataille de l’IA ne se joue pas uniquement sur le terrain de l’innovation, elle est aussi un enjeu stratégique de premier plan. Amodei met en garde : si les démocraties ne prennent pas la tête du développement et du contrôle des IA avancées, d’autres s’en chargeront à leur place, avec des intentions bien moins louables.
Certains régimes autoritaires voient déjà dans l’IA un levier pour asseoir leur domination : surveillance de masse, manipulations informationnelles, automatisation du pouvoir répressif. Pire encore, la course à l’IA s’entremêle avec des enjeux militaires cruciaux.
L’un des aspects souvent sous-estimés est la maîtrise de la chaîne d’approvisionnement : semi-conducteurs, infrastructures de calcul, cybersécurité. Celui qui contrôle ces ressources contrôle le jeu. Amodei exhorte donc les démocraties à :
Sécuriser l’accès aux puces et aux infrastructures stratégiques pour éviter un scénario où seules quelques puissances auraient la main sur l’IA avancée.
Mieux réguler l’exportation des technologies sensibles, notamment vers des pays où elles pourraient être détournées à des fins militaires ou autoritaires.
Utiliser l’IA pour défendre les valeurs démocratiques : cybersécurité renforcée, lutte contre la désinformation, protection des infrastructures critiques.
2. Faire face aux risques majeurs de l’IA
L’enthousiasme pour l’IA ne doit pas faire oublier un point fondamental : cette technologie peut aussi être une menace. Amodei dresse une liste des risques critiques qui restent largement sous-évalués :
Le détournement de l’IA par des acteurs malveillants : Des modèles avancés pourraient être utilisés pour concevoir des armes biologiques ou manipuler des systèmes critiques. Les risques chimiques, biologiques, radiologiques et nucléaires ne sont plus de la science-fiction.
La capacité des IA à développer des comportements imprévus : Des recherches récentes montrent que certaines IA peuvent mentir, tromper, dissimuler leurs intentions ou s’écarter des objectifs pour lesquels elles ont été conçues.
Le manque de transparence des grands acteurs de l’IA : Si 16 entreprises majeures ont promis des efforts en matière de sécurité, Amodei insiste : ces engagements doivent être audités par des tiers indépendants et rendus transparents.
Sa proposition : que les gouvernements imposent des normes strictes et des audits réguliers sur les cyberattaques, les dérives autonomes des IA et les risques globaux. Sans un cadre robuste, on pourrait bien voir l’IA échapper à ses créateurs… et aux États.
3. Anticiper le tsunami économique
Amodei soulève enfin un point rarement abordé avec le sérieux qu’il mérite : l’IA va transformer le marché du travail plus rapidement que toute révolution technologique passée.
Sa métaphore du "pays de génies dans un data center" résume bien le problème : l’IA ne va pas simplement automatiser des tâches simples, elle va plus encore concurrencer les travailleurs qualifiés. L’impact sur l’emploi sera colossal, et les États doivent s’y préparer dès maintenant.
L’indicateur qu’il vient de lancer, l’Anthropic Economic Index, suit de près cette mutation. Il observe notamment si l’IA augmente les capacités humaines ou si elle remplace purement et simplement des emplois. Son premier constat est limpide : de nombreux secteurs voient déjà leur modèle bouleversé.
Que faire selon lui ?
Surveiller de près les effets économiques réels de l’IA : Quels métiers disparaissent ? Lesquels émergent ? Où faut-il investir dans la formation ?
Mettre en place des politiques d’adaptation intelligentes, pour éviter que les bénéfices de l’IA ne se concentrent entre les mains de quelques entreprises au détriment des travailleurs.
Créer un cadre fiscal et réglementaire adapté : aujourd’hui, les États subventionnent largement la robotisation via des avantages fiscaux, mais restent flous sur la redistribution des gains issus de la productivité de l’IA.
Dario Amodei insiste : l’inaction n’est plus une option. Si le sommet de Paris a permis des discussions, il insiste sur le fait que le prochain de ce genre ne doit pas être une répétition sans mesures concrètes.
Face à une technologie qui avance à une vitesse fulgurante, le temps politique doit s’accélérer. Il ne s’agit plus d’observer, mais d’agir avec lucidité et détermination. Les démocraties ont les moyens de garder la main sur l’IA. Encore faut-il qu’elles s’en donnent la peine.
Et l’Europe dans tout cela ?
Dans un rapport percutant, Raphaël Doan, Antoine Levy et Victor Storchan alertent sur le retard européen en matière d’IA et tracent des pistes ambitieuses pour y remédier. L’Europe peut-elle encore se hisser au niveau des États-Unis et de la Chine ?
D’ici 2030, l’intelligence artificielle sera aussi essentielle que l’électricité ou Internet. Santé, industrie, finance, défense… aucun secteur ne sera épargné par cette transformation, c’est une évidence. Pourtant, l’Europe accuse un retard inquiétant : 70 % de la puissance de calcul mondiale est aujourd’hui américaine, contre seulement 4 % pour l’UE.
Le constat est clair : sans infrastructures souveraines, nous deviendrons technologiquement dépendants des États-Unis et de la Chine. Un renoncement stratégique et économique inacceptable. Mais l’Europe peut encore inverser la tendance—à condition de changer radicalement d’approche.
Le rapport du Groupe d’Études Géopolitiques propose une série de mesures pour rattraper notre retard et construire un écosystème IA compétitif.
1. Un investissement massif dans la puissance de calcul
Objectif : atteindre 16 % de la capacité mondiale d’ici 2030 (contre 4 % aujourd’hui).
Besoin en financement : 600 à 850 milliards d’euros pour l’Europe, dont 250 à 300 milliards pour la France.
Comment financer ?
Émettre des obligations européennes pour les infrastructures IA, sur le modèle de NextGenEU.
Créer des fonds IA ouverts aux citoyens, inspirés du PEA, pour canaliser l’épargne vers l’innovation.
2. Une priorité énergétique pour les infrastructures IA
Problème : L’Europe paie jusqu’à trois fois plus cher son électricité que les États-Unis.
Solutions :
Prioriser l’accès à l’énergie pour les infrastructures IA (nucléaire, renouvelables).
Réduire les coûts de raccordement des data centers pour accélérer leur mise en service.
3. Simplifier les règles, accélérer les projets
Aujourd’hui, il faut 5 ans pour installer un data center en France, contre quelques mois aux États-Unis ou en Chine.
Le Royaume-Uni a lancé ses "AI Growth Zones" pour attirer les investisseurs et contourner les lourdeurs administratives.
Proposition : classer les infrastructures IA comme "projets d’intérêt national", permettant :
Des procédures administratives accélérées.
Moins de contraintes réglementaires inutiles.
Un soutien direct aux acteurs privés pour construire vite et bien.
4. Mobiliser les entreprises et l’investissement privé
Créer un cadre fiscal attractif pour les acteurs de l’IA :
Harmoniser et renforcer les crédits d’impôt recherche au niveau européen.
Dépréciation accélérée des investissements IA, pour les rendre immédiatement rentables.
Ces propositions intéressantes vont globalement dans le sens de que nous évoquions plus haut pour la France. Nous voici à un tournant: l’intelligence artificielle est un levier de domination mondiale. L’Europe doit cesser d’être un terrain de jeu pour les géants étrangers et devenir un acteur clé de l’innovation et non celui de la création de normes paralysantes.
De la nécessité écologique du progrès
Les lecteurs de cette lettre savent que je ne suis pas un alarmiste écologique, tant je crois dans les vertus du progrès technique pour participer à affronter les nombreux défis écologiques auxquels nous faisons face.
Toutefois, il convient d’alerter sur les gigantesques masses d’énergie et surtout d’eau nécessaires au bon fonctionnement des data centers, essentiels pour toute l’économie désormais fondée sur l’intelligence artificielle. Si le nucléaire peut apporter une réponse partielle (voir plus haut) au défi en énergie, il y a un vrai souci pour ce qui concerne l’eau.
Une initiative qui peut alimenter notre optimisme vient d’être présentée au World Artificial Intelligence Cannes Festival : PoliCloud, un data center économe en énergie, sans eau pour le refroidissement, sécurisé et décentralisé.
Sans rentrer dans les détails techniques que je serais incapable de comprendre et donc de transmettre, cette remarquable innovation paraît particulièrement intéressante dans la mesure où elle permet de répondre à deux grands défis que crée l’économie de la donnée : l’écologie et la sécurité.
On comprend la fierté du maire de Cannes David Lisnard devant cette innovation pensée et dévoilée à Cannes. Plus que jamais, il est du ressort des responsables politiques de créer les conditions favorables à l’innovation et de la nourrir, quand cela est pertinent, par de la commande publique. David Lisnard est assurément la figure politique française qui a le plus en tête les défis liés à l’IA, qui sont au cœur de son action comme maire et de nos réflexions dans le projet que nous construisons.
🗞 Saine lecture (parce qu’il n’y a pas que l’IA dans la vie…)
Ces articles ou publications sont dignes de votre temps
Proposition de Richard Ferrand au Conseil constitutionnel : "Ce n'est pas un bon candidat", selon le constitutionnaliste Benjamin Morel (Radio France)
Conseil constitutionnel, référendum, Macron ou l’horreur du vide, par Raphaël Piastra (Revue Politique et Parlementaire)
Baromètre de la confiance politique CEVIPOF 2025 : le grand désarroi démocratique (Cevipof/Sciences Po)
Éric Lombard veut des entreprises “moins rentables”... Et pourquoi pas des salaires décroissants ?, par Jean-Paul Oury (Le Figaro)