En début d année dans les spécialistes experts de L IA ils sont nombreux a s étre penché sur les dossiers qui feront parti des bâtisseurs essentiels de cette fameuse route , et ils l etaient encore plus nombreux lorsque le Pdg de Nvidia Jensen Huang en mars 2026 a confirmé que les CPO étaient la seule solution viable pour étendre l'IA,( il a également investi directement, via Nvidia, avec 2 milliards de dollars d'investissements et de partenariats avec Coherent et Lumentum pour accélérer la R&D et la production de lasers InP , et 2 milliards de dollars supplémentaires avec Marvell pour renforcer le système de réseau NVLink grâce à des solutions photoniques.
Mais en tant que non spécialiste de l architecture IA et encore moins expert (nous devons etre 99.9% des investisseurs a ne pas l étre )
Je partage le récit assez simple (simple ne veut pas dire simplisme) de l un de ces spécialistes dont le récit avait éclairé un non initié tel que moi et qui avait renforcé encore un peu plus mon pari assez risqué sur Soitec .
1)La chaîne d'approvisionnement en photonique
Des fondamentaux aux opportunités
Cet article offre un aperçu complet et exhaustif du secteur de la photonique et des opportunités qu'il représente, un secteur complexe censé remodeler les centres de données d'IA et repousser encore davantage leurs limites.
Nous commencerons par le besoin et la technologie elle-même, ce qu'elle est et pourquoi il est nécessaire de moderniser nos centres de données, puis nous passerons en revue l'ensemble de la chaîne d'approvisionnement afin d'avoir une vue d'ensemble globale des entreprises impliquées dans ces nouvelles technologies, de leur rôle dans la chaîne d'approvisionnement et de la manière dont elles interagissent entre elles.
Le secteur a bénéficié d'une forte injection de liquidités et les actions ont déjà enregistré des rendements de plusieurs centaines de pour cent, mais comme cette technologie pourrait constituer la prochaine base pour l'inférence à grande échelle, les opportunités ne s'arrêteront pas après ces rendements et nous devons être prêts lorsque (et non si) les pauses se produiront.
L'opportunité est évidente : la technologie bénéficie d'un solide soutien financier et humain.
La phase spéculative d'investissement, consistant à parier sur son adoption, est désormais derrière nous. L'avenir réside dans le passage à l'échelle, avec des carnets de commandes bien remplis et une croissance du chiffre d'affaires.
Les analystes sont dans l'incertitude quant aux perspectives d'avenir, et c'est précisément dans ces moments de répit, après la confirmation des fondamentaux mais avant les premiers résultats financiers, que le rapport risque/rendement sera le plus favorable.
C’est ce qui rend cette opportunité si intéressante aujourd’hui : alors qu’elle ne fait que commencer, que les analystes n’ont aucune idée de ce qui va arriver, et que la plupart de ces entreprises sont encore assez petites et ignorées par les plus grands acteurs.
Assez tard pour éviter tous les risques. Assez tôt pour en retirer des bénéfices plus que suffisants.
Physique et goulots d'étranglement
Avant d'aborder la photonique proprement dite, nous devons revoir certains concepts que nous avons déjà vus, comme les centres de données ou les GPU , que je vais brièvement réexpliquer.
Les centres de données sont l'interconnexion de milliers de composants matériels, chacun ayant sa propre spécialité ; un composant matériel est l'interconnexion de centaines de semi-conducteurs .
Les données transitent entre ces composants via des « câbles » électriques ou optiques au sein du centre de données, ou via des métaux conducteurs
– le cuivre étant le conducteur le plus économique pour une mise à l'échelle optimale
– à l'intérieur même du matériel
L'intelligence artificielle est cette nouvelle technologie célèbre, née des données et du calcul.
Un modèle apprend grâce à des milliards d'itérations pour deviner le prochain élément
– qu'il s'agisse d'une lettre, d'un pixel ou d'une action.
Chaque erreur oblige le modèle à mettre à jour ses paramètres pendant l'entraînement, en ajustant les pondérations dans la manière dont il devine le prochain élément, jusqu'à obtenir un résultat satisfaisant.
L'IA apprend comme vous, en répétant une tâche et en s'adaptant. Vos erreurs vous enseignent comment procéder, jusqu'à ce que vous réussissiez
– jusqu'à ce que vous soyez satisfait.
Pendant des décennies, le principal obstacle à l'IA a été la puissance de calcul, la question étant de savoir comment traiter une telle quantité de données, comment deviner le prochain jeton suffisamment rapidement pour qu'une tâche simple comme l'écriture d'un texte d'une seule ligne ne prenne pas des semaines ?
Ce problème a été résolu grâce aux GPU , des semi-conducteurs conçus pour le calcul parallèle et fonctionnant comme une ruche. Des milliers de GPU sont affectés à une tâche, chacun ne traitant qu'une fraction du problème. Ils reçoivent les données nécessaires à sa résolution et partagent le résultat avec le réseau.
Cette nouvelle méthode de calcul, le calcul parallèle des GPU au lieu du calcul séquentiel des CPU, a permis l'entraînement de modèles dans des délais comparables à ceux des humains.
Les GPU sont fabriqués à partir de semi-conducteurs spécifiques, optimisés et de petite taille. L'IA s'est démocratisée, son potentiel est devenu évident et la demande en puissance de calcul a explosé , jusqu'à ce que les lois de la physique limitent son déploiement. Ceci a créé tout un écosystème, que certains qualifient d'économie circulaire , avec de nombreux grands gagnants en bourse, comme vous le savez déjà.
Vient ensuite l'inférence ,
c'est-à-dire l'utilisation de ces modèles. Les musiciens apprennent le solfège très tôt, mais ils doivent finir par jouer de leurs instruments. Imaginez que vous vous soyez entraîné toute votre vie et que votre examen final consiste à ce que quelqu'un – disons moi – vous donne une chanson.
N'importe quelle chanson, avec la partition requise, et que vous la jouiez suffisamment bien pour me satisfaire.
C'est l'inférence : le modèle sait, il faut maintenant l'utiliser pour la tâche pour laquelle il a été entraîné – quelle qu'elle soit, de la conduite à la génération d'images.
Le problème avec l'inférence, c'est sa limite.
Le modèle lui-même et ses capacités, eux, ne le sont pas ; il pourrait parfaitement répondre à vos besoins
– à condition d'être parfaitement entraîné
–, tout comme vous prendriez votre guitare et me joueriez « Sweet Home Alabama » si je vous donnais la partition.
Mais imaginez que 10 millions de personnes vous donnent simultanément une partition différente et vous demandent de toutes les jouer en même temps. Impossible.
Lorsqu'un modèle est mis en production, si son utilisation croît de façon exponentielle, les ressources qui lui sont allouées doivent également augmenter. C'est comme si vous deviez embaucher davantage de personnel si votre charge de travail atteignait 1 254 h/jour.
Cependant, en termes de logistique, le recrutement de personnel supplémentaire ne serait pas votre seul besoin.
Il vous faudrait aussi des routes suffisamment larges pour acheminer les matériaux jusqu'à vos employés, un parking assez grand pour le déchargement et de quoi nourrir tout le monde.
L'IA ne se résume pas à empiler des GPU ; il s'agit de traitement de données. Vous aurez besoin de ressources (GPU), de données (ressources matérielles), d'espace de stockage (mémoire) et d'une infrastructure réseau suffisamment large pour le transit des données (bande passante).
Il est également essentiel que chacun soit présent à l'heure pour pouvoir travailler (latence). Si l'un d'entre eux manque à l'appel, eh bien… votre tâche sera retardée, et certains de vos employés risquent de passer leur journée à jouer aux cartes, non pas par paresse, mais parce qu'ils sont tout simplement incapables de travailler.
Et vous ne voulez pas payer vos employés à ne rien faire, n'est-ce pas ?