
ODDO BHF AM
Ce mois-ci, nous nous intéressons à l'intégration de l'Intelligence Artificielle dans les produits électroniques grand public, en particulier les ordinateurs personnels (PC portables ou non) et les combinés de téléphone mobile.
Les lancement par Apple de l'iPhone 16, son dernier téléphone mobile, ou le salon Computex à Taïwan (la grand-messe des ordinateurs personnels) nous donnent en effet l'occasion d'évoquer l'adoption de l'IA dans des marchés publics de très grande taille.
C'est donc « l'IA on the edge » ( l'Intelligence Artificielle qui permet d'exploiter des plus petits modèles qui fonctionnent sur des terminaux légers, par opposition à « l'IA on the cloud », c'est-à-dire celle qui exploite de plus grands modèles qui ne peuvent pas fonctionner on the edge et ont besoin de la puissance du cloud pour fonctionner) que nous allons détailler ici.
APRES L'INFRASTRUCTURE, LE CHAMP DE BATAILLE DE L'IA SE DEPORTE VERS LE GRAND PUBLIC
L'ouverture au public de ChatGPT en novembre 2022 a révélé que la technologie de l'IA (malgré des cas « d'hallucinations » largement raillés) était maintenant prête à une adoption par le plus grand nombre. Selon nous, cela s'explique notamment par le fait qu'interroger une IA (via ChatGPT ou d'autres modèles de langage lancés ensuite par les concurrents d'OpenAI) ne nécessite plus de compétences informatiques, l'interface se faisant désormais en langage naturel.
Pourtant, dans les mois qui ont suivi, nous avons surtout assisté à la construction des fondations de l'infrastructure IA, sans lesquelles l'IA ne peut se développer. Cela recouvre à la fois les serveurs informatiques qui hébergent les données (à partir desquelles les modèles de langage sont entraînés et répondent aux questions posées par les utilisateurs de l'IA), les processeurs et puces électroniques assez puissantes pour analyser des quantités croissantes de données, etc.
Ce sont donc les semi-conducteurs et les équipements de réseaux et de stockage qui ont concentré l'essentiel des investissements, c'est-à-dire des solutions matérielles et logicielles installées au cœur des réseaux. C'est donc bien l'IA « core » qui a bénéficié de ces investissements et, en conséquence logique, de l'intérêt des investisseurs. Les grands modèles de langage (ex.Chat GPT, Claude ou Llama) forment eux la « super structure » de l'IA Générative.
(...)
Découvrez l'intégralité de cet article dans le PDF ci-dessous :
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer