Aller au contenu principal Activer le contraste adaptéDésactiver le contraste adapté
Fermer

Zoom sur l’intégration de l’Intelligence Artificielle dans les produits électroniques grand public
information fournie par ODDO BHF AM 15/10/2024 à 14:28

ODDO BHF AM

ODDO BHF AM

Ce mois-ci, nous nous intéressons à l'intégration de l'Intelligence Artificielle dans les produits électroniques grand public, en particulier les ordinateurs personnels (PC portables ou non) et les combinés de téléphone mobile.

Les lancement par Apple de l'iPhone 16, son dernier téléphone mobile, ou le salon Computex à Taïwan (la grand-messe des ordinateurs personnels) nous donnent en effet l'occasion d'évoquer l'adoption de l'IA dans des marchés publics de très grande taille.

C'est donc « l'IA on the edge » ( l'Intelligence Artificielle qui permet d'exploiter des plus petits modèles qui fonctionnent sur des terminaux légers, par opposition à « l'IA on the cloud », c'est-à-dire celle qui exploite de plus grands modèles qui ne peuvent pas fonctionner on the edge et ont besoin de la puissance du cloud pour fonctionner) que nous allons détailler ici.

APRES L'INFRASTRUCTURE, LE CHAMP DE BATAILLE DE L'IA SE DEPORTE VERS LE GRAND PUBLIC

L'ouverture au public de ChatGPT en novembre 2022 a révélé que la technologie de l'IA (malgré des cas « d'hallucinations » largement raillés) était maintenant prête à une adoption par le plus grand nombre. Selon nous, cela s'explique notamment par le fait qu'interroger une IA (via ChatGPT ou d'autres modèles de langage lancés ensuite par les concurrents d'OpenAI) ne nécessite plus de compétences informatiques, l'interface se faisant désormais en langage naturel.

Pourtant, dans les mois qui ont suivi, nous avons surtout assisté à la construction des fondations de l'infrastructure IA, sans lesquelles l'IA ne peut se développer. Cela recouvre à la fois les serveurs informatiques qui hébergent les données (à partir desquelles les modèles de langage sont entraînés et répondent aux questions posées par les utilisateurs de l'IA), les processeurs et puces électroniques assez puissantes pour analyser des quantités croissantes de données, etc.

Ce sont donc les semi-conducteurs et les équipements de réseaux et de stockage qui ont concentré l'essentiel des investissements, c'est-à-dire des solutions matérielles et logicielles installées au cœur des réseaux. C'est donc bien l'IA « core » qui a bénéficié de ces investissements et, en conséquence logique, de l'intérêt des investisseurs. Les grands modèles de langage (ex.Chat GPT, Claude ou Llama) forment eux la « super structure » de l'IA Générative.

(...)


Découvrez l'intégralité de cet article dans le PDF ci-dessous :

0 commentaire

Signaler le commentaire

Fermer

A lire aussi

Mes listes

Cette liste ne contient aucune valeur.