((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto))
(Modifie la source au paragraphe 1, ajoute Google a refusé de commenter au paragraphe 8)
OpenAI a récemment commencé à louer les puces d'intelligence artificielle de Google GOOGL.O pour alimenter ChatGPT et ses autres produits, a déclaré vendredi à Reuters une source proche du dossier.
Le fabricant de ChatGPT est l'un des plus gros acheteurs d'unités de traitement graphique de Nvidia NVDA.O (GPUs), utilisant les puces d'intelligence artificielle pour former des modèles et également pour l'informatique d'inférence, un processus dans lequel un modèle d'intelligence artificielle utilise ses connaissances formées pour faire des prédictions ou prendre des décisions basées sur de nouvelles informations.
OpenAI a prévu d'ajouter le service Google Cloud pour répondre à ses besoins croissants en capacité de calcul, avait rapporté Reuters en exclusivité au début du mois, marquant ainsi une collaboration surprenante entre deux concurrents de premier plan dans le secteur de l'IA.
Pour Google, l'accord intervient au moment où il étend la disponibilité externe de ses unités de traitement tensoriel (TPUs), qui étaient historiquement réservées à un usage interne. Cela a permis à Google de gagner des clients, notamment Apple
AAPL.O , acteur majeur de la technologie, ainsi que des startups comme Anthropic et Safe Superintelligence, deux concurrents du fabricant de ChatGPT lancés par d'anciens dirigeants d'OpenAI.
En louant les TPU de Google, OpenAI utilise pour la première fois de manière significative des puces autres que celles de NVIDIA et montre que l'entreprise dirigée par Sam Altman s'éloigne des centres de données de Microsoft MSFT.O , qui la soutient. Selon The Information, qui a rapporté ce développement plus tôt, les TPU pourraient devenir une alternative moins coûteuse aux GPU de Nvidia.
OpenAI espère que les TPU, qu'il loue par l'intermédiaire de Google Cloud, contribueront à réduire le coût de l'inférence, selon le rapport.
Cependant, Google, un concurrent d'OpenAI dans la course à l'IA, ne loue pas ses TPU les plus puissants à son rival, a déclaré The Information, citant un employé de Google Cloud.
Google a refusé de commenter, tandis qu'OpenAI n'a pas répondu immédiatement à Reuters lorsqu'il a été contacté.
L'ajout d'OpenAI à la liste des clients de Google montre comment le géant technologique a capitalisé sur sa technologie d'IA interne, du matériel au logiciel, pour accélérer la croissance de son activité "cloud".
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer