Cerebras Systems et Amazon concluent un accord pour offrir les puces d'IA de Cerebras sur le cloud d'Amazon information fournie par Reuters 13/03/2026 à 16:00
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Stephen Nellis
Amazon.com AMZN.O et Cerebras Systems ont déclaré vendredi avoir conclu un accord pour combiner les puces informatiques des deux entreprises dans un nouveau service visant à accélérer les chatbots, les outils de codage et d'autres services d'intelligence artificielle.
Évaluée à 23,1 milliards de dollars , Cerebras est une start-up spécialisée dans les puces qui vise à s'attaquer à Nvidia en construisant un type de puce d'intelligence artificielle fondamentalement différent qui ne repose pas sur une mémoire coûteuse à large bande passante comme le font les puces phares de Nvidia. Au début de l'année, Cerebras a signé un accord de 10 milliards de dollars pour fournir des puces au créateur de ChatGPT, OpenAI. Dans le cadre de l'accord annoncé vendredi, les puces Cerebras seront installées dans les centres de données d'Amazon Web Services (AWS) et seront reliées aux puces d'IA personnalisées Trainium3 d'Amazon , connectées à une technologie de réseau personnalisée d'Amazon.
"Tous les clients, grands ou petits, sont sur AWS, des développeurs individuels aux plus grandes banques du monde", a déclaré Andrew Feldman, directeur général de Cerebras, à Reuters, affirmant que l'accord "rendra l'accès à Cerebras aussi facile qu'un clic."
Les deux entreprises ont refusé de divulguer le montant de l'accord.
Amazon et Cerebras s'associeront pour s'attaquer à ce que l'on appelle "l'inférence", où des systèmes d'IA préalablement formés reçoivent des requêtes d'utilisateurs et produisent des réponses. Les deux entreprises diviseront cette tâche en deux étapes, l'une appelée "prefill" où la demande de l'utilisateur est transformée de mots humains en langage de "tokens" que les ordinateurs d'IA utilisent, et une étape de "décodage" où l'ordinateur d'IA fournit la réponse que l'utilisateur recherche.
Amazon a déclaré que ses puces Trainium3 s'occuperaient du pré-remplissage, tandis que les puces Cerebras s'occuperaient du décodage, ce que M. Feldman a déclaré à Reuters comme étant une "stratégie de diviser pour mieux régner." Il s'agit d'une stratégie similaire à celle que les analystes s'attendent à ce que Nvidia dévoile la semaine prochaine , lorsqu'elle expliquera comment elle prévoit de combiner ses propres puces de traitement graphique (GPU) avec celles de Groq, une startup pour laquelle elle a dépensé 17 milliards de dollars à la fin du mois de décembre . Dans un communiqué, Amazon a déclaré qu'il ne pouvait pas encore faire une comparaison détaillée entre son offre, qui sera mise en ligne au second semestre de cette année, et l'offre de Nvidia qui n'a pas encore été révélée, mais Amazon s'attend à ce que son service soit plus avantageux.
"Le calendrier de l'association Nvidia-Groq n'est pas clair, alors que notre programme Trainium3 n'est qu'à quelques mois d'exécuter des charges de travail de production", a déclaré Amazon en réponse aux questions de Reuters. "Ce que nous pouvons dire, c'est que nous pensons que (Trainium3)- et le futur (Trainium4)- continueront à être en tête en termes de prix et de performances par rapport aux GPU commerciaux."