Cerebras lance un outil d'inférence de l'IA pour défier Nvidia
information fournie par Reuters 27/08/2024 à 18:00

((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Max A. Cherney

Cerebras Systems a lancé mardi un outil pour les développeurs d'intelligence artificielle qui leur permet d'accéder aux puces surdimensionnées de la startup pour exécuter des applications, offrant ce qu'elle affirme être une option beaucoup moins chère que les processeurs Nvidia NVDA.O standard de l'industrie.

L'accès aux unités de traitement graphique Nvidia (GPU) - souvent via un fournisseur de cloud computing - pour former et déployer de grands modèles d'intelligence artificielle utilisés pour des applications telles que ChatGPT d'OpenAI peut être difficile à obtenir et coûteux à exécuter, un processus que les développeurs désignent sous le nom d'inférence.

"Nous offrons des performances qui ne peuvent pas être atteintes par un GPU", a déclaré Andrew Feldman, directeur général de Cerebras, lors d'un entretien avec Reuters. "Nous le faisons avec la plus grande précision et nous l'offrons au prix le plus bas

La partie du marché de l'IA consacrée à l'inférence devrait connaître une croissance rapide et attrayante, et représenter à terme des dizaines de milliards de dollars si les consommateurs et les entreprises adoptent les outils d'IA.

La société basée à Sunnyvale, en Californie, prévoit d'offrir plusieurs types de produits d'inférence par l'intermédiaire d'une clé de développement et de son nuage. Elle vendra également ses systèmes d'IA aux clients qui préfèrent exploiter leurs propres centres de données.

Les puces de Cerebras - chacune de la taille d'une assiette et appelées Wafer Scale Engines - permettent d'éviter l'un des problèmes liés au traitement des données d'IA: les données traitées par les grands modèles qui alimentent les applications d'IA ne tiennent généralement pas sur une seule puce et peuvent nécessiter des centaines ou des milliers de puces reliées entre elles.

Cela signifie que les puces de Cerebras peuvent atteindre des performances plus rapides, a déclaré M. Feldman.

Cerebras prévoit de facturer aux utilisateurs 10 cents par million de jetons, qui sont l'un des moyens utilisés par les entreprises pour mesurer la quantité de données de sortie d'un grand modèle.

Cerebras vise à entrer en bourse et a déposé un prospectus confidentiel auprès de la Securities and Exchange Commission ce mois-ci, a indiqué la société.