((Traduction automatisée par Reuters, veuillez consulter la clause de non-responsabilité https://bit.ly/rtrsauto)) par Jeffrey Dastin
Anthropic, une startup soutenue par Google GOOGL.O et Amazon.com AMZN.O , a lancé jeudi un modèle d'intelligence artificielle mis à jour et une nouvelle présentation pour améliorer la productivité des utilisateurs, poursuivant ainsi le sprint de l'industrie pour repousser les frontières de la technologie.
Trois mois après avoir lancé sa famille de modèles d'intelligence artificielle Claude 3, Anthropic a annoncé le lancement de Claude 3.5 Sonnet.
Comparé à Claude 3 Opus - que le directeur général Dario Amodei a qualifié en mars de "Rolls-Royce des modèles " - le dernier système d'Anthropic obtient de meilleurs résultats aux examens de référence, fonctionne environ deux fois plus vite et est cinq fois moins cher pour les développeurs de logiciels.
Les modèles d'IA sont un peu plus fongibles que les voitures", a déclaré M. Amodei à Reuters. "Je n'ai pas besoin de les acheter et de les garder pendant 20 ans. C'est l'un des avantages de notre domaine
Comme Anthropic, OpenAI, le créateur de ChatGPT, Google et d'autres entreprises vantent les progrès de l'IA à un rythme effréné.
Pour les consommateurs, Anthropic a rendu sa dernière technologie disponible gratuitement sur Claude.ai et dans une application iOS. Elle permet également aux internautes d'opter pour un paramètre appelé "Artifacts" Cette option permet d'organiser le contenu que les utilisateurs demandent à Claude de générer - qu'il s'agisse de l'ébauche d'un roman ou d'un simple jeu vidéo - dans une fenêtre affichée à côté de leur discussion avec l'IA.
Associé à une nouvelle formule d'abonnement collectif, Artifacts constitue, selon M. Amodei, une étape vers "la possibilité de travailler en collaboration" et "la possibilité d'utiliser son modèle pour réaliser des produits finis"
Anthropic prévoit de lancer d'autres modèles d'IA cette année, notamment Claude 3.5 Opus. "Nous voulons avoir un cycle de publication aussi rapide que possible, encore une fois, sous réserve de nos valeurs de sécurité", a déclaré M. Amodei.

0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer