((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Krystal Hu
(Artificial Intelligencer est publié tous les mercredis. Vous pensez que votre ami ou collègue devrait nous connaître? Transmettez-lui cette lettre d'information. Ils peuvent également s'abonner ici Qui doit s'inquiéter d'une guerre commerciale quand on a l'IA? Après que le président Donald Trump a fait trembler les marchés vendredi en menaçant d'imposer des droits de douane de 100 % sur les produits chinois, les économistes de Washington ont indiqué cette semaine que le boom des investissements dans l'IA était une force essentielle pour soutenir la croissance américaine et mondiale en 2025, atténuant ainsi l'impact des droits de douane. Les Perspectives de l'économie mondiale du FMI , publiées mardi, ont revu les prévisions à la hausse: les États-Unis sont désormais considérés comme ayant une croissance de 2,0 % cette année (contre 1,8 % en avril), et de 2,1 % en 2026. Oxford Economics ajoute que l'augmentation de la demande américaine d'ordinateurs fabriqués à l'étranger, induite par l'IA, compense la faiblesse des importations ailleurs et devrait se poursuivre, la construction de centres de données étant toujours en plein essor. Cependant, Pierre-Olivier Gourinchas, économiste en chef du FMI, a déclaré à mon collègue que les gains de l'IA ne s'étaient pas encore pleinement manifestés dans l'économie réelle, ce qui fait écho à la fin des années 1990, lorsque les valorisations exorbitantes de l'internet dépassaient les revenus. Il prévient qu'une correction induite par l'IA est possible, mais moins susceptible d'être systémique parce qu'elle n'est pas principalement financée par la dette. L'échelle compte également: Les investissements liés à l'IA ont augmenté le PIB américain de moins de 0,4 % depuis 2022, contre environ 1,2 % au cours de la période 1995-2000 de l'ère dot-com. En passant du macro au micro, nous commençons par voir où les revenus de l'IA apparaissent réellement - un coup d'œil exclusif sur les dernières données financières d'Anthropic. Nous explorons également le grand rattrapage de la Chine en matière d'IA open-source et une découverte contre-intuitive: il peut être utile d'être impoli avec votre chatbot. Faites défiler l'article.
Envoyez-moi un courriel ou suivez-moi sur LinkedIn pour partager vos réflexions. NOS DERNIERS ARTICLES SUR LA TECHNOLOGIE ET L'INTELLIGENCE ARTIFICIELLE
* Les chatbots d'IA remplacent les employés des centres d'appel en Inde
* Exclusif - Broadcom va lancer une nouvelle puce de réseau, alors que la bataille avec Nvidia s'intensifie
* Exclusif - Le laboratoire d'IA Lila Sciences dépasse la valorisation de 1,3 milliard de dollars grâce à un nouveau soutien de Nvidia
* Intel signale son retour dans la course à l'IA avec une nouvelle puce qui sera lancée l'année prochaine
* BlackRock et un groupe soutenu par Nvidia concluent un accord de 40 milliards de dollars pour des centres de données d'IA
* Selon le FMI, le boom des investissements dans l'IA pourrait conduire à un effondrement, mais il n'y a pas de risque de crise systémique
L'EXPLOSION DES REVENUS D'ANTHROPIC Où se situent les revenus de l'IA? Les entreprises de modèles de fondation. Des sources m'ont dit que (link...) les objectifs internes d'Anthropic pour le fabricant de Claude sont de terminer l'année 2025 avec un taux de revenus annualisé de 9 milliards de dollars, puis de le doubler en 2026 pour atteindre 20 milliards de dollars dans la fourchette basse - et jusqu'à 26 milliards de dollars dans un scénario haussier. N'oublions pas qu'Anthropic a commencé l'année 2025 avec un taux de revenus annualisé d'environ 1 milliard de dollars. Cette croissance et ces projections stupéfiantes expliquent sa valorisation de septembre: 183 milliards de dollars après une série F de 13 milliards de dollars, soit près du triple des 61,5 milliards de dollars du mois de mars. Anthropic nous a dit que son taux de revenus annualisé approchait les 7 milliards de dollars ce mois-ci, mais a refusé de commenter les chiffres futurs.
Les moteurs sont différents de ceux d'OpenAI, un autre laboratoire de modèles de fondation à croissance rapide. Le taux de revenus annualisé d'OpenAI a été propulsé par ChatGPT destiné aux consommateurs, à une échelle massive, faisant grimper son taux de revenus annualisé à 13 milliards de dollars en août, et il est en passe d'atteindre plus de 20 milliards de dollars d'ici la fin de l'année. D'où vient la croissance d'Anthropic? Les entreprises ont contribué à 80 % de son chiffre d'affaires. Plus de 300 000 entreprises utilisent Anthropic et exploitent ses différents modèles par l'intermédiaire de l'API. La vente d'applications d'IA au-delà de l'accès aux modèles contribue également à l'augmentation des bénéfices. Claude Code, lancé au début de l'année, a atteint un taux de revenus annualisé de près d'un milliard de dollars, m'a dit une source. La valeur n'est pas seulement liée aux revenus, mais aussi aux données. L'utilisation de la génération de code et du débogage permet d'affiner et de former la prochaine génération de modèles, ce qui aide Anthropic à maintenir son avance dans ce cas d'utilisation à forte valeur ajoutée. Anthropic élargit également son marché. En août, elle a offert l'accès à Claude au gouvernement américain pour 1 dollar afin de faciliter les achats, et elle prévoit d'ouvrir un bureau à Bengaluru en 2026, alors que le directeur général Dario Amodei était occupé à rencontrer le Premier ministre indien Narendra Modi . Derrière l'explosion des recettes, l'histoire moins discutée est celle de la marge et de la rentabilité, qui restent lointaines . Les marges unitaires sur l'utilisation de l'API peuvent sembler bonnes sur le papier, mais seulement si l'on ne tient pas compte des coûts de formation. Et ce n'est pas possible: la formation et le fonctionnement de la prochaine vague de modèles constituent la facture la plus importante et la plus changeante de l'entreprise, contrairement aux vagues précédentes telles que la migration vers le nuage. La concurrence ne fait qu'alourdir cette facture. Pour se démarquer d'OpenAI, de Google DeepMind, de Meta et de xAI, chaque nouveau modèle exige plus de données, plus de calculs et plus d'itérations, ce qui fait grimper les coûts plus rapidement que les prix ne peuvent suivre. La question n'est pas de savoir si les revenus sont réels; ils le sont. La question est de savoir si les marges peuvent suivre le rythme de la physique de la formation de la prochaine génération. En attendant, il faut s'attendre à ce que des entreprises comme Anthropic et OpenAI lèvent davantage de capitaux pour payer la facture.
GRAPHIQUE DE LA SEMAINE: L'AVANCE DE LA CHINE EN MATIÈRE D'OPEN SOURCE Il y a un an, le modèle Llama META.O de Meta était le choix par défaut des développeurs à la recherche des meilleurs modèles open-source. Sur Hugging Face, le "GitHub de l'IA", il a généré des centaines de millions de téléchargements jusqu'à la fin de l'année 2024 et représentait environ la moitié de tous les nouveaux "finetunes" - des versions spécialisées entraînées pour des tâches spécifiques. Le graphique tiré du rapport State of AI d'Air Street Capital montre que le centre de gravité se déplace en 2025: Qwen, développé par le géant chinois de la technologie Alibaba, a dépassé Llama en termes de téléchargements totaux et représente désormais plus de 40 % des nouveaux produits dérivés mensuels construits à partir du modèle original, tandis que la part de Llama est tombée à environ 15 %. Il ne s'agit pas d'un désintérêt de l'Occident, mais d'un bond en avant des modèles chinois en termes de qualité et de flexibilité. Les développeurs soulignent le rythme de développement rapide de Qwen et ses solides compétences en matière de raisonnement, ce qui le rend peu coûteux à personnaliser et facile à déployer. RECHERCHE À LIRE: ÊTRE IMPOLI AVEC SON IA Une courte étude de Penn State, intitulée "Mind Your Tone: Investigating How Prompt Politeness Affects LLM Accuracy ", révèle que les messages-guides grossiers adressés aux LLM donnent systématiquement de meilleurs résultats que les messages polis. Avec le GPT-4o, plus l'invite est grossière, meilleure est la précision du choix multiple - passant d'environ 80,8 % avec une formulation très polie à 84,8 % lorsque l'invite est très grossière. Les auteurs ont testé ce phénomène en réécrivant 50 questions de mathématiques, de sciences et d'histoire sur cinq tons: Très poli, Poli, Neutre, Grossier et Très grossier. Après 10 essais par ton, ils ont constaté un avantage constant et statistiquement significatif pour les formulations impolies, en donnant des exemples de ton allant de la gentille "Auriez-vous l'amabilité" à des instructions plus abrasives. Alors, devriez-vous commencer à être un imbécile avec votre chatbot? Pas vraiment. Ce qu'il faut retenir, c'est que les formules de politesse et les autres éléments de conversation peuvent agir comme du bruit et perturber le modèle. Pour obtenir les meilleurs résultats, soyez direct et explicite: laissez tomber les plaisanteries et dites précisément à l'IA ce dont vous avez besoin.
Comment les technologies profondes s'adaptent-elles pour relever des défis mondiaux tels que le climat, les soins de santé et la mobilité? Inscrivez-vous dès maintenant pour regarder la diffusion en direct du sommet inaugural #ReutersNEXTGulf à Abu Dhabi le 22 octobre, avec le directeur général de Hashkey Exchange Haiyang Ru, la dirigeante d'AI71 Chiara Marcati, la conseillère en IA de Mozilla Ayah Bdeir et le directeur général de STV Abdulrahman Tarabzouni sur l'innovation, l'investissement et l'impact.
0 commentaire
Vous devez être membre pour ajouter un commentaire.
Vous êtes déjà membre ? Connectez-vous
Pas encore membre ? Devenez membre gratuitement
Signaler le commentaire
Fermer