Intelligent artificiel-Comment Google a retrouvé son avantage en matière d'IA information fournie par Reuters 05/11/2025 à 21:42
((Traduction automatisée par Reuters à l'aide de l'apprentissage automatique et de l'IA générative, veuillez vous référer à l'avertissement suivant: https://bit.ly/rtrsauto)) par Kenrick Cai
(Artificial Intelligencer est publié tous les mercredis. Vous pensez que votre ami ou collègue devrait nous connaître? Faites-lui suivre cette lettre d'information. Ils peuvent également s'abonner ici L'explosion des bénéfices de lasemaine dernière ( ) et la chute des actions de mardi ( ) montrent à quel point les activités d'IA des géants de la technologie soutiennent le marché boursier. Mais ce sont leurs produits grand public qui les aident à repousser leurs concurrents.
Vendredi,
Amazon AMZN.O a envoyé une lettre de cessation et de désistement à , demandant à la startup Perplexity de cesser d'utiliser son agent d'IA pour naviguer sur Amazon.com et effectuer des achats pour les utilisateurs. Le titan du commerce électronique a accusé Perplexity, qui développe un moteur de recherche et un navigateur web alimentés par l'IA, de dégrader l'expérience de l'utilisateur lors de ses achats sur Amazon. Perplexity a réagi en présentant l'affaire comme un drame de cour d'école. "Selon le billet de blog dePerplexity ( ), on parle d'intimidation lorsque de grandes entreprises recourent à des menaces juridiques et à l'intimidation pour bloquer l'innovation et rendre la vie des gens plus difficile
Il s'agit du dernier épisode en date démontrant le pouvoir que les grandes entreprises exercent sur les innovateurs. Perplexity n'est pas le seul à se rendre compte qu'il doit s'appuyer sur les produits et les sites web que les gens ont aimés bien avant le boom de l'IA pour rendre ses nouveaux produits d'IA utiles.
Alors que Perplexity a cherché à rendre ses agents d'IA utiles sur l'ensemble du web, OpenAI, qui se prépare à une entrée en bourse fracassante, a adopté une approche différente. Le fabricant de ChatGPT a conclu des partenariats avec des entreprises telles que Zillow, Spotify et Shopify afin que ses agents d'intelligence artificielle puissent naviguer sur ces sites. Mais les abonnés d'Artificial Intelligencer se souviendront de notre chronique qui racontait comment l'entreprise s'était heurtée à un mur en essayant de s'associer à Google. Le géant de la recherche a d'abord rejeté la demande d'OpenAI d'intégrer sa technologie de recherche dans ChatGPT, puis a modifié ses règles de recherche en se limitant aux 10 premiers résultats. Les réponses de ChatGPT en ont pâti. Qu'une startup d'IA passe par la porte d'entrée ou par la porte de sortie, toutes devront faire face au pouvoir que détient encore le web traditionnel.
Bien entendu, l'entreprise reste l'endroit où l'argent circule le plus visiblement. Amazon a suivi un cycle de bénéfices solides en commençant la semaine par annoncer un accord de 38 milliards de dollars avec OpenAI dans le domaine de l'informatique en nuage. Alphabet GOOGL.O est un autre grand gagnant des bénéfices. Dans l'édition de cette semaine, nous examinons comment Google Cloud a aidé sa société mère à reprendre l'avantage dans le domaine de l'IA. Lire la suite.
moi LinkedIn
NOS DERNIERS REPORTAGES SUR LA TECHNOLOGIE ET L'INTELLIGENCE ARTIFICIELLE:
* Exclusif - OpenAI pose les jalons d'une introduction en bourse à la hauteur de 1 000 milliards de dollars
* Beacon Software lève 250 millions de dollars pour financer des roll-ups d'IA "anti-private equity"
* Nvidia ne peut pas vendre sa puce d'IA la plus avancée à la Chine, selon la Maison Blanche
* Getty Images perd une grande partie de son procès au Royaume-Uni concernant le générateur d'images d'IA
* Exclusif - La Chine interdit les puces d'IA étrangères dans les centres de données financés par l'État, selon des sources
* La montée en puissance de l'intuition en matière d'IA
COMMENT GOOGLE A RETROUVÉ SON AVANTAGE EN MATIÈRE D'IA
Un pari à fort enjeu sur sa division d'informatique dématérialisée, autrefois négligée, s'avère payant pour Alphabet, transformant l'ancien "outsider" en un moteur de croissance clé qui renforce la confiance de Wall Street dans l'avenir du géant de la recherche.
"L'informatique dématérialisée était autrefois le parent pauvre de Google", m'a dit un ancien employé. Mais cela a changé: "Si Google n'avait pas investi dans le cloud il y a des années, il ne serait plus qu'une société de publicité et de recherche attaquée"
En effet, c'est exactement la position dans laquelle se trouvait Google il y a trois ans ce mois-ci, lorsque OpenAI a déclenché une course à l'armement en matière d'IA avec le lancement de ChatGPT. Presque du jour au lendemain, Google a été considéré comme ayant pris du retard. C'était d'autant plus embarrassant pour l'entreprise autoproclamée "AI-first" que le noyau de ChatGPT est né dans un laboratoire de Google. La question des Googlers de longue date, qui avaient connu l'époque de Larry Page et d'Eric Schmidt à la tête de l'entreprise, était la suivante: Sundar Pichai, le chef d'Alphabet, l'homme à l'origine de cette proclamation, était-il apte à être un directeur général en temps de guerre?
Mais Sundar Pichai a inversé le scénario. Le pari qu'il a fait lorsqu'il est devenu directeur général en 2019 de faire de Google Cloud l'un de ses deux grands paris (l'autre étant YouTube) pour faire sortir Alphabet de son cœur de métier est en train de porter ses fruits. Le patron du Cloud, Thomas Kurian, est devenu l'un des lieutenants les plus influents de Pichai en transformant la structure et la culture de la division. L'ascension de Kurian s'est reflétée dans les réunions hebdomadaires des "leads" de Google, qui fixent l'ordre du jour, où il a joué un rôle plus important en se battant pour obtenir des ressources contre d'autres dirigeants.
Pour gagner, il a fallu rompre avec la tradition. Lorsque Cloud a commencé à vendre à des clients extérieurs les puces d'intelligence artificielle développées par Google et réservées à un usage interne, cela a suscité une "bonne dose de tension" avec d'autres unités de Google, y compris DeepMind, m'a dit un ancien cadre de Cloud. Cette initiative a permis à Google de se tailler un rôle dans le secteur très concurrentiel du cloud, où il a longtemps été considéré comme un lointain troisième derrière Amazon et Microsoft.
Josh Gwyther, fondateur d'une startup qui a travaillé chez Google Cloud entre 2016 et 2025, m'a confié que l'équipe Ads avait l'habitude de se moquer des vendeurs de Cloud lorsque ces derniers demandaient de l'aide pour conclure des contrats à six chiffres.
Aujourd'hui, Google Cloud conclut des contrats à neuf ou dix chiffres avec de grandes entreprises et des laboratoires d'IA avides de puissance de calcul, comme ses propres rivaux OpenAI et Anthropic. Dans certains cas, la capacité de Google à fournir ses puces d'IA, appelées TPU, lui a permis de remporter des marchés. En interne, Google se considère comme un concurrent plus proche de Nvidia que d'AMD ou d'Intel, m'a dit l'ancien cadre.
Si les activités de recherche et de publicité de Google restent le moteur de son chiffre d'affaires, la confiance de Wall Street dans l'entreprise, dont l'action a augmenté de 6 % après la publication de ses résultats la semaine dernière, est stimulée par les activités liées au "cloud". Google Cloud, qui est passé du statut d'arrière-plan à celui de moteur de croissance, permet à l'activité de recherche de Google et à l'unité d'IA DeepMind de gagner du temps pour repousser les attaques de perturbateurs tels que Perplexity et OpenAI.
"Google Cloud est l'une des priorités les plus importantes pour Alphabet dans son ensemble et je m'attends à ce qu'il joue un rôle encore plus central au fur et à mesure que l'entreprise progresse", m'a déclaré M. Pichai en octobre.
Lorsque je lui ai demandé comment il voyait le positionnement de Google Cloud en cas de correction du marché, M. Pichai a répondu qu'il s'attendait à une "grande résilience" de l'entreprise. Il a ajouté: "De notre point de vue, nous faisons de l'IA depuis dix ans et nous continuerons à le faire dans dix ans. Nous prenons des paris à long terme et nous nous concentrons sans relâche sur ce domaine, qu'il s'agisse de l'IA, de la conduite autonome ou de l'informatique quantique. C'est ainsi que je conçois notre approche"
GRAPHIQUE DE LA SEMAINE:
Par Krystal Hu, correspondante technologique
Il y a de quoi être perplexe: les investisseurs injectent des sommes astronomiques dans les startups de la robotique - près de 20 milliards de dollars en 2024 et encore plus en 2025 - mais les bénéfices réels tardent à se manifester.
Le nouveau rapport deBessemer Venture Partners , qui s'appuie sur les données de PitchBook, montre que le capital investi dans les startups de la robotique aux États-Unis et en Europe est passé de quelques milliards en 2016 à près de 20 milliards de dollars aujourd'hui. Le halo de ChatGPT a contribué à raviver la frénésie, en particulier autour des humanoïdes "à usage général" avec des démonstrations flashy, mais les investisseurs de Bessemer pensent qu'il faudra encore des années avant que ChatGPT ne devienne un véritable robot.
Le hic, c'est que la liquidité (des fusions-acquisitions et des introductions en bourse qui rapportent de l'argent aux investisseurs) a atteint son apogée en 2019-2020 et s'est effondrée depuis. Nous parlons d'une liquidité proche de zéro jusqu'à présent en 2025. Bessemer pense que les gains à court terme viendront des choses ennuyeuses: les robots chirurgicaux, la conduite autonome étroitement délimitée et les flux de travail dans les entrepôts. La société estime que ces niches peuvent satisfaire aux exigences actuelles en matière de sécurité, de retour sur investissement et de collecte de données, tandis que les grands projets humanoïdes à durée indéterminée continuent d'absorber des capitaux et de la patience.
RECHERCHE SUR L'IA À LIRE
La Chine continue d'être un foyer d'innovation en matière d'IA à source ouverte. MoonShot AI vient de lancer un projet qui fait parler les chercheurs. Elle a dévoilé "Kimi-Linear", une nouvelle architecture de modèle qui prétend surpasser les transformateurs, le moteur qui permet à l'IA de lire et de comprendre les textes. Kimi-Linear est six fois plus rapide et 75 % moins gourmand en mémoire qu'un modèle équivalent utilisant des transformateurs traditionnels, selon leur article .
Le gros problème des transformateurs, qui sont à la base des grands modèles de langage actuels, est l'énorme puissance de calcul nécessaire, en particulier pour analyser de grandes quantités de texte. Les LLM actuels fonctionnent en examinant chaque mot et en déterminant comment il est lié à tous les mots qui le précèdent. Kimi-Linear combine une partie de transformateur traditionnel avec trois parties de ce que l'on appelle "l'attention linéaire", qui tente de résumer les informations les plus utiles afin que le modèle d'IA n'ait pas à revenir sur chaque mot encore et encore. Il s'agit d'une petite modification du mode de fonctionnement de l'IA. Mais elle pourrait redéfinir ce qui est économiquement viable dans le domaine de l'IA.