L’émergence de l’intelligence artificielle risque de peser sur les comptes de Microsoft et Google. Les deux groupes ont intégré des solutions intelligentes à leur système de recherche. De son côté, Microsoft a boosté son moteur de recherche Bing avec ChatGPT. Pour sa part, Google a conçu sa propre solution: Bard, actuellement en phase de test. Ces sytèmes ont pour particularité de produire des synthèses sous forme de texte, en analysant des millions d’informations disponibles en ligne, plutôt que de fournir une simple indexation de sites Web comme le font les moteurs de recherche actuels.
Mais ces améliorations engendrent aussi des dépenses supplémentaires pour les deux groupes. Le président d’Alphabet (la maison-mère de Google), John Hennessy, a reconnu auprès de l’agence britannique Reuters qu’un échange avec une intelligence artificielle coûterait probablement dix fois plus cher qu’une recherche standard par mot-clé. Heureusement, des optimisations devraient rapidement faire baisser la facture.
Alimenter un réseau neuronal
La banque américaine Morgan Stanley estime que les 3,3 milliards de milliards de recherches sur Google l’an dernier ont coûté chacune 0,2 centimes de dollar. Mais selon les estimations du patron du groupe, cette somme unitaire pourrait atteindre quelques centimes dans le cadre d’une recherche par IA. D’ici 2024, la banque estime que les dépenses liées au recours à l’intelligence artificielle pourraient atteindre six milliards de dollars. Et ce, uniquement si Bard s’occupe de la moitié des demandes avec des réponses de 50 mots.
L’augmentation des coûts réside dans la puissance de calcul utilisée. Pour formuler ses réponses, l’intelligence artificielle utilise le procédé d’inférence, c’est-à-dire qu’un réseau neuronal déduit la réponse en fonction de l’entraînement auquel il a été soumis.
C’est un cheminement bien différent des recherches classiques des moteurs de recherches, qui parcourent les sites pour créer un répertoire d’informations. Ils pointent ensuite les utilisateurs vers la réponse la plus pertinente en stock.
This article is originally published by bfmtv.com