Gemini consulterait vos documents Google Drive sans autorisation : Google dément

Fiabilité
À Retenir

  • Kevin Bankston, conseiller principal pour la gouvernance de l'IA au Center for Democracy and Technology, a affirmé que Google Gemini analysait les documents Google Drive sans autorisation.
  • Google a catégoriquement démenti à Techopedia les allégations selon lesquelles Gemini ingère des données provenant de documents Drive.
  • Mais le manque de transparence sur les contrôles de confidentialité soulève des questions sur l'approche de Google en matière d'IA responsable.

Google a développé des produits d’intelligence artificielle (IA) très performants, mais 2024 a été une année de controverse pour le principal moteur de recherche dans le monde. En plus d’être accusé de produire des images « woke » historiquement inexactes, le géant de la technologie a été accusé de consulter des documents « Drive » dans son grand modèle linguistique (LLM), Gemini.

La semaine dernière, Kevin Bankston, conseiller principal pour la gouvernance de l’IA au Center for Democracy and Technology, a publié un message sur X/Twitter, affirmant que Google Gemini “ingérait” des documents privés de Google Drive sans l’autorisation expresse des utilisateurs.

Dans son message, M. Bankston affirme que Gemini a par exemple consulté et résumé sa déclaration d’impôts privée.

Dans la suite de son thread Twitter, M. Bankston a indiqué qu’il avait désactivé l’option permettant à Gemini d’accéder à ses documents, mais qu’il avait découvert que ses paramètres de confidentialité avaient été « cassés », ou annulés, avec son inscription à Workplace Labs.

Bien que Google ait catégoriquement nié à Techopedia que Gemini ingère des données provenant de documents Drive, le fait qu’un conseiller principal pour la gouvernance de l’IA ait trouvé les contrôles de confidentialité de l’IA du fournisseur si suspects, montre qu’il reste un long chemin à parcourir sur la voie d’un développement responsable de l’IA.

Comment Google a répondu aux allégations

Techopedia a contacté Google pour obtenir des précisions, et un porte-parole a envoyé un courriel en réponse à l’article.

“Nos fonctionnalités d’IA générative sont conçues pour donner le choix aux utilisateurs et leur permettre de garder le contrôle de leurs données. L’utilisation de Gemini dans Google Workspace nécessite que l’utilisateur l’active de manière proactive, et lorsqu’il le fait, son contenu est utilisé de manière à préserver la vie privée pour générer des réponses utiles à ses demandes, mais n’est pas stocké sans son autorisation.”

En outre, l’organisation a précisé que le thread Twitter comportait un certain nombre d’inexactitudes. Par exemple, si la fonction « partager avec l’IA » est activée, le contenu du document ouvert peut être utilisé pour générer un résumé en temps réel, mais ni le résumé ni le document ne sont stockés.

Google n’ignore toutefois pas le fait que l’IA s’insinue dans de nombreux domaines de son portefeuille de produits. A titre d’exemple, nous pouvons le constater dans Google Search, où même les utilisateurs qui n’ont pas opté pour « Google’s Search Generative Experience » peuvent recevoir des résumés générés par l’IA.

Il est difficile de se défaire de l’impression que l’IA est imposée aux utilisateurs dans tous les produits, ce qui augmente considérablement l’adoption de Gemini. Ce ne serait pas un tel problème si les contrôles de confidentialité étaient plus complets et transparents ou si l’on demandait explicitement aux utilisateurs s’ils souhaitent utiliser cette fonction.

Renat Abyasov, PDG de Wonderslide, a déclaré à Techopedia :

“Je pense que la plus grande erreur de Google a été de ne pas expliquer clairement aux utilisateurs que cela se faisait.”

“L’étendue des connaissances de Google sur ses utilisateurs n’a jamais vraiment été un secret. Ils savent déjà presque tout sur nous, y compris des choses comme l’historique des localisations.”

“La question la plus importante est donc de savoir si Google peut protéger ces informations contre des personnes malveillantes : Peut-il protéger ces informations contre des tiers malveillants ? L’histoire nous dit que Google est plutôt doué pour cela, mais l’avenir nous le dira.”

L’IA ou une histoire qui repousse sans cesse les limites

Google n’est pas le seul à faire l’objet de controverses. Depuis le lancement de ChatGPT et ses fameux prompts en novembre 2023, l’industrie a été entachée de scandales successifs – du « vol » généralisé de la propriété intellectuelle, au fait de faire passer l’innovation avant la sécurité – au point de penser, du côté des utilisateurs, que la fin justifie les moyens dans cette industrie.

À titre d’exemple, OpenAI, la plus grande entreprise d’IA au monde, a fait l’objet d’un procès de plusieurs milliards de dollars de la part du New York Times pour avoir utilisé ses articles afin d’entraîner des modèles tels que ChatGPT sans consentement ni compensation, le journal affirmant que ChatGPT régurgiterait son contenu « mot pour mot ».

Indépendamment de l’issue de cette affaire, les modèles linguistiques modernes ont été construits en récupérant des données sur le web, dont une partie est protégée par le droit d’auteur et provient d’auteurs (humains) qui n’ont pas donné leur accord.

Dans l’ensemble du secteur, de nombreux fournisseurs adoptent un état d’esprit d’« innovation à tout prix », et Google n’a manifestement pas peur de repousser les limites de l’utilisateur en déployant l’IA dans des domaines où les utilisateurs n’ont pas donné leur consentement explicite.

En essayant d’innover à toute vitesse pour ne pas se laisser distancer par des concurrents comme OpenAI, Anthropic, Microsoft, X et Meta, Google doit encore offrir aux utilisateurs des contrôles de confidentialité adéquats, accessibles et fiables sur leurs interactions avec l’IA dans ses produits, comme l’indiquent les tweets de M. Bankston.

Quels sont les impacts de cette controverse ?

En fin de compte, cet épisode constitue une nouvelle controverse inutile pour Google, qui a déjà été mis en cause à de nombreuses reprises.

Bard (aujourd’hui Gemini) a communiqué des informations erronées lors de sa première démonstration de produit, puis a divulgué les conversations des utilisateurs dans Google Search, Gemini a étiqueté comme « woke » (outil propageant des images catégorisées comme du “wokisme”), et maintenant Gemini a des contrôles de confidentialité médiocres.

De nombreux utilisateurs peuvent avoir l’impression que Gemini numérise leurs documents Drive sans autorisation et utilise le contenu pour former ses modèles. Même si Google a déclaré que ce n’était pas le cas, c’est ce genre de publicité négative qui fait fuir les utilisateurs de ce type de technologie.

Ce type de controverse soulève des questions sur l’engagement de Google en faveur d’un développement responsable de l’IA. Après tout, est-il responsable de proposer aux utilisateurs des paramètres de confidentialité Gemini alambiqués et « cassés » ? Est-il responsable de déployer l’IA dans Google Search pour des utilisateurs qui n’en ont pas fait la demande ?

Dans les deux cas, la réponse est « non », et Google doit faire davantage pour réaffirmer son engagement en faveur d’un développement responsable de l’IA afin de donner aux utilisateurs plus de contrôle et de transparence sur l’utilisation de Gemini.

Termes connexes

Articles Liés

Alexandre Robert
Administrateur de Techopedia France

L'écriture sous toutes ces formes, voici ce qui dirige une partie de ma vie et de mon travail ! A commencer par mes études, à l'EJCAM (Ecole de Journalisme et de Communication d'Aix-Marseille), pour ensuite avoir la chance d'exercer mon métier durant plus de 3 ans au sein de la Presse Quotidienne Régionale des Bouches du Rhône : La Provence et La Marseillaise. Pour compléter mon apprentissage éditorial, c'est vers le web que je me suis par la suite tourné, où j'ai eu la chance de poser mes mots sur les sites de Superprof, Food Spring, Decathlon et bien d'autres…