IA Responsable en 2025 : L’Innovation peut-elle supplanter l’éthique ?

Fiabilité

2024 a été une grande année pour l’IA générative, marquée par l’émergence de projets comme GPT-4o, Claude 3.5 Sonnet, et Grok.

Cependant, au milieu de cette frénésie d’innovation, il existe un risque réel que le développement responsable de l’IA soit mis au second plan.

L’année dernière, Jan Leike, un chercheur en apprentissage machine chez OpenAI, a fait parler pour avoir quitté l’entreprise, affirmant que la “culture et les processus de sécurité de l’entreprise ont été relégués au second plan par rapport à l’efficacité des produits”.

Avec un secteur de l’IA estimé à une valeur de  250 milliards de dollars en 2025, il existe un risque que les développeurs privilégient la rapidité du développement au détriment de la sécurité. De nombreux incidents récents semblent déjà indiquer que cette tendance est bien en cours.

Techopedia explore l’importance d’une IA responsable en 2025 et les raisons pour lesquelles nous devons tous être attentifs.

À Retenir

  • Alors que le développement de l’IA progresse à un rythme effréné, la notion d’IA responsable semble être mise de côté.
  • Jan Leike, chercheur chez OpenAI, a affirmé que “la culture et les processus de sécurité de l’entreprise ont été relégués au second plan”.
  • Anthropic a prévenu que Claude simulait parfois l’alignement lors des entraînements.
  • Les “deepfakes” très médiatisés soulignent la nécessité de renforcer les contrôles sur les contenus synthétiques.
  • Les experts expliquent à Techopedia que nous devons être plus “pragmatiques” dans la manière dont nous déployons l’IA dans la société.

Le mythe du développement responsable de l’IA

Le développement responsable de l’IA est peut-être une chose que de nombreux chercheurs prennent très au sérieux, mais dans le monde des grandes technologies, ces préoccupations semblent avoir été mises de côté.

Interrogé par Techopedia, Dimitri Sirota, PDG de BigID, souligne :

L’IA responsable est importante en 2025 parce que l’intégration de l’IA dans presque toutes les facettes des entreprises et de la société s’est accélérée, amplifiant à la fois son potentiel et ses risques.

À mesure que les systèmes d’IA deviennent plus puissants et s’intègrent dans les processus décisionnels, les conséquences d’une IA non contrôlée ou mal gouvernée deviennent plus graves, allant de résultats biaisés à d’importantes violations de la confidentialité des données.

Même le développement de solutions d‘IA générative comme ChatGPT a été rendu possible par certaines pratiques douteuses. Le New York Times affirme que la société a utilisé du matériel et des articles protégés par le droit d’auteur pour entraîner ses modèles d’IA générative sans autorisation ni compensation.

OpenAI n’est pas la seule entreprise pointée du doigt. Google a également montré des signes de mise à l’écart du développement responsable de l’IA.

À l’heure actuelle, le moteur de recherche fournit des résumés générés par l’IA aux questions des utilisateurs, mais ne fournit pas d’avertissement concret sur le risque d’hallucinations, se contentant d’indiquer que “l’IA générative est expérimentale”. L’ambiguïté de cet avertissement fait courir aux utilisateurs le risque de croire que ces résumés sont exacts à 100 %.

Google a également fait preuve d’un certain biais dans l’entraînement de ses modèles lorsque Gemini a réalisé des représentations controversées comme des pères fondateurs noirs ou des soldats allemands noirs et asiatiques de la Seconde guerre mondiale.

Ce type d’incidents suggère que le développement responsable de l’IA a encore un long chemin à parcourir dans l’industrie. Au début de l’année 2025, il semble que l’IA responsable soit moins prioritaire que l’innovation et le profit. Ce type d’approche entraînera inévitablement des retombées négatives.

IA générative : les problèmes en coulisse

Alors que de nombreux chercheurs en intelligence artificielle développent des techniques pour tenter de résoudre les hallucinations, de nombreux utilisateurs sont trompés, voire lésés, par les résultats obtenus.

  • En 2023, un juge américain a imposé des sanctions à deux avocats new-yorkais pour avoir soumis un dossier juridique contenant six cas fictifs générés par ChatGPT.
  • En novembre 2024, il est apparu que Google Gemini aurait dit à un utilisateur : “Vous êtes une perte de temps et de ressources” et “Veuillez mourir”.

Toute voie vers un développement responsable de l’intelligence artificielle doit mettre l’accent sur la sensibilisation aux limites des LLM afin que les utilisateurs ne risquent pas d’être induits en erreur.

Bien que des fournisseurs comme OpenAI proposent des avertissements tels que “ChatGPT peut faire des erreurs”, il faut faire davantage pour communiquer aux utilisateurs à quel point ces erreurs sont fréquentes.

Certaines entreprises comme Anthropic ont été extrêmement proactives dans la mise en évidence des problèmes liés à leurs modèles, et ont récemment publié un rapport en décembre 2024 indiquant que Claude changeait parfois ses réponses en fonction de ce qu’il pensait que l’utilisateur voulait entendre.

C’est ce type de recherche critique qui contribuera à réduire le risque que les utilisateurs finaux soient trompés ou lésés.

Les “deepfakes” peuvent nous amener à nous méfier de tout

2025 pourrait être encore pire que 2024 en matière de deepfakes. Auparavant cantonnés à l’utilisation occasionnelle d’acteurs morts à Hollywood et à l’envoi de vidéos de chansons amusantes à vos amis, ils sont aujourd’hui très différents.

En effet, la disponibilité généralisée des modèles texte-voix, texte-image et texte-vidéo a créé un environnement dans lequel n’importe qui peut créer un contenu synthétique impossible à différencier de la réalité. C’est désormais aux utilisateurs finaux de deviner ce qui est réel et ce qui ne l’est pas ; un résultat alarmant nous obligeant à nous méfier de tout.

Tout au long de l’année 2024, nous avons vu apparaître sur des plateformes comme X des deepfakes de personnalités publiques, dont le président Trump, le président Biden, la candidate démocrate à l’élection présidentielle Kamala Harris et Taylor Swift.

Dans un incident particulièrement flagrant, Steve Kramer a utilisé la technologie deepfake pour faire un faux appel en se faisant passer pour le président Biden pour encourager les gens à ne pas voter lors des primaires de l’État du New Hampshire. Cet événement montre que les deepfakes sont utilisés pour influencer l’opinion publique et diffuser des informations.

Parallèlement, les escrocs utilisent les deepfakes pour tromper leurs cibles. Dans un autre incident très médiatisé survenu en 2024, un employé du secteur financier a été amené à payer 25 millions de dollars à des fraudeurs qui avaient créé un faux appel vidéo du directeur financier de l’entreprise.

Cependant, les fournisseurs d’IA n’ont pas proposé un ensemble complet de contrôles pour limiter la diffusion de ce type de contenu.

Par exemple, des fournisseurs comme Runway ont mis en place des filigranes pour aider les utilisateurs à distinguer les images réelles des images synthétiques, mais ces filigranes peuvent également être supprimés.

De même, bien que des solutions comme ChatGPT (avec DALL-E 3) prévoient des restrictions de modération de contenu pour la création d’images de personnages publics, ces contrôles peuvent souvent être déjoués en faisant un jailbreak du modèle.

Pourquoi l’IA responsable est importante en 2025 ?

2024 nous aura montré que nous ne pouvons pas compter uniquement sur les fournisseurs d’IA pour plaider en faveur d’un développement responsable de l’IA.

Nous avons besoin que les utilisateurs, les chercheurs et les fournisseurs se réunissent pour critiquer ces modèles et les améliorer. Après tout, lorsque les utilisateurs ont dénoncé Gemini, le PDG de Google, Sundar Pichai, s’est engagé à résoudre le problème.

En même temps, bien qu’il n’y ait pas de solution miracle pour se débarrasser des hallucinations, les fournisseurs doivent faire plus d’efforts pour éduquer les utilisateurs sur la prévalence de ces erreurs et encourager la vérification des faits de toutes les sorties potentielles.

D’une manière plus générale, la sécurité de l’IA doit faire l’objet d’un débat plus proactif.

Juan Jose Lopez Murphy, responsable de la science des données et de l’intelligence artificielle chez Globant, a déclaré à Techopedia qu’il existe “deux niveaux d’agrégation”, hiérarchisant la sécurité de l’IA.

Le premier est le niveau existentiel : “l’IA arrive dans nos vies”, qui fait l’objet de nombreux commentaires.

Mais elle risque d’évincer le second niveau, plus pragmatique et immédiat, qui concerne le développement éthique des technologies de l’IA, les biais algorithmiques et le besoin de transparence.

Alors que l’IA façonne de plus en plus de secteurs, il est essentiel d’aborder ces questions pour s’assurer que l’Intelligence Artificielle renforce les capacités humaines tout en atténuant les risques.

Conclusion

Garantir un développement responsable de l’IA semble être un projet complexe. Trop souvent, les principes d’innovation et de rentabilité supplantent ceux de l’éthique et de la sécurité.

Quoi qu’il en soit, faire pression sur les développeurs d’IA pour qu’ils mettent en œuvre des mesures de protection et concevoir des systèmes d’IA de manière responsable lorsque c’est possible peut contribuer à orienter le développement de l’IA dans une direction plus sûre et plus responsable.

2025 sera une année charnière pour l’IA, car nous nous efforçons de contrôler ce système tout en le voyant affecter nos vies. Nous devrions utiliser l’IA ; c’est un outil immensément puissant. Mais les outils peuvent être utilisés à bon ou à mauvais escient, intentionnellement ou non.

FAQ

Qu’est-ce que l’IA responsable et pourquoi est-elle importante ?

Comment les fournisseurs d’IA échouent-ils en matière d’IA responsable en 2025 ?

Quels sont les exemples d’échecs de l’IA ?

Que peut-on faire pour promouvoir une IA responsable ?

Comment les hallucinations de l’IA peuvent-elles affecter les utilisateurs ?

Quelles mesures les gouvernements peuvent-ils prendre pour réglementer l’IA de manière responsable ?

Termes connexes

Articles Liés

Vincent Grethen
Responsable d'édition

Diplômé de l'Ecole de Journalisme de Louvain La Neuve en Belgique, c'est finalement le monde du contenu en ligne qui m'a permis d'assouvir ma passion pour l'écriture. Depuis plus de 10 ans, j'explore divers secteurs, notamment le bien-être, le médical ou encore le tourisme. Cette polyvalence est mon atout majeur pour capter l'attention des lecteurs et des lectrices. Aujourd'hui, ma plume évolue au rythme des innovations, au service des passionnés de technologie, toujours avec le même plaisir de jouer avec les mots.