L’année 2024 restera dans les mémoires comme celle où l’intelligence artificielle (IA) a dépassé l’effet de mode pour démontrer ses multiples applications pratiques.
De l’entrée révolutionnaire d’Apple dans l’IA générative aux percées en informatique quantique, des agents d’IA spécialisés aux réglementations historiques, l’année a marqué la transition des possibilités théoriques vers des réalités pratiques qui ont changé notre façon de travailler, de créer et de résoudre les problèmes.
Cependant, aucune réalisation ne se fait sans obstacles à surmonter. Dans cet article, nous explorons les principales avancées en IA de 2024 qui ont marqué l’histoire du développement de l’IA et les controverses qu’elles ont suscitées.
-
- 1. Lancement d'Apple Intelligence
- 2. La Puce Blackwell de Nvidia
- 3. Développement de Claude 3.5 Sonnet
- 4. Mise en oeuvre de la loi européenne sur l'IA
- 5. Le Modèle o1 d'OpenAI
- 6. Gemini 2.0 de Google
- 7. L'Ascension de Perplexity AI
- 8. Flux de Travail Agentiques et Agents d'IA
- 9. La Puce Quantique Willow de Google
- 10. Veo 2 de Google
-
- 1. Lancement d'Apple Intelligence
- 2. La Puce Blackwell de Nvidia
- 3. Développement de Claude 3.5 Sonnet
- 4. Mise en oeuvre de la loi européenne sur l'IA
- 5. Le Modèle o1 d'OpenAI
- 6. Gemini 2.0 de Google
- 7. L'Ascension de Perplexity AI
- 8. Flux de Travail Agentiques et Agents d'IA
- 9. La Puce Quantique Willow de Google
- 10. Veo 2 de Google
Top 10 des Développements en IA en 2024
1. Lancement d’Apple Intelligence
L’entrée d’Apple dans l’IA générative avec Apple Intelligence était très attendue en 2024. Alors que les concurrents se précipitaient sur le marché, Apple a pris son temps pour élaborer un cadre axé sur la confidentialité qui s’intègre parfaitement à tous les appareils. Des capacités améliorées de Siri à la création de Genmoji, Apple a montré comment l’IA pouvait améliorer l’expérience utilisateur tout en préservant la protection des données.
Cependant, le lancement a rapidement révélé les défis d’équilibrer innovation et fiabilité.
En quelques semaines, Apple Intelligence a généré plusieurs incidents de désinformation très médiatisés. Ces erreurs, faussement attribuées à des sources d’information comme la BBC, ont poussé Reporters Sans Frontières à demander le retrait de la fonctionnalité. L’organisation a déclaré :
Cet accident illustre que les services d’IA générative sont encore trop immatures pour produire des informations fiables pour le public et ne devraient pas être autorisés sur le marché pour de telles utilisations.
De grandes organisations médiatiques comme la BBC ont alors officiellement protesté contre les fausses attributions menaçant leur crédibilité, ce qui a amplifié la controverse.
Parallèlement, plusieurs défis techniques sont apparus. Par exemple, de nombreux utilisateurs d’iPhone n’ont pas pu accéder aux fonctionnalités promises. Apple a également eu du mal à mettre en œuvre le système en Chine en raison des réglementations locales, et le silence caractéristique de l’entreprise sur ces questions n’a fait qu’intensifier le débat sur la maturité de l’IA pour la synthèse d’actualités grand public.
2. La Puce Blackwell de Nvidia
Si 2024 avait un héros matériel, c’était la puce Blackwell de Nvidia. Elle représentait une réinvention complète de ce qui est possible en matière d’architecture de traitement de l’IA.
Les chiffres sont éloquents :
- Blackwell fonctionne avec 208 milliards de transistors
- Délivre jusqu’à 2,5 pétaFLOPS de performance
- Met en réseau plus de 100 000 puces ensemble
Mais ce qui compte vraiment, ce ne sont pas les spécifications – c’est ce qu’elles permettent. La capacité de la puce à gérer des flux de travail d’IA générative à l’échelle d’un centre de données tout en consommant 25 fois moins d’énergie que son prédécesseur représente un bond quantique en matière d’efficacité.
Toutefois, cette percée n’est pas venue sans difficultés.
Les premiers défis de production ont conduit à ce que le PDG de Nvidia, Jensen Huang, a franchement admis comme étant « 100 % de la faute de Nvidia », causant des retards initiaux.
Les problèmes de surchauffe dans les racks de serveurs et les contraintes d’approvisionnement ont également laissé la demande « bien au-dessus de l’offre », montrant ce qui se passe lorsqu’une nouvelle technologie se heurte aux défis de mise en œuvre dans le monde réel.
Pourtant, malgré ces obstacles, l’impact de Blackwell s’est répercuté dans toute l’industrie. Des géants de la technologie comme Microsoft (MSFT) et Meta (META) se sont précipités pour s’assurer leur part de ces puces.
Dans le même temps, les centres de données ont commencé à réoutiller leur infrastructure pour répondre aux exigences de refroidissement de la nouvelle technologie. Grâce au succès de la puce, la capitalisation boursière de Nvidia a grimpé à plus de 3 000 milliards de dollars, confirmant sa position parmi l’élite technologique.
3. Développement de Claude 3.5 Sonnet
Lorsqu’Anthropic a lancé Claude 3.5 Sonnet, nous avons découvert un nouveau modèle qui n’était pas seulement plus rapide ou plus précis, mais fondamentalement plus réfléchi dans son approche des problèmes. Son raisonnement sophistiqué a fait paraître les modèles précédents primitifs en comparaison.
Claude 3.5 Sonnet a résolu 64 % des défis de codage complexes lors des évaluations internes, laissant loin derrière le taux de réussite de 38 % de son prédécesseur.
Mais cela ne se résumait pas aux performances brutes.
Anthropic a également lancé sa fonctionnalité Artifacts, qui a transformé notre façon de collaborer avec l’IA. Elle a permis la génération et la mise à jour de documents en temps réel qui ressemblaient plus à un travail avec un collègue qualifié qu’avec un chatbot traditionnel.
Une autre grande nouveauté a été la capacité expérimentale d’utilisation d’ordinateur, qui permettait à Claude de contrôler réellement les environnements de bureau.
Tout cela nous a montré un avenir où l’IA pourrait gérer des tâches complexes et multi-étapes à travers différentes applications.
Dans son essai Machines of Loving Grace, le PDG d’Anthropic, Dario Amodei, prédit que l’IA pourrait réaliser 50 à 100 ans de progrès biologiques en 5 à 10 ans.
Selon Amodei, « l’IA forte » ne sera pas seulement égale à l’intellect humain, mais sera « plus intelligente qu’un lauréat du prix Nobel dans la plupart des domaines pertinents », notamment « la biologie, la programmation, les mathématiques, l’ingénierie, l’écriture, etc. »
4. Mise en oeuvre de la loi européenne sur l’IA
La mise en œuvre de la loi européenne sur l’IA en 2024 a marqué un moment décisif – la première tentative mondiale de réglementer de manière exhaustive le développement et le déploiement de l’IA.
Pensez-y comme au RGPD pour l’intelligence artificielle, mais avec des implications plus larges pour la construction et le déploiement des systèmes d’IA.
Le système de classification des risques de la loi a fondamentalement changé notre vision de l’utilisation de l’IA. Les systèmes d’IA étant désormais classés en catégories inacceptable, à haut risque, à risque limité ou à risque minimal, les entreprises ont été forcées de repenser entièrement leur approche du développement de l’IA. Soudainement, les fonctionnalités qui étaient autrefois précipitées sur le marché nécessitaient des évaluations rigoureuses de conformité et de la documentation.
James White, directeur technique de Calypso AI, a déclaré à Techopedia :
L’impact sur les organisations opérant dans l’UE dépendra probablement de la façon dont l’entreprise utilise un modèle d’IA et de la catégorie de risque dans laquelle ce cas d’utilisation s’inscrit, tel qu’identifié par la loi.
Les catégories — Interdite, Haut Risque, et Risque Faible ou Nul — sont décrites plutôt que définies et restent un peu floues pour les cas limites. Mais cette hiérarchie est le cœur de la loi et dicte le niveau de contrôle réglementaire qui sera appliqué et les exigences de conformité qui doivent être respectées.
Cependant, ce cadre réglementaire a également suscité des controverses concernant les potentielles failles de l’article 6(3). Une faille spécifique pourrait permettre aux développeurs de s’exempter potentiellement des obligations liées à l’IA à haut risque.
La loi comportait également de larges exemptions pour la sécurité nationale, ce qui a soulevé des inquiétudes quant à d’éventuels abus gouvernementaux. Et son impact sur les migrants et les populations vulnérables a déclenché un débat animé sur les droits numériques et la surveillance.
Les défis d’adaptation de l’industrie étaient importants, avec des sanctions allant de 7,5 millions à 35 millions d’euros (ou jusqu’à 7 % du chiffre d’affaires mondial). Cela signifiait que les entreprises devaient commencer à aligner leurs développements en IA sur les nouvelles exigences.
L’influence de la réglementation s’est étendue bien au-delà des frontières européennes, établissant efficacement des normes mondiales pour le développement de l’IA et forçant les entreprises du monde entier à reconsidérer leurs stratégies en matière d’IA.
5. Le Modèle o1 d’OpenAI
Lorsqu’OpenAI a lancé le modèle o1 en septembre 2024, il a introduit une approche fondamentalement nouvelle du raisonnement en IA. Alors que les modèles précédents se concentraient sur des réponses rapides, o1 a introduit une approche de « chaîne de pensée » qui lui permettait de réfléchir aux problèmes étape par étape avant de fournir des réponses.
Le modèle a montré une prouesse particulière en sciences, en programmation et en mathématiques, performant au niveau d’un doctorant sur des tâches complexes.
Grâce au modèle, OpenAI a également introduit un paramètre API “reasoning_effort“. Ce paramètre donne aux utilisateurs plus de contrôle sur le temps de réflexion du modèle tout en utilisant 60 % de tokens de raisonnement en moins que sa version précédente.
Cette approche s’est aussi accompagnée de compromis importants, comme les processus de raisonnement étendus causant des difficultés du modèle avec les tâches créatives.
Enfin, il a également montré des temps de réponse plus lents. Plus préoccupant encore étaient les taux encore élevés d’hallucinations IA du modèle, et des débats ont émergé sur le potentiel de telles capacités de raisonnement avancées à conduire à des conséquences imprévues ou des objectifs mal alignés.
6. Gemini 2.0 de Google
Gemini 2.0 est la réinvention audacieuse par Google de la façon dont l’IA devrait traiter notre monde. Propulsé par la massive infrastructure Trillium (un réseau de plus de 100 000 puces spécialisées), il a introduit une approche unifiée du traitement du texte, des images, de l’audio et de la vidéo qui a fait paraître primitives les tentatives multimodales précédentes.
L’architecture technique a véritablement innové. Plutôt que de traiter différents types de données comme des flux séparés, Gemini 2.0 traite tout simultanément à travers un espace d’embedding unifié. Avec des capacités natives de génération d’images et d’audio, il établit de nouvelles normes pour la compréhension de l’IA.
Pourtant, le mouvement le plus intéressant de Google n’était pas seulement technique – il était stratégique. L’introduction d’agents spécialisés comme Jules pour le développement de code et Project Mariner pour la navigation web a signalé un changement par rapport à l’IA universelle.
Google a parié sur l’excellence spécialisée pendant que ses concurrents se précipitaient pour construire des modèles plus grands.
7. L’Ascension de Perplexity AI
Parfois, les avancées les plus significatives viennent de sources inattendues. Perplexity AI a connu une croissance incroyable, passant d’une startup de 520 millions de dollars à une puissance de 9 milliards de dollars. En réimaginant notre façon d’interagir avec l’information, ils ont fondamentalement changé les attentes des utilisateurs en matière de recherche.
Les chiffres de croissance sont impressionnants :
- De 4 millions d’utilisateurs mensuels fin 2023 à 15 millions début 2024
- De 2,5 millions de requêtes quotidiennes à 20 millions
Ce succès a également suscité un débat intense sur les droits et l’attribution du contenu, qui deviennent de plus en plus importants avec les systèmes d’IA actuels.
De grands éditeurs comme Forbes et News Corp ont intenté des poursuites, alléguant le « vol d’un volume massif de contenu protégé par le droit d’auteur. »
La controverse a atteint son paroxysme avec une bataille juridique entre Perplexity et News Corp. Perplexity a répondu à cette controverse en introduisant un modèle de partage des revenus avec les éditeurs, qui tentait d’équilibrer innovation et droits de contenu.
8. Flux de Travail Agentiques et Agents d’IA
Si 2023 était l’année des chatbots d’IA, 2024 a marqué l’émergence des agents d’IA autonomes. La transformation a été remarquable : Agentforce 2.0 de Salesforce, Joule de SAP, CrewAI et Project Astra de Google nous ont montré comment l’IA pouvait aller au-delà des simples réponses pour réellement accomplir des tâches complexes de manière autonome.
Le monde de l’entreprise a accueilli ce changement avec enthousiasme. Agentforce 2.0 a démontré comment l’IA pouvait améliorer le raisonnement et l’intégration à travers les systèmes CRM, tandis que la décision de SAP d’alimenter Joule avec des LLM open source a montré une nouvelle approche de l’IA d’entreprise personnalisable. Ces systèmes sont devenus de véritables collaborateurs numériques capables de comprendre le contexte et d’exécuter des flux de travail en plusieurs étapes.
Ces systèmes pouvant fonctionner de manière autonome et disposant d’une grande puissance, de nombreuses personnes ont soulevé de sérieuses questions sur le contrôle et la sécurité.
À mesure que ces agents devenaient plus capables, la frontière entre assistance et automatisation est devenue de plus en plus floue, forçant les organisations à repenser leur approche de mise en œuvre et de gouvernance de l’IA.
9. La Puce Quantique Willow de Google
Vous vous souvenez quand l’informatique quantique ressemblait plus à de la science-fiction qu’à la réalité ? La puce Willow de Google a complètement changé cette perception. Avec 105 qubits supraconducteurs connectés fonctionnant à des températures à peine supérieures au zéro absolu, Willow a réalisé ce que les chercheurs en informatique quantique poursuivent depuis près de trois décennies.
Les réalisations techniques étaient stupéfiantes : effectuer des calculs de cinq minutes qui prendraient 10 septillions d’années aux superordinateurs les plus rapides d’aujourd’hui.
Mais ce qui distinguait vraiment Willow, c’était sa percée dans la correction d’erreurs. En utilisant des codes de correction d’erreurs plus importants, le système pouvait maintenir un seul qubit logique stable pendant une heure – une amélioration considérable par rapport aux configurations précédentes qui échouaient toutes les quelques secondes.
Pourtant, le chemin vers l’informatique quantique pratique reste difficile. Bien que Willow montre un immense potentiel, il nécessite encore des millions de qubits pour résoudre des défis industriels importants.
Les exigences extrêmes de refroidissement et la difficulté de maintenir les états quantiques posent de sérieux obstacles à la mise à l’échelle.
10. Veo 2 de Google
Lorsque Google DeepMind a présenté Veo 2 début décembre, ils ont relevé la barre de la génération vidéo par IA.
Alors que les concurrents luttaient encore avec des animations basiques, Google Veo 2 créait des vidéos en résolution 4K dépassant deux minutes, complètes avec des techniques de caméra sophistiquées et des effets cinématographiques.
Les réalisations techniques étaient impressionnantes. Par exemple, Veo 2 a montré une meilleure modélisation physique, des expressions humaines plus nuancées et une meilleure gestion du mouvement et de l’éclairage.
Dans les comparaisons directes avec d’autres modèles de pointe comme Google Veo 2 vs OpenAI Sora, les évaluateurs humains ont systématiquement classé les sorties de Veo 2 comme plus réalistes et plus proches de leurs prompts prévus.
Cependant, le déploiement prudent de Google nous a montré les divers défis qui existent lors du déploiement d’une technologie vidéo IA aussi puissante. L’accès est resté limité aux utilisateurs américains de plus de 18 ans via l’outil expérimental VideoFX, qui limitait initialement les sorties à une résolution de 720p et des clips de 8 secondes. Chaque image générée par Veo 2 incluait également le filigrane invisible de SynthID, que nous savons maintenant important pour les médias synthétiques.
Les limitations étaient tout aussi révélatrices. Malgré ses capacités impressionnantes, Veo 2 a eu du mal avec les scènes complexes et les séquences de mouvement rapide.
Lorsque ces défis sont combinés à l’approche mesurée de Google en matière d’expansion, nous pouvons commencer à reconnaître ce qu’il faut pour équilibrer l’innovation technologique et le déploiement responsable.
Conclusion
Les développements en IA que nous avons vus tout au long de 2024 comptent parmi les plus importants à ce jour.
Alors qu’Apple et Google se concentraient sur l’IA grand public, et que Nvidia fournissait le matériel qui alimente tout cela, la véritable histoire était le passage de l’IA générique à des implémentations spécialisées et réfléchies.
L’introduction de la loi européenne sur l’IA et les controverses auxquelles ont été confrontées des entreprises comme Apple et Perplexity nous ont montré que l’innovation doit être équilibrée avec la responsabilité.
Alors que l’informatique quantique se rapprochait de la pratique et que les agents d’IA devenaient plus autonomes, nous avons appris que l’avenir ne consiste pas seulement à construire une IA plus puissante – il s’agit de construire une IA plus fiable, spécialisée et responsable.