Plusieurs géants de la technologie ont créé la « Coalition for Secure AI » (CoSAI), une organisation dédiée à l’amélioration de la sécurité dans le domaine de l’intelligence artificielle (IA), secteur qui connaît un développement fulgurant.
Qui fait partie de cette coalition IA ?
Parmi les membres fondateurs figurent de grandes entreprises Tech comme :
- Amazon,
- son partenaire en IA Anthropic,
- Cisco,
- Google,
- IBM,
- Intel,
- Microsoft,
- Nvidia,
- PayPal
- et OpenAI.
Des acteurs majeurs du secteur tels que Chainguard, Cohere, GenLab et Wiz sont également impliqués. Ils travailleront sous l’égide d’OASIS Open, un consortium pour le code open source et les normes technologiques.
Dans un premier temps, CoSAI se concentrera sur la sécurité de la chaîne d’approvisionnement des logiciels d’IA, aidera les défenseurs à se protéger contre les menaces dans le secteur de l’IA et créera des directives de bonnes pratiques comprenant des taxonomies, des listes de contrôle et même des cartes d’évaluation.
L’organisation prévoit également de collaborer avec des organisations externes, comme le « Partnership on AI » et « l’Open Source Security Foundation ».
Pourquoi une alliance pour la sécurité de l’IA ?
Cette alliance se caractérise par le fait qu’elle regroupe des entreprises qui sont normalement en concurrence directe dans le domaine de l’IA, en fournissant des services dans le domaine des modèles de langage ou encore en distribuant du matériel spécial pour l’industrie IA. Toutes ces entreprises ont toutefois un intérêt commun à améliorer la sécurité de cette technologie dans le futur.
Une sécurité renforcée pourrait minimiser la probabilité d’incidents (et limiter les dommages) qui pourraient nuire à la demande d’IA, comme les violations de la protection des données ou les vulnérabilités du code. Plus l’IA est digne de confiance, plus toutes les entreprises concernées en profitent en fin de compte.
La question se pose également de savoir si l’IA doit être proposée aux équipes de cybersécurité. L’utilisation de la technologie pour automatiser la sécurité et améliorer les processus de travail comporte des risques. Les clients potentiels peuvent vouloir avoir la certitude que l’IA n’affaiblira pas leurs défenses par rapport aux outils conventionnels, et des procédures standardisées pourraient les y aider.
La pression des gouvernements joue également un rôle. Le Royaume-Uni et les États-Unis ont publié des directives sur la sécurité de l’IA, et dans certains pays, des efforts réglementaires sont déployés pour imposer un développement responsable de l’IA. CoSAI pourrait aider les entreprises à mieux se conformer aux réglementations locales.