Les préoccupations autour de l’IA générative étant omniprésentes, Google a annoncé une extension de son programme Vulnerability Rewards (VRP) axé sur les attaques spécifiques à l’IA et les opportunités de malveillance. En tant que telle, la société a publié des directives mises à jour détaillant les découvertes éligibles aux récompenses et celles qui ne le sont pas. Par exemple, la découverte d’une extraction de données de formation qui divulgue des informations privées et sensibles entre dans le champ d’application, mais si elle ne montre que des données publiques et non sensibles, elle ne donnera pas droit à une récompense. L’année dernière, Google a donné 12 millions de dollars aux chercheurs en sécurité pour la découverte de bogues.
Google a expliqué que l’IA présente des problèmes de sécurité différents de ceux de ses autres technologies, tels que la manipulation de modèles et les préjugés injustes, ce qui nécessite de nouvelles directives pour refléter cela. « Nous pensons que l’expansion du VRP encouragera la recherche sur la sûreté et la sécurité de l’IA et mettra en lumière des problèmes potentiels qui rendront l’IA plus sûre pour tout le monde », a déclaré la société dans un communiqué. « Nous élargissons également nos travaux de sécurité open source pour rendre les informations sur la sécurité de la chaîne d’approvisionnement de l’IA universellement découvrables et vérifiables. »
Les entreprises d’IA, dont Google, se sont réunies à la Maison Blanche plus tôt cette année, s’engageant à une plus grande découverte et sensibilisation aux vulnérabilités de l’IA. L’expansion du VRP de l’entreprise précède également un décret « radical » du président Biden, apparemment prévu pour le lundi 30 octobre, qui créerait des évaluations et des exigences strictes pour les modèles d’IA avant toute utilisation par les agences gouvernementales.