Dans son récent article de blog sur Google Cloud, Phil Venables, vice-président de la sécurité des technologies de l'information et RSSI de Google Cloud, souligne l'importance pour les fournisseurs d'IA de partager leurs recherches sur les vulnérabilités. Il insiste sur le fait que cette transparence est cruciale pour instaurer la confiance dans la technologie de l'IA, en particulier compte tenu de son évolution rapide. Google prend la recherche en cybersécurité très au sérieux et a beaucoup investi dans l'exploration des risques liés à l'IA et le développement de meilleures défenses. Notamment, l'équipe de recherche sur les vulnérabilités de Google Cloud a découvert et corrigé des vulnérabilités jusqu'alors inconnues dans Vertex AI. M. Venables exhorte les développeurs d'IA à normaliser le partage des recherches sur la sécurité de l'IA, plaidant pour un avenir où l'IA générative sera sécurisée par défaut. Google Cloud souhaite diriger cet effort en promouvant la transparence, en partageant ses connaissances et en encourageant les discussions ouvertes sur les vulnérabilités de l'IA. Il affirme que dissimuler les vulnérabilités ne fait qu'accroître le risque que des problèmes similaires persistent sur d'autres plateformes. Au lieu de cela, le secteur devrait s'efforcer de faciliter la détection et la correction des vulnérabilités. M. Venables conclut en appelant à un effort collectif pour relever le niveau de sécurité de l'IA, en œuvrant à un avenir où les modèles d'IA seront sécurisés par défaut.