Dans un récent article de blog, Microsoft a annoncé de nouvelles fonctionnalités de produits conçues pour améliorer la sécurité, la sûreté et la confidentialité des systèmes d'IA, renforçant ainsi son engagement envers une IA responsable. Ces fonctionnalités se concentrent sur trois domaines clés : la sécurité, la sûreté et la confidentialité.
En matière de sécurité, Microsoft introduit des fonctionnalités telles que les évaluations dans Azure AI Studio pour prendre en charge les évaluations proactives des risques et la transparence des requêtes Web dans Microsoft 365 Copilot, aidant ainsi les administrateurs et les utilisateurs à comprendre comment la recherche Web améliore les réponses de Copilot.
En ce qui concerne la sûreté, les nouvelles fonctionnalités incluent une fonctionnalité de correction dans la fonctionnalité de détection de fondement de Microsoft Azure AI Content Safety, qui permet de corriger les problèmes d'hallucination en temps réel avant que les utilisateurs ne les voient, ainsi que la sécurité du contenu intégrée et la détection des éléments protégés pour le code.
En matière de confidentialité, Microsoft introduit l'inférence confidentielle en avant-première dans son modèle Azure OpenAI Service Whisper, permettant aux clients de développer des applications d'IA génératives prenant en charge une confidentialité vérifiable de bout en bout.
Ces nouvelles fonctionnalités témoignent de l'engagement continu de Microsoft à garantir une IA responsable et à permettre aux clients d'utiliser et de créer des solutions d'IA de manière responsable. En répondant aux préoccupations relatives à la sécurité, à la sûreté et à la confidentialité, Microsoft vise à favoriser la confiance dans les systèmes d'IA et à libérer leur potentiel positif pour les organisations et les communautés du monde entier.