Amazon Web Services (AWS) a annoncé le lancement des vérifications de raisonnement automatisé (aperçu), une nouvelle protection dans Amazon Bedrock Guardrails pour aider à réduire les hallucinations dans les grands modèles de langage (LLM) en validant mathématiquement l'exactitude de leurs réponses. Ceci s'appuie sur le raisonnement automatisé, un domaine de l'informatique qui utilise des preuves mathématiques et la déduction logique pour vérifier le comportement des systèmes et des programmes. Contrairement à l'apprentissage automatique (ML), qui fait des prédictions, le raisonnement automatisé fournit des garanties mathématiques sur le comportement d'un système. AWS utilise déjà le raisonnement automatisé dans des domaines de services clés tels que le stockage, la mise en réseau, la virtualisation, l'identité et la cryptographie. Par exemple, le raisonnement automatisé est utilisé pour vérifier formellement l'exactitude des implémentations cryptographiques, améliorant ainsi les performances et la vitesse de développement. Maintenant, AWS applique une approche similaire à l'IA générative. Les nouvelles vérifications de raisonnement automatisé (aperçu) dans Amazon Bedrock Guardrails sont la première protection de l'IA générative qui aide à prévenir les erreurs factuelles dues aux hallucinations en utilisant un raisonnement logiquement précis et vérifiable qui explique pourquoi les réponses de l'IA générative sont correctes. Les vérifications de raisonnement automatisé sont particulièrement utiles pour les cas d'utilisation où l'exactitude factuelle et l'explicabilité sont importantes. Par exemple, vous pouvez utiliser les vérifications de raisonnement automatisé pour valider les réponses générées par LLM concernant les politiques de ressources humaines (RH), les informations sur les produits de l'entreprise ou les flux de travail opérationnels. Utilisées conjointement avec d'autres techniques telles que l'ingénierie des invites, la génération augmentée par la récupération (RAG) et les vérifications d'ancrage contextuel, les vérifications de raisonnement automatisé ajoutent une approche plus rigoureuse et vérifiable pour garantir que la sortie générée par LLM est exacte sur le plan factuel. En encodant vos connaissances du domaine dans des politiques structurées, vous pouvez vous assurer que vos applications d'IA conversationnelle fournissent des informations fiables et dignes de confiance à vos utilisateurs.