Google a annoncé de nouvelles avancées pour rendre l'IA accessible à toutes les entreprises, mettant en avant son modèle le plus rapide à ce jour, Gemini 1.5 Flash. Ce modèle est optimisé pour les tâches à volume élevé et à haute fréquence à grande échelle, et des entreprises comme Jasper.ai l'utilisent déjà pour améliorer l'expérience utilisateur.
Cependant, la vision de Google va au-delà de la simple fourniture de modèles performants. L'entreprise construit un écosystème holistique qui facilite l'accès, l'évaluation et le déploiement de ces modèles à grande échelle. Voici quelques mises à jour clés :
* **Expansion du Model Garden :** L'inclusion de modèles open source tels que Llama 3.1 de Meta et les derniers modèles de Mistral AI, disponibles en tant que « Model-as-a-service » entièrement géré, offre aux utilisateurs davantage d'options pour trouver la solution idéale à leurs besoins.
* **Briser les barrières linguistiques :** Gemini 1.5 Flash et Gemini 1.5 Pro peuvent désormais comprendre et répondre dans plus de 100 langues, ce qui facilite les interactions pour un public mondial dans sa langue maternelle.
* **Performances prévisibles :** La disponibilité générale de Provisioned Throughput dans Vertex AI, associée à un accord de niveau de service (SLA) de 99,5 % de disponibilité, garantit la fiabilité et les performances.
* **Faire évoluer l'IA, et non les coûts :** Les améliorations apportées à Gemini 1.5 Flash réduisent les coûts d'entrée jusqu'à 85 % et les coûts de sortie jusqu'à 80 %. Des fonctionnalités telles que la mise en cache du contexte optimisent encore les coûts pour les requêtes à contexte long.
Ces améliorations témoignent de l'engagement de Google à fournir un écosystème d'IA qui rend l'IA à l'échelle de l'entreprise accessible à tous.