You are currently viewing Gemini 1.5 Flash : l’IA Google performante et légère

Gemini 1.5 Flash : l’IA Google performante et légère

Le 14 mai 2024, lors de Google I/O 2024, le modèle Gemini 1.5 Flash a été dévoilé au public. Suite au retours utilisateurs de la version Gemini 1.5 Pro, Google a su tirer des conclusions intéressantes. En effet, cette version sortie il y a quelques mois est dotée de capacités multimodales et de performances renforcées. Cependant, ce modèle s’est avéré lourd et coûteux.

Quels sont les avantages de Gemini 1.5 Flash par rapport à Gemini 1.5 Pro ?

Cette version a été pensé pour répondre aux problématiques des utilisateurs. Il est plus léger que la version 1.5 Pro. Cela lui permet d’être plus rapide tout en étant très efficace. Il est optimisé pour les tâches sur une grande échelle. Par exemple, plusieurs heures de vidéos ou d’audios ou encore des centaines de milliers de mots. Gemini 1.5 Flash garde également ses capacités multimodales.

Comment accéder à Gemini 1.5 Flash en France ?

Vous pouvez accéder à cette version plus légère ainsi qu’à Gemini 1.5 Pro en avant-première. Pour cela, rendez-vous sur Google AI Studio ou sur Vortex AI.

Une liste d’attente est également disponible pour les développeurs utilisant l’API Gemini ainsi que pour les utilisateurs de Google Cloud.

Dans quels domaines utiliser Gemini 1.5 Flash ?

Ce modèle a la possibilité de traiter des vidéos, des audios ou des texte de grande taille. Voici quelques exemples d’applications pertinentes cités par Google :

  • Synthèse de documents,
  • Chatbot,
  • Description d’images et de vidéos,
  • Extraction de données sur d’importants documents.

Comment a été entrainé la version Flash ?

Gemini 1.5 Flash a été entrainé directement par Gemini 1.5 Pro à l’aide de la méthode de “distillation”.

La distillation est un processus d’apprentissage. Elle permet d’entraîner une petit modèle appelé “élève” par un modèle plus grand et plus complexe appelé “enseignant”. Ici l’élève correspond à Gemini 1.5 Flash et l’enseignant à Gemini 1.5 Pro.

L’objectif de cette méthode est d’entraîner un modèle avec moins de données d’entraînement tout en maintenant une haute performance du modèle élève. Ce dernier est donc plus compact tout en étant très efficace.