Générer du texte à partir de requêtes textuelles à l'aide de l'API Gemini


Lorsque vous appelez Gemini API à partir de votre application à l'aide d'un SDK Vertex AI in Firebase, vous pouvez demander au modèle Gemini de générer du texte à partir d'une entrée textuelle uniquement.

Avant de commencer

Si ce n'est pas déjà fait, consultez le guide de démarrage, qui explique comment configurer votre projet Firebase, connecter votre application à Firebase, ajouter le SDK, initialiser le service Vertex AI et créer une instance GenerativeModel.

Générer du texte à partir d'une entrée textuelle

Vous pouvez appeler Gemini API avec une entrée qui ne comprend que du texte. Pour ces appels, vous devez utiliser un modèle compatible avec les requêtes textuelles uniquement (comme Gemini 2.0 Flash).

Indiquez si vous souhaitez diffuser la réponse (generateContentStream) ou attendre la réponse jusqu'à ce que le résultat complet soit généré (generateContent).

Streaming

Vous pouvez accélérer les interactions en n'attendant pas le résultat complet de la génération du modèle, et en utilisant plutôt le streaming pour gérer les résultats partiels.

Sans streaming

Vous pouvez également attendre le résultat complet au lieu de le diffuser en streaming. Le résultat n'est renvoyé qu'une fois que le modèle a terminé l'ensemble du processus de génération.

Découvrez comment choisir un modèle et éventuellement un emplacement adapté à votre cas d'utilisation et à votre application.

Qu'est-ce que tu sais faire d'autre ?

Essayer d'autres fonctionnalités

Découvrez comment contrôler la génération de contenu.

Vous pouvez également tester des requêtes et des configurations de modèle à l'aide de Vertex AI Studio.

En savoir plus sur les modèles compatibles

Découvrez les modèles disponibles pour différents cas d'utilisation, ainsi que leurs quotas et leurs tarifs.


Envoyer des commentaires sur votre expérience avec Vertex AI in Firebase