Con Gemini API, puedes crear conversaciones de formato libre en varios turnos. El SDK de Vertex AI in Firebase simplifica el proceso administrando el estado de la conversación, por lo que, a diferencia de generateContentStream()
o generateContent()
, no tienes que almacenar el historial de conversaciones por tu cuenta.
Antes de comenzar
Si aún no lo hiciste, completa la guía de introducción a los SDKs de Vertex AI in Firebase. Asegúrate de haber realizado todo lo siguiente:
Configura un proyecto de Firebase nuevo o existente, incluido el uso del plan de precios Blaze y la habilitación de las APIs requeridas.
Conecta tu app a Firebase, lo que incluye registrar la app y agregar la configuración de Firebase a la app.
Agrega el SDK y, luego, inicializa el servicio Vertex AI y el modelo generativo en tu app.
Después de conectar la app a Firebase, agregar el SDK y, luego, inicializar el servicio Vertex AI y el modelo generativo, podrás llamar a Gemini API.
Envía una solicitud de instrucción de chat
Para crear una conversación de varios turnos (como un chat), primero inicializa el chat llamando a startChat()
. Luego, usa sendMessageStream()
(o sendMessage()
) para enviar un mensaje de usuario nuevo, que también agregará el mensaje y la respuesta al historial de chat.
Hay dos opciones posibles para role
asociadas con el contenido de una conversación:
user
: Es el rol que proporciona las instrucciones. Este valor es el predeterminado para las llamadas asendMessageStream()
(osendMessage()
), y la función muestra una excepción si se pasa una función diferente.model
: Es el rol que proporciona las respuestas. Esta función se puede usar cuando se llama astartChat()
conhistory
existentes.
Elige si quieres transmitir la respuesta (sendMessageStream
) o esperar a que se genere todo el resultado (sendMessage
).
Transmisión
Puedes lograr interacciones más rápidas si no esperas el resultado completo de la generación del modelo y, en su lugar, usa la transmisión para manejar los resultados parciales.
Sin transmisión
Como alternativa, puedes esperar el resultado completo en lugar de la transmisión; el resultado solo se muestra después de que el modelo completa todo el proceso de generación.
Obtén información para elegir un modelo de Gemini y, opcionalmente, una ubicación adecuada para tu caso de uso y app.
¿Qué más puedes hacer?
- Aprende a contar tokens antes de enviar mensajes largos al modelo.
- Configura Cloud Storage for Firebase para que puedas incluir archivos grandes en tus solicitudes multimodales con URLs Cloud Storage. Los archivos pueden incluir imágenes, archivos PDF, videos y audio.
- Comienza a pensar en prepararte para la producción, lo que incluye configurar Firebase App Check para proteger el Gemini API del abuso de clientes no autorizados.
Prueba otras funciones de Gemini API
- Genera texto a partir de instrucciones solo de texto.
- Genera texto a partir de instrucciones multimodales (lo que incluye texto, imágenes, PDF, video y audio).
- Genera resultados estructurados (como JSON) a partir de instrucciones de texto y multimodales.
- Usa las llamadas a funciones para conectar los modelos generativos a sistemas y datos externos.
Aprende a controlar la generación de contenido
- Comprende el diseño de instrucciones, incluidas las prácticas recomendadas, las estrategias y los ejemplos de instrucciones.
- Configura los parámetros del modelo, como la temperatura y la cantidad máxima de tokens de salida.
- Usa la configuración de seguridad para ajustar la probabilidad de recibir respuestas que puedan considerarse dañinas.
Más información sobre los modelos de Gemini
Obtén información sobre los modelos disponibles para varios casos de uso y sus cuotas y precios.Envía comentarios sobre tu experiencia con Vertex AI in Firebase