Usando o Gemini API, você pode criar conversas de formato livre em
várias rodadas. O SDK do Vertex AI in Firebase simplifica o processo ao gerenciar
o estado da conversa, ao contrário de generateContentStream()
ou
generateContent()
, não é necessário armazenar o histórico de conversas.
Antes de começar
Conclua as guia para iniciantes para SDKs do Vertex AI in Firebase. Verifique se você fez o seguinte:
Configure um projeto do Firebase novo ou existente, incluindo o uso do plano de preços Blaze e a ativação das APIs necessárias.
Conecte seu app ao Firebase, incluindo o registro e a adição da configuração do Firebase.
Adicione o SDK e inicialize o serviço Vertex AI e o modelo generativo no seu app.
Depois de conectar seu app ao Firebase, adicionar o SDK e inicializar o serviço Vertex AI e o modelo generativo, você poderá chamar o Gemini API.
Enviar uma solicitação de comando de chat
Para criar uma conversa de várias interações (como um chat), comece inicializando o
chame startChat()
. Em seguida, use
sendMessageStream()
(ou sendMessage()
) para enviar uma nova mensagem do usuário, que
também anexa a mensagem e a resposta ao histórico de chat.
Há duas opções possíveis para role
associadas ao conteúdo em um
conversa:
user
: o papel que fornece as instruções. Esse valor é o padrão para chamadas parasendMessageStream()
(ousendMessage()
), e a função gera uma exceção se uma função diferente for transmitida.model
: o papel que fornece as respostas. Esse papel pode ser usado chamandostartChat()
com ashistory
existentes.
Escolha se você quer transmitir a resposta (sendMessageStream
) ou esperar
pela resposta até que todo o resultado seja gerado (sendMessage
).
Streaming
Você pode ter interações mais rápidas sem esperar pelo resultado inteiro a geração do modelo e, em vez disso, usar streaming para lidar com resultados parciais.
Sem streaming
Como alternativa, você pode esperar o resultado completo em vez de streaming. O resultado só é retornado depois que o modelo conclui todo o processo de geração.
Saiba como escolher um modelo do Gemini e, opcionalmente, um local adequado para seu caso de uso e app.
O que mais você pode fazer?
- Saiba como contar tokens. antes de enviar comandos longos ao modelo.
- Configure Cloud Storage for Firebase para incluir arquivos grandes nas suas solicitações multimodais usando URLs Cloud Storage. Os arquivos podem incluir imagens, PDFs, vídeos e áudio.
- Comece a se preparar para a produção, incluindo configurando o Firebase App Check para proteger o Gemini API contra abusos de clientes não autorizados.
Testar outros recursos do Gemini API
- Gerar texto com base em comandos somente de texto.
- Gerar texto a partir de comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Use a chamada de função para conectar modelos generativos a sistemas e informações externas.
Saiba como controlar a geração de conteúdo
- Entenda o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída.
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas prejudiciais.
Saiba mais sobre os modelos do Gemini
Saiba mais sobre os modelos disponíveis para vários casos de uso e as cotas e os preços.Enviar feedback sobre sua experiência com o Vertex AI in Firebase