Este guia mostra como começar a fazer chamadas para o Vertex AI Gemini API diretamente do seu app usando o Vertex AI in Firebase SDK para a plataforma escolhida.
Pré-requisitos
Neste guia, pressupomos que você já sabe usar o Android Studio para desenvolver apps para Android.
Verifique se o ambiente de desenvolvimento e o app Android atendem aos requisitos requisitos a seguir:
- Android Studio (versão mais recente)
- O app Android precisa ser destinado ao nível 21 da API ou mais recente.
(Opcional) Confira o aplicativo de exemplo.
Fazer o download do app de exemplo
É possível testar o SDK rapidamente, ver uma implementação completa de vários recursos casos ou use o aplicativo de exemplo se não tiver seu próprio aplicativo Android. Para usar o app de exemplo, você precisará conectá-lo a um projeto do Firebase.
Etapa 1: configurar um projeto do Firebase e conectar o app ao Firebase
Se você já tem um projeto do Firebase e um app conectado a ele
No console Firebase, acesse a página Build with Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda você conclua as tarefas a seguir. Se aparecer uma guia no console para Vertex AI, as tarefas serão concluídas.
Faça upgrade do seu projeto para usar o Plano de preços Blaze com pagamento por utilização.
Ative as duas APIs a seguir para seu projeto:
aiplatform.googleapis.com
efirebaseml.googleapis.com
Siga para a próxima etapa deste guia para adicionar o SDK ao app.
Se você ainda não tiver um projeto do Firebase e um app conectado a ele
Etapa 2: adicionar o SDK
Com o projeto do Firebase configurado e o app conectado ao Firebase (consulte a etapa anterior), agora é possível adicionar o SDK do Vertex AI in Firebase ao seu app.
O SDK Vertex AI in Firebase para Android (firebase-vertexai
) oferece
acesso ao Vertex AI Gemini API.
No arquivo de configuração do Gradle do módulo (nível do app)
(como <project>/<app-module>/build.gradle.kts
), adicione a dependência do
SDK Vertex AI in Firebase para Android:
Kotlin+KTX
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta06")
}
Java
Para Java, é necessário adicionar duas bibliotecas.
dependencies {
// ... other androidx dependencies
// add the dependency for the Vertex AI in Firebase SDK for Android
implementation("com.google.firebase:firebase-vertexai:16.0.0-beta06")
// Required for one-shot operations (to use `ListenableFuture` from Guava Android)
implementation("com.google.guava:guava:31.0.1-android")
// Required for streaming operations (to use `Publisher` from Reactive Streams)
implementation("org.reactivestreams:reactive-streams:1.0.4")
}
Etapa 3: inicializar o serviço Vertex AI e o modelo generativo
Antes de fazer chamadas de API, você precisa inicializar o Vertex AI. e o modelo generativo.
Kotlin+KTX
No Kotlin, os métodos neste SDK são funções de suspensão e precisam ser chamados de um escopo de corrotina.// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
Java
Em Java, os métodos de streaming neste SDK retornam um tipoPublisher
da biblioteca Reative Streams.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
// Use the GenerativeModelFutures Java compatibility layer which offers
// support for ListenableFuture and Publisher APIs
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
Quando terminar o Guia explicativo, aprenda a escolher um modelo Gemini e, opcionalmente, um o local apropriado para seu caso de uso e app.
Etapa 4: chamar Vertex AI Gemini API
Agora que você conectou seu app ao Firebase, adicionou o SDK e inicializou o serviço Vertex AI e o modelo generativo, está tudo pronto para chamar o Vertex AI Gemini API.
Você pode usar generateContent()
para gerar texto de uma solicitação de comando de texto
exclusivo:
Kotlin+KTX
Para o Kotlin, os métodos neste SDK são funções de suspensão e precisam ser chamados. de um escopo de corrotina (link em inglês).// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
val generativeModel = Firebase.vertexAI.generativeModel("gemini-1.5-flash")
// Provide a prompt that contains text
val prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
val response = generativeModel.generateContent(prompt)
print(response.text)
Java
Para Java, os métodos neste SDK retornam umaListenableFuture
.
// Initialize the Vertex AI service and the generative model
// Specify a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
GenerativeModel gm = FirebaseVertexAI.getInstance()
.generativeModel("gemini-1.5-flash");
GenerativeModelFutures model = GenerativeModelFutures.from(gm);
// Provide a prompt that contains text
Content prompt = new Content.Builder()
.addText("Write a story about a magic backpack.")
.build();
// To generate text output, call generateContent with the text input
ListenableFuture<GenerateContentResponse> response = model.generateContent(prompt);
Futures.addCallback(response, new FutureCallback<GenerateContentResponse>() {
@Override
public void onSuccess(GenerateContentResponse result) {
String resultText = result.getText();
System.out.println(resultText);
}
@Override
public void onFailure(Throwable t) {
t.printStackTrace();
}
}, executor);
O que mais você pode fazer?
Saiba mais sobre os modelos do Gemini
Saiba mais sobre o modelos disponíveis para diversos casos de uso e as cotas e preços.
Testar outros recursos do Gemini API
- Saiba mais sobre como gerar texto com comandos somente de texto, incluindo instruções transmitir a resposta.
- Gerar texto com base comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Crie conversas com vários turnos (chat).
- Use chamadas de função para se conectar modelos generativos a sistemas e informações externos.
Saiba como controlar a geração de conteúdo
- Entender o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída.
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas prejudiciais.
Envie feedback sobre sua experiência com Vertex AI in Firebase