Este guia mostra como começar a fazer chamadas para o Vertex AI Gemini API diretamente do seu app usando o Vertex AI in Firebase SDK para a plataforma escolhida.
Pré-requisitos
Este guia pressupõe que você esteja familiarizado com o uso de JavaScript para desenvolver e apps da Web. Este guia é independente de framework.
Verifique se o ambiente de desenvolvimento e o app da Web atendem aos seguintes requisitos requisitos:
- Node.js (opcional)
- Navegador da Web moderno
(Opcional) Confira o aplicativo de exemplo.
Fazer o download do app de exemplo
É possível testar o SDK rapidamente, ver uma implementação completa de vários recursos casos ou usar o aplicativo de exemplo se não tiver seu próprio aplicativo da Web. Para usar o app de exemplo, você precisará conectá-lo a um projeto do Firebase.
Etapa 1: configurar um projeto do Firebase e conectar o app ao Firebase
Se você já tem um projeto do Firebase e um app conectado a ele
No console Firebase, acesse a página Build with Gemini.
Clique no card Vertex AI in Firebase para iniciar um fluxo de trabalho que ajuda você conclua as tarefas a seguir. Se aparecer uma guia no console para Vertex AI, as tarefas serão concluídas.
Faça upgrade do seu projeto para usar o Plano de preços Blaze com pagamento por utilização.
Ative as duas APIs a seguir para seu projeto:
aiplatform.googleapis.com
efirebaseml.googleapis.com
Siga para a próxima etapa deste guia para adicionar o SDK ao app.
Se você ainda não tiver um projeto do Firebase e um app conectado a ele
Etapa 2: adicionar o SDK
Com o projeto do Firebase configurado e o app conectado ao Firebase (consulte a etapa anterior), agora é possível adicionar o SDK do Vertex AI in Firebase ao seu app.
A biblioteca Vertex AI in Firebase fornece acesso aos Vertex AI Gemini API e está incluída como parte do SDK do Firebase para JavaScript para Web.
Instale o SDK do Firebase para JavaScript para Web usando npm:
npm install firebase
Inicialize o Firebase no seu app:
import { initializeApp } from "firebase/app"; // TODO(developer) Replace the following with your app's Firebase configuration // See: https://firebase.google.com/docs/web/learn-more#config-object const firebaseConfig = { // ... }; // Initialize FirebaseApp const firebaseApp = initializeApp(firebaseConfig);
Etapa 3: inicializar o serviço Vertex AI e o modelo generativo
Antes de fazer chamadas de API, você precisa inicializar o Vertex AI. e o modelo generativo.
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
Quando terminar o Guia explicativo, aprenda a escolher um modelo Gemini e, opcionalmente, um o local apropriado para seu caso de uso e app.
Etapa 4: chamar Vertex AI Gemini API
Agora que você conectou seu app ao Firebase, adicionou o SDK e inicializou o serviço Vertex AI e o modelo generativo, está tudo pronto para chamar o Vertex AI Gemini API.
Você pode usar generateContent()
para gerar texto de uma solicitação de comando de texto
exclusivo:
import { initializeApp } from "firebase/app";
import { getVertexAI, getGenerativeModel } from "firebase/vertexai-preview";
// TODO(developer) Replace the following with your app's Firebase configuration
// See: https://firebase.google.com/docs/web/learn-more#config-object
const firebaseConfig = {
// ...
};
// Initialize FirebaseApp
const firebaseApp = initializeApp(firebaseConfig);
// Initialize the Vertex AI service
const vertexAI = getVertexAI(firebaseApp);
// Initialize the generative model with a model that supports your use case
// Gemini 1.5 models are versatile and can be used with all API capabilities
const model = getGenerativeModel(vertexAI, { model: "gemini-1.5-flash" });
// Wrap in an async function so you can use await
async function run() {
// Provide a prompt that contains text
const prompt = "Write a story about a magic backpack."
// To generate text output, call generateContent with the text input
const result = await model.generateContent(prompt);
const response = result.response;
const text = response.text();
console.log(text);
}
run();
O que mais você pode fazer?
Saiba mais sobre os modelos do Gemini
Saiba mais sobre o modelos disponíveis para diversos casos de uso e as cotas e preços.
Testar outros recursos do Gemini API
- Saiba mais sobre como gerar texto com comandos somente de texto, incluindo instruções transmitir a resposta.
- Gerar texto com base comandos multimodais (incluindo texto, imagens, PDFs, vídeo e áudio).
- Crie conversas com vários turnos (chat).
- Use chamadas de função para se conectar modelos generativos a sistemas e informações externos.
Saiba como controlar a geração de conteúdo
- Entender o design de comandos, incluindo práticas recomendadas, estratégias e exemplos de comandos.
- Configure os parâmetros do modelo, como temperatura e máximo de tokens de saída.
- Use as configurações de segurança para ajustar a probabilidade de receber respostas que podem ser consideradas prejudiciais.
Envie feedback sobre sua experiência com Vertex AI in Firebase