Gemini API でマルチターンの会話(チャット)を構築する


Gemini API を使用すると、さまざまな場所で自由形式の会話を構築できます。 あります。Vertex AI in Firebase SDK は、Google Cloud SDK の 保持します。つまり、generateContentStream()generateContent() 様、会話履歴をご自身で保存する必要はありません。

始める前に

まだ実施していない場合は、 Vertex AI in Firebase SDK のスタートガイド 以下のことをすべて完了していることを確認してください。

  1. 新規または既存の Firebase プロジェクトを設定します。これには、 Blaze の料金プランと必要な API の有効化。

  2. アプリの登録や Firebase 構成をアプリに追加します。

  3. SDK を追加して Vertex AI サービスと生成モデルを初期化する 説明します

アプリを Firebase に接続して SDK を追加し、 Vertex AI サービスと生成モデル Gemini API を呼び出す準備が整いました。

チャット プロンプト リクエストを送信する

マルチターンの会話(チャットなど)を構築するには、まず startChat() を呼び出してチャットします。次に、 sendMessageStream()(または sendMessage()): 新しいユーザー メッセージを送信します。 また、メッセージと返信がチャット履歴に追加されます。

コンテンツに関連付けられた role には、次の 2 つのオプションがあります。 あります。

  • user: プロンプトを提供するロール。この値は Kubernetes の sendMessageStream()(または sendMessage())を呼び出し、関数は 別のロールが渡された場合は例外です。

  • model: レスポンスを提供するロール。このロールは、 既存の historystartChat() を呼び出す。

で確認できます。

レスポンスをストリーミングするか(sendMessageStream)、待つかを選択します (sendMessage)。

ストリーミング

やり取りを迅速化するために、 代わりにストリーミングを使用して部分的な結果を処理します

ストリーミングなし

ストリーミングではなく、結果全体を待つこともできます。 モデルが生成全体を完了した後にのみ結果が返される プロセスです

Gemini モデルの選択方法を学習する 必要に応じてロケーション 適切なストレージクラスを選択できます

Google アシスタントの機能

  • トークンをカウントする方法を学習する モデルに長いプロンプトを送信します
  • Cloud Storage for Firebase を設定する 使用してマルチモーダル リクエストにサイズの大きなファイルを含められます。 Cloud Storage 件の URL。ファイルには画像、PDF、動画、音声を含めることができます。
  • 本番環境に向けた準備として、 Firebase App Check の設定 権限のないクライアントによる不正使用から Gemini API を保護します。

Gemini API のその他の機能を試す

コンテンツの生成を制御する方法

で確認できます。 また、Terraform を使用してプロンプトやモデル構成をテストすることもできます。 Vertex AI Studio

Gemini モデルの詳細

詳しくは、 さまざまなユースケースで利用可能な および 割り当てと料金をご確認ください。


フィードバックを送信 Vertex AI in Firebase の感想をお聞かせください。