Tworzenie rozmów wielostronnych (czatu) za pomocą interfejsu Gemini API


Za pomocą Gemini API możesz tworzyć rozmowy swobodne w wielu turach. Pakiet SDK Vertex AI in Firebase upraszcza ten proces, zarządzając stanem rozmowy, dzięki czemu w odróżnieniu od pakietów SDK generateContentStream()generateContent() nie musisz samodzielnie przechowywać historii rozmów.

Zanim zaczniesz

Jeśli jeszcze tego nie zrobisz, zapoznaj się z przewodnikiem wprowadzającym do pakietów SDK Vertex AI in Firebase. Upewnij się, że wykonałeś/wykonałaś te czynności:

  1. Skonfiguruj nowy lub istniejący projekt Firebase, korzystając z abonamentu Blaze i włączając wymagane interfejsy API.

  2. Połącz aplikację z Firebase, w tym zarejestruj ją i dodaj do niej konfigurację Firebase.

  3. Dodaj pakiet SDK i zainicjuj usługę Vertex AI oraz model generatywny w swojej aplikacji.

Po połączeniu aplikacji z Firebase, dodaniu pakietu SDK i zainicjowaniu usługi Vertex AI oraz modelu generatywnego możesz wywołać funkcję Gemini API.

Wysyłanie prośby o czat

Aby prowadzić rozmowę z wieloma zwrotami (np. na czacie), zacznij od zainicjowania czatu, wywołując funkcję startChat(). Następnie kliknij sendMessageStream() (lub sendMessage()), aby wysłać nową wiadomość do użytkownika. Wiadomość i odpowiedź zostaną dodane do historii czatu.

W przypadku role powiązanego z treścią w rozmowie dostępne są 2 opcje:

  • user: rola, która dostarcza promptów. Ta wartość jest domyślna dla wywołań funkcji sendMessageStream() (lub sendMessage()), a jeśli zostanie przekazana inna rola, funkcja rzuci wyjątek.

  • model: rola, która dostarcza odpowiedzi. Tej roli można używać podczas wywoływania funkcji startChat() z dotychczasową funkcją history.

Wybierz, czy chcesz wyświetlić odpowiedź w czasie (sendMessageStream), czy poczekać na odpowiedź, aż zostanie wygenerowany cały wynik (sendMessage).

Streaming

Możesz uzyskać szybsze interakcje, nie czekając na pełny wynik wygenerowany przez model, a zamiast tego używać strumieniowego przesyłania wyników częściowych.

Bez strumieniowego przesyłania

Możesz też poczekać na cały wynik zamiast strumieniowego przesyłania. Wynik zostanie zwrócony dopiero po zakończeniu całego procesu generowania.

Dowiedz się, jak wybrać model Gemini i opcjonalnie lokalizację odpowiednią do Twojego przypadku użycia i aplikacji.

Co jeszcze możesz zrobić?

  • Dowiedz się, jak policzyć tokeny przed wysłaniem długich promptów do modelu.
  • Skonfiguruj Cloud Storage for Firebase, aby móc dołączać duże pliki do żądań multimodalnych i mieć lepiej zarządzane rozwiązanie do dostarczania plików w promptach. Pliki mogą zawierać obrazy, pliki PDF, filmy i dźwięk.
  • Zacznij myśleć o przygotowaniu się do wdrożenia, w tym o skonfigurowaniu Firebase App Check, aby Gemini API nie był nadużywany przez nieautoryzowanych klientów.

Wypróbuj inne możliwości Gemini API

Dowiedz się, jak kontrolować generowanie treści

Możesz też eksperymentować z promptami i konfiguracjami modeli za pomocą Vertex AI Studio.

Więcej informacji o modelach Gemini

Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz o ich limitach i cenach.


Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase