Tworzenie rozmów wielostronnych (czatu) za pomocą interfejsu Gemini API


Za pomocą Gemini API możesz prowadzić rozmowy swobodne w wielu turach. Pakiet SDK Vertex AI in Firebase upraszcza ten proces, zarządzając stanem rozmowy. Dzięki temu w odróżnieniu od pakietów SDK generateContentStream()generateContent() nie musisz samodzielnie przechowywać historii rozmów.

Zanim zaczniesz

Jeśli jeszcze tego nie zrobisz, przeczytaj przewodnik dla początkujących, w którym znajdziesz instrukcje konfigurowania projektu Firebase, łączenia aplikacji z Firebase, dodawania pakietu SDK, inicjowania usługi Vertex AI i tworzenia wystąpienia GenerativeModel.

Wysyłanie prośby o czat

Aby prowadzić rozmowę z wieloma zwrotami (np. na czacie), zacznij od zainicjowania czatu, wywołując funkcję startChat(). Następnie kliknij sendMessageStream() (lub sendMessage()), aby wysłać nową wiadomość do użytkownika. Spowoduje to również dołączenie wiadomości i odpowiedzi do historii czatu.

W przypadku role powiązanego z treścią w rozmowie dostępne są 2 opcje:

  • user: rola, która dostarcza promptów. Ta wartość jest domyślna dla wywołań funkcji sendMessageStream() (lub sendMessage()), a jeśli zostanie przekazana inna rola, funkcja rzuci wyjątek.

  • model: rola, która dostarcza odpowiedzi. Tej roli można używać podczas wywoływania funkcji startChat() z dotychczasową funkcją history.

Wybierz, czy chcesz odtwarzać odpowiedź strumieniowo (sendMessageStream), czy czekać na odpowiedź, aż zostanie wygenerowany cały wynik (sendMessage).

Streaming

Możesz uzyskać szybsze interakcje, nie czekając na pełny wynik wygenerowany przez model, a zamiast tego używać strumieniowego przetwarzania częściowych wyników.

Bez strumieniowego przesyłania

Możesz też poczekać na cały wynik zamiast strumieniowego przesyłania. Wynik zostanie zwrócony dopiero po zakończeniu całego procesu generowania.

Dowiedz się, jak wybrać model i opcjonalnie lokalizację odpowiednią do przypadku użycia i aplikacji.

Co jeszcze możesz zrobić?

Wypróbuj inne funkcje

Dowiedz się, jak kontrolować generowanie treści

Możesz też eksperymentować z promptami i konfiguracjami modeli za pomocą Vertex AI Studio.

Więcej informacji o obsługiwanych modelach

Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz o ich limitachcenach.


Prześlij opinię o tym, jak oceniasz korzystanie z usługi Vertex AI in Firebase