Gemini API z użyciem Firebase AI Logic

Twórz funkcje i aplikacje mobilne oraz internetowe oparte na AI za pomocą modeli Gemini i Firebase AI Logic

Firebase AI Logic zapewnia dostęp do najnowszych modeli generatywnej AI od Google, czyli modeli Gemini.

Jeśli chcesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub internetowej (a nie po stronie serwera), możesz użyć pakietów SDK klienta Firebase AI Logic. Te pakiety SDK klienta są tworzone specjalnie do użytku w aplikacjach mobilnych i internetowych. Oferują opcje zabezpieczeń przed nieautoryzowanymi klientami oraz integracje z innymi usługami Firebase.

Te pakiety SDK klienta są dostępne w języku Swift na platformy Apple, w językach Kotlin i Java na Androida, w języku JavaScript na potrzeby internetu, w języku Dart na potrzeby Fluttera oraz w Unity.

Dzięki tym pakietom SDK klienta możesz dodawać do aplikacji personalizację opartą na AI, tworzyć czaty oparte na AI, optymalizacje i automatyzacje oparte na AI i wiele więcej.

Rozpocznij

Najważniejsze funkcje

Wprowadzanie danych w języku naturalnym i multimodalne Modele Gemini są multimodalne, więc prompty wysyłane do Gemini API mogą zawierać tekst, obrazy, pliki PDF, filmy i dźwięk. Niektóre modele Gemini mogą też generować multimodalne dane wyjściowe.

Modele Gemini można wywoływać za pomocą danych wejściowych w języku naturalnym.

Rosnący zestaw funkcji Za pomocą pakietów SDK możesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub internetowej, aby tworzyć czaty oparte na AI, generować obrazy,używać narzędzi (takich jak wywoływanie funkcji i oparcie na faktach z Google Search), przesyłać strumieniowo dane wejściowe i wyjściowe multimodalne (w tym dźwięk), i nie tylko.
Bezpieczeństwo i zapobieganie nadużyciom w aplikacjach produkcyjnych Użyj Firebase App Check, aby chronić interfejsy API, które mają dostęp do modeli Gemini, przed nadużyciami ze strony nieautoryzowanych klientów.

Firebase AI Logic ma też limity żądań na użytkownika domyślnie, które można w pełni skonfigurować.

Solidna infrastruktura Korzystaj z skalowalnej infrastruktury, która jest przeznaczona do użytku w aplikacjach mobilnych i internetowych, np. zarządzaj plikami za pomocą Cloud Storage for Firebase, zarządzaj danymi strukturalnymi za pomocą usług bazy danych Firebase (takich jak Cloud Firestore) i dynamicznie ustawiaj konfiguracje w czasie działania za pomocą Firebase Remote Config.

Jak to działa?

Firebase AI Logic udostępnia pakiety SDK klienta, usługę proxy i inne funkcje które umożliwiają dostęp do modeli generatywnej AI Google w celu tworzenia funkcji opartych na AI w aplikacjach mobilnych i internetowych.

Obsługa modeli Google i dostawców "Gemini API"

Obsługujemy wszystkie najnowsze modele Gemini, aby uzyskać do nich dostęp, wybierz preferowanego dostawcę "Gemini API". Obsługujemy zarówno Gemini Developer API, jak i Vertex AI Gemini API. Dowiedz się więcej o różnicach między korzystaniem z tych 2 dostawców interfejsów API.

Jeśli zdecydujesz się używać Gemini Developer API, możesz skorzystać z „bezpłatnego pakietu”, aby szybko rozpocząć pracę.

Pakiety SDK klienta na urządzenia mobilne i do internetu

Żądania do modeli wysyłasz bezpośrednio z aplikacji mobilnej lub internetowej za pomocą naszych Firebase AI Logic pakietów SDK klienta, które są dostępne w języku Swift na platformy Apple, w językach Kotlin i Java na Androida, w języku JavaScript na potrzeby internetu, w języku Dart na potrzeby Fluttera oraz w Unity.

Jeśli w projekcie Firebase masz skonfigurowanych obu dostawców Gemini API, możesz przełączać się między nimi, włączając drugi interfejs API i zmieniając kilka wierszy kodu inicjującego.

Ponadto kilka naszych pakietów SDK klienta zapewnia dostęp do wnioskowania hybrydowego i na urządzeniu. Ta konfiguracja umożliwia aplikacji korzystanie z modelu na urządzeniu, gdy jest on dostępny, ale w razie potrzeby płynne przełączanie się na model hostowany w chmurze (i odwrotnie).

Usługa proxy

Nasza usługa pośrednicząca działa jako brama między klientem a wybranym Gemini API dostawcą (i modelami Google). Udostępnia usługi i integracje, które są ważne w przypadku aplikacji mobilnych i internetowych. Możesz na przykład skonfigurować Firebase App Check, aby chronić wybranego dostawcę interfejsu API i zasoby backendu przed nadużyciami ze strony nieautoryzowanych klientów.

Jest to szczególnie ważne, jeśli zdecydujesz się używać Gemini Developer API, ponieważ nasza usługa proxy i integracja z App Check zapewniają, że klucz Gemini API pozostanie na serwerze i będzie osadzony w kodzie aplikacji.

Ścieżka implementacji

Skonfiguruj projekt w Firebase i połącz aplikację z Firebase Aby skonfigurować projekt w Firebase (w tym włączyć wymagane interfejsy API dla wybranego Gemini API dostawcy), zarejestrować aplikację w projekcie w Firebase, a następnie dodać konfigurację Firebase do aplikacji, użyj przewodnika na stronie Firebase AI Logic w konsoli Firebase.
Zainstaluj pakiet SDK i zainicjuj go Zainstaluj pakiet SDK Firebase AI Logic odpowiedni dla platformy aplikacji, a następnie zainicjuj usługę i utwórz instancję modelu w aplikacji.
Wysyłaj żądania promptów do modeli Gemini Użyj pakietów SDK, aby wysyłać do Gemini modelu prompty zawierające tylko tekst lub prompty multimodalne, aby generować tekst i kod, dane wyjściowe strukturalne (np. JSON) i obrazy.

Twórz bogatsze interakcje dzięki czatowi wieloetapowemu, dwukierunkowemu przesyłaniu strumieniowemu (w tym dźwięku), i wywoływaniu funkcji.

Przygotuj się do udostępnienia wersji produkcyjnej Zaimplementuj ważne integracje dla aplikacji mobilnych i internetowych, takie jak ochrona interfejsu API przed nadużyciami za pomocą Firebase App Check i zdalne aktualizowanie parametrów w kodzie (przede wszystkim nazwy modelu) za pomocą Firebase Remote Config.

Dalsze kroki

Pierwsze kroki z dostępem do modelu z aplikacji mobilnej lub internetowej

Otwórz przewodnik dla początkujących

Więcej informacji o obsługiwanych modelach

Dowiedz się więcej o modelach dostępnych w różnych przypadkach użycia oraz o ich limitach i cenach.