Gemini API z użyciem Firebase AI Logic
Twórz funkcje i aplikacje mobilne oraz internetowe oparte na AI za pomocą modeli Gemini i Firebase AI Logic
Firebase AI Logic zapewnia dostęp do najnowszych modeli generatywnej AI od Google, czyli modeli Gemini.
Jeśli chcesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub internetowej (a nie po stronie serwera), możesz użyć pakietów SDK klienta Firebase AI Logic. Te pakiety SDK klienta są tworzone specjalnie do użytku w aplikacjach mobilnych i internetowych. Oferują opcje zabezpieczeń przed nieautoryzowanymi klientami oraz integracje z innymi usługami Firebase.
Te pakiety SDK klienta są dostępne w języku Swift na platformy Apple, w językach Kotlin i Java na Androida, w języku JavaScript na potrzeby internetu, w języku Dart na potrzeby Fluttera oraz w Unity.
Dzięki tym pakietom SDK klienta możesz dodawać do aplikacji personalizację opartą na AI, tworzyć czaty oparte na AI, optymalizacje i automatyzacje oparte na AI i wiele więcej.
Najważniejsze funkcje
| Wprowadzanie danych w języku naturalnym i multimodalne |
Modele Gemini są
multimodalne, więc prompty wysyłane do Gemini API mogą zawierać tekst,
obrazy, pliki PDF, filmy i dźwięk. Niektóre modele Gemini mogą też
generować multimodalne dane wyjściowe.
Modele Gemini można wywoływać za pomocą danych wejściowych w języku naturalnym. |
| Rosnący zestaw funkcji |
Za pomocą pakietów SDK możesz wywoływać Gemini API bezpośrednio z aplikacji mobilnej lub
internetowej, aby
tworzyć czaty oparte na AI,
generować obrazy,używać narzędzi (takich jak wywoływanie funkcji
i oparcie na faktach z
|
| Bezpieczeństwo i zapobieganie nadużyciom w aplikacjach produkcyjnych |
Użyj
Firebase App Check, aby chronić interfejsy API, które mają dostęp do modeli Gemini, przed nadużyciami ze strony nieautoryzowanych klientów.
Firebase AI Logic ma też limity żądań na użytkownika domyślnie, które można w pełni skonfigurować. |
| Solidna infrastruktura | Korzystaj z skalowalnej infrastruktury, która jest przeznaczona do użytku w aplikacjach mobilnych i internetowych, np. zarządzaj plikami za pomocą Cloud Storage for Firebase, zarządzaj danymi strukturalnymi za pomocą usług bazy danych Firebase (takich jak Cloud Firestore) i dynamicznie ustawiaj konfiguracje w czasie działania za pomocą Firebase Remote Config. |
Jak to działa?
Firebase AI Logic udostępnia pakiety SDK klienta, usługę proxy i inne funkcje które umożliwiają dostęp do modeli generatywnej AI Google w celu tworzenia funkcji opartych na AI w aplikacjach mobilnych i internetowych.
Obsługa modeli Google i dostawców "Gemini API"
Obsługujemy wszystkie najnowsze modele Gemini, aby uzyskać do nich dostęp, wybierz preferowanego dostawcę "Gemini API". Obsługujemy zarówno Gemini Developer API, jak i Vertex AI Gemini API. Dowiedz się więcej o różnicach między korzystaniem z tych 2 dostawców interfejsów API.
Jeśli zdecydujesz się używać Gemini Developer API, możesz skorzystać z „bezpłatnego pakietu”, aby szybko rozpocząć pracę.
Pakiety SDK klienta na urządzenia mobilne i do internetu
Żądania do modeli wysyłasz bezpośrednio z aplikacji mobilnej lub internetowej za pomocą naszych Firebase AI Logic pakietów SDK klienta, które są dostępne w języku Swift na platformy Apple, w językach Kotlin i Java na Androida, w języku JavaScript na potrzeby internetu, w języku Dart na potrzeby Fluttera oraz w Unity.
Jeśli w projekcie Firebase masz skonfigurowanych obu dostawców Gemini API, możesz przełączać się między nimi, włączając drugi interfejs API i zmieniając kilka wierszy kodu inicjującego.
Ponadto kilka naszych pakietów SDK klienta zapewnia dostęp do wnioskowania hybrydowego i na urządzeniu. Ta konfiguracja umożliwia aplikacji korzystanie z modelu na urządzeniu, gdy jest on dostępny, ale w razie potrzeby płynne przełączanie się na model hostowany w chmurze (i odwrotnie).
Usługa proxy
Nasza usługa pośrednicząca działa jako brama między klientem a wybranym Gemini API dostawcą (i modelami Google). Udostępnia usługi i integracje, które są ważne w przypadku aplikacji mobilnych i internetowych. Możesz na przykład skonfigurować Firebase App Check, aby chronić wybranego dostawcę interfejsu API i zasoby backendu przed nadużyciami ze strony nieautoryzowanych klientów.
Jest to szczególnie ważne, jeśli zdecydujesz się używać Gemini Developer API, ponieważ nasza usługa proxy i integracja z App Check zapewniają, że klucz Gemini API pozostanie na serwerze i będzie osadzony w kodzie aplikacji.
Ścieżka implementacji
| Skonfiguruj projekt w Firebase i połącz aplikację z Firebase | Aby skonfigurować projekt w Firebase (w tym włączyć wymagane interfejsy API dla wybranego Gemini API dostawcy), zarejestrować aplikację w projekcie w Firebase, a następnie dodać konfigurację Firebase do aplikacji, użyj przewodnika na stronie Firebase AI Logic w konsoli Firebase. | |
| Zainstaluj pakiet SDK i zainicjuj go | Zainstaluj pakiet SDK Firebase AI Logic odpowiedni dla platformy aplikacji, a następnie zainicjuj usługę i utwórz instancję modelu w aplikacji. | |
| Wysyłaj żądania promptów do modeli Gemini | Użyj pakietów SDK, aby wysyłać do Gemini
modelu prompty zawierające tylko tekst lub prompty multimodalne, aby generować
tekst i kod,
dane wyjściowe strukturalne (np. JSON)
i
obrazy.
Twórz bogatsze interakcje dzięki czatowi wieloetapowemu, dwukierunkowemu przesyłaniu strumieniowemu (w tym dźwięku), i wywoływaniu funkcji. |
|
| Przygotuj się do udostępnienia wersji produkcyjnej | Zaimplementuj ważne integracje dla aplikacji mobilnych i internetowych, takie jak ochrona interfejsu API przed nadużyciami za pomocą Firebase App Check i zdalne aktualizowanie parametrów w kodzie (przede wszystkim nazwy modelu) za pomocą Firebase Remote Config. |
Dalsze kroki
Pierwsze kroki z dostępem do modelu z aplikacji mobilnej lub internetowej
Otwórz przewodnik dla początkujących