Gemini API verwendet Firebase AI Logic
Mit den Gemini-Modellen und Firebase AI Logic KI-basierte Mobil- und Web-Apps und Funktionen erstellen
Firebase AI Logic bietet Ihnen Zugriff auf die neuesten auf generativer KI basierenden Modelle von Google: die Gemini-Modelle.
Wenn Sie die Gemini API direkt über Ihre mobile App oder Web-App aufrufen müssen – anstatt serverseitig –, können Sie die Firebase AI Logic-Client-SDKs verwenden. Diese Client-SDKs wurden speziell für die Verwendung mit mobilen Apps und Webanwendungen entwickelt und bieten Sicherheitsoptionen gegen nicht autorisierte Clients sowie Integrationen mit anderen Firebase-Diensten.
Diese Client-SDKs sind in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar.
Mit diesen Client-SDKs können Sie Apps KI-Personalisierung hinzufügen, einen KI-Chat erstellen, KI-basierte Optimierungen und Automatisierungen entwickeln und vieles mehr.
Hauptmerkmale
| Multimodale Eingabe und Eingabe in natürlicher Sprache |
Die Gemini-Modelle sind multimodal. Prompts, die an Gemini API gesendet werden, können also Text, Bilder, PDFs, Videos und Audio enthalten. Einige Gemini-Modelle können auch multimodale Ausgaben generieren.
Die Gemini-Modelle können mit Eingaben in natürlicher Sprache aufgefordert werden. |
| Wachsende Anzahl von Funktionen |
Mit den SDKs können Sie die Gemini API direkt über Ihre mobile App oder Web-App aufrufen, um KI-Chatfunktionen zu entwickeln, Bilder zu generieren, Tools wie Funktionsaufrufe und Grounding mit |
| Sicherheit und Schutz vor Missbrauch für Produktions-Apps |
Verwenden Sie Firebase App Check, um die APIs, die auf die Gemini-Modelle zugreifen, vor Missbrauch durch nicht autorisierte Clients zu schützen.
Firebase AI Logic hat standardmäßig Ratenlimits pro Nutzer, die vollständig konfigurierbar sind. |
| Robuste Infrastruktur | Nutzen Sie die skalierbare Infrastruktur, die für die Verwendung mit mobilen Apps und Webanwendungen entwickelt wurde, z. B. Dateien mit Cloud Storage for Firebase verwalten, strukturierte Daten mit Firebase-Datenbankangeboten wie Cloud Firestore verwalten und Laufzeitkonfigurationen dynamisch mit Firebase Remote Config festlegen. |
Funktionsweise
Firebase AI Logic bietet Client-SDKs, einen Proxydienst und andere Funktionen, mit denen Sie auf die generativen KI-Modelle von Google zugreifen können, um KI-Funktionen in Ihren mobilen Apps und Web-Apps zu entwickeln.
Unterstützung für Google-Modelle und Gemini API-Anbieter
Wir unterstützen alle aktuellen Gemini-Modelle. Sie wählen Ihren bevorzugten Gemini API-Anbieter aus, um auf diese Modelle zuzugreifen. Wir unterstützen sowohl Gemini Developer API als auch Vertex AI Gemini API. Unterschiede zwischen den beiden API-Anbietern
Wenn Sie sich für die Verwendung von Gemini Developer API entscheiden, können Sie das kostenlose Kontingent nutzen, um schnell loszulegen.
Mobile und Webclient-SDKs
Sie senden Anfragen direkt von Ihrer mobilen App oder Web-App aus an die Modelle. Dazu verwenden Sie unsere Firebase AI Logic-Client-SDKs, die in Swift für Apple-Plattformen, Kotlin und Java für Android, JavaScript für das Web, Dart für Flutter und Unity verfügbar sind.
Wenn Sie beide Gemini API-Anbieter in Ihrem Firebase-Projekt eingerichtet haben, können Sie zwischen den API-Anbietern wechseln, indem Sie die andere API aktivieren und einige Zeilen Initialisierungscode ändern.
Außerdem bieten mehrere unserer Client-SDKs Zugriff auf Hybrid- und On-Device-Inferenz. Mit dieser Konfiguration kann Ihre App das On-Device-Modell verwenden, wenn es verfügbar ist, und bei Bedarf nahtlos auf das in der Cloud gehostete Modell zurückgreifen (und umgekehrt).
Proxy-Dienst
Unser Proxydienst fungiert als Gateway zwischen dem Client und dem von Ihnen ausgewählten Gemini API-Anbieter (und den Modellen von Google). Sie bietet Dienste und Integrationen, die für mobile Apps und Web-Apps wichtig sind. Sie können beispielsweise Firebase App Check einrichten, um Ihren ausgewählten API-Bereitsteller und Ihre Backend-Ressourcen vor Missbrauch durch nicht autorisierte Clients zu schützen.
Das ist besonders wichtig, wenn Sie sich für die Verwendung von Gemini Developer API entschieden haben, da unser Proxy-Service und diese App Check-Integration dafür sorgen, dass Ihr Gemini-API-Schlüssel auf dem Server verbleibt und nicht in den Code Ihrer Apps eingebettet ist.
Vorgehensweise bei der Implementierung
| Firebase-Projekt einrichten und App mit Firebase verbinden | Richten Sie Ihr Projekt mit dem geführten Workflow auf der Seite Firebase AI Logic der Firebase-Konsole ein. Dazu gehört, die erforderlichen APIs für den ausgewählten Gemini API-Anbieter zu aktivieren, Ihre App in Ihrem Firebase-Projekt zu registrieren und dann die Firebase-Konfiguration zu Ihrer App hinzuzufügen. | |
| SDK installieren und initialisieren | Installieren Sie das Firebase AI Logic SDK, das für die Plattform Ihrer App spezifisch ist, initialisieren Sie den Dienst und erstellen Sie eine Modellinstanz in Ihrer App. | |
| Prompt-Anfragen an die Gemini-Modelle senden | Mit den SDKs können Sie reine Text- oder multimodale Prompts an ein Gemini-Modell senden, um Text und Code, strukturierte Ausgaben (wie JSON) und Bilder zu generieren.
Mit Multi-Turn-Unterhaltungen, bidirektionalem Streaming (einschließlich Audio) und Funktionsaufrufen können Sie noch bessere Nutzererlebnisse schaffen. |
|
| Für die Produktion vorbereiten | Implementieren Sie wichtige Integrationen für mobile Apps und Web-Apps, z. B. den Schutz der API vor Missbrauch mit Firebase App Check und die Verwendung von Firebase Remote Config, um Parameter in Ihrem Code remote zu aktualisieren (vor allem den Modellnamen). |
Nächste Schritte
Erste Schritte beim Zugriff auf ein Modell über Ihre Mobil- oder Web-App