מעקב אחרי עלויות, שימוש ומדדים אחרים

מעקב אחרי העלויות, השימוש ומדדים אחרים של תכונות ה-AI הוא חלק חשוב בהפעלת אפליקציה בייצור. אתם צריכים לדעת מהם דפוסי השימוש הרגילים באפליקציה שלכם ולוודא שאתם לא חורגים מספי השימוש שחשובים לכם.

בדף הזה מפורטות כמה אפשרויות מומלצות למעקב אחרי העלויות, השימוש ומדדים אחרים במסוף Firebase ובמסוף Google Cloud.

מעקב אחרי העלויות

בלוח הבקרה Usage and Billing במסוף Firebase אפשר לראות את העלויות של הפרויקט על שימוש ב-Vertex AI Gemini API וב-Gemini Developer API (אם אתם משתמשים בתוכנית Blaze בתשלום לפי שימוש).

העלויות שמוצגות בלוח הבקרה לא בהכרח ספציפיות לשיחות באמצעות ערכות ה-SDK של לקוח Firebase AI Logic. העלויות שמוצגות משויכות לכל הקריאות ל-Gemini APIs, בין אם נעשה שימוש ב-SDK של לקוח Firebase AI Logic, ב-SDK של שרת GenAI של Google, ב-Genkit, ב-Firebase Extensions ל-Gemini API, בקריאות REST, באחד מ-AI Studios או בלקוחות API אחרים.

מידע נוסף על תמחור של מוצרים שמשויכים לשימוש שלכם ב-Firebase AI Logic

הגדרת התראות

כדי להימנע מחשבונות מפתיעים, חשוב להגדיר התראות לגבי התקציב כשמשתמשים בתוכנית Blaze בתשלום לפי שימוש.

חשוב לציין שהתראות על תקציב לא מגבילות את התקציב. התראה תשלח לכם הודעות כשאתם מתקרבים לסף שהגדרתם או עוברים אותו, כדי שתוכלו לפעול באפליקציה או בפרויקט.

מעקב אחר השימוש בתכונות ה-AI במסוף Firebase

אתם יכולים להפעיל את התכונה 'מעקב אחרי שימוש בתכונות AI' בדף Firebase AI Logic במסוף Firebase כדי לעקוב אחרי מדדים שונים ברמת האפליקציה ונתוני שימוש, ולקבל תמונה מקיפה של הבקשות מ-SDKs של לקוחות Firebase AI Logic. לוחות הבקרה האלה מציגים נתונים מפורטים יותר מספירת האסימונים הבסיסית שמתקבלת מקריאה ל-Count Tokens API.

היכולות העיקריות של מעקב אחרי AI במסוף Firebase כוללות:

  • צפייה במדדים כמותיים כמו נפח הבקשות, זמן האחזור, השגיאות ושימוש באסימונים לכל מצב של כל אחת מהאפליקציות.

  • בדיקת עקבות כדי לראות את המאפיינים, הקלט והפלט של הבקשות שלכם, מה שיכול לעזור בניפוי באגים ובשיפור האיכות.

  • פילוח הנתונים לפי מאפיינים כמו סטטוס הבקשה, זמן האחזור המינימלי, שם המודל ועוד.

כל התכונות האלה מבוססות על Google Cloud Observability Suite (מידע מפורט על המוצר מופיע בהמשך).

הפעלת מעקב מבוסס-AI

אלה הדרכים להפעלת מעקב אחרי שימוש בתכונות AI במסוף Firebase:

  • כשמבצעים את תהליך ההגדרה הראשונית המודרכת מהדף AI Services (שירותי AI) > Firebase AI Logic

  • בכל שלב בכרטיסייה הגדרות > לוגיקת AI > שירותי AI

הדרישות להפעלה ולשימוש במעקב מבוסס-AI:

  • צריך להיות לכם תפקיד 'בעלים' או 'עריכה' בפרויקט, או תפקיד אדמין ב-Firebase Vertex AI.

  • באפליקציה צריך להשתמש לפחות בגרסאות הבאות של ספריות Firebase:‏
    iOS+‎: גרסה 11.13.0 ואילך | ‫Android: גרסה 16.0.0 ואילך (BoM: גרסה 33.14.0 ואילך) | ‫Web: גרסה 11.8.0 ואילך | ‫Flutter: גרסה 2.0.0 ואילך (BoM: גרסה 3.11.0 ואילך) | ‫Unity: גרסה 12.9.0 ואילך

  • באפליקציה שלכם צריך להפעיל את איסוף הנתונים בהסכמה (האפשרות הזו מופעלת כברירת מחדל).

אחרי שהאפליקציה עומדת בדרישות האלה ומפעילים את התכונה 'מעקב אחרי AI' במסוף, לא צריך לעשות שום דבר נוסף באפליקציה או במסוף כדי להתחיל לראות את הנתונים מתעדכנים בלוחות הבקרה בכרטיסייה מעקב אחרי AI בשירותי AI > לוגיקת AI > מעקב אחרי AI. יכול להיות שיהיה עיכוב קל (לפעמים עד 5 דקות) עד שהטלמטריה מבקשה תהיה זמינה במסוף Firebase.

שימוש מתקדם

בקטע הזה מתואר ההגדרה של קצב הדגימה, וגם אפשרויות שונות לצפייה בנתונים ולעבודה איתם.

תדירות הדגימה

אם אתם שולחים מספר גדול של בקשות, מומלץ להשתמש בהגדרה של קצב הדגימה. שיעור הדגימה מציין את שיעור הבקשות שעבורן נאספים בפועל פרטי מעקב.

בכרטיסייה הגדרות של AI Services > AI Logic במסוף Firebase, אפשר להגדיר את קצב הדגימה של הפרויקט לערך שבין 1 ל-100%. ערך של 100% אומר שהמעקב אחרי שימוש בתכונות AI יאסוף נתוני מעקב מכל תעבורת הנתונים. ערך ברירת המחדל הוא 100%. איסוף של פחות עקבות יפחית את העלויות, אבל גם יקטין את מספר העקבות שאפשר לעקוב אחריהם. הערה: ללא קשר לתדירות הדגימה, התרשימים שמוצגים בלוח הבקרה של המעקב תמיד ישקפו את נפח התעבורה האמיתי.

אפשרויות נוספות מחוץ למסוף Firebase

בנוסף למעקב אחרי שימוש בתכונות AI שזמין במסוף Firebase, כדאי לשקול את האפשרויות הבאות:

  • כדאי לעיין ב-Vertex AI Model Garden.
    לוחות הבקרה האלה מספקים תובנות נוספות לגבי מגמות של זמן האחזור ותפוקה של המודלים המנוהלים, בנוסף לתובנות שמתקבלות ממעקב אחרי שימוש בתכונות AI במסוף Firebase.

  • אפשר לעיין בנתונים ולהשתמש בהם באמצעות Google Cloud Observability Suite
    . נתוני הטלמטריה למעקב אחרי שימוש בתכונות AI מאוחסנים ב-Google Cloud Observability Suite שמשויך לפרויקט שלכם, כך שתוכלו לעיין בנתונים בלוחות הבקרה שלו, כולל Trace Explorer ו-Logs Explorer, שמקושרים לזמן שבו אתם בודקים את העקבות האישיים שלכם במסוף Firebase. אפשר גם להשתמש בנתונים כדי ליצור מרכזי בקרה בהתאמה אישית, להגדיר התראות ועוד.

מידע מפורט על מוצרים שמשמשים למעקב אחרי שימוש בתכונות AI

הנתונים הטלמטריים שלכם ממעקב אחרי שימוש בתכונות AI נשמרים במוצרים שונים שזמינים ב-Google Cloud Observability Suite, כולל Cloud Monitoring,‏ Cloud Trace ו-Cloud Logging.

  • Cloud Monitoring: אחסון מדדים, כולל מספר הבקשות, שיעור ההצלחה והשהיית הבקשה.

  • Cloud Trace: מאחסן עקבות של כל בקשה, כדי שתוכלו לראות את הפרטים בנפרד ולא במצטבר. בדרך כלל, מעקב משויך ליומנים כדי שתוכלו לבדוק את התוכן ואת התזמון של כל אינטראקציה.

  • Cloud Logging: תיעוד של מטא-נתונים של קלט, פלט והגדרות כדי לספק פרטים עשירים על כל חלק בבקשת ה-AI.

מכיוון שנתוני הטלמטריה שלכם מאוחסנים במוצרים האלה, אתם יכולים לציין את הגדרות השמירה והגישה ישירות בכל מוצר (מידע נוסף זמין במסמכי התיעוד של Cloud Monitoring, Cloud Trace ו-Cloud Logging).

שימו לב: מעקב אחרי שימוש בתכונות AI שומר את ההנחיות הממשיות ואת הפלט שנוצר מכל בקשה שנדגמה ב-Cloud Logging, כדי שהנתונים האלה יהיו זמינים במסוף Firebase. אפשר גם להשבית את האפשרות לשמירת הנחיות ותשובות.

תמחור

  • פרויקטים בתוכנית התמחור Spark ללא עלות (זמינה רק כשמשתמשים ב-Gemini Developer API): השימוש בשירותים הבסיסיים לצורך מעקב אחרי AI הוא ללא עלות.

  • פרויקטים בתוכנית Blaze בתשלום לפי שימוש: תחויבו על השימוש במוצרי Google Cloud Observability Suite הבסיס שבהם נעשה שימוש במעקב אחרי שימוש בתכונות AI (ללא קשר לספק Gemini API שבחרתם). עם זאת, לכל מוצר Google Cloud Observability Suite יש רמות שימוש נדיבות ללא עלות. מידע נוסף זמין בGoogle Cloud Observability Suiteמאמרי העזרה בנושא תמחור.

(אופציונלי) השבתת השמירה של ההנחיות והתשובות

כברירת מחדל, מעקב אחרי שימוש בתכונות AI מתעד את ההנחיות האמיתיות שנשלחות למודל ואת התשובות שהמודל יוצר, כולל מידע רגיש (כמו פרטים אישיים מזהים (PII)) בהנחיות ובתשובות האלה. כל הנתונים האלה מאוחסנים ב-Cloud Logging, כך שאפשר לגשת אליהם במסוף Firebase.

כדי להשבית את האחסון של ההנחיות והתשובות, מוסיפים את מסנן ההחרגות הבא ליעד Cloud Logging (בדרך כלל היעד _Default): resource.type="firebasevertexai.googleapis.com/Model".

הצגת מדדי API ברמת הפרויקט במסוף Google Cloud

במסוף Google Cloud אפשר לראות מדדים ברמת הפרויקט, כמו שימוש, לכל API.

שימו לב שדפי המסוף Google Cloud שמתוארים בקטע הזה לא כוללים מידע כמו תוכן הבקשה והתגובה ומספר האסימונים. כדי לעקוב אחרי סוג המידע הזה, כדאי להשתמש במעקב אחרי שימוש בתכונות AI במסוף Firebase (ראו את הקטע הקודם).

  1. במסוף Google Cloud, עוברים לדף Metrics של ה-API שרוצים לראות:

    • Vertex AI API: צפייה בשימוש שמשויך לכל בקשה אל Vertex AI Gemini API.

      • כולל בקשות באמצעות SDKs של לקוחות,‏ Firebase AI LogicSDKs של שרתים של Google AI גנרטיבי,‏ Genkit,‏ Firebase ExtensionsGemini API, API בארכיטקטורת REST,‏ Vertex AI Studio וכו'.
    • Gemini Developer API: צפייה בנתוני השימוש שמשויכים לכל בקשה אל Gemini Developer API.

      • כולל בקשות באמצעות Firebase AI Logicclient SDKs,‏ Genkit, ‏ Google GenAI server SDKs, ‏ Firebase Extensions, ‏ Gemini API, ‏ API בארכיטקטורת REST, ‏ Google AI Studio וכו'.
      • השם המוצג של ה-API הזה במסוף Google Cloud הוא Generative Language API (ה-API לשפה גנרטיבית).

    אם מגיעים ל'דף סקירה כללית' של ה-API, לוחצים על ניהול ואז על הכרטיסייה מדדים.

  2. משתמשים בתפריטים הנפתחים כדי לראות את המדדים שמעניינים אתכם, כמו תעבורת נתונים לפי קוד תגובה, שגיאות לפי method של API, זמן טעינה כולל וזמן טעינה לפי method של API.