ML Kit สำหรับ Firebase
ใช้แมชชีนเลิร์นนิงในแอปเพื่อแก้ปัญหาในโลกแห่งความเป็นจริง
ML Kit เป็น SDK สำหรับอุปกรณ์เคลื่อนที่ที่นำความเชี่ยวชาญด้านแมชชีนเลิร์นนิงของ Google มาสู่แอป Android และ iOS ในแพ็กเกจที่ทรงพลังแต่ใช้งานง่าย ไม่ว่าคุณจะเพิ่งเริ่มต้นหรือมีประสบการณ์ด้านแมชชีนเลิร์นนิง คุณก็สามารถใช้ฟังก์ชันการทำงานที่ต้องการได้ด้วยโค้ดเพียงไม่กี่บรรทัด คุณไม่จำเป็นต้องมีความรู้เชิงลึกเกี่ยวกับ โครงข่ายประสาทเทียมหรือการเพิ่มประสิทธิภาพโมเดลเพื่อเริ่มต้นใช้งาน ในทางกลับกัน หากคุณเป็นนักพัฒนา ML ที่มีประสบการณ์ ML Kit มี API ที่สะดวกซึ่งช่วยให้คุณใช้โมเดล TensorFlow Lite ที่กำหนดเองในแอปบนอุปกรณ์เคลื่อนที่ได้
ความสามารถหลัก
| พร้อมใช้งานจริงสำหรับกรณีการใช้งานทั่วไป |
ML Kit มาพร้อมกับชุด API ที่พร้อมใช้งานสำหรับกรณีการใช้งานบนอุปกรณ์เคลื่อนที่ทั่วไป ได้แก่ การจดจำข้อความ การตรวจหาใบหน้า การระบุสถานที่สำคัญ การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ และการระบุภาษาของข้อความ เพียง ส่งข้อมูลไปยังไลบรารี ML Kit แล้วไลบรารีจะให้ข้อมูลที่คุณ ต้องการ |
| ในอุปกรณ์หรือในระบบคลาวด์ |
API ที่เลือกของ ML Kit จะทำงานบนอุปกรณ์หรือในระบบคลาวด์ API ในอุปกรณ์ของเราประมวลผลข้อมูลได้อย่างรวดเร็วและทำงานได้แม้ไม่มีการเชื่อมต่อเครือข่าย ในทางกลับกัน API บนระบบคลาวด์ของเรา ใช้ประโยชน์จากประสิทธิภาพของGoogle Cloudเทคโนโลยีแมชชีนเลิร์นนิง เพื่อให้คุณได้รับความแม่นยำที่สูงยิ่งขึ้น |
| ทำให้โมเดลที่กำหนดเองใช้งานได้ |
หาก API ของ ML Kit ไม่ครอบคลุม Use Case ของคุณ คุณสามารถนำโมเดล TensorFlow Lite ที่มีอยู่มาใช้ได้ทุกเมื่อ เพียงอัปโหลดโมเดลไปยัง Firebase เราจะจัดการโฮสต์และแสดงโมเดลในแอปของคุณให้เอง ML Kit จะทำหน้าที่เป็นเลเยอร์ API สำหรับโมเดลที่กำหนดเอง ซึ่งช่วยให้การเรียกใช้และใช้งานโมเดลง่ายขึ้น |
วิธีการทำงาน
ML Kit ช่วยให้คุณใช้เทคนิค ML ในแอปได้อย่างง่ายดายด้วยการนำเทคโนโลยี ML ของ Google เช่น Google Cloud Vision API, TensorFlow Lite และ Android Neural Networks API มารวมกันไว้ใน SDK เดียว ไม่ว่าคุณจะต้องการประสิทธิภาพของการประมวลผลบนระบบคลาวด์ ความสามารถแบบเรียลไทม์ของโมเดลบนอุปกรณ์ที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ หรือ ความยืดหยุ่นของโมเดล TensorFlow Lite ที่กำหนดเอง ML Kit ช่วยให้คุณทำได้ด้วย โค้ดเพียงไม่กี่บรรทัด
ฟีเจอร์ใดบ้างที่พร้อมใช้งานในอุปกรณ์หรือในระบบคลาวด์
เส้นทางการติดตั้งใช้งาน
| ผสานรวม SDK | รวม SDK อย่างรวดเร็วโดยใช้ Gradle หรือ Swift Package Manager | |
| เตรียมข้อมูลอินพุต | ตัวอย่างเช่น หากคุณใช้ฟีเจอร์การมองเห็น ให้ถ่ายภาพจากกล้องและสร้างข้อมูลเมตาที่จำเป็น เช่น การหมุนรูปภาพ หรือแจ้งให้ผู้ใช้เลือกรูปภาพจากแกลเลอรี | |
| ใช้โมเดล ML กับข้อมูล | การใช้โมเดล ML กับข้อมูลจะทำให้คุณได้รับข้อมูลเชิงลึก เช่น สภาวะทางอารมณ์ของใบหน้าที่ตรวจพบ หรือออบเจ็กต์และแนวคิดที่ ระบบจดจำได้ในรูปภาพ โดยขึ้นอยู่กับฟีเจอร์ที่คุณใช้ ใช้ข้อมูลเชิงลึกเหล่านี้เพื่อขับเคลื่อนฟีเจอร์ในแอป เช่น การตกแต่งรูปภาพ การสร้างข้อมูลเมตาอัตโนมัติ หรือสิ่งอื่นๆ ที่คุณนึกออก |
ขั้นตอนถัดไป
- สำรวจ API ที่พร้อมใช้งาน ได้แก่ การจดจำข้อความ การตรวจจับใบหน้า การสแกนบาร์โค้ด การติดป้ายกำกับรูปภาพ การตรวจจับและติดตามออบเจ็กต์ การจดจำสถานที่สำคัญ การตอบกลับอัจฉริยะ การแปล และ การระบุภาษา
- ฝึกโมเดลการติดป้ายกำกับรูปภาพของคุณเองด้วย AutoML Vision Edge
- ดูข้อมูลเกี่ยวกับการใช้โมเดลที่กำหนดเองที่เพิ่มประสิทธิภาพสำหรับอุปกรณ์เคลื่อนที่ในแอป