Gemini Nano

Gemini Nano ช่วยให้คุณมอบประสบการณ์ Generative AI ที่สมบูรณ์ได้โดยไม่ต้องเชื่อมต่อเครือข่ายหรือส่งข้อมูลไปยังระบบคลาวด์ AI ในอุปกรณ์เป็นโซลูชันที่ยอดเยี่ยมสำหรับกรณีการใช้งานที่ต้นทุนต่ำและการป้องกันความเป็นส่วนตัวเป็นข้อกังวลหลักของคุณ

สำหรับกรณีการใช้งานในอุปกรณ์ คุณสามารถใช้ประโยชน์จากโมเดลพื้นฐาน Gemini Nano ของ Google ได้ Gemini Nano ทำงานในบริการ AICore ของระบบ Android ซึ่งใช้ประโยชน์จากฮาร์ดแวร์ของอุปกรณ์ทำให้เวลาในการตอบสนองสำหรับการอนุมานต่ำ และโมเดลเป็นเวอร์ชันล่าสุดอยู่เสมอ

ML Kit GenAI API

API ของ GenAI ใน ML Kit ใช้ประโยชน์จากขุมพลังของ Gemini Nano เพื่อช่วยให้แอปของคุณทำงานต่างๆ ได้ API เหล่านี้มอบคุณภาพที่พร้อมใช้งานสำหรับกรณีการใช้งานยอดนิยมผ่านอินเทอร์เฟซระดับสูง API ของ GenAI ใน ML Kit สร้างขึ้นบน AICore ซึ่งเป็นบริการของระบบ Android ที่ช่วยให้โมเดลพื้นฐานของ GenAI ทำงานในอุปกรณ์ได้เพื่ออำนวยความสะดวกในการใช้งานฟีเจอร์ต่างๆ เช่น ฟังก์ชันการทำงานของแอปที่ได้รับการปรับปรุงและความเป็นส่วนตัวของผู้ใช้ที่ดียิ่งขึ้นด้วยการประมวลผลข้อมูลในเครื่อง ดูข้อมูลเพิ่มเติม

ฟีเจอร์หลัก

API ของ Gen AI ใน ML Kit รองรับฟีเจอร์ต่อไปนี้

สถาปัตยกรรมผ่าน AICore

ในฐานะโมดูลระดับระบบ คุณจะเข้าถึง AICore ผ่านชุด API เพื่อ เรียกใช้การอนุมานในอุปกรณ์ นอกจากนี้ AICore ยังมีฟีเจอร์ความปลอดภัยในตัวหลายอย่าง เพื่อให้มั่นใจว่ามีการประเมินอย่างละเอียดเทียบกับตัวกรองความปลอดภัยของเรา แผนภาพต่อไปนี้แสดงวิธีที่แอปเข้าถึง AICore เพื่อเรียกใช้ Gemini Nano ในอุปกรณ์

แผนภาพแสดงวิธีที่แอป Android ใช้ Google AI Edge SDK เพื่อ
    เข้าถึง AICore ซึ่งมีการจัดการ Gemini Nano, LoRA และฟีเจอร์ความปลอดภัย
    และทำงานบนตัวเร่งฮาร์ดแวร์
รูปที่ 1 AICore ทำหน้าที่เป็นอินเทอร์เฟซระหว่างแอปของคุณกับโมเดล Gemini Nano โดยจัดการการอัปเดตโมเดลและความปลอดภัยพร้อมทั้งใช้ประโยชน์จากฮาร์ดแวร์ในอุปกรณ์

จัดเก็บข้อมูลผู้ใช้อย่างเป็นส่วนตัวและปลอดภัย

Generative AI ในอุปกรณ์จะดำเนินการตามพรอมต์ในเครื่อง จึงไม่ต้องเรียกเซิร์ฟเวอร์ แม้ว่าวิธีนี้จะช่วยลดเวลาในการตอบสนองของเครือข่าย แต่ความเร็วในการอนุมานจะขึ้นอยู่กับฮาร์ดแวร์ของอุปกรณ์ แนวทางนี้ช่วยเพิ่มความเป็นส่วนตัวด้วยการเก็บข้อมูลที่ละเอียดอ่อนไว้ในอุปกรณ์ เปิดใช้ฟังก์ชันการทำงานแบบออฟไลน์ และลดต้นทุนการอนุมาน

AICore ปฏิบัติตามหลักการของ Private Compute Core โดยมีลักษณะสำคัญดังนี้

  • การเชื่อมแพ็กเกจแบบจำกัด: AICore จะแยกจากแพ็กเกจอื่นๆ ส่วนใหญ่ โดยมีข้อยกเว้นแบบจำกัดสำหรับแพ็กเกจระบบที่เฉพาะเจาะจง การแก้ไขรายการที่อนุญาตนี้จะเกิดขึ้นได้ก็ต่อเมื่อมีการอัปเดต OTA ของ Android แบบเต็มเท่านั้น
  • การเข้าถึงอินเทอร์เน็ตโดยอ้อม: AICore ไม่มีสิทธิ์เข้าถึงอินเทอร์เน็ตโดยตรง คำขอทางอินเทอร์เน็ตทั้งหมด รวมถึงการดาวน์โหลดโมเดล จะได้รับการกำหนดเส้นทางผ่าน APK ของPrivate Compute Services แบบโอเพนซอร์ส API ภายในบริการประมวลผลส่วนตัวต้องแสดงให้เห็นอย่างชัดเจนว่ามุ่งเน้นความเป็นส่วนตัว

นอกจากนี้ AICore ยังสร้างขึ้นเพื่อแยกแต่ละคำขอและไม่จัดเก็บ บันทึกข้อมูลอินพุตหรือเอาต์พุตที่ได้หลังจากการประมวลผล เพื่อปกป้องความเป็นส่วนตัวของผู้ใช้ อ่านข้อมูลเพิ่มเติมได้ในบล็อกโพสต์An Introduction to Privacy and Safety for Gemini Nano

แผนภาพสถาปัตยกรรมโดยละเอียดของ AICore ที่แสดงโฟลว์คำขอ
    พื้นผิว API, การประมวลผลอินพุตด้วยสัญญาณความปลอดภัย, การกำหนดค่าฟีเจอร์
    รันไทม์ที่มีน้ำหนักของโมเดลและ LoRA และการประมวลผลเอาต์พุตด้วยสัญญาณความปลอดภัย
 นอกจากนี้ยังแสดงการดาวน์โหลดโมเดลผ่าน Private Compute Services ด้วย
รูปที่ 2 สถาปัตยกรรม AICore จะจัดการความปลอดภัยของอินพุตและ เอาต์พุต การประมวลผลคำขอ และน้ำหนักของโมเดล เพื่อมอบสภาพแวดล้อมที่ปลอดภัย สำหรับ AI ในอุปกรณ์

ประโยชน์ของการเข้าถึงโมเดลพื้นฐานของ AI ด้วย AICore

AICore ช่วยให้ระบบปฏิบัติการ Android สามารถจัดหาและจัดการโมเดลพื้นฐานของ AI ได้ ซึ่งจะช่วยลดต้นทุนในการใช้โมเดลขนาดใหญ่เหล่านี้ในแอปได้อย่างมาก โดยมีสาเหตุหลักๆ ดังนี้

  • ติดตั้งใช้งานง่าย: AICore จะจัดการการเผยแพร่ Gemini Nano และ จัดการการอัปเดตในอนาคต คุณไม่ต้องกังวลเรื่องการดาวน์โหลดหรืออัปเดตโมเดลขนาดใหญ่ผ่านเครือข่าย หรือผลกระทบต่อพื้นที่ดิสก์และงบประมาณหน่วยความจำรันไทม์ของแอป
  • การอนุมานที่เร่งความเร็ว: AICore ใช้ประโยชน์จากฮาร์ดแวร์ในอุปกรณ์เพื่อเร่งความเร็ว การอนุมาน แอปของคุณจะได้รับประสิทธิภาพที่ดีที่สุดในอุปกรณ์แต่ละเครื่อง และคุณไม่ จำเป็นต้องกังวลเกี่ยวกับอินเทอร์เฟซฮาร์ดแวร์พื้นฐาน