NNAPI माइग्रेशन गाइड

न्यूरल नेटवर्क एपीआई (NNAPI) का इस्तेमाल नहीं किया जा सकता. इसे Android 8.1 में लॉन्च किया गया था, ताकि डिवाइस पर मशीन लर्निंग के लिए, हार्डवेयर की मदद से तेज़ी से अनुमान लगाने की सुविधा का एक यूनिफ़ाइड इंटरफ़ेस उपलब्ध कराया जा सके. इसे Android 15 में बंद कर दिया गया है.

NNAPI के रिलीज़ होने के बाद, डिवाइस पर मशीन लर्निंग (ODML) का फ़ील्ड तेज़ी से आगे बढ़ा. ट्रांसफ़ॉर्मर और डिफ़्यूज़न मॉडल जैसे बेहतरीन मॉडल के साथ-साथ, इस क्षेत्र में लगातार नए-नए आविष्कार होने का मतलब है कि डेवलपर को ऐसे टूल और इन्फ़्रास्ट्रक्चर की ज़रूरत है जो बार-बार अपडेट होते रहें.

इन ज़रूरतों को पूरा करने के लिए, Google ने Play services में TensorFlow Lite को डेवलप किया है. यह डिवाइस पर मौजूद कस्टम मशीन लर्निंग मॉडल के लिए, अपडेट किया जा सकने वाला TensorFlow रनटाइम उपलब्ध कराता है. साथ ही, AICore भी उपलब्ध कराता है. यह Gemini Nano जैसे GenAI फ़ाउंडेशन मॉडल को सीधे Android डिवाइसों पर उपलब्ध कराता है. Android पर प्रोडक्शन के लिए एमएल के सुझाए गए पाथ के बारे में ज़्यादा जानकारी देने के लिए, NNAPI (न्यूरल नेटवर्क एपीआई) को बंद कर दिया गया है.

NNAPI से माइग्रेट करने के लिए, Google Play services में मौजूद TensorFlow Lite के लिए दिए गए निर्देश देखें. इसके अलावा, हार्डवेयर एक्सेलरेशन के लिए, TFLite GPU delegate का इस्तेमाल भी किया जा सकता है.