"यदि कोई कर्मचारी अपना काम अच्छी तरह से करना चाहता है, तो उसे पहले अपने औजारों को तेज करना होगा।" - कन्फ्यूशियस, "द एनालेक्ट्स ऑफ कन्फ्यूशियस। लू लिंगगोंग"
मुखपृष्ठ > प्रोग्रामिंग > रेसनेट बनाम एफिशिएंटनेट बनाम वीजीजी बनाम एनएन

रेसनेट बनाम एफिशिएंटनेट बनाम वीजीजी बनाम एनएन

2024-08-31 को प्रकाशित
ब्राउज़ करें:854

एक छात्र के रूप में, मैंने हमारे विश्वविद्यालय की अकुशल खोया और पाया प्रणाली के कारण उत्पन्न निराशा को प्रत्यक्ष रूप से देखा है। मौजूदा प्रक्रिया, जो प्रत्येक पाए गए आइटम के लिए अलग-अलग ईमेल पर निर्भर करती है, अक्सर खोए हुए सामान और उनके मालिकों के बीच देरी और कनेक्शन छूटने का कारण बनती है।

अपने और अपने साथी छात्रों के लिए इस अनुभव को बेहतर बनाने की इच्छा से प्रेरित होकर, मैंने हमारी खोई और पाई प्रणाली में क्रांतिकारी बदलाव लाने के लिए गहन शिक्षा की क्षमता का पता लगाने के लिए एक परियोजना शुरू की है। इस ब्लॉग पोस्ट में, मैं खोई हुई वस्तुओं की पहचान और वर्गीकरण को स्वचालित करने के लिए पूर्व-प्रशिक्षित मॉडल - रेसनेट, एफिशिएंटनेट, वीजीजी, और नैसनेट - के मूल्यांकन की अपनी यात्रा साझा करूंगा।

एक तुलनात्मक विश्लेषण के माध्यम से, मेरा लक्ष्य हमारे सिस्टम में एकीकृत करने के लिए सबसे उपयुक्त मॉडल को इंगित करना है, जो अंततः परिसर में सभी के लिए एक तेज़, अधिक सटीक और उपयोगकर्ता के अनुकूल खोया और पाया अनुभव तैयार करेगा।

रेसनेट

इंसेप्शन-रेसनेट वी2 केरास में उपलब्ध एक शक्तिशाली कनवल्शनल न्यूरल नेटवर्क आर्किटेक्चर है, जो रेसनेट के अवशिष्ट कनेक्शन के साथ इंसेप्शन आर्किटेक्चर की ताकत को जोड़ता है। इस हाइब्रिड मॉडल का लक्ष्य कम्प्यूटेशनल दक्षता बनाए रखते हुए छवि वर्गीकरण कार्यों में उच्च सटीकता प्राप्त करना है।

प्रशिक्षण डेटासेट: इमेजनेट
छवि प्रारूप: 299 x 299

प्रीप्रोसेसिंग फ़ंक्शन

def readyForResNet(fileName):
    pic = load_img(fileName, target_size=(299, 299))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_resnet(expanded)

भविष्यवाणी

data1 = readyForResNet(test_file)
prediction = inception_model_resnet.predict(data1)
res1 = decode_predictions_resnet(prediction, top=2)

वीजीजी (विजुअल ज्योमेट्री ग्रुप)

वीजीजी (विज़ुअल ज्योमेट्री ग्रुप) गहरे दृढ़ तंत्रिका नेटवर्क आर्किटेक्चर का एक परिवार है जो छवि वर्गीकरण कार्यों में अपनी सादगी और प्रभावशीलता के लिए जाना जाता है। इन मॉडलों, विशेष रूप से वीजीजी16 और वीजीजी19, ने 2014 में इमेजनेट लार्ज स्केल विजुअल रिकॉग्निशन चैलेंज (आईएलएसवीआरसी) में अपने मजबूत प्रदर्शन के कारण लोकप्रियता हासिल की।

प्रशिक्षण डेटासेट: इमेजनेट
छवि प्रारूप: 224 x 224

प्रीप्रोसेसिंग फ़ंक्शन

def readyForVGG(fileName):
    pic = load_img(fileName, target_size=(224, 224))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_vgg19(expanded)

भविष्यवाणी

data2 = readyForVGG(test_file)
prediction = inception_model_vgg19.predict(data2)
res2 = decode_predictions_vgg19(prediction, top=2)

कुशल नेट

एफिशिएंटनेट कनवल्शनल न्यूरल नेटवर्क आर्किटेक्चर का एक परिवार है जो पिछले मॉडलों की तुलना में काफी छोटा और तेज़ होने के साथ-साथ छवि वर्गीकरण कार्यों पर अत्याधुनिक सटीकता प्राप्त करता है। यह दक्षता एक नवीन कंपाउंड स्केलिंग विधि के माध्यम से हासिल की जाती है जो नेटवर्क की गहराई, चौड़ाई और रिज़ॉल्यूशन को संतुलित करती है।

प्रशिक्षण डेटासेट: इमेजनेट
छवि प्रारूप: 480 x 480

प्रीप्रोसेसिंग फ़ंक्शन

def readyForEF(fileName):
    pic = load_img(fileName, target_size=(480, 480))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_EF(expanded)

भविष्यवाणी

data3 = readyForEF(test_file)
prediction = inception_model_EF.predict(data3)
res3 = decode_predictions_EF(prediction, top=2)

नैसनेट

NasNet (न्यूरल आर्किटेक्चर सर्च नेटवर्क) गहन शिक्षण में एक अभूतपूर्व दृष्टिकोण का प्रतिनिधित्व करता है जहां तंत्रिका नेटवर्क की वास्तुकला को एक स्वचालित खोज प्रक्रिया के माध्यम से खोजा जाता है। इस खोज प्रक्रिया का लक्ष्य किसी दिए गए कार्य पर उच्च प्रदर्शन प्राप्त करने के लिए परतों और कनेक्शनों का इष्टतम संयोजन ढूंढना है।

प्रशिक्षण डेटासेट: इमेजनेट
छवि प्रारूप: 224 x 224

प्रीप्रोसेसिंग फ़ंक्शन

def readyForNN(fileName):
    pic = load_img(fileName, target_size=(224, 224))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_NN(expanded)

भविष्यवाणी

data4 = readyForNN(test_file)
prediction = inception_model_NN.predict(data4)
res4 = decode_predictions_NN(prediction, top=2)

तसलीम

शुद्धता

ResNet Vs EfficientNet vs VGG Vs NN

तालिका उपरोक्त मॉडलों के दावा किए गए सटीकता स्कोर का सारांश प्रस्तुत करती है। एफिशिएंटनेट बी7 उच्चतम सटीकता के साथ आगे है, उसके बाद नैसनेट-लार्ज और इंसेप्शन-रेसनेट वी2 हैं। वीजीजी मॉडल कम सटीकता प्रदर्शित करते हैं। अपने एप्लिकेशन के लिए मैं एक ऐसा मॉडल चुनना चाहता हूं जिसमें प्रसंस्करण समय और सटीकता के बीच संतुलन हो।

समय

ResNet Vs EfficientNet vs VGG Vs NN

जैसा कि हम देख सकते हैं, EfficientNetB0 हमें सबसे तेज़ परिणाम प्रदान करता है, लेकिन सटीकता को ध्यान में रखते हुए InceptionResNetV2 एक बेहतर पैकेज है

सारांश

अपने स्मार्ट खोया और पाया सिस्टम के लिए, मैंने InceptionResNetV2 के साथ जाने का फैसला किया। जबकि एफिशिएंटनेट बी7 अपनी सर्वोच्च सटीकता के साथ आकर्षक लग रहा था, मैं इसकी कम्प्यूटेशनल मांगों के बारे में चिंतित था। एक विश्वविद्यालय सेटिंग में, जहां संसाधन सीमित हो सकते हैं और वास्तविक समय का प्रदर्शन अक्सर वांछनीय होता है, मुझे लगा कि सटीकता और दक्षता के बीच संतुलन बनाना महत्वपूर्ण है। InceptionResNetV2 एकदम फिट लग रहा था - यह अत्यधिक कम्प्यूटेशनल गहनता के बिना मजबूत प्रदर्शन प्रदान करता है।

साथ ही, यह तथ्य कि यह इमेजनेट पर पूर्व-प्रशिक्षित है, मुझे विश्वास दिलाता है कि यह लोगों द्वारा खोई जा सकने वाली विभिन्न प्रकार की वस्तुओं को संभाल सकता है। और हमें यह नहीं भूलना चाहिए कि केरस में काम करना कितना आसान है! इससे निश्चित रूप से मेरा निर्णय आसान हो गया।

कुल मिलाकर, मेरा मानना ​​है कि InceptionResNetV2 मेरे प्रोजेक्ट के लिए सटीकता, दक्षता और व्यावहारिकता का सही मिश्रण प्रदान करता है। मैं यह देखने के लिए उत्साहित हूं कि यह खोई हुई वस्तुओं को उनके मालिकों से मिलाने में कैसा प्रदर्शन करता है!

विज्ञप्ति वक्तव्य यह आलेख यहां पुन: प्रस्तुत किया गया है: https://dev.to/saaramsh_गुप्ता_1903/resnet-vs-efficientnet-vs-vgg-vs-nn-2hf5?1 यदि कोई उल्लंघन है, तो कृपया इसे हटाने के लिए [email protected] से संपर्क करें।
नवीनतम ट्यूटोरियल अधिक>

चीनी भाषा का अध्ययन करें

अस्वीकरण: उपलब्ध कराए गए सभी संसाधन आंशिक रूप से इंटरनेट से हैं। यदि आपके कॉपीराइट या अन्य अधिकारों और हितों का कोई उल्लंघन होता है, तो कृपया विस्तृत कारण बताएं और कॉपीराइट या अधिकारों और हितों का प्रमाण प्रदान करें और फिर इसे ईमेल पर भेजें: [email protected] हम इसे आपके लिए यथाशीघ्र संभालेंगे।

Copyright© 2022 湘ICP备2022001581号-3