「労働者が自分の仕事をうまくやりたいなら、まず自分の道具を研ぎ澄まさなければなりません。」 - 孔子、「論語。陸霊公」
表紙 > プログラミング > ResNet 対 EfficientNet 対 VGG 対 NN

ResNet 対 EfficientNet 対 VGG 対 NN

2024 年 8 月 31 日に公開
ブラウズ:842

私は学生として、大学の非効率な遺失物管理システムによって引き起こされるフラストレーションを直接目の当たりにしてきました。現在のプロセスは、拾得物ごとに個別の電子メールに依存しているため、多くの場合、紛失した持ち物とその所有者との間の接続が遅延したり、連絡が取れなかったりすることがあります。

私自身と他の生徒たちのためにこの体験を改善したいという欲求に駆られて、私は忘れ物システムに革命を起こすディープラーニングの可能性を探るプロジェクトに着手しました。 このブログ投稿では、紛失物の識別と分類を自動化するために、事前トレーニング済みモデル (ResNet、EfficientNet、VGG、および NasNet) を評価する私の過程を共有します。

比較分析を通じて、私たちのシステムに統合するのに最適なモデルを特定し、最終的にはキャンパス内のすべての人にとって、より速く、より正確で、ユーザーフレンドリーな忘れ物体験を作成することを目指しています。

レスネット

Inception-ResNet V2 は、Keras で利用可能な強力な畳み込みニューラル ネットワーク アーキテクチャであり、Inception アーキテクチャの強みと ResNet からの残りの接続を組み合わせています。このハイブリッド モデルは、計算効率を維持しながら、画像分類タスクで高い精度を達成することを目的としています。

トレーニング データセット: ImageNet
画像フォーマット: 299 x 299

前処理機能

def readyForResNet(fileName):
    pic = load_img(fileName, target_size=(299, 299))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_resnet(expanded)

予測する

data1 = readyForResNet(test_file)
prediction = inception_model_resnet.predict(data1)
res1 = decode_predictions_resnet(prediction, top=2)

VGG (ビジュアル ジオメトリ グループ)

VGG (Visual Geometry Group) は、画像分類タスクにおけるシンプルさと有効性で知られるディープ畳み込みニューラル ネットワーク アーキテクチャのファミリーです。これらのモデル、特に VGG16 と VGG19 は、2014 年の ImageNet Large Scale Visual Recognition Challenge (ILSVRC) での好成績により人気を博しました。

トレーニング データセット: ImageNet
画像フォーマット: 224 x 224

前処理機能

def readyForVGG(fileName):
    pic = load_img(fileName, target_size=(224, 224))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_vgg19(expanded)

予測する

data2 = readyForVGG(test_file)
prediction = inception_model_vgg19.predict(data2)
res2 = decode_predictions_vgg19(prediction, top=2)

EfficientNet

EfficientNet は、以前のモデルよりも大幅に小型かつ高速でありながら、画像分類タスクで最先端の精度を達成する畳み込みニューラル ネットワーク アーキテクチャのファミリーです。この効率は、ネットワークの深さ、幅、解像度のバランスをとる新しい複合スケーリング方法によって実現されます。

トレーニング データセット: ImageNet
画像フォーマット: 480 x 480

前処理機能

def readyForEF(fileName):
    pic = load_img(fileName, target_size=(480, 480))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_EF(expanded)

予測する

data3 = readyForEF(test_file)
prediction = inception_model_EF.predict(data3)
res3 = decode_predictions_EF(prediction, top=2)

ナスネット

NasNet (Neural Architecture Search Network) は、自動化された検索プロセスを通じてニューラル ネットワーク自体のアーキテクチャを発見するディープ ラーニングにおける画期的なアプローチを表しています。この検索プロセスは、特定のタスクで高いパフォーマンスを達成するために、レイヤーと接続の最適な組み合わせを見つけることを目的としています。

トレーニング データセット: ImageNet
画像フォーマット: 224 x 224

前処理機能

def readyForNN(fileName):
    pic = load_img(fileName, target_size=(224, 224))
    pic_array = img_to_array(pic)
    expanded = np.expand_dims(pic_array, axis=0)
    return preprocess_input_NN(expanded)

予測する

data4 = readyForNN(test_file)
prediction = inception_model_NN.predict(data4)
res4 = decode_predictions_NN(prediction, top=2)

対決

正確さ

ResNet Vs EfficientNet vs VGG Vs NN

表は、上記のモデルの主張される精度スコアをまとめたものです。 EfficientNet B7 が最高の精度でリードし、NasNet-Large と Inception-ResNet V2 が僅差で続きます。 VGG モデルは精度が低くなります。私のアプリケーションでは、処理時間と精度のバランスが取れたモデルを選択したいと考えています。

時間

ResNet Vs EfficientNet vs VGG Vs NN

ご覧のとおり、EfficientNetB0 が最も速い結果を提供しますが、精度を考慮すると InceptionResNetV2 の方が優れたパッケージです

まとめ

スマート遺失物システムには、InceptionResNetV2 を使用することにしました。 EfficientNet B7 は最高の精度で魅力的に見えましたが、私はその計算要求について懸念していました。リソースが限られており、リアルタイムのパフォーマンスが望まれることが多い大学の環境では、精度と効率のバランスを取ることが重要であると感じました。 InceptionResNetV2 は完璧に適合しているように思えました。計算量を過度に消費せずに強力なパフォーマンスを提供します。

さらに、ImageNet で事前トレーニングされているという事実により、人々が失う可能性のあるさまざまなオブジェクトを処理できるという自信が得られます。そして、Keras での作業がいかに簡単であるかを忘れないでください。そのおかげで私の決断は間違いなく容易になりました。

全体として、InceptionResNetV2 は私のプロジェクトに精度、効率、実用性の適切な組み合わせを提供すると信じています。紛失したアイテムを持ち主と再会させるのにどのように役立つかを見るのが楽しみです!

リリースステートメント この記事は次の場所に転載されています: https://dev.to/saaransh_gupta_1903/resnet-vs-efficientnet-vs-vgg-vs-nn-2hf5?1 侵害がある場合は、[email protected] に連絡して削除してください。
最新のチュートリアル もっと>

免責事項: 提供されるすべてのリソースの一部はインターネットからのものです。お客様の著作権またはその他の権利および利益の侵害がある場合は、詳細な理由を説明し、著作権または権利および利益の証拠を提出して、電子メール [email protected] に送信してください。 できるだけ早く対応させていただきます。

Copyright© 2022 湘ICP备2022001581号-3