AIによる損傷検査–保険請求処理の自動化

ソースノード: 810338

概要

この記事では、保険会社が人工知能を使用して、さまざまな種類の損傷(携帯電話、車両、屋根など)を自動的に検出することにより、クレーム処理を自動化する方法について説明します。破損した、またはfast.aiを使用しない。

保険は最も古く、最も伝統的な産業のXNUMXつであり、最近まで変化に非常に抵抗力がありました。 Insurtechの企業は、人工知能のさまざまな方法を使用してタスクを自動化することにより、付加価値に焦点を当てています。 彼らは、自然言語処理、コンピュータービジョン、機械学習の分野で付加価値を位置付けています。 さまざまなソースからの遍在するデータを使用して、クライアントに対してより深いデータの洞察とパーソナライズされた計画を提供します。


Nanonets Car Disaster Inspection モデルの応答

持っています 外観検査 問題は念頭にありますか? 車両の損傷箇所とその程度を自動的に検出したいと思いませんか? ナノネット OCR API 多くの興味深いものがあります ユースケース。 詳細については、NanonetsAIの専門家にご相談ください。


請求処理の自動化

クレーム処理は、コンピュータービジョンを適用することですでに大きなメリットを得ている保険の自動化ユースケースのXNUMXつです。 保険会社の成功には、迅速かつ効率的な請求処理が最も重要です。

ディープラーニングを使用したコンピュータービジョンアルゴリズムの最新の進歩により、画像の分類、オブジェクトの検出、画像のセグメンテーションで興味深い結果が得られています。 アプリケーションはまだ出現しており、保険請求プロセスをインシュアテック業界の最大の課題のXNUMXつとして簡単かつ効率的にする方法としてこのテクノロジーを検討する企業が増えています。

2030年の保険金請求処理は依然として保険会社の主要機能ですが、手動保険金に関連する人員は、70年のレベルと比較して90〜2018%削減されます。 – マッキンゼーリサーチ

請求処理の手動検査はスケーラブルではなく、エラーが発生しやすくなります。 画像分析による損傷の自動評価は、はるかに高速で正確であり、ユースケースごとにますます多くのデータを収集するため、さらに優れたものになります。 これは、今日すでに構築されている将来のインシュアテックのユースケースの一部です。

自動車両損傷検査

検査は、多くの場合、自動車保険金請求プロセスの最初のステップです。 ディープラーニングを使用すると、傷、へこみ、錆、破損を自動的に検出できます。 また、車両のどの部分がどの程度の損傷を受けているかを検出することもできます。 車両は、360度の概観図を作成することにより、画像またはビデオフィードを使用して自動的に検査できます。 検査後、損傷のリストを含むレポートを生成し、修理費用を見積もることができます。


自動車両損傷検出のためのNanonetsソリューションの詳細をご覧ください こちら


屋根保険のドローン評価

屋根の検査は危険で時間のかかる作業です。 手作業で測定したり、手動で損傷を推定したりすることは、常にこの種のビジネスの一環です。 衛星の空中ドローン画像を使用して、歴史的な気象など他のデータ属性を増やし、屋根の特性と状態、将来の保険金請求のリスクを判断する新しいアプローチ。 コンピュータービジョンテクノロジーは、屋根の形状、素材、損傷、溜まり、錆を自動的に検出できます。 保険会社は、クライアントに適した補償範囲と価格を見つけることができます。


屋根の損傷評価のためのNanonetsソリューションの詳細を学ぶことができます こちら


モバイル画面の損傷検査

携帯電話保険は基本的に、機械的に損傷した携帯電話を保護する一種の保険です。 携帯電話保険を販売する企業は、保険金請求に対処し、ほとんどの場合、画面のひび割れや携帯電話の損傷が発生しています。 携帯電話からの請求処理の自動化により、莫大な費用が削減されます。 主なアイデアは、携帯電話の画像をXNUMXつのカテゴリに分類することです。 携帯電話が損傷していることを表すものと、損傷がないもの。 このアプローチをOCRと組み合わせて電話のシリアル番号を検出し、他の重要なデータを抽出することにより、クレームをさらに加速できます。


自動モバイル損傷検出のためのNanonetsソリューションの詳細をご覧ください こちら


光学式文字認識

文字またはスキャンされたドキュメントを含む画像を機械可読テキストに変換するコンピュータービジョンタスク。 OCRによる保険金請求処理は、最初に思い浮かぶ製品のXNUMXつです。 本質的に、それは体系的に処理され、デジタルで保存されなければならないフォームとドキュメントを自動的に記入するプロセスです。


OCRを使用したフォームのデジタル化のためのNanonetsソリューションの詳細を学ぶことができます こちら


ここでは、車両の損傷検査に使用できる最も一般的なツールとサービスの概要を示します。

Amazonの再認識 アプリケーションに画像およびビデオ分析を簡単に追加できます。 使用するために深い学習の専門知識は必要ありません。 Rekognitionは、Amazonのコンピュータービジョンサイエンティストが開発した高度にスケーラブルなディープラーニングテクノロジーに基づいています。 Amazonプラットフォームは、オブジェクト、イベント、またはアクティビティの検出と認識を提供します。 主に顔の検出、認識、識別で使用されます。 Rekognitionには損傷検査のモデルはありませんが、 AWS Marketplace では、お客様がソリューションを構築してビジネスを運営するために必要な、厳選されたサードパーティのソフトウェアとサービスをいくつか提供しています。 特定のユースケースのための画像分類モデルを作成する簡単なソリューションはありません。

Google クラウド ビジョン AI AutoML VisionとVision APIのXNUMXつの大きなカテゴリに分けることができます。 Vision APIは、Amazon RekognitionやAzure Machine Learning Studioと同様に、Googleの事前トレーニング済みモデルによって提供されるAPIです。 AutoMLビジョン カスタム画像でトレーニングすることでカスタムモデルを作成できるため、非常に興味深いものです。 モデルは、定義したラベルに従って画像を自動的に分類するようにトレーニングされています。 高品質の画像の準備されたデータセットを使用すると、これは堅牢な車両損傷検査モデルを開発する最も簡単な方法のようです。 車両の画像を2つのラベル(破損、破損なし)に準備し、ドキュメントに従ってください。

カスタムラベルとトレーニングモデルを作成するためのAutoMLプラットフォーム[ユーチューブ]

Azure 機械学習スタジオ コーディングが不要な、シンプルなブラウザベースのビジュアルなドラッグアンドドロップオーサリング環境です。 予測分析ソリューションを簡単に構築、展開、共有できるようにするフルマネージドクラウドサービス。 モデルを視覚的にスクリプティングする興味深いアプローチですが、それでも機械学習のドメイン知識が必要です。 専門知識を持つ開発者は、azure機械学習スタジオまたはサービスを使用してより効率的にすることができます。

[のCloud APIの比較中品]

車両損傷検査

保険会社は、ディープラーニングを使用して、業務効率を改善し、顧客体験を向上させながら、請求の決済時間を短縮し始めています。 多くの企業がクラウドモデルトレーニング、サービスとしてのソフトウェア、またはコンピュータービジョンAPIを提供しているため、コンピュータービジョンとディープラーニング予測モデルはより速く、プログラミングスキルがなくても開発されています。 グーグル、マイクロソフト、アマゾンのような技術系の巨人は、ミリ秒単位で画像を処理することによって隠された意味のある情報を安全に提供する複雑なアルゴリズムの開発と改善に多額の投資をしています。

多くの場合、企業はAIベースのビジョンテクノロジーを回避します。これは、その専門知識が豊富な開発者の複雑さと要件のためです。 プロダクションで使用されているモデルには、広範な計算トレーニングと、一般に多数のサンプル画像が必要です。 関連する品質のデータを収集することは困難であり、一部のユースケースでは、データセットを使用できないだけです。

クレーム処理のための車両損傷検査–ワークフロー[アルトロス]

自動車両損傷検査は、効率的な車両保険発行者にとって重要なコンポーネントです。 完璧な車両損傷検査フローはどのようになりますか?

  1. クライアントはクリアな画像をアップロードします 保険請求処理プラットフォームへの保険車両の
  2. プラットフォームは自動的に画像が 十分な品質 検査を実行するため
  3. クライアントに通知する 画像を再アップロードする必要がある場合。
  4. 車両の損傷検査用のモデルを実行して、損傷した領域の周囲にボックスを作成し、検出します 車両のどの部分が損傷していますか および どんな被害 錆、へこみ、傷などあるかもしれません。
  5. XNUMX番目のステップは 破損した車両の画像をさらに処理する 車のどの部分が損傷したか、損傷の重大度を特定するなど、損傷のより詳細なレポートを作成します。
  6. 建物レポート モデルによる不確実性が高い場合に、クレームを解決するか、手動レビューアがさらにレビューするレポートを作成する

車両損傷検査モデルを構築する手順

ここで、自動損傷検査の課題のいくつかを確認し、後で、収集したデータをベースラインモデルとして使用できる車両損傷検査の単純なモデルを確認します。

車両損傷データセット

深層学習の研究を始めるときの主なことは、画像が豊富な高品質のデータセットを用意することです。 深層学習モデルは、より大きく、よりバランスのとれたデータセットでより効果的に機能し、データ拡張プロセスを追加することでさらに改善できます。

自動車両損傷検査のデータセットは公開されていません。 自動車保険に携わる保険会社は、自動車画像のデータ収集を収集および整理する戦略をすでに持っているはずです。 データを収集して保存するこのプロセスは、将来自動化される可能性のあるすべてのユースケースで使用する必要があります。 いくつかの例は、モバイル損傷検査や家の損傷のようにすでに言及されています。

以下の方法を使用して収集された車両画像のフィルタリング

Webスクレイピングは、いくつかの基本モデルとアイデアを作成するためのスターターデータセットを生成するXNUMXつの方法です。 のおかげで ファストAI, PyImageSearch 分類の問題については、適切な数の画像を簡単に取得できます。 これらのリンクをチェックして、それがどのように可能かを確認してください PymageSearch記事, 中程度のブログ, コース動画 ステップバイステップの説明のためのfastAIから。 私に役立つヒントをいくつか追加します。

  • URLを収集する方法をブロックするため、Adblockerがある場合はオフにします。
  • 同じデータセットの検索に別の用語を使用してみてください
  • すべてのURLをExcel CSVファイルに保存し、重複を削除する
  • フィルターをダウンロードして非画像を削除した後

前処理アプローチ

前処理は、コンピュータビジョンモデルでより良い結果を達成するためにモデルの画像を準備する方法です。 これは、特徴抽出方法と入力画像タイプに大きく依存します。 一般的な方法のいくつかは次のとおりです。

  • 画像のノイズ除去 –画像からノイズを除去するためにガウスまたはその他のフィルターを適用する
  • 画像のしきい値処理 –すべてのピクセルにしきい値を適用する方法。 ピクセル値がしきい値よりも小さい場合は0に設定され、それ以外の場合は最大値に設定されます。
  • キャニーエッジ検出器 –最も人気のあるエッジ検出器。通常、カラー画像をグレースケール画像に変換するプロセスにバンドルされています

画像の前処理に最も使用されるライブラリはOpenCVです。 OpenCV(オープンソースコンピュータービジョンライブラリ)は、オープンソースのコンピュータービジョンおよび機械学習ソフトウェアライブラリです。 OpenCVは、コンピュータービジョンアプリケーションに共通のインフラストラクチャを提供し、商用製品でのマシン認識の使用を加速するために構築されました。 C ++、Python、Java、MATLABインターフェイスを備え、Windows、Linux、Android、Mac OSをサポートしています。 OpenCVは、主にリアルタイムビジョンアプリケーションに依存しており、可能な場合はMMXおよびSSE命令を利用します。

前処理の問題は、どの前処理技術が一般的に違いを生むかを評価することが難しいことです。 使用するデータセットに大きな進歩をもたらすことがある場合がありますが、それは画像のサブセットに対してのみ有益です。 採用された前処理方法の精度向上を評価するプロセスは遅く、誤った結論に終わる可能性があります。

損傷していない車のキャニーエッジ検出
破損した車のキャニーエッジ検出

公開されているモデルの欠如

マシンビジョンの分野では、製造上の欠陥の検出に関する多くの研究が行われています。 製造業向けに開発された技術には特別な機器とアプローチが必要ですが、公に開発されたモデルがないため、他の研究者のアイデアを基に構築することが難しくなっています。 パフォーマンスの違いを比較したり、有益な議論をしたりすることはできません。


コードと結果

fast.aiフレームワークを使用して、破損した車両または破損していない車両の単純な分類子を実装することができました。 あなたはこれでノートを見つけることができます githubリポジトリ。 このコードは、分類タスクにresnet34アーキテクチャを使用しており、損傷した車の80枚の画像と損傷していない車の60枚の画像でトレーニングすると79%の精度を実現します。

私たちは使用しています fast.aiライブラリ それは、プロトタイプをすばやく作成し、さまざまなモデルを試すための優れたAPIを提供するためです。 Fastaiには、ビジョンタスクの入力画像に関連するすべてを処理するための素晴らしいクラスがあります。 いわゆる 画像データバンチ データがネットワークに提示されるさまざまな方法のそれぞれに、さまざまな機能があります。 画像は、画像ラベルに対応する名前のフォルダーに配置されるため、 ImageDataBunch.fromfolder() 画像データを含むオブジェクトを作成する関数。

 # Create path to your image data path = Path('data/vehicle') # Define number of classes, they are called like a folder so it automatically maps from where to read classes = ['vehicle_damaged', 'vehicle_not_damaged'] # Setting up seed for repetability np.random.seed(42) # Create data loader, split images into 80% for training 20% for test and rescale images to 224x224 data = ImageDataBunch.from_folder(path, train='.', valid_pct=0.2, ds_tfms=get_transforms(), size=224, num_workers=4).normalize(imagenet_stats) # Verify dataset print(data.classes, data.c, len(data.train_ds), len(data.valid_ds)) # Model training learn = cnn_learner(data, models.resnet34, metrics=error_rate) # Train for 4 epochs learn.fit_one_cycle(4)

画像分類のモデルは、4エポックをトレーニングする必要があります。つまり、モデルのパラメーターを改善しながら、車両のすべての画像を4回通過します。 エラー率が低下しているため、出力からこれを確認できます。

 # Save weights, so we don't need to retrain (this matters when training is time consuming) learn.save('stage-1') # Must be done before calling lr_find, because we need to unfreeze all layers of the pre-trained model learn.unfreeze() # Plot function for finding the best learning rate learn.lr_find() # Visualize graph where loss is depending on picked learning rate # The best tool to pick a good learning rate for our models # Here we are taking the value of learning rate with the biggest fall in loss # in this example it would be [1e-04, 1e-03] learn.recorder.plot()

ここではトレーニング済みモデルを保存しているため、最初のプロセスを繰り返す必要はありません。 アイデアは、メソッドlr_find()を使用することです。 損失を最も減らす学習率を選択したいと思います。 グラフは、[1e-04、1e-03]の間の学習率を選択すると、損失が最も減少することを示しています。 ここで、最も損失の少ない学習率を選びたくない。 ここで読む このテクニックの詳細については。

 # Training model 8 epochs more with learning rates ranging from 1e-04 to 1e-03 learn.fit_one_cycle(8, max_lr=slice(1e-4, 1e-3)) learn.save('stage-2') # Show results learn.show_results()

最適な学習率の範囲を見つけたら、見つけたこの新しい学習率の範囲を使用して、しばらくモデルをトレーニングします。 ここでの考え方は、Imagenetで事前トレーニングされているため、モデルの下位層を低い学習率でトレーニングすることです。 上位層は、データセットの分類モデルを微調整するために、より高い学習率でトレーニングする必要があります。 精度が異なる可能性がありますが、精度は約80%です。

約140枚の画像に対する単純な画像分類トレーニングからのモデル予測

もちろん、これを行うにははるかに優れた、よりシンプルで直感的な方法があります。


ナノネットによる車両損傷検査

画像分類を使用した損傷検出について説明してきましたが、損傷検査の問題には、分類モデルだけではありません。 適切なモデルとデータを使用すると、 検査コストを90%削減.

画像分類、オブジェクト検出、画像セグメンテーションを使用すると、どのような種類の損傷(傷、へこみ、錆、破損など)が検出され、どの位置(境界ボックス情報)でどの程度の損傷が発生しているかを正確に知ることができます。

さらに多くのデータがあれば、車のどの部分(フロントガラス、左ドア、右ヘッドライト?)が損傷しているかを自動的に識別するモデルを作成することもできます。

Nanonets Object Detection による車両損傷検査
車の損傷セグメンテーション モデルで小さなへこみが捕捉されていることに注目してください。

あなたは私たちの最新の投稿に興味があるかもしれません:

Nanonets for Automationの使用を開始する

今すぐモデルを試すか、デモをリクエストしてください!

今すぐやってみて下さい

出典:https://nanonets.com/blog/damage-inspection-machine-learning/

タイムスタンプ:

より多くの AIと機械学習のブログ