Inspección de daños con IA: automatización del procesamiento de reclamos para seguros

Nodo de origen: 810338

Introducción

Este artículo lo guiará a través de cómo las compañías de seguros pueden usar la inteligencia artificial para automatizar el procesamiento de reclamos al detectar automáticamente varios tipos de daños: teléfonos móviles, vehículos, techos, etc. También aprenderemos cómo construir un clasificador binario simple que clasificará imágenes de vehículos. en dañados o sin usar fast.ai.

El seguro es una de las industrias más antiguas y tradicionales y, hasta hace poco, ha sido muy resistente al cambio. Las compañías de Insurtech se están enfocando en agregar valor a través de la automatización de tareas utilizando diferentes métodos de inteligencia artificial. Están posicionando su valor agregado en las áreas de procesamiento del lenguaje natural, visión por computadora y aprendizaje automático. Usar datos omnipresentes de diferentes fuentes para ofrecer información más profunda sobre los datos y planes personalizados para sus clientes.


Respuesta del modelo de inspección de daños de automóviles de Nanonets

Tener un inspección visual problema en mente? ¿Quiere detectar automáticamente dónde está dañado un vehículo y con qué gravedad? Nanorred API de OCR tiene muchos interesantes casos de uso. Habla con un experto en IA de Nanonets para obtener más información.


Automatización de procesamiento de reclamos

El procesamiento de reclamos es uno de los casos de uso de automatización en el seguro que ya está viendo el gran beneficio al aplicar la visión por computadora. El procesamiento de reclamos rápido y eficiente es primordial para el éxito de las compañías de seguros.

Los últimos avances en algoritmos de visión por computadora que utilizan el aprendizaje profundo están logrando resultados interesantes en la clasificación de imágenes, detección de objetos y segmentación de imágenes. Las aplicaciones aún están surgiendo, un número cada vez mayor de compañías están comenzando a considerar esta tecnología como una forma de hacer que los procesos de reclamos de seguros sean más fáciles y más eficientes como uno de los mayores desafíos de la industria de inserciones.

El procesamiento de reclamos en 2030 sigue siendo una función principal de las compañías de seguros, pero el número de empleados asociado con reclamos manuales se reduce en un 70-90% en comparación con los niveles de 2018. - Investigación McKinsey

La inspección manual para el procesamiento de reclamaciones no es escalable y propensa a errores. La evaluación automática de los daños a través del análisis de imágenes es mucho más rápida y precisa, y será aún mejor a medida que recopilen más y más datos para cada caso de uso. Estos son algunos de los casos de uso futuros de insurtech que ya se están construyendo hoy.

Inspección automática de daños del vehículo

Las inspecciones son a menudo el primer paso del proceso de reclamo de seguro de automóvil. Con el aprendizaje profundo podemos detectar automáticamente rasguños, abolladuras, óxido, roturas. También podemos detectar qué parte del vehículo está dañada y con qué gravedad. El vehículo se puede inspeccionar automáticamente utilizando imágenes o videos al crear una visión general de 360 ​​°. Después de la inspección, el informe se puede generar con una lista de daños y un costo estimado de reparación.


Puede obtener más información sobre la solución Nanonets para la detección automática de daños en el vehículo. esta página


Evaluación de drones para seguro de techo

La inspección del techo es un trabajo peligroso y que requiere mucho tiempo. Tomar medidas a mano o estimar el daño manualmente siempre ha sido parte de este tipo de negocio. Un nuevo enfoque mediante el uso de imágenes satelitales de drones aéreos combinados con un número creciente de otros atributos de datos como el clima histórico, para determinar las características y condiciones de un techo y el riesgo de futuras reclamaciones de seguros. La tecnología de visión por computadora puede detectar automáticamente la forma, el material, el daño, el estancamiento y la oxidación del techo. Las aseguradoras pueden encontrar las coberturas y precios correctos para sus clientes.


Puede obtener más información sobre la solución Nanonets para la evaluación de daños en el techo esta página


Inspección de daños de pantalla móvil

El seguro de telefonía móvil es esencialmente un tipo de cobertura de seguro que protege los teléfonos móviles dañados mecánicamente. Las compañías que venden seguros de teléfonos móviles se ocupan de las reclamaciones de seguros, y la mayoría de los casos tienen grietas en la pantalla o daños en el móvil. Automatizar el mayor volumen del procesamiento de reclamos desde el teléfono móvil reducirá enormes gastos. La idea principal es clasificar las imágenes de teléfonos móviles en dos categorías. Uno que representa que el móvil está dañado y otro sin daños. Al combinar este enfoque con OCR para detectar el número de serie del teléfono y extraer otros datos importantes, las reclamaciones pueden acelerarse aún más.


Puede obtener más información sobre la solución Nanonets para la detección automática de daños móviles esta página


Reconocimiento óptico de caracteres

Tarea de visión por computadora para convertir imágenes con caracteres o documentos escaneados en texto legible por máquina. El procesamiento de reclamos de seguros con OCR es uno de los productos que primero nos viene a la mente. En esencia, es el proceso de llenar automáticamente los formularios y documentos que deben procesarse sistemáticamente y almacenarse digitalmente.


Puede obtener más información sobre la solución Nanonets para la digitalización de formularios con OCR esta página


Aquí hay una breve descripción de las herramientas y servicios más populares que se pueden usar para la inspección de daños a vehículos.

Reconocimiento de amazonas facilita la adición de análisis de imágenes y videos a sus aplicaciones. No requiere experiencia en aprendizaje profundo para su uso. Rekognition se basa en una tecnología de aprendizaje profundo altamente escalable desarrollada por los científicos de visión por computadora de Amazon. La plataforma de Amazon ofrece detección y reconocimiento de objetos, eventos o actividades. Se utiliza principalmente con detección, reconocimiento e identificación de rostros. Rekognition no tiene un modelo para inspección de daños pero AWS Marketplace ofrece varios servicios y software de terceros seleccionados que los clientes necesitan para crear soluciones y administrar sus negocios. No existe una solución fácil para crear un modelo de clasificación de imágenes para nuestro caso de uso específico.

IA de Google Cloud Vision podría separarse en dos categorías más grandes, AutoML Vision y Vision API. Vision API es API ofrecida por modelos pre-entrenados de Google similares a Amazon Rekognition y el estudio Azure Machine Learning. Visión de AutoML es muy interesante porque puedes crear tu modelo personalizado entrenando en imágenes personalizadas. Los modelos están entrenados para clasificar automáticamente las imágenes según las etiquetas que defina. Con un conjunto de datos preparado de imágenes de alta calidad, esta parece ser la forma más fácil de desarrollar un modelo robusto de inspección de daños del vehículo. Prepare las imágenes de los vehículos en 2 etiquetas (dañadas, no dañadas) y siga la documentación.

Plataforma AutoML para crear etiquetas personalizadas y modelos de capacitación [Youtube]

Estudio de aprendizaje automático de Azure es un entorno simple de creación visual basado en el navegador de arrastrar y soltar donde no es necesaria la codificación. Un servicio en la nube totalmente administrado que le permite crear, implementar y compartir fácilmente soluciones de análisis predictivo. Se requiere un enfoque interesante para la creación de secuencias de comandos visuales de los modelos, pero aún se requiere conocimiento del dominio del aprendizaje automático. Los desarrolladores con experiencia pueden ser más eficientes utilizando el estudio o servicio azure machine learning.

Comparación de API en la nube de [artículo mediano]

Inspección de daños del vehículo

Las aseguradoras están comenzando a utilizar el aprendizaje profundo para mejorar la eficiencia operativa y mejorar la experiencia del cliente al tiempo que reduce el tiempo de liquidación de reclamaciones. La visión por computadora y los modelos predictivos de aprendizaje profundo se están desarrollando más rápido e incluso sin habilidades de programación, ya que muchas empresas ofrecen capacitación en modelos de nube, software como servicio o API de visión por computadora. Los gigantes tecnológicos como Google, Microsoft y Amazon están invirtiendo fuertemente para desarrollar y mejorar algoritmos complejos que brinden de manera segura información oculta y significativa del procesamiento de imágenes en milisegundos.

Las empresas a menudo evitan las tecnologías de visión basadas en inteligencia artificial debido a su complejidad y los requisitos de los desarrolladores con amplia experiencia. Los modelos que se utilizan en la producción requieren una amplia capacitación computacional y, en general, muchas imágenes de muestra. Los datos de calidad relevantes son difíciles de recopilar y, para algunos casos de uso, los conjuntos de datos simplemente no están disponibles.

inspección de daños del vehículo para el procesamiento de reclamaciones: el flujo de trabajo [Altoros]

La inspección automatizada de daños del vehículo es un componente crítico para un emisor eficiente de seguros de vehículos. ¿Cómo se vería el flujo perfecto de inspección de daños del vehículo?

  1. El cliente carga imágenes claras. del vehículo asegurado a la plataforma de procesamiento de reclamos de seguros
  2. La plataforma verifica automáticamente que las imágenes tengan calidad suficiente para ejecutar la inspección
  3. Notificar al cliente si las imágenes necesitan volver a cargarse.
  4. Ejecute modelos para la inspección de daños del vehículo que proporciona cajas alrededor de áreas dañadas, detecte qué parte del vehículo está dañada y que tipo de daño Puede ser como óxido, abolladuras, rasguños, etc.
  5. El segundo paso podría ser procesamiento adicional de las imágenes dañadas del vehículo para hacer un informe más detallado del daño, como identificar qué partes del automóvil se dañaron y la gravedad del daño.
  6. Informe de construcción que resuelve el reclamo o crea un informe para que el revisor manual lo revise en caso de mayor incertidumbre por parte del modelo

Pasos para construir un modelo de inspección de daños a vehículos

Ahora veremos cuáles son algunos de los desafíos de la inspección automática de daños y luego veremos un modelo simple para la inspección de daños del vehículo que se puede usar con los datos recopilados como modelo de referencia.

Conjunto de datos de daños al vehículo

Lo principal al comenzar la investigación de aprendizaje profundo es tener un conjunto de datos de alta calidad con muchas imágenes. Los modelos de aprendizaje profundo funcionan mejor con conjuntos de datos más grandes y equilibrados y pueden mejorarse aún más con la adición del proceso de aumento de datos.

Los conjuntos de datos para la inspección automática de daños del vehículo no están disponibles públicamente. Las compañías de seguros involucradas en seguros de vehículos ya deberían tener una estrategia para recopilar y organizar la recopilación de datos de imágenes de vehículos. Este proceso de recopilación y almacenamiento de datos debe emplearse para todos los casos de uso que podrían automatizarse en el futuro. Ya se han mencionado algunos ejemplos, como la inspección de daños móviles y el daño a la vivienda.

Filtrar imágenes de vehículos recopiladas utilizando el método a continuación

El raspado web es una forma de generar un conjunto de datos de inicio para crear algunos modelos básicos e ideas. Gracias a IA rápida, PyImageBuscar puede obtener fácilmente una cantidad decente de imágenes para cualquier problema de clasificación. Mira estos enlaces para ver cómo es posible Artículo de PymageSearch, Blog mediano, Video del curso de fastAI para una explicación paso a paso. Agregaré algunos consejos que me ayudaron:

  • Desactive el bloqueador de anuncios si lo tiene, ya que bloquea el método para recopilar URL
  • Intente usar diferentes términos para buscar el mismo conjunto de datos
  • Almacene todas las URL en el archivo CSV de Excel y elimine los duplicados
  • Después de descargar el filtro para eliminar las no imágenes

Enfoque de preprocesamiento

El preprocesamiento es un método de preparación de imágenes para modelos para lograr mejores resultados con modelos de visión por computadora. Depende en gran medida del método de extracción de características y del tipo de imagen de entrada. Algunos de los métodos comunes son:

  • Imagen Denoising - aplicar un filtro gaussiano u otro para eliminar el ruido de las imágenes
  • Umbral de imagen - método de aplicación del valor umbral para cada píxel. Si el valor de píxel es menor que el umbral, se establece en 0; de lo contrario, se establece en un valor máximo
  • Detector Canny Edge - detector de bordes más popular, generalmente incluido con el proceso de conversión de imágenes en color en imágenes en escala de grises

La biblioteca más utilizada para el preprocesamiento de imágenes es OpenCV. OpenCV (Open Source Computer Vision Library) es una biblioteca de software de aprendizaje por computadora y visión por computadora de código abierto. OpenCV se creó para proporcionar una infraestructura común para aplicaciones de visión por computadora y para acelerar el uso de la percepción de máquinas en productos comerciales. Tiene interfaces C ++, Python, Java y MATLAB y es compatible con Windows, Linux, Android y Mac OS. OpenCV se inclina principalmente hacia aplicaciones de visión en tiempo real y aprovecha las instrucciones MMX y SSE cuando están disponibles.

El problema con el preprocesamiento es que es difícil evaluar qué técnicas de preprocesamiento marcan la diferencia genéricamente. A veces puede hacer un gran progreso para el conjunto de datos que usa, pero es beneficioso solo para subconjuntos de imágenes. El proceso de evaluar la ganancia de precisión del método de preprocesamiento empleado es lento y puede llegar a conclusiones erróneas.

Detección de bordes irregulares para un automóvil no dañado
Detección de bordes astutos para un automóvil dañado

Falta de modelos disponibles públicamente

Se realiza mucha investigación en el campo de la visión artificial en la detección de defectos de fabricación. Las técnicas desarrolladas para la industria manufacturera requieren equipos y enfoques especiales, pero la falta de modelos desarrollados públicamente hace que sea más difícil construir sobre las ideas de otros investigadores. No es posible comparar las diferencias de rendimiento y tener discusiones beneficiosas.


Código y resultados

Pude implementar un clasificador simple para vehículos dañados o no dañados usando el marco fast.ai. Puedes encontrar el cuaderno en este repositorio github. El código utiliza una arquitectura resnet34 para la tarea de clasificación y logra una precisión del 80% cuando se entrena en 60 imágenes de automóviles dañados y 79 imágenes de automóviles no dañados.

Estamos usando el biblioteca fast.ai ya que ofrece una gran API para crear prototipos rápidamente y probar diferentes modelos. Fastai tiene una buena clase para manejar todo lo relacionado con las imágenes de entrada para tareas de visión. Se llama grupo de datos de imagen y tiene diferentes funciones, respectivas de las diferentes formas en que los datos pueden presentarse a la red. Como nuestras imágenes se colocan en carpetas cuyos nombres corresponden a las etiquetas de las imágenes, utilizaremos el ImageDataBunch.fromfolder () función para crear un objeto que contiene nuestros datos de imagen.

 # Create path to your image data path = Path('data/vehicle') # Define number of classes, they are called like a folder so it automatically maps from where to read classes = ['vehicle_damaged', 'vehicle_not_damaged'] # Setting up seed for repetability np.random.seed(42) # Create data loader, split images into 80% for training 20% for test and rescale images to 224x224 data = ImageDataBunch.from_folder(path, train='.', valid_pct=0.2, ds_tfms=get_transforms(), size=224, num_workers=4).normalize(imagenet_stats) # Verify dataset print(data.classes, data.c, len(data.train_ds), len(data.valid_ds)) # Model training learn = cnn_learner(data, models.resnet34, metrics=error_rate) # Train for 4 epochs learn.fit_one_cycle(4)

El modelo para la clasificación de imágenes debe entrenarse durante 4 épocas, lo que significa que pasa por todas las imágenes de vehículos 4 veces mientras mejora los parámetros del modelo. Podemos ver esto desde la salida porque la tasa de error está bajando.

 # Save weights, so we don't need to retrain (this matters when training is time consuming) learn.save('stage-1') # Must be done before calling lr_find, because we need to unfreeze all layers of the pre-trained model learn.unfreeze() # Plot function for finding the best learning rate learn.lr_find() # Visualize graph where loss is depending on picked learning rate # The best tool to pick a good learning rate for our models # Here we are taking the value of learning rate with the biggest fall in loss # in this example it would be [1e-04, 1e-03] learn.recorder.plot()

Aquí estamos guardando el modelo entrenado para que no necesitemos repetir ese primer proceso. La idea es usar el método lr_find (). Queremos elegir la tasa de aprendizaje que disminuye más la pérdida. El gráfico muestra que elegir la tasa de aprendizaje entre [1e-04, 1e-03] disminuye más la pérdida. Ahora no queremos elegir la tasa de aprendizaje con la pérdida más baja. Léalo aquí para más información sobre esta técnica

 # Training model 8 epochs more with learning rates ranging from 1e-04 to 1e-03 learn.fit_one_cycle(8, max_lr=slice(1e-4, 1e-3)) learn.save('stage-2') # Show results learn.show_results()

Una vez que hayamos encontrado el mejor rango de tasa de aprendizaje, entrene el modelo por un tiempo más usando este nuevo rango de tasa de aprendizaje que hemos encontrado. La idea aquí es que entrenemos capas más bajas del modelo con tasas de aprendizaje más bajas porque están pre-entrenadas en Imagenet. Las capas más altas deberían entrenarse con una tasa de aprendizaje más alta para ajustar el modelo de clasificación para nuestro conjunto de datos. Tenga en cuenta que tal vez obtendrá diferentes niveles de precisión, todavía alrededor de ~ 80% de precisión.

Predicción del modelo a partir del entrenamiento simple de clasificación de imágenes en alrededor de 140 imágenes

Por supuesto, existe una forma mucho mejor, más sencilla e intuitiva de hacer esto.


Inspección de daños en vehículos con nanonetas

Si bien hemos discutido la detección de daños mediante la clasificación de imágenes, el problema de la inspección de daños requiere mucho más que solo modelos de clasificación. El uso de los modelos y datos correctos puede reducir los costos de inspección en un 90%.

La clasificación de imágenes, la detección de objetos y la segmentación de imágenes se pueden usar para averiguar exactamente qué tipo de daño (por ejemplo: rasguños, abolladuras, óxido, rotos) se encuentra, en qué ubicación (información del cuadro delimitador) y qué tan grave es el daño.

Con más datos, también podría construir modelos que identificarían automáticamente qué partes del automóvil (parabrisas, puerta izquierda, faro derecho) están dañados.

Inspección de daños a vehículos con detección de objetos nanorred
Observe la pequeña abolladura que se captura con el modelo de segmentación de daños en el automóvil

Es posible que le interesen nuestras últimas publicaciones sobre:

Comience a usar nanonetas para automatización

¡Pruebe el modelo o solicite una demostración hoy!

PRUEBA

Fuente: https://nanonets.com/blog/damage-inspection-machine-learning/

Sello de tiempo:

Mas de Blog de IA y aprendizaje automático