Lee nuestro artículo sobre

class="lazyload

.

En Artefact, nos preocupamos por generar un impacto positivo en las personas, el medio ambiente y la comunidad. Por eso nos comprometemos a colaborar con organizaciones sin ánimo de lucro que hacen de estos valores los pilares fundamentales de su visión.
Por ello, hemos colaborado con Smart Parks, una Compañia holandesa Compañia ofrece soluciones avanzadas de sensores para conservar la fauna en peligro de extinción y gestionar de forma eficiente las zonas de parques mediante tecnología de vanguardia.

En esta serie de entradas, relatamos nuestro proceso de diseño y desarrollo de un sistema de aprendizaje automático para procesar el material de las cámaras trampa de Smart Parks. En concreto, el objetivo del proyecto es utilizar un enfoque de aprendizaje automático para procesar los data de las cámaras trampa y, a continuación, proporcionar información, como la presencia de personas o de tipos específicos de animales en las imágenes o vídeos capturados por las cámaras. Esta información es utilizada posteriormente por los guardas forestales para proteger mejor la fauna silvestre y detectar antes posibles peligros, como los cazadores furtivos.

Introducción

Smart Parks necesitaba un sistema de seguimiento de la fauna capaz de realizar las siguientes tareas:

  • Recopilar en un único lugar los archivos multimedia (imágenes y/o vídeos) procedentes de las cámaras trampa
  • Detectar automáticamente la presencia de personas y animales en los archivos multimedia

  • Accede a las previsiones de Earth Rangers, una aplicación utilizada para gestionar los parques y su fauna

  • Supervisar el material multimedia procedente de las cámaras trampa

Nuestro principio rector en este caso fue dar prioridad a la rapidez. Por eso, al empezar, nuestra única prioridad fue lanzar lo antes posible un producto básico, pero totalmente operativo de principio a fin.

Este será el primero de una serie de artículos y se centrará en el contexto del proyecto, la visión general del sistema diseñado y las ventajas de nuestra solución cloud. En los próximos artículos, profundizaremos en cómo conectar las cámaras trampa aGoogle Cloud y a puntos finales externos utilizando una herramienta llamadaNode-RED, y cómo diseñar una sencilla aplicación web conStreamlitpara gestionar las cámaras trampa instaladas en los parques.

¡Empecemos!

Cámaras trampa

Antes de entrar en materia, repasemos rápidamente qué son las cámaras trampa y cómo se pueden utilizar para contribuir a la protección y la conservación de los animales.

Las cámaras trampa son dispositivos que incorporan sensores que, al detectar movimiento delante de ellos, capturan inmediatamente una fotografía o un vídeo. Permiten a los guardas forestales y a los biólogos especializados en fauna silvestre observar a otras especies sin interferir en su comportamiento natural.

Recorrer los parques y recopilar información es una técnica válida, pero se trata de un proceso costoso que requiere mucho trabajo y personal. Además, existe el riesgo de encontrarse con animales salvajes peligrosos o, lo que es peor, con cazadores furtivos.

Aunque las distintas técnicas de recopilación data diferentes ventajas e inconvenientes, las cámaras trampa constituyen una fuente excelente. La gran ventaja de las cámaras trampa es que funcionan de forma continua y silenciosa, y pueden registrar data muy precisos data perturbar al sujeto fotografiado. Pueden resultar útiles tanto para vigilar de forma discreta posibles actividades ilícitas como para cuantificar el número de especies diferentes en una zona y determinar sus patrones de comportamiento y actividad.

Google Cloud

Para el almacenamiento y la gestión de los datos de las cámaras trampa, decidimos utilizar una solución cloud; concretamente, Google Cloud .

Google Servicios soluciones Servicios comoGoogle Cloud , un almacenamiento de objetos con almacenamiento en caché perimetral integrado para almacenar data no estructurados; soluciones de computación comoCloud , un servicio de funciones (FaaS) para ejecutar código basado en eventos; y también Servicios AI , por ejemplo:

  • APICloud : servicio de análisis de imágenes basado en el aprendizaje automático
  • InteligenciaCloud : servicio de análisis de vídeo basado en el aprendizaje automático

Contar con todos estos componentes en un único entorno unificado fue la solución ideal para nosotros y nos ayudó a ofrecer una solución operativa en poco tiempo.

El flujo de trabajo

En primer lugar, los archivos multimedia se suben a un depósito Cloud Google Cloud ; el proceso exacto se explicará en el segundo artículo de esta serie. El depósito está organizado en carpetas, una para cada cámara trampa. Una vez subido un archivo, se activa inmediatamente una Cloud de Google Cloud , que se encarga de las siguientes tareas:

  • Lee los archivos multimedia subidos
  • Llama a la API Cloud o a la API Cloud Intelligence para obtener las predicciones

  • Guarda las respuestas de la API en otro depósito Cloud

  • Envía las predicciones a un punto final fuera de GCP

class="lazyload

Esta arquitectura ofrece múltiples ventajas:

  • Escalabilidad: gracias al uso de Cloud , la solución es capaz de escalar automáticamente en función del número de solicitudes (es decir, el número de archivos multimedia subidos simultáneamente al depósito Cloud de entrada).

  • Almacenamiento económico y duradero: Almacenar data no estructurados data Google Cloud resulta bastante económico (solo 0,026 dólares por GB al mes en el nivel de almacenamiento Estándar); además, Servicios la Servicios durabilidad de objetos Servicios a lo largo de un año.

  • Automatización: El uso conjunto de todos estos servicios nos permite disponer de un proceso totalmente automatizado, sin necesidad de intervención humana. Desde la data hasta la obtención de predicciones, todo se ejecuta automáticamente en cuanto se sube un nuevo archivo multimedia.

API de Cloud y Cloud Intelligence

El uso del aprendizaje automático, y en concreto de la visión artificial, para identificar automáticamente a personas y animales en imágenes o vídeos ha experimentado avances significativos en los últimos años y, hoy en día, los investigadores de la fauna silvestre lo consideran un verdadero «punto de inflexión». Centrémonos más en las API utilizadas.

Vision APIyVideo Intelligence APIofrecen potentes modelos de aprendizaje automático preentrenados a través de las API REST y RPC. La primera está diseñada para trabajar con imágenes, mientras que la segunda, como su nombre indica, con vídeos. Ambas son capaces de reconocer automáticamente una gran cantidad de objetos, lugares y acciones.

Para este proyecto, nos centramos principalmente en estas tres funciones que ofrecen las API:

  • Detección de etiquetas: Para tener una idea de las entidades (por ejemplo, animales, personas, vehículos) presentes en los medios. A partir de ahí, sería posible crear reglas que activen una alarma ante la presencia de un conjunto específico de entidades

  • Detección y seguimiento de objetos: para tener una idea más precisa de la ubicación de los animales o personas detectados en los archivos multimedia. A diferencia de lo que ocurre con la detección de etiquetas, aquí también obtenemos las anotaciones de los recuadros de las detecciones.

  • Detección de rostros/personas: para obtener más información sobre las personas detectadas, por ejemplo, para interpretar sus emociones o identificar su vestimenta. Esta información adicional podría utilizarse luego para distinguir a los cazadores furtivos de las personas normales

Puedes probar la API de Vision simplemente subiendo tu imagenaquí.

class="lazyload

El camino que nos espera

El camino recorrido hasta ahora sienta las bases para el emocionante y trascendental viaje que nos espera. Una vez que dispongamos de las herramientas básicas en un futuro próximo, podremos generar un gran valor no solo para Smart Parks, sino también para la conservación de la vida silvestre y mucho más.

Los próximos pasos abarcarán las siguientes áreas generales de trabajo:

  • Experimentación con modelos: Hasta ahora solo hemos experimentado con API o modelos preentrenados, pero en el futuro sería interesante crear un conjunto de datos con imágenes y vídeos captados por las cámaras trampa. Se podría etiquetar, ya sea manualmente o utilizando el sistema que acabamos de presentar, y luego utilizarlo para entrenar modelos de visión artificial personalizados con el fin de lograr una mayor precisión.

  • Implementación de casos de uso: el hecho de contar ya con una solución totalmente automatizada nos permitirá centrarnos más en el desarrollo de casos de uso específicos, para así reflexionar realmente sobre cómo aprovechar la información obtenida con el fin de lograr un impacto positivo y ayudar a los guardas forestales y a todos los voluntarios a proteger la fauna de los parques

  • AI en el borde: Por el momento, la velocidad de ejecución de nuestro ciclo de predicción es satisfactoria para nuestro caso de uso (unos pocos minutos). Todavía hay aspectos que podemos mejorar para acercarnos a una solución en tiempo real. AI en el borde, con un modelo implementado y ejecutándose más cerca del hardware real de las cámaras trampa, es una opción que ayudaría a evitar los viajes de ida y vuelta a la cloud.

En este primer artículo, hemos explicado cómo hemos creado nuestro proceso totalmente automatizado y escalable en Google Cloud, lo que nos permite importar archivos multimedia y utilizar API de aprendizaje automático para extraer información de ellos. Ofrece una base sólida, sencilla y rápida de implementar para cualquier tipo de proyecto que implique el consumo de archivos multimedia y el uso del aprendizaje automático para extraer información de ellos.

Gracias por leer y nos vemos en los próximos artículos de la serie, donde explicaremos con más detalle cómo se conecta efectivamente la arquitectura presentada a las cámaras trampa, y donde analizaremos la aplicación web diseñada para gestionarlas, ¡así que estad atentos!

Un agradecimiento especial a Maël Deschamps por su ayuda en la revisión del contenido de esta entrada, y a Tim van Dam, de Smart Parks, por su apoyo durante el proyecto. ¡Sois geniales!

class="lazyload

Blog de Medium de Artefact.

Este artículo se publicó inicialmente en Medium.com.
¡Síguenos en nuestro blog de Medium!