Als Artefact ist es uns wichtig, einen positiven Einfluss auf die Menschen, die Umwelt und die Gemeinschaft auszuüben. Aus diesem Grund engagieren wir uns für Partnerschaften mit gemeinnützigen Organisationen, die diese Werte zu den Grundbausteinen ihrer Vision machen.
Aus diesem Grund haben wir mit Smart Parks zusammengearbeitet, einem niederländischen Unternehmen, das fortschrittliche Sensorlösungen anbietet, um gefährdete Wildtiere zu schützen und Parkanlagen mit Hilfe modernster Technologie effizient zu verwalten.
In dieser Reihe von Beiträgen berichten wir über unsere Reise bei der Entwicklung und dem Aufbau eines ML-Systems zur Nutzung der Kamerafallen-Medien von Smart Parks. Ziel des Projekts ist es insbesondere, einen ML-Ansatz zu verwenden, um die von den Kamerafallen stammenden Daten von data zu verarbeiten und dann Erkenntnisse zu gewinnen, z. B. über die Anwesenheit von Menschen oder bestimmten Tierarten auf den von den Kameras aufgenommenen Bildern oder Videos. Diese Informationen werden dann von den Parkwächtern genutzt, um die Wildtiere besser zu schützen und mögliche Gefahren wie Wilderer früher zu erkennen.
Einführung
Smart Parks benötigte ein Wildtierüberwachungssystem, das die folgenden Aufgaben erfüllen konnte:
Unser Leitgedanke dabei war, dass wir schnell sein wollten. Als wir anfingen, bestand unsere einzige Priorität darin, so schnell wie möglich ein voll funktionsfähiges End-to-End-Produkt bereitzustellen.
Dies wird der erste Artikel von vielen sein, der sich auf den Kontext des Projekts, den Überblick über das entworfene System und die Vorteile unserer Cloud-basierten Lösung konzentriert. In den kommenden Artikeln werden wir uns eingehender mit der Anbindung von Kamerafallen an die Google Cloud Platform und externe Endpunkte mithilfe eines Tools namens Node-RED befassen und eine einfache Web-App mit Streamlit entwickeln, um die in den Parks platzierten Kamerafallen zu verwalten.
Fangen wir an!
Kamera-Fallen
Bevor wir loslegen, sollten wir uns kurz ansehen, was Kamerafallen sind und wie sie für den Tier- und Naturschutz eingesetzt werden können.
Kamerafallen sind Geräte mit eingebauten Sensoren, die sofort ein Bild oder ein Video aufnehmen, wenn vor ihnen eine Aktivität festgestellt wird. Mit ihnen können Parkranger und Wildtierbiologen unsere Artgenossen beobachten, ohne ihr normales Verhalten zu stören.
In den Parks herumzugehen und Informationen zu sammeln, ist eine gute Methode, aber ein teurer, arbeitsintensiver und personalaufwändiger Prozess. Außerdem besteht das Risiko, auf gefährliche Wildtiere oder - noch schlimmer - auf Wilderer zu stoßen.
Während die verschiedenen Techniken zur Erfassung von data mit unterschiedlichen Nachteilen verbunden sind, sind Kamerafallen eine hervorragende Quelle. Der große Vorteil von Kamerafallen ist, dass sie kontinuierlich und geräuschlos arbeiten und sehr genaue data aufzeichnen können, ohne das fotografierte Objekt zu stören. Sie können sowohl bei der heimlichen Überwachung möglicher illegaler Aktivitäten als auch bei der Quantifizierung der Anzahl verschiedener Arten in einem Gebiet und der Bestimmung ihres Verhaltens und ihrer Aktivitätsmuster hilfreich sein.
Google Cloud-Plattform
Für die Speicherung und Verwaltung der Kamerafallen-Medien haben wir uns für eine Cloud-basierte Lösung entschieden, genauer gesagt für die Google Cloud Platform.
Google bietet Speicherlösungen wie Google Cloud Storage, Objektspeicher mit integriertem Edge Caching zum Speichern von unstrukturierten Daten data, Rechenlösungen wie Cloud Functions, Functions as a Service zum Ausführen von ereignisgesteuertem Code sowie nützliche APIs, z. B. AI :
Alle diese Komponenten in einer einzigen, einheitlichen Umgebung zu haben, war für uns die ideale Lösung und half uns, in kurzer Zeit eine funktionierende Lösung bereitzustellen.
Der Arbeitsablauf
Zunächst werden die Medien in einen Google-Cloud-Storage-Bucket hochgeladen. Wie genau das geschieht, wird im zweiten Artikel dieser Serie erläutert. Der Bucket ist in Ordnern organisiert, einer für jede Kamerafalle. Sobald eine Datei hochgeladen ist, wird sofort eine Google Cloud-Funktion ausgelöst, die sich um die folgenden Aufgaben kümmert:

Diese Architektur bietet mehrere Vorteile:
Cloud Vision und Cloud Video Intelligence APIs
Der Einsatz von maschinellem Lernen, insbesondere von Computer Vision, zur automatischen Identifizierung von Menschen und Tieren in Bildern oder Videos hat in den letzten Jahren erhebliche Fortschritte gemacht und wird heute von Wildtierforschern weithin als "game-changer" angesehen. Konzentrieren wir uns mehr auf die verwendeten APIs.
Vision API und Video Intelligence API bieten über REST- und RPC-APIs leistungsstarke, vorab trainierte Modelle für maschinelles Lernen. Die erste ist für die Arbeit mit Bildern gedacht, während die zweite, wie der Name schon sagt, mit Videos arbeitet. Beide sind in der Lage, automatisch eine große Anzahl von Objekten, Orten und Aktionen zu erkennen.
Bei diesem Projekt haben wir uns hauptsächlich auf diese 3 Funktionen konzentriert, die von den APIs bereitgestellt werden:
Sie können mit der Vision API spielen, indem Sie Ihr Bild einfach hier hochladen.

Der Weg vor uns
Der bisherige Weg ist eine Grundlage für die spannende und wirkungsvolle Reise, die vor uns liegt. Wenn in naher Zukunft die grundlegenden Werkzeuge vorhanden sind, werden wir in der Lage sein, nicht nur für Smart Parks, sondern auch für den Schutz der Wildtiere und darüber hinaus einen großen Wert zu schaffen!
Die nächsten Schritte werden diese großen Arbeitsbereiche betreffen:
In diesem ersten Artikel haben wir erörtert, wie wir unsere vollautomatisierte, skalierbare Pipeline in Google Cloud aufgebaut haben, die es uns ermöglicht, Medien zu erfassen und mithilfe von Machine Learning-APIs Erkenntnisse aus ihnen zu gewinnen. Sie bietet eine solide, einfache und schnell zu implementierende Grundlage für jede Art von Projekt, das den Medienkonsum und die Verwendung von maschinellem Lernen zur Gewinnung von Erkenntnissen aus diesen Medien beinhaltet.
Wir danken Ihnen für die Lektüre und sehen uns in den nächsten Artikeln der Serie wieder, in denen wir detaillierter erklären werden, wie die vorgestellte Architektur effektiv mit den Kamerafallen verbunden ist, und in denen wir die Web-App zur Verwaltung dieser Fallen vorstellen werden, also bleiben Sie dran!
Besonderer Dank geht an Maël Deschamps für seine Hilfe bei der Überprüfung des Inhalts dieses Beitrags und an Tim van Dam von Smart Parks für seine Unterstützung während des Projekts. Ihr rockt!