Lesen Sie unseren Artikel zum Thema

class="lazyload

.

Als Artefact ist es uns wichtig, einen positiven Beitrag für Menschen, die Umwelt und die Gemeinschaft zu leisten. Deshalb engagieren wir uns für Partnerschaften mit gemeinnützigen Organisationen, die diese Werte zu den Grundpfeilern ihrer Vision machen.
Aus diesem Grund haben wir mit Smart Parks zusammengearbeitet, einem niederländischen Unternehmen, das fortschrittliche Sensorlösungen anbietet, um gefährdete Wildtiere zu schützen und Parkanlagen mithilfe modernster Technologie effizient zu verwalten.

In dieser Beitragsreihe berichten wir über unsere Erfahrungen bei der Konzeption und Entwicklung eines ML-Systems zur Auswertung der Aufnahmen aus den Kamerafallen von Smart Parks. Das Ziel des Projekts besteht insbesondere darin, mithilfe eines ML-Ansatzes die von den Kamerafallen data zu erfassen und daraus Erkenntnisse zu gewinnen, beispielsweise über die Anwesenheit von Menschen oder bestimmten Tierarten in den von den Kameras aufgenommenen Bildern oder Videos. Diese Informationen werden dann von den Parkrangern genutzt, um die Tierwelt besser zu schützen und mögliche Gefahren wie Wilderer früher zu erkennen.

Einleitung

Smart Parks benötigte ein System zur Überwachung von Wildtieren, das folgende Aufgaben erfüllen konnte:

  • Die von Wildkameras stammenden Medien (Bilder und/oder Videos) an einem einzigen Ort erfassen
  • Menschen und Tiere in den Medien automatisch erkennen

  • Rufen Sie die Prognosen in „Earth Rangers“ ab, einer Anwendung zur Verwaltung der Parks und ihrer Tierwelt

  • Die von den Kamerafallen übertragenen Medien überwachen

Unser Leitprinzip war dabei, der Schnelligkeit den Vorrang zu geben. Als wir begannen, war es daher unser oberstes Ziel, so schnell wie möglich ein minimalistisches, aber voll funktionsfähiges End-to-End-Produkt auf den Markt zu bringen.

Dies ist der erste Artikel einer ganzen Reihe, in dem wir uns auf den Projektkontext, einen Überblick über das entworfene System und die Vorteile unserer cloud Lösung konzentrieren werden. In den kommenden Artikeln werden wir näher darauf eingehen, wie man Kamerafallen mithilfe eines Tools namensNode-REDmit derGoogle Cloud und externen Endpunkten verbindet und wie man mitStreamliteine einfache Web-App zur Verwaltung der in den Parks aufgestellten Kamerafallen entwickelt.

Los geht’s!

Wildkameras

Bevor wir loslegen, wollen wir kurz wiederholen, was Kamerafallen sind und wie sie zum Schutz und zur Erhaltung von Tieren eingesetzt werden können.

Fotofallen sind Geräte mit eingebauten Sensoren, die bei Erkennung von Bewegung vor der Kamera sofort ein Foto oder ein Video aufnehmen. Sie ermöglichen es Parkrangern und Wildbiologen, unsere Mitgeschöpfe zu beobachten, ohne ihr normales Verhalten zu stören.

Das Abklappern der Parks und das Sammeln von Informationen ist zwar eine bewährte Methode, aber ein kostspieliger, arbeits- und personalintensiver Prozess. Zudem besteht die Gefahr, auf gefährliche Wildtiere oder – schlimmer noch – auf Wilderer zu stoßen.

Zwar data verschiedene Methoden data unterschiedliche Vor- und Nachteile mit data , doch sind Fotofallen eine hervorragende Quelle. Der große Vorteil von Fotofallen besteht darin, dass sie kontinuierlich und geräuschlos arbeiten und sehr genaue data erfassen können, data das fotografierte Objekt zu stören. Sie können sowohl bei der heimlichen Überwachung möglicher illegaler Aktivitäten als auch bei der Erfassung der Anzahl verschiedener Arten in einem Gebiet und der Ermittlung ihres Verhaltens und ihrer Aktivitätsmuster hilfreich sein.

Google Cloud

Für die Speicherung und Verwaltung der Daten aus den Kamerafallen haben wir uns für eine cloud Lösung entschieden, genauer gesagt für die Google Cloud .

Google bietet Speicherlösungen wieGoogle Cloud an, einen Objektspeicher mit integriertem Edge-Caching zur Speicherung unstrukturierter data, Rechenlösungen wieCloud , einen „Functions as a Service“-Dienst zur Ausführung ereignisgesteuerter Codes, sowie nützliche AI , zum Beispiel:

  • Cloud API– Bildanalysedienst auf Basis von maschinellem Lernen
  • Cloud Intelligence– Videoanalysedienst auf Basis von maschinellem Lernen

All diese Komponenten in einer einzigen, einheitlichen Umgebung zu vereinen, war für uns die ideale Lösung und hat uns dabei geholfen, in kurzer Zeit eine funktionsfähige Lösung bereitzustellen.

Der Arbeitsablauf

Zunächst werden die Medien in einen Google Cloud hochgeladen; wie genau dies geschieht, wird im zweiten Artikel dieser Reihe erläutert. Der Bucket ist in Ordner unterteilt, wobei jeder Ordner einer Kamerafalle entspricht. Sobald eine Datei hochgeladen wurde, wird sofort eine Google Cloud ausgelöst, die folgende Aufgaben übernimmt:

  • Die hochgeladenen Medien anzeigen
  • Rufen Sie die Cloud oder die Cloud Intelligence-API auf, um die Vorhersagen abzurufen

  • Speichere die API-Antworten in einem anderen Cloud -Bucket

  • Senden Sie die Vorhersagen an einen Endpunkt außerhalb von GCP

class="lazyload

Diese Architektur bietet zahlreiche Vorteile:

  • Skalierbarkeit: Dank der Verwendung von Cloud kann die Lösung automatisch entsprechend der Anzahl der Anfragen skaliert werden (d. h. entsprechend der Anzahl der Medien, die gleichzeitig in den angegebenen Cloud -Bucket hochgeladen werden)

  • Kostengünstiger und dauerhafter Speicher: Die Speicherung unstrukturierter data Google Cloud ist sehr kostengünstig (nur 0,026 US-Dollar pro GB und Monat für die Standard-Speicherstufe) und bietet zudem eine branchenweit führende Haltbarkeit der Objekte über einen Zeitraum von einem Jahr.

  • Automatisierung: Durch die kombinierte Nutzung all dieser Dienste verfügen wir über eine vollständig automatisierte Pipeline, die keinerlei menschliches Eingreifen erfordert. Von der data bis zum Abruf der Vorhersagen läuft alles automatisch ab, sobald ein neues Medium hochgeladen wird.

Cloud und Cloud Intelligence-APIs

Der Einsatz von maschinellem Lernen, insbesondere von Computer Vision, zur automatischen Erkennung von Menschen und Tieren in Bildern oder Videos hat in den letzten Jahren erhebliche Fortschritte gemacht und wird heute von Wildtierforschern weithin als „bahnbrechende Neuerung“ angesehen. Wenden wir uns nun näher den verwendeten APIs zu.

Die Vision APIunddie Video Intelligence APIbieten leistungsstarke, vortrainierte Machine-Learning-Modelle über REST- und RPC-APIs. Die erste ist für die Verarbeitung von Bildern vorgesehen, während die zweite, wie der Name schon sagt, für Videos gedacht ist. Beide sind in der Lage, eine Vielzahl von Objekten, Orten und Handlungen automatisch zu erkennen.

Bei diesem Projekt haben wir uns hauptsächlich auf diese drei Funktionen der APIs konzentriert:

  • Objekterkennung: Um einen Überblick über die in den Medien vorhandenen Objekte (z. B. Tiere, Menschen, Fahrzeuge) zu erhalten. Auf dieser Grundlage könnten Regeln erstellt werden, die bei Vorhandensein einer bestimmten Gruppe von Objekten einen Alarm auslösen

  • Objekterkennung/-verfolgung: Um eine genauere Vorstellung vom Standort der erkannten Tiere/Personen in den Medien zu erhalten. Anders als bei der Label-Erkennung erhalten wir hier zusätzlich die Rahmenmarkierungen der Erkennungen

  • Gesichts-/Personenerkennung: Um mehr Informationen über die erkannten Personen zu erhalten, beispielsweise um ihre Emotionen zu erkennen oder ihre Kleidung zu identifizieren. Diese zusätzlichen Informationen könnten dann dazu genutzt werden, Wilderer von normalen Personen zu unterscheiden

Du kannst mit der Vision-API experimentieren, indem du einfachhier dein Bild hochlädst.

class="lazyload

Der Weg, der vor uns liegt

Der bisherige Weg bildet die Grundlage für die spannende und wirkungsvolle Reise, die vor uns liegt. Sobald die grundlegenden Werkzeuge in naher Zukunft zur Verfügung stehen, werden wir nicht nur für Smart Parks, sondern auch für den Naturschutz und darüber hinaus einen großen Mehrwert schaffen können!

Die nächsten Schritte umfassen folgende allgemeine Arbeitsbereiche:

  • Modellversuche: Bislang haben wir nur mit APIs oder vortrainierten Modellen experimentiert, doch in Zukunft wäre es interessant, einen Datensatz mit Bildern und Videos aufzubauen, die von den Kamerafallen erfasst wurden. Dieser könnte entweder manuell oder mithilfe des soeben vorgestellten Systems beschriftet werden und anschließend zum Trainieren benutzerdefinierter Computer-Vision-Modelle verwendet werden, um eine höhere Genauigkeit zu erzielen

  • Umsetzung von Anwendungsfällen: Da wir bereits über eine vollautomatisierte Lösung verfügen, können wir uns stärker auf die Entwicklung gezielter Anwendungsfälle konzentrieren und uns intensiv damit auseinandersetzen, wie wir die gewonnenen Informationen nutzen können, um eine positive Wirkung zu erzielen und den Rangern sowie allen Freiwilligen beim Schutz der Tierwelt in den Parks zu helfen

  • AI: Derzeit ist die Ausführungsgeschwindigkeit unserer Vorhersage-Schleife für unseren Anwendungsfall zufriedenstellend (einige Minuten). Es gibt jedoch noch Verbesserungspotenzial, um einer Echtzeitlösung näher zu kommen. AI, bei der ein Modell näher an der eigentlichen Kamerafallen-Hardware bereitgestellt und ausgeführt wird, ist eine Option, die dazu beitragen würde, Hin- und Rückläufe zur cloud zu vermeiden

In diesem ersten Artikel haben wir erläutert, wie wir unsere vollautomatisierte, skalierbare Pipeline in Google Cloud aufgebaut haben, die es uns ermöglicht, Mediendaten zu erfassen und mithilfe von Machine-Learning-APIs Erkenntnisse daraus zu gewinnen. Sie bietet eine solide, einfache und schnell umsetzbare Grundlage für jede Art von Projekt, bei dem Medieninhalte verarbeitet und mithilfe von Machine Learning Erkenntnisse daraus gewonnen werden.

Vielen Dank fürs Lesen und bis zu den nächsten Artikeln dieser Reihe, in denen wir genauer erläutern werden, wie die vorgestellte Architektur effektiv mit den Wildkameras verbunden ist, und in denen wir die Web-App zur Verwaltung dieser Kameras vorstellen werden – bleiben Sie also dran!

Ein besonderer Dank gilt Maël Deschamps für seine Hilfe bei der Überprüfung des Inhalts dieses Beitrags sowie Tim van Dam von Smart Parks für seine Unterstützung während des Projekts. Ihr seid großartig!

class="lazyload

Medium-Blog von Artefact.

Dieser Artikel wurde ursprünglich auf Medium.com veröffentlicht.
Folgen Sie uns auf unserem Medium-Blog!