Einsatz von data zur Ermittlung optimaler Standorte für Pflegeheime:
Fortschrittliche data Lösungen – in Kombination mit erfahrenen Immobilienmaklern – erhöhen die Wahrscheinlichkeit, Grundstücke für Pflegeheime mit hoher Auslastung zu erwerben.
Die Wahl eines optimalen Standorts für ein Pflegeheim ist nicht einfach.
Ein guter Standort für ein Pflegeheim muss Hunderte komplexer Anforderungen hinsichtlich der Umgebung und der Lage erfüllen, um eine nachhaltige Auslastung zu erreichen. Bei durchschnittlichen Kosten von 1.500 £ pro Woche und Bewohner in einem wettbewerbsintensiven Markt gibt es kaum Spielraum für Fehler.
Bislang stützten sich Grundstückskäufer bei komplexen Investitionsentscheidungen auf jahrzehntelange, hart erarbeitete Erfahrung, öffentlich zugängliche und kommerzielle data Erkenntnisse lokaler Makler. data auf nationaler Ebene data jedoch, dass fast 40 % der Wohnimmobilien nach fünf Jahren Betrieb die angestrebten Auslastungsquoten (über 80 %) nicht erreichen.
Menschen sind nicht in der Lage, die riesigen Mengen an mikro- und makroökonomischen data zu verarbeiten, data für alle Postleitzahlengebiete in England und Wales data , und dies macht es nahezu unmöglich, die komplexen Zusammenhänge und Beziehungen zwischen den Hunderten von Datensätzen zu erkennen. Menschliche Erfahrung kann uns zwar einen Großteil der Antworten liefern, doch in Verbindung mit den Möglichkeiten der data kann dies zu erheblichen Verbesserungen führen.
Arca Blanca wurde von einem großen britischen Bauträger und Betreiber von Pflegeheimen beauftragt, das Fachwissen und die Erfahrung seiner Grundstücksmakler mit unseren Kompetenzen data und data zu verbinden. Im Rahmen dieser Zusammenarbeit haben wir ein leistungsstarkes Machine-Learning-Modell entwickelt, das sowohl interne data wie die individuelle Leistungsbilanz einzelner Pflegeheime) als auch über 450 externe data (demografische, mikro- und makroökonomische data ) aus den letzten 30 Jahren nutzt.
Die Lösung für maschinelles Lernen
1) Analyse der Auslastung im Zeitverlauf
Wir wollten herausfinden, wie hoch die Wahrscheinlichkeit ist, dass ein Pflegeheim innerhalb der nächsten fünf Jahre eine Auslastung von über 80 % erreicht, und haben dazu die Entwicklung der Auslastung im Zeitverlauf analysiert.
Für eine zuverlässige Belegungsprognose sind externe data demografische data Wohlstand, geografischen Gegebenheiten und dem Grünflächenindex der Region unerlässlich und müssen mit den internen data des Pflegeheims kombiniert werden. Wir haben festgestellt, dass eine monatliche Aktualisierung der internen Belegungsdaten am vorteilhaftesten ist, da dies dazu beiträgt, saisonale Schwankungen zu erkennen und deren Auswirkungen zu minimieren.
2) Den richtigen Algorithmus finden
Für jeden Zeitraum (in diesem Fall monatlich) können wir das Problem entweder als „Kategorisierung“ betrachten („Wird die Auslastung am Ende des 5. Jahres bei 80 % liegen? Ja oder Nein“) oder als „Prognose“ („Wie hoch wird die Auslastung am Ende des 5. Jahres sein?“). Darüber hinaus können wir den letztgenannten Ansatz nutzen, um die Belegungstrends über die gesamten fünf Jahre hinweg zu prognostizieren – eine bevorzugte Methode, wenn data begrenzt ist.
Um hochpräzise Vorhersagen zu erzielen, muss der gewählte Ansatz mit Techniken wie der Hyperparameter-Optimierung und der Kreuzvalidierung kombiniert werden, um die richtigen Parameter für das Modell zu ermitteln und so die Vorhersagegenauigkeit bei neuen/unbekannten data zu maximieren.
3) Validierung des Modells
Der Algorithmus wird anhand von internen und externen data aus über fünf Jahren trainiert data seine Genauigkeit muss jedoch auch anhand von data überprüft werden, data zuvor noch nicht „gesehen“ hat. Dazu werden einige Standorte ausgewählt, für die wir die historische Auslastung bereits kennen, und diese durch das trainierte Modell geleitet. Zu diesem Zweck führen wir eine Regression des Modells auf den historischen Zeitpunkt durch, zu dem die Standorte in Betrieb genommen wurden, um zu ermitteln, was das Modell zu diesem Zeitpunkt vorhergesagt hätte und was letztendlich erreicht wurde. Die absolute Differenz zwischen der tatsächlichen Auslastung und der prognostizierten Auslastung wird als Prognosefehler bezeichnet. Das Modell muss mithilfe eines iterativen Ansatzes optimiert werden, um diesen Fehler so gering wie möglich zu halten.
Dieses Modell wurde an einer Vielzahl von Standorten getestet und weist eine durchschnittliche Fehlerquote von nur 9 % auf – deutlich besser als aktuelle, von Menschen erstellte Prognosen. Angesichts der historischen Schwankungen bei data und -verfügbarkeit ist dies ein unglaubliches Ergebnis.
4) Vertrauen in das Modell aufbauen
Modelle des maschinellen Lernens bewegen sich auf einem Spektrum zwischen hoher Erklärbarkeit (White-Box) und hoher Genauigkeit (Black-Box). Bei Arca Blanca streben wir danach, einen goldenen Mittelweg zwischen diesen beiden Polen zu finden. Ohne jegliche Erklärbarkeit wird die Akzeptanz des Modells erschwert, da es mit Misstrauen betrachtet wird. Ein Mangel an Genauigkeit führt auf andere Weise zu demselben Problem.
Bei diesem Projekt haben wir ein extrem hohes Maß an Genauigkeit angestrebt, jedoch je nach data, Vorhandensein von Ausreißern und allgemeiner Zuverlässigkeit der Ergebnisse auf der Grundlage statistischer Intervalle unterschiedliche Konfidenzniveaus für die Ergebnisse angegeben. Ergänzt wird dies durch umfangreiche lokale data in engem Zusammenhang mit den Ergebnissen stehen. Zusammen ergeben diese Elemente ein aussagekräftiges Bild hinsichtlich der Konfidenzniveaus der Ergebnisse und der möglichen Einflussfaktoren auf diese Ergebnisse.
Veränderte Arbeitsweisen
Unser Kunde hat das Modell als zentralen Bestandteil seiner Investitionsausschüsse eingeführt. Wir haben ein maßgeschneidertes Dashboard entwickelt, um eine schnellere und präzisere Entscheidungsfindung in Vorstandssitzungen zu ermöglichen (als Ersatz für die umständliche interne Einschätzung), sodass das Team Live-Szenarien durchspielen und eine große Anzahl potenzieller Standorte ausschließen kann, ohne langwierige und kostspielige Untersuchungen oder Standortbesichtigungen durchführen zu müssen. Alle Möglichkeiten zum Grundstückserwerb werden nun zügig priorisiert; die lokalen data die Modellausgaben bilden eine tägliche und unverzichtbare Unterstützung für das Grundstückserwerbsteam.
Wichtig ist, dass das Unternehmen sich das maschinelle Lernen und dessen Potenzial zu eigen gemacht hat – nicht als Bedrohung für Arbeitsplätze und Arbeitsweisen, sondern als unverzichtbares Instrument, um sich auf einem komplexen und anspruchsvollen Anlagemarkt einzigartige Vorteile zu verschaffen.
„Die Komplexität, die mit der Auswertung hunderter Variablen einhergeht, um deren Zusammenhang mit dem Erfolg zu ermitteln, macht deutlich, wie wichtig AI Modelle sind, um die menschliche Entscheidungsfindung zu verbessern.“
Entscheidungshilfe, nicht Entscheidungsfindung
Die Kombination mehrerer data kann ein umfassendes Verständnis der verschiedenen Faktoren vermitteln, die die Auslastung beeinflussen. In einem konkreten Anwendungsfall für einen Bauträger von Seniorenwohnheimen stellten wir fest, dass die Nähe zu Schwimmbädern zu den fünf wichtigsten Faktoren für die Auslastung gehörte – etwas, das ein Immobilienmakler leicht übersehen kann! Die Komplexität der Auswertung zahlreicher demografischer Merkmale, Schwimmbäder, Grünflächenindikatoren und Hunderter weiterer Variablen, um deren Zusammenhang mit dem Erfolg zu ermitteln, unterstreicht die Notwendigkeit AI Modelle zur Verbesserung menschlicher Entscheidungsprozesse.
Wo AI insbesondere im Immobiliensektor an ihre Grenzen stoßen, ist die Interpretation irrationaler menschlicher Verhaltensweisen. Ältere Bewohner sind möglicherweise bereit, für ein Pflegeheim größere Entfernungen in Kauf zu nehmen, wenn dieses näher bei Freunden oder Verwandten liegt, oder sie ziehen vielleicht nach, um einem Sohn oder einer Tochter zu folgen, die gerade wegen eines neuen Jobs an einen anderen Ort gezogen sind. Vielleicht haben sie keine Verwandten und möchten weiter in den Süden ziehen, um das „bessere“ Wetter und die eindeutig überlegene Qualität der dortigen Fish & Chips zu genießen.
Es ist zudem wichtig zu bedenken, dass nicht alle Regionen des Vereinigten Königreichs über zuverlässige demografische data verfügen oder diese auf die gleiche Weise erfassen (wobei Schottland eine bemerkenswerte Ausnahme darstellt). AI können zudem nur Variablen analysieren, für die zuverlässige, qualitativ hochwertige historische data – sie können weder die Qualität der Aussicht von einem bestimmten Standort aus noch die Freundlichkeit der Leiter von Pflegeheimen messen. Sie können weder die Qualität des Essens in konkurrierenden Pflegeheimen messen noch die besonderen Vorzüge des Gartens eines Heims oder dessen Aktivitätenprogramm erfassen. Daher müssen die inhärenten Grenzen dieser AI verstanden werden. Sie dürfen nicht die einzige Informationsquelle bei der Entscheidungsfindung sein. Solange Menschen weiterhin irrationale Entscheidungen treffen, AI erfahrene Immobilienmakler (noch) nicht ersetzen. Sie ergänzen die menschliche Entscheidungsfindung, anstatt sie zu ersetzen.
Letztendlich erfordert die erfolgreiche Umsetzung von Modellen zur Belegungsprognose einen ausgewogenen Ansatz, der data Erkenntnisse mit menschlichem Fachwissen und Verständnis verbindet. Die Nutzung hyperlokaler demografischer, makroökonomischer, Einzelhandels-, Geschäfts- und data Vorhersage der Belegungsraten geht weit über die Pflegeheimbranche hinaus und lässt sich auch auf andere Anlageklassen (Studentenwohnheime, Büroimmobilien, Einzelhandel, Industrie und Gewerbe usw.) anwenden. Marketingteams können dieses Konzept nutzen, um gezielte Kampagnen auf der Grundlage der Bevölkerungsdichte bestimmter Standorte zu planen sowie die ideale Anzahl von Einheiten oder Zimmern und deren optimale Preisgestaltung besser zu verstehen. Durch die Nutzung der Möglichkeiten von Big data können Führungskräfte fundiertere Entscheidungen treffen und den Betrieb optimieren.
Dieses Projekt wurde von einem gemeinsamen Team aus Unternehmensberatern, Data und Technologen über einen Zeitraum von 16 Wochen in enger Zusammenarbeit mit dem Kundenteam durchgeführt. Das Projekt wurde in zwei Phasen durchgeführt. Die erste Phase bestand darin, innerhalb von vier Wochen einen relativ kostengünstigen und unverbindlichen Proof of Concept zu erstellen, um sicherzustellen, dass ein präzises Modell entwickelt werden konnte, während die zweite Phase von zwölf Wochen darin bestand, das Modell durch zusätzliche data und robustere Algorithmen zu stärken und ein maßgeschneidertes Dashboard zu entwickeln, mit dem die Nutzer interagieren können.

BLOG






