data inzetten om de beste locaties voor verzorgingstehuizen te vinden:
Geavanceerde data oplossingen – in combinatie met ervaren grondmakelaars – vergroten de kans op het verwerven van locaties voor verzorgingstehuizen met een hoge bezettingsgraad.
Het kiezen van een geschikte locatie voor een verzorgingstehuis is geen eenvoudige opgave.
Een goede locatie voor een verzorgingstehuis moet aan honderden complexe eisen op het gebied van omgeving en ligging voldoen om een duurzame bezettingsgraad te realiseren. Met gemiddelde kosten van £ 1.500 per week per bewoner in een concurrerende markt is er weinig ruimte voor fouten.
Van oudsher baseren kopers van grond hun complexe beslissingen over grondinvesteringen op tientallen jaren aan hard bevochten ervaring, beschikbare openbare en commerciële data inzichten van lokale makelaars. data op nationaal niveau data echter data bijna 40% van de woningen na vijf jaar exploitatie niet de gewenste bezettingsgraad (meer dan 80%) haalt.
Mensen zijn niet in staat om de enorme hoeveelheden micro- en macro-economische data te verwerken data voor alle postcodes in Engeland en Wales data , waardoor het vrijwel onmogelijk is om de complexe verbanden en relaties tussen de honderden datasets te ontdekken. Menselijke ervaring kan ons het grootste deel van het antwoord geven, maar in combinatie met de kracht van data kan dit tot aanzienlijke verbeteringen leiden.
Arca Blanca werd benaderd door een grote Britse bouwer en exploitant van verzorgingstehuizen om de kennis en ervaring van hun vastgoedmakelaars te combineren met onze expertise data en data . In het kader van deze samenwerking hebben we een krachtig machine learning-model ontwikkeld dat gebruikmaakt van zowel interne data zoals de prestaties van individuele verzorgingstehuizen) als meer dan 450 externe data (demografische, micro- en macro-economische data ) die de afgelopen 30 jaar bestrijken.
De oplossing voor machine learning
1) De bezettingsgraad in de loop van de tijd analyseren
We wilden nagaan hoe groot de kans is dat een verzorgingstehuis binnen de komende vijf jaar een bezettingsgraad van meer dan 80% bereikt, door de veranderingen in de bezettingsgraad in de loop van de tijd te analyseren.
Voor een betrouwbare bezettingsprognose zijn externe data demografische data welvaart, geografie en de groenindex van het gebied, van essentieel belang en moeten deze worden gecombineerd met de interne data van het verzorgingstehuis. We hebben vastgesteld dat een maandelijkse frequentie voor het bijwerken van de interne bezettingscijfers het meest gunstig is, aangezien dit helpt om seizoensgebonden effecten te identificeren en tot een minimum te beperken.
2) Het juiste algoritme vinden
Voor elke periode (in dit geval maandelijks) kunnen we het probleem beschouwen als een ‘categorisering’ (“Zal de bezettingsgraad aan het einde van het vijfde jaar 80% bedragen? Ja of nee”) of als een ‘voorspelling’: (“Welk percentage van de woningen zal aan het einde van het vijfde jaar bewoond zijn?”). Bovendien kunnen we de laatste benadering hanteren om bezettingstrends gedurende de 5 jaar te voorspellen – een voorkeursmethode wanneer data beperkt is.
Om zeer nauwkeurige voorspellingen te verkrijgen, moet de gekozen aanpak worden gecombineerd met technieken zoals hyperparameterafstemming en kruisvalidatie, om zo de juiste parameters voor het model te bepalen en de voorspellingsnauwkeurigheid voor nieuwe/niet-gezien data te maximaliseren.
3) Het model valideren
Het algoritme is getraind op meer dan vijf jaar aan interne en externe data maar de nauwkeurigheid ervan moet ook worden getest op data nog niet eerder heeft ‘gezien’. Dit doen we door een aantal locaties apart te houden waarvan we de historische bezettingsgraad al kennen, en deze door het getrainde model te halen. Hiervoor passen we het model toe op de historische datum waarop de locaties in gebruik zijn genomen, om te zien wat het op dat moment zou hebben voorspeld en wat er uiteindelijk is gerealiseerd. Het absolute verschil tussen de werkelijke bezettingsgraad en de voorspelde bezettingsgraad wordt de voorspellingsfout genoemd. Het model moet met behulp van een iteratieve aanpak worden afgestemd om deze fout zo laag mogelijk te houden.
Dit model is op een groot aantal verschillende locaties getest en heeft een gemiddeld foutenpercentage van slechts 9% – aanzienlijk beter dan de huidige door mensen gemaakte voorspellingen. Dit is een verbluffend resultaat, gezien de historische schommelingen in data en beschikbaarheid data .
4) Vertrouwen in het model opbouwen
Machine learning-modellen bevinden zich op een continuüm tussen een hoge mate van verklaarbaarheid (white box) en een hoge mate van nauwkeurigheid (black box). Bij Arca Blanca streven we naar een gulden middenweg tussen deze twee. Zonder enige verklaarbaarheid wordt de acceptatie van het model bemoeilijkt, omdat het met argwaan zal worden bekeken. Een gebrek aan nauwkeurigheid leidt op een andere manier tot hetzelfde probleem.
Bij dit project hebben we gestreefd naar een uiterst hoge mate van nauwkeurigheid, maar hebben we tegelijkertijd betrouwbaarheidsniveaus voor de resultaten aangegeven op basis van de beschikbaarheid van data, de aanwezigheid van uitschieters en de algemene betrouwbaarheid van de resultaten op basis van statistische intervallen. Dit wordt aangevuld met een aanzienlijke hoeveelheid lokale data een sterke correlatie vertonen met de resultaten. Samen geven deze een duidelijk beeld van de betrouwbaarheid van de resultaten en van de factoren die deze resultaten kunnen beïnvloeden.
Veranderende werkwijzen
Onze klant heeft het model ingevoerd als een cruciaal onderdeel van zijn investeringscommissies. We hebben een op maat gemaakt dashboard ontwikkeld om snellere en nauwkeurigere besluitvorming tijdens bestuursvergaderingen mogelijk te maken (ter vervanging van de omslachtige interne visie), zodat ze live scenario’s kunnen doorrekenen en grote aantallen potentiële locaties kunnen uitsluiten zonder dat daarvoor langdurige en kostbare onderzoeken of locatiebezoeken nodig zijn. Alle mogelijkheden voor grondverwerving worden nu snel geprioriteerd; data de lokale data de modelresultaten vormen een dagelijkse en onmisbare ondersteuning voor het grondverwervingsteam.
Belangrijk is dat de organisatie machine learning en de mogelijkheden die deze technologie services heeft omarmd services niet als een bedreiging voor banen en werkwijzen, maar als een essentieel hulpmiddel om unieke voordelen te creëren in een complexe en uitdagende beleggingsmarkt.
„De complexiteit van het interpreteren van honderden variabelen om hun verband met succes te bepalen, onderstreept de noodzaak van AI modellen om de menselijke besluitvorming te verbeteren.“
Beslissingsondersteuning, geen besluitvorming
Door meerdere data te combineren, kan een uitgebreid inzicht worden verkregen in de verschillende factoren die de bezettingsgraad beïnvloeden. In een specifiek praktijkvoorbeeld voor een bouwer van bejaardentehuizen ontdekten we dat de aanwezigheid van zwembaden in de buurt tot de top 5 van factoren behoorde die de bezettingsgraad beïnvloeden – iets wat een makelaar gemakkelijk over het hoofd kan zien! De complexiteit van het interpreteren van talrijke demografische kenmerken, zwembaden, indicatoren voor groenvoorzieningen en honderden andere variabelen om hun verband met succes te bepalen, onderstreept de noodzaak van AI modellen om de menselijke besluitvorming te ondersteunen.
Waar AI tekortschieten, met name in de vastgoedsector, is bij het interpreteren van irrationeel menselijk gedrag. Oudere bewoners zijn misschien bereid om grotere afstanden af te leggen naar verzorgingstehuizen als die dichter bij vrienden of familie liggen, of misschien verhuizen ze om een zoon of dochter te volgen die net naar een andere regio is verhuisd voor een nieuwe baan. Misschien hebben ze geen familie en willen ze verder naar het zuiden verhuizen vanwege het „betere“ weer en de duidelijk superieure kwaliteit van de lokale fish & chips.
Het is ook van cruciaal belang te beseffen dat niet alle regio’s in het Verenigd Koninkrijk data betrouwbare demografische data of deze op dezelfde manier registreren (Schotland vormt hierop een opvallende uitzondering). AI kunnen bovendien alleen variabelen analyseren waarvoor betrouwbare, hoogwaardige historische data – ze kunnen de kwaliteit van het uitzicht vanaf een bepaalde locatie of de vriendelijkheid van de managers van verzorgingstehuizen niet meten. Ze kunnen de kwaliteit van het eten in concurrerende verzorgingstehuizen niet meten, noch de specifieke kwaliteiten van de tuin van een tehuis of hun activiteitenprogramma begrijpen. Daarom moeten de inherente beperkingen van deze AI worden begrepen. Ze kunnen niet de enige bron van informatie zijn bij de besluitvorming. Zolang mensen irrationele beslissingen blijven nemen, AI ervaren makelaars (nog) niet vervangen. Ze vullen de menselijke besluitvorming aan in plaats van deze te vervangen.
Uiteindelijk vereist een succesvolle implementatie van modellen voor bezettingsprognoses een evenwichtige aanpak waarin data inzichten worden gecombineerd met menselijke expertise en inzicht. Het gebruik van hyperlokale demografische, macro-economische, retail-, bedrijfs- en data bezettingsniveaus te voorspellen reikt veel verder dan de sector van de verzorgingstehuizen en kan worden toegepast op andere vastgoedcategorieën (studentenhuisvesting, kantoren, winkels, industrieel en logistiek vastgoed, enz.). Marketingteams kunnen dit concept gebruiken om gerichte campagnes te plannen op basis van de bevolkingsdichtheid van specifieke locaties en om een beter inzicht te krijgen in het ideale aantal eenheden of kamers en de optimale prijsniveaus. Door gebruik te maken van de kracht van big data kunnen leidinggevenden beter geïnformeerde beslissingen nemen en de bedrijfsvoering optimaliseren.
Dit project werd gedurende 16 weken uitgevoerd door een gezamenlijk team van managementconsultants, Data en technologen, in nauwe samenwerking met het team van de klant. Het project verliep in twee fasen. De eerste fase bestond uit het opzetten van een relatief goedkope, vrijblijvende Proof of Concept gedurende een periode van 4 weken om te garanderen dat er een nauwkeurig model kon worden gebouwd, terwijl de tweede fase van 12 weken bestond uit het versterken van het model met aanvullende data en robuustere algoritmen en het bouwen van een op maat gemaakt dashboard waarmee gebruikers konden werken.

BLOG






