Høstet Big Data under Roskilde-festivalen

Datafangst avslører festivalhemmeligheter

Roskilde-festivalen

Anonymt: Musikkelskerne gir fra seg mange gigabyte med data under Roskilde-festivalen, som brukes på å lage en bedre festival.

Analyse av store datamengder gir overraskende innsikt i deltakernes oppførsel under Roskilde-festivalen. Blant annet står de i liten grad står de i ro for å høre på musikken.

De siste årene har vi i IT-bransjen snakket så mye om Big Data at vi har glemt at de fleste selskapene stadig er temmelig usikre på hvordan de skal forholde seg til datainnsamling og -analyse.

Men Roskilde Festival Big Data Hackaton er unntaket som bekrefter reglen. Da den verdenskjente musikkfestivalen gikk av stabelen i sommer hentet prosjektet utallige gigabytes data ut av blant annet festivalappen som over 70.000 av de 130.000 besøkende har installert på smarttelefonen.

 

Roskilde-festivalen er faktisk Danmarks fjerde største by mens musikkfesten varer, og den kan betraktes som et mini-samfunn. Festivalappen samler hele tiden anonyme(!) data fra mobilenes GPS, samtidig som man kobler sammen data fra Spotify, sosiale medier og mange andre kilder.

Når så forskere, studenter og ansatte fra blant andre IBM, CBS og selskaper som Meyers, kobler sammen de mange, mange informasjonskildene blir og trekker konklusjoner fra dem, blir Big Data en konkret størrelse.

Jeg var selv og hørte på de viktigste konklusjonene fra årets Roskilde Festival Big Data Hackaton.

Kort fortalt er Big Data og analyse av store datamengder, fundamentet for at festivalen er velfungerende og sikker, samtidig som man gir en bedre kundeopplevelse og reduserer sløseri på flere måter.

 

”The consumer is out of control”

En av foredragsholderne under Hackaton sa: ”The consumer is out of control"! Det gjør Big Data og dataanalyse mer relevant, når smaken både hos festivalgjester (og forbrukere i alminnelighet) skifter så raskt at man ikke lenger kan bygge sin forretning på fornemmelser og erfaring.

For eksempel har analyse av de besøkendes faktiske adferd vist at opp mot ti prosent av alle festivaldeltagerne aldri går inn for å høre på konsertene. Dermed går de heller ikke forbi områdene der mange av matbodene står og opplevelsene skjer.

Man skulle også tro at de fleste festivaldeltakere holder seg i ro på samme sted i lengre perioder, for eksempel under konserter, viser dataene at de aller fleste faktisk beveger seg rundt nesten konstant. De er bare på samme sted i kortere perioder av gangen.

 

De siste årene har Hackaton-prosjektet lagt vekt på å finne viten innen tre faser:

Hva skjedde?

Hvilke konserter og events samlet flest mennesker? Hvor og når solgte man mest øl og brød? Og så videre.

Hva skjer?

Hva skjer på plassen akkurat nå? Hvor er folk på vei? Og så videre.

Hva kommer til å skje?

Hvordan kan vi bruke eksisterende viten til å forutse hva som skjer om litt? Hvilke konserter vil tiltrekke flest besøkende? Hvordan vil været påvirke dette års festival i forhold til de tidligere år? Og liknende.

 

Et eksempel på hvordan Big Data ble brukt under årets festival: I dag kan festivalens sikkerhetsansvarlige se hvordan menneskemengder samler seg og beveger seg på området på et interaktivt kart. Når det blir stor trafikk over den sentrale gangbroen over til Rising Star-scenen, kan man dirigere ekstra sikkerhetsfolk dit for å styre menneskemengdene slik at ingen kommer til skade.

 

Data sikrer brød til skinkesteksandwichen

Man har kommet godt i gang med "Hva skjer"-fasen og har også startet med "prediksjons-fasen" hvor modeller og data gir innsikt i sammenhenger som det er vanskelig å få øye på uten Big Data-verktøy.

Prosjektet har allerede gitt flere modeller som kombinerer lokasjonsdata (GPS-data) med data fra Spotify og sosiale medier for å planlegge konsertene mer optimalt. Blant annet slik at man unngår å booke en artist på en for liten scene – og først underveis i konserten blir overrasket over det store publikumstallet fordi artisten er langt, langt mer populær enn antatt.

På samme måte brukes dataanalyse slik at man unngår å la to band med overlappende fanskare spille samtidig.

Også bedriftene som er tilstede på festivalen, kan dra nytte av datainnhøstingen. Man kan for eksempel analysere salget av skinkesteksandwich hos Meyers – som pumper ut 2.000 sandwicher i timen på det meste. Dataanalysen bygger på kunnskap om når salget topper seg i forhold til når de største konsertene slutter koblet sammen med hvor publikum som digger Meyers-sandwichene befinner seg – det kan man nemlig også regne seg frem til!

Meyers bruker tre timer på å bake sandwichbrødet. Innsikt i den fremtidige etterspørselen er ekstremt verdifull viten som øker både kundetilfredsheten og inntjeningen.

 

Visuelle data gir praktisk innsikt

Det er anvendelig innsikt og praktisk dataanvendelse, som gjør at dette prosjektet er utrolig interessant for undertegnede. Ganske enkelt fordi Roskilde-prosjektet gjør alt det vi i IT-industrien har snakket om i årevis – og fordi prosjektet bruker datainnsamling og -analyse for å få konkrete svar.

Noe av det, jeg ble mest imponert over, er hvor stor vekt prosjektet har lagt på å gjøre datafangsten visuell i form av dashboards som er svært intuitive. Det er godt tenkt, for de færreste av oss er særlig gode til å forholde oss til tall og prosenter. Derimot kan alle forholde seg til en graf eller et kart, hvor røde, blå og grønne farger viser presis hvor mange mennesker som hører på Phlake, Lorde eller The Weeknd akkurat nå.

Underveis har man også gjort en rekke verdifulle erfaringer rundt at man skal være tydelig på å gi brukeren høy nok verdi og funksjonalitet tilbake som "betaling" for tilgang på for eksempel GPS-data. Dette er ikke nytt. Slik har Google og andre gratis brukertjenester operert i mange år. Det imidlertid er en viktig forutsetning for å kunne høste brukbare data og gi brukeren en god service tilbake.

Og selvfølgelig må lovverket rundt personvern overholdes gjennom hele prosessen.

Prøv ideer, feile – og få ny innsikt

En anden læring av prosjektet er at man ikke alltid vet i starten hva man får ut, når man kobler Big Data med Machine Learning.

Ofte får man nyttig innsikt og finner skjulte sammenhenger ved å prøve ut ulike hypoteser. Andre ganger finner man ingenting. Det må man være klar over, man må bare lære hurtig – og raskt komme seg videre gjennom å teste ut nye hypoteser. Akkurat slik Hackaton-gjengen på Roskilde-festivalen har gjort de siste årene med stor suksess.

I dag er det også relativt enkelt og rimelig å teste hypoteser ved å bruke kognitive skybaserte plattformer som IBMs Watson. Selv små og mellomstore bedrifter uten store budsjetter kan ta slike tjenester i bruk.

Selv ser jeg frem til å se hvordan IBMs Bluemix Garage-initiativ i København vil å hjelpe kunder med verdifull innsikt og innovative løsninger.

Det bare å komme i gang med Big Data først som sist. Gevinsten av å samle inn store datamengder og analysere dem kan være enorm, uansett om du vil vite mer om hva dine kunder foretrekker, deres vaner og innkjøpsmønstre, eller når man skal sende ti ekstra vakter til Camping West i en faderlig fart!

 Adam de Neergaard er Vice President i Business Analytics Sales, EG A/S.