Wat als Next-Generation BI al bestond?

Foto Daan van Beek MSc
Auteur: Daan van Beek MSc
Managing Director
Inhoudsopgave

Wat zou het voor u betekenen als u binnen enkele weken met een complete business intelligence applicatie aan de slag kunt gaan? Wat als u helemaal geen data warehouse of datamarts zou hoeven bouwen? Hoeveel zou het u waard zijn als uw gebruikers ongelimiteerde multidimensionele toegang hadden tot alle relevante bedrijfsinformatie, via een paar minuten training en het aanklikken van een muis? En wat als zij terstond deze data konden benaderen en vrijwel direct biljoenen records met data zouden kunnen analyseren? Bent u het zat om over dit scenario te dromen en te speculeren? Droom en speculeer dan niet verder, want dit is vanaf heden realiteit.

Next-generation BI is hier en blijft!

Toen 20 jaar geleden de BI analyse begon uit te breiden, was memory nog duur en de processing snelheden waren helemaal niet zo snel als wel gewenst. Zo kwam het dat nieuwkomers in deze omgeving werden tegengehouden omdat ze niet goed wisten hoe ze de zogeheten multi-dimensionele analyses technisch tegemoet moeten treden. Ze waren sowieso verplicht om een zogeheten ‘pre-calculatie aanpak’ te gebruiken, met behulp van het bouwen van cubes, om zo de resultaten van deze pre-calculaties te kunnen opslaan. Terwijl het leek op een direct resultaat naar de gebruiker toe, was de grote uitdaging met dit zogeheten ‘online analytische processing (OLAP) om de hoge kosten en de (vaak lange) tijd die hiermee gemoeid was, binnen de perken te houden. Oorzaak hiervoor was voornamelijk het definiëren en herdefiniëren van de cubes.

De wet van Moore

Met de komst van Moore’s Law, die zijn onbuigzame wil oplegde gedurende de laatste twee decennia, heeft de hedendaagse BI omgeving een ware revolutie ondergaan. Met name de toenemende processing snelheden en het feit dat memory elke dag betaalbaarder wordt hebben een significante impact hierop. In het bijzonder heeft de beschikbaarheid van 64-bit computing gezorgd voor een grote toename van de hoeveelheid data die een computer vandaag de dag kan opslaan. De combinatie van deze voordelen heeft gezorgd voor een nieuwe aanpak binnen de technische architectuur, die de tekortkomingen van de traditionele OLAP oplossingen kan vervangen.

Pressie van de ene kant

Vanwege deze technische evolutie, moeten de zogeheten traditionele en standalone OLAP spelers (jullie weten wie jullie zijn) het hoofd bieden aan een samengaan en daarmee een bedreiging aan het adres van hun services-beladen business modellen. Pressie van de ene kant van de zogeheten grote ‘stack players’, welke BI aanbieden in hun geïntegreerde oplossingen. Pressie van de andere kant door innovatoren zoals QlikView en Tableau die de nieuwste technologieën benutten waarmee zij sterkere, flexibele en makkelijk-te-gebruiken oplossingen aanbieden die eindgebruikers helpen om meer business waarden te verkrijgen binnen een fractie van de oorspronkelijke tijd. Onze voorspelling- welke kracht bijgezet wordt door de recente acquisitie van Hyperion door Oracle- is dat voor deze traditionele OLAP spelers de dagen geteld zijn.

Traditionele OLAP technologie

De uitdagingen met de implementaties en het gebruik van de traditionele OLAP technologie heeft de bedrijfsindustrie al te lang, teveel problemen bezorgd. Bedrijven willen -, sterker nog, verdienen –analyses die iedereen binnen de organisatie (dus niet alleen de uitverkorenen) kan gebruiken. De opkomst van 64-bit computing platforms verzorgt de basis voor een finale onderbreking van de bestaande status quo. Of meer in detail, in-memory analyse is het platform van de toekomst binnen Business Intelligence.

Het wordt elke dag prominenter

In-memory analyse maakt in de BI industrie een revolutie door en wordt meer en meer de gedicteerde aanpak. De BI industrie is de voornaamste focus binnen bedrijven die investeringen maken, omdat de vraag naar snelle, accurate en vooral gebruiksvriendelijke manieren om de correcte bedrijfsinformatie op te halen, elke dag prominenter wordt. Volgens de uitkomst van een Gartner rapport, geschreven in Oktober 2006, is “de noodzaak voor snelle queries tegenover grote datasets, gekoppeld aan laaggeprijsde 64-bit computing overweldigend, door dit feit zal het gebruik van in-memory technologie enorm toenemen”.Het laden van gedetailleerde data in memory voor rapportage en analyses reduceert de behoefte aan geaggregeerde datastructuren- het voornaamste deel van de meeste BI implementaties. In hetzelfde Oktober 2006 rapport voorspelde Gartner dat “tegen 2012, 70% van de Global 1000 organisaties, gedetailleerde data in memory zal laden en dit zal gebruiken als de primaire methode om een BI-applicatie performance te optimaliseren”

Keer op keer erkenning

Terwijl de markt doorgaat met transformeren, krijgen de BI innovatoren keer op keer erkenning voor het feit dat zij informatie breed, betaalbaar en snel beschikbaar maken, in essentie, zij geven BI instrumenten aan de massa. Door het implementeren van in-memory oplossingen zijn bedrijven nu in staat om te navigeren door analyses heen op dezelfde manier waarop het menselijk brein werkt. Met simpele, makkelijk te gebruiken applicaties die accurate, snelle en handzame informatie leveren, hoeven bedrijven zich niet langer af te vragen, -of te dromen over- een wereld vol simpele schoonheid. Next-generation BI is hier en Next-generation BI blijft!

Rogier Verheij is Vice President Sales van QlikTech Netherlands B.V. Voor zijn aantreding bij QlikTech in 2005, bezette Rogier een senior management positie bij Novell, deel van Cambridge Technology Partners.

Deze organisaties gingen je voor

Word nu ook klant

Wil je ook klant bij ons worden? Wij helpen je maar wat graag verder met datagedreven werken of andere zaken waar je slimmer van wordt.

Foto Daan van Beek - Managing DirectorDAAN VAN BEEK MScManaging Director

Neem contact met mij op

Fact sheet

___
klanten geholpen
___
trainingen & workshops
___
mensen opgeleid
9,6
klanttevredenheid
___
consultants & docenten
20
jaar ervaring