The Data Webhouse Toolkit
 Startseite   Kontakt   Impressum  
    Sie sind hier:  Service »  Veröffentlichungen » Rezension

    The Data Webhouse Toolkit

    Ralph Kimball, Richard Merz, Wiley, New York, 2000, ISBN 0-471-37680-9

    Building the WebEnabled Data Warehouse
    Welche konzeptionellen Anpassungen sind notwendig, um ein Data Warehouse an die neuen Anforderungen im Zuge der Internetisierung anzupassen und welche Nutzungsmöglichkeiten bietet ein Data Webhouse (internetisiertes Data Warehouse) dem Betreiber einer Internet-Anwendung? Diese zentralen Fragen werden von Ralph Kimball und Richard Merz behandelt, die sich schon ausführlich mit dem Thema Data Warehouse auseinander gesetzt haben. Das Buch ist als Fortsetzung der zwei früheren Werke von Ralph Kimball zu sehen, die sich jeweils mit der Konzeption und dem Lebenszyklus von Data Warehouse-Projekten befassen ("The Data Warehouse Toolkit", "The Data Warehouse Lifecycle Toolkit"). Die Etablierung des Begriffs "Data Webhouse" muß daher auch marketingstrategisch bewertet werden.

    In dem aktuellen Werk wird das Gesamtthema in zwei Blöcken, zum einen von der Seite der Datenspeicherung (Data Warehouse) und zum anderen von der Seite der Internet-Anwendung, beleuchtet.

    In einem ersten Schritt steht das Sammeln und die Datenspeicherung im Vordergrund. Es wird zwar das Wissen über ein Data Warehouse vorausgesetzt, jedoch reichen die erklärenden Einleitungen der einzelnen Kapitel für das Verständnis aus, wenn ein Grundwissen zu Datenbanken vorhanden ist. Vielmehr zielen die Erläuterungen auf ein Verständnis der Veränderungen ab, die durch das Internet ausgelöst werden. So wird zunächst erörtert, welche neuartigen Datenquellen im Internet zur Verfügung stehen. Dazu gehört jede Interaktion des Benutzers, sei es die Navigation durch die einzelnen Seiten oder die ausgelösten Aktionen, abhängig von der Internet-Anwendung (z.B. Anfragen einer Suchmaschine, Produktbestellungen in Online-Shops o.ä.). Diese als Clickstream bezeichnete Datenquelle liefert in bisher nicht verfügbarer Granularität Daten zum Verhalten der Internet-Benutzer. Kimball und Merz beschreiben daher gezielt den Entwurf eines Data Webhouse, welches Clickstream-Daten speichern und verwalten kann, um somit die Grundlage für die Auswertung zu bilden. Dabei wird stets auf die Hauptaufgabe eines Data Warehouse hingearbeitet - die Ableitung von Entscheidungen bzw. Maßnahmen aufgrund der Zusammenführung von unternehmensweiten Datenquellen. Die Autoren geben eine Anleitung, in welchen Schritten die erfaßten Daten aufbereitet werden müssen, um unnötiges Datenvolumen zu vermeiden, und um einen einfachen Zugriff zu gewährleisten. Dabei wird ausdrücklich darauf hingewiesen, daß eine Integration der neuen Datenquellen in ein unternehmensweites Data Warehouse ein aufwendiges Unterfangen ist, da sehr grundlegende Veränderungen bzw. Erweiterungen notwendig sind. Die einzelnen Bestandteile der Datenhaltung, wie auch der schnelle Zugriff über einen Caching-Mechanismus werden im Zusammenhang mit der Anbindung an das Internet diskutiert.

    Im zweiten Block gehen die Autoren auf die Verwendung der gesammelten Daten im Internet ein, d.h. wie können sie im Betrieb einer Internet-Anwendung nutzbringend eingesetzt werden. Es wird verdeutlicht, daß insbesondere im Kontakt mit Online-Kunden verbesserte Dienstleistungen angeboten werden können. Zum Beispiel besteht für den Bereich Marketing die Möglichkeit, direkt, d.h. in Echtzeit, auf das Benutzerverhalten einzugehen, und spezielle Aktionen auszulösen. Dabei stehen personalisierte Marketingmaßnahmen im Vordergrund, da sie sehr individuell auf den Benutzer eingehen (z.B. werden abhängig vom Thema, für das ein Benutzer Informationen anfordert, weiterführende Seiten bzw. Produkthinweise in die angeforderten Seiten integriert; personalisierte Web-Seiten). Obwohl die Autoren die Bedeutung der Datenanalyse mittels Datamining stark betonen, widmen sie ihr nur einen kleinen Abschnitt, in dem sie minimiert die möglichen Verfahren zur Datenanalyse beschreiben und u.a. auf weiterführende Literatur verweisen( z.B. "Data Mining Your Website" von Jesus Mena).

    In weiteren Abschnitten werden Themen behandelt, die für die Durchführung eines Webhouse-Projektes innerhalb eines Unternehmens und für die Wartung und Erhaltung wichtig sind. Sie verdeutlichen, daß nicht nur technische Probleme, wie Internationalität und Skalierbarkeit, zu lösen sind, sondern daß ein Management von vielerlei Interessen den Erfolg eines Data Webhouse-Projektes beeinflussen.

    Das Buch richtet sich praxisorientiert an Projekt-Manager bzw. IT-Techniker, die mittels Anbindung von Internet-Anwendungen an ein Data Warehouse eine Verbesserung des Online-Service anstreben. Es bietet sowohl einen Überblick über das technisch Machbare, als auch den Zusammenhang zum wirtschaftlich sinnvollen Umgang mit Benutzerdaten aus dem Internet. Dabei ist ein sensibler Umgang mit Aspekten des Schutzes der Privatsphäre und der allgemeinen Datensicherheit deutlich spürbar. Diese nach meiner Meinung zu oft vernachlässigte Eigenschaft im Bereich der Datenanalyse genießt im Data Warehouse Umfeld ausreichende Beachtung.

    In den einzelnen Abschnitten werden konkrete Vorschläge für den Entwurf einer Datenbank vorgestellt, so daß der Leser ein Beispiel für eine Umsetzung dessen erhält, was zuvor als Anforderung an die Funktionalität beschrieben wurde. Die extra hervorgehobenen Tips, die teilweise aus einfachen Beachtungsregeln bestehen, drücken dabei die Erfahrung der Autoren in diesem Bereich aus und unterstreichen die Praxisnähe. Die teilweise rezeptähnlichen Abschnitte bergen aber auch die Gefahr, daß eine Lösung auf das eigene Problem projiziert wird, ohne über die Anforderungen nachzudenken. Sofern sich der Leser dessen bewußt ist, bietet dieses Buch ein lesenswertes Beispiel für den Ansatz, den Bereich Data Warehouse auf das neue Medium Internet auszuweiten.

    Ralf Walther, Konstanz, Jan. 2001