Ein Ansatz zur Lösung des LNE-Dilemmas

Donnerstag, 11. August 2016, von WER

Als „Dilemma“ bezeichnete kürzlich ein Kunde ein häufig auftretendes Problem beim Aggregationstyp LastNonEmpty (LNE), der oft zur Abbildung von Bestandslogiken eingesetzt wird. Ausweglos, wie das Wort Dilemma nahe legt, ist die Problematik jedoch nicht, wie dieser Blog zeigen wird.

Freie Wetterdaten Teil 1

Freitag, 5. August 2016, von ZIE

Nicht nur für Hobby-Meteorologen oder Klimaforscher können Wetterdaten spannende Einblicke gewähren und Trends bzw. Zusammenhänge aufzeigen. Auch im unternehmerischen Kontext haben Wetterdaten ihre Bewandtnis. Gerade bei Unternehmen aus dem Einzelhandel oder aus der Lebensmittelbranche ist der Einfluss des Wetters auf den Umsatz nicht so leicht von der Hand zu weisen. Auch wenn dies Pauschal natürlich nicht für jeden Lebensmittelhersteller gilt, gibt es doch Paradebeispiele, wie den Eishersteller, dessen Umsatz stark von den Wettereinflüssen geprägt ist. Um nun selbst untersuchen zu können, ob es zwischen dem Wetter und einzelnen Kennzahlen im eigenen Unternehmen einen Zusammenhang gibt, muss erstmal die Datengrundlage geschaffen werden. Dieser Blog befasst sich genau mit diesem Thema. Im ersten Teil der Blogreihe wird gezeigt, wie man überhaupt an freie Wetterdaten gelangt und wie diese angebunden werden können. Im zweiten Teil wird dann auf die Modellierung sowie die schlussendliche Analyse eingegangen.

Inkrementelles Löschen – Vanilla Style

Freitag, 22. Juli 2016, von KBS

Wie schon im Blog „Inkrementelles Laden – Vanilla Style“ angekündigt, hat der DeltaMaster Modeler 213 noch weitere Unterstützung für inkrementelle Befüllungsszenarien an Bord. Neben der im Blog erwähnten Möglichkeit das Snowflake-Schema inkrementell zu erzeugen, ist noch ein weiteres wertvolles Feature hinzugekommen, was eine Lücke in dem skizzierten Ladeprozess schließt: das inkrementelle Löschen von Daten. Wie diese neue Funktion konfiguriert wird, ist Thema dieses Blogs.

Basisarbeit

Freitag, 15. Juli 2016, von HUS

Die Arbeit an der Basis einer OLAP-Datenbank erscheint simpel und ist eines der fundamentalen Konzepte. Leider existiert immer wieder Konfusion, was mit Basis (oder den Blättern einer Dimension) gemeint ist.

Hinter diesem Thema stehen zwei unterschiedliche Konzepte, die man beide als Basis bezeichnet:
• Hierarchie-Basis
• MeasureGroup-Basis

In diesem Artikel werden diese beiden Konzepte näher betrachtet und Möglichkeiten aufgezeigt, wie man Basisarbeit betreiben kann.

Relationale Eingabeanwendung als Alternative zur Custom App

Freitag, 1. Juli 2016, von PAU

Häufig müssen Daten in bestehenden Modellen angepasst oder ergänzt werden. Um neue Daten relational zu übernehmen oder Hintergrundprozesse zu starten, kennen wir schon die Funktionalität der Custom App mit zusätzlichen Menüpunkten in DeltaMaster.

Eine weitere Möglichkeit, den DeltaMaster-Benutzern den manuellen Start von Prozeduren komfortabel über das FrontEnd einzurichten, bietet die relationale Eingabeanwendung.

XYZ-Analyse mit DeltaMaster

Freitag, 24. Juni 2016, von NER

Ist es möglich, mit DeltaMaster-Bordmitteln eine XYZ-Analyse durchzuführen? Dieser Artikel aus der Blogreihe „Auf die Würfel, fertig, los“ beleuchtet die theoretischen Hintergründe dieser Analyse und schildert, welche Überlegungen und Schritte nötig sind, um die gewünschten Aussagen in DeltaMaster zu erhalten.

Planung mit Verteilungsfaktor

Freitag, 17. Juni 2016, von CUS

Eine Planungsanwendung sollte performant sein. Deshalb ist es wichtig, die richtige Dimensionalität für die Planungs-Measure-Gruppen auszuwählen. Oft besteht die Anforderung, auf eine niedrige Dimensionsebene z. B. Tagesebene zu planen, wobei die Verteilung der Monatswerte bzw. Wochenwerte auf die Tage immer das gleiche Muster zurückgeben kann; z. B. Montag hat immer den niedrigsten Umsatz der Woche. Statt die Werte auf Tagesebene zu schreiben, kann für dieses Szenario eine zweite Measure-Gruppe definiert werden, welche für jeden Tag einen Verteilungsfaktor enthält. Der Tageswert kann danach im Cube-Skript berechnet werden.

Dynamische Boxplots

Freitag, 10. Juni 2016, von WIE

Boxplots-Diagramme dienen zur grafischen Darstellung der Verteilung eines Merkmales. Mithilfe von Boxplots soll schnell ein Eindruck vermittelt werden, in welchem Bereich die Werte einer Kennzahl liegen und wie sie sich über diesen verteilen. In diesem Blog-Artikel soll eine in einem Kundenprojekt angewandte Methode erläutert werden, die mit wenig Aufwand und ein bisschen MDX eine Vielzahl von KPIs dynamisch als Boxplot in einem Bericht darstellen kann.

SQL Server Profiler für SSAS MOLAP (Teil 1)

Freitag, 3. Juni 2016, von OLE

SQL Server Analysis Services (kurz: SSAS) ist eine multidimensionale Datenbank, die hervorragende Möglichkeiten bietet, Business Intelligence-Systeme bis auf Enterprise-Ebene zu entwickeln. SSAS vereint Einfachheit in der Entwicklung mit außergewöhnlicher Flexibilität und Performance. Kleine und triviale Systeme werden in den meisten Fällen sehr schnell funktionieren, bei größeren und komplexeren Systemen kann es zu Performance-Problemen kommen. Wie kann man nun solche Probleme und deren Ursachen identifizieren? Glücklicherweise bietet Microsoft einige Performanceanalyse-Tools; das wichtigste Tool ist SQL Server Profiler (kurz: Profiler).

SSIS und das Excel-Problem

Freitag, 27. Mai 2016, von ZIE

Mit dem ETL-Werkzeug SQL Server Integration Services (SSIS) des Microsoft SQL Servers können unterschiedlichste Datenladeprozesse umgesetzt werden. Dabei ist nicht nur die Zahl an anzubindenden Ziel- und Quellsystemen nahezu unerschöpflich, sondern auch die Datenmodifikations-, Datentransformations- und Datenvalidierungsmöglichkeiten, die zwischen der Anbindung der Quelle und des Ziels geschehen können. Und so ist es nicht verwunderlich, dass aus diesen vielen Modellierungsmöglichkeiten des Datenladeprozesses komplexe und verzahnte Pakete entstehen können, die anspruchsvolle Datenlogiken abbilden und beinhalten können.