Logo

Usecase: In 4 Stunden von SAP Export robuste Price-Volume-Mix-Analysen erstellen

11.02.2025

Price-Volume-Mix- (PVM) -Analysen stellen Veränderungen in Umsatz oder Kosten von einer Periode zur nächsten dar. Sie zeigen Veränderungen aus Preis, Menge oder dem veränderten Produktmix. Optional werden außerdem Veränderungen durch neue und ausgelaufene Produkte dargestellt.

Für unseren Kunden ist die PVM-Analyse entscheidend, um die Effektivität seines globalen Einkaufs zu bewerten. Die Auswirkungen von Vertragsverhandlungen auf die Gewinn- und Verlustrechnung sind aktuell nur manuell mit viel Aufwand nachzuvollziehen.


Notwendig für die Analyse sind alle Transaktionen aus dem Einkauf mit Preis und Menge je Material. Oft werden Daten erst durch einen Export aus SAP für den Anwender zur Bearbeitung verwendbar. Und der Aufwand für die Erstellung der PVM-Analyse ist zu hoch, um die PVM-Analyse regelmäßig manuell zu machen.

So wird die Analyse heute gemacht


Heute gibt es zwei Möglichkeiten um die Analyse zu erstellen:

  • Excel ist aufgrund der einfachen Handhabung und Vertrautheit das bevorzugte Tool für PVM-Analysen. Doch Excel kann nur schlecht automatisiert werden und ist nicht für große Datensätze geeignet.


  • Ein IT-Projekt zur Erstellung einer kompletten Datenpipeline durch die IT-Abteilung oder einen externen Dienstleister. Diese Option ist kostspielig und braucht viel Zeit.

Fortschritte bei KI bieten neue Möglichkeiten

Im letzten Jahr sind die Entwicklungen der Künstlichen Intelligenz weit vorangeschritten. Es ist jetzt möglich, funktionsfähigen Code schreiben zu lassen. ChatGPT kann aus einer kurzen Textnachricht viele Zeilen Code generieren, der funktioniert und sofort einsatzbereit ist. Mit Cursor gibt es eine Entwicklungsumgebung, die von KI unterstützt wird. So kann Code mit Sprachbefehlen erstellt und editiert werden.

Eine Datenpipeline aufbauen ohne Programmierkenntnisse


Cursor und ChatGPT waren die beiden Hilfsmittel, die wir verwendet haben, um die PVM-Analyse zu implementieren. ChatGPT hat dabei vor allem die Anleitung geliefert und bei Fehlerbehebung geholfen, Code haben wir von Cursor schreiben lassen. Die Umsetzung hatte folgende 4 Schritte:

  1. SAP Daten: Für das Beispiel brauchten wir Daten. Auch dafür haben wir KI gefragt und uns einen Datensatz mit 10.000 Einkaufstransaktionen erstellen lassen. Wir haben gesagt, dass der Datensatz mindestens Material, Preis und Datum enthalten soll. Außerdem sollten die Daten in Struktur und Aussehen gleich sein wie ein SAP Export.

  1. Speicherung in PostgreSQL: Der nächste Schritt war die Verarbeitung der Daten, um diese in einer PostgreSQL Datenbank zu speichern. Den Code zum Auslesen des .csv-Exports haben wir in Cursor geschrieben. Auch die Datenbank wurde durch KI-programmierten Code erstellt und lokal aufgesetzt.


  2. Transformation mit dbt: Für die PVM-Analyse müssen alle Einkäufe pro Material und Jahr aufsummiert werden und ein gewichteter Durchschnitt für den Stückpreis berechnet werden. Für die Transformation verwenden wir die Open-Source Lösung dbt. In Cursor haben wir dafür mit einem Sprachbefehl SQL Code erstellen lassen, der die Transformation vornimmt. Die transformierten Daten werden dann in neuen Tabellen in der PostgreSQL Datenbank gespeichert.

  3. Visualisierung in Power BI: Schließlich fließen die Daten in Power BI-Dashboards. Die lokale PostgreSQL Datenbank muss dafür einmal als Quelle in Power BI  integriert werden. Danach hat ChatGPT allen DAX Code erstellt, den wir in Power BI mit Kopieren & Einfügen transferiert haben.

Welche Daten wollt ihr analysieren?


Wir haben gemerkt, dass es sehr viel Spaß macht, schnell Ergebnisse zu erzielen, die früher nicht möglich gewesen wären. Vor allem Nicht-Entwickler haben plötzlich ganz neue Möglichkeiten.


Welche Datenanalysen habt ihr schon lange vor, aber hattet nicht die Möglichkeit schnell umzusetzen? Versucht es selbst aus, es macht unglaublichen Spaß. Schreibt eure Fragen gerne hier in die Kommentare.

Logo

KI generierte Unternehmensanalysen.

Enterprise Security

DIN ISO/IEC 27001 & 27018 zertifizierte Server

Made in Germany

Sitz in München

DSGVO-konform

In Europa gehostet

© Data Sculptor UG (i.Gr.) 2025

Logo

KI generierte Unternehmensanalysen.

Enterprise Security

DIN ISO/IEC 27001 & 27018 zertifizierte Server

Made in Germany

Sitz in München

DSGVO-konform

In Europa gehostet

© Data Sculptor UG (i.Gr.) 2025

Logo

KI generierte Unternehmensanalysen.

Enterprise Security

DIN ISO/IEC 27001 & 27018 zertifizierte Server

Made in Germany

Sitz in München

DSGVO-konform

In Europa gehostet

© Data Sculptor UG (i.Gr.) 2025