Digitalisierung 2024: Oberflächliche Datenanalyse führt zu strategischem Blindflug

10 Jan

Sechs von zehn Industrieunternehmen in der DACH-Region räumen ein, bei der Analyse ihrer Daten bestenfalls an der Oberfläche zu kratzen, so das Ergebnis der aktuellen Studie „Digitalisierung 2024“ von Staufen und AppliediT. Obwohl viele Unternehmen ihre Daten weder richtig auswerten noch vollständig verstehen, fließen sie bei gut drei Viertel von ihnen in die Entwicklung der künftigen Strategie ein.

Die von den Studienteilnehmern mit Abstand am häufigsten gewählte Form der Datenarchivierung ist mit 77 Prozent ein ERP-System, gefolgt von Datenbanken wie Microsoft SQL Server oder PostgreSQL (69 Prozent) und Excel-Listen (54 Prozent). „Programme wie Excel sind als Tabellenkalkulation auf einen ganz bestimmten Anwendungsbereich zugeschnitten und eignen sich – ebenso wie ein ERP-System – nicht optimal zur Datenarchivierung. In der Folge bremsen Datensilos und eingeschränkte Funktionalitäten der einzelnen Systeme die Unternehmen auf ihrem Digitalisierungskurs aus“, warnt Industrie-4.0-Experte Feldmeth.

„In vielen Unternehmen herrscht ein regelrechter Daten-Wildwuchs, die einheitliche Linie fehlt. Das erschwert es Führungskräften und Anwendern, aus den Daten relevante Informationen und Erkenntnisse abzuleiten“, sagt Dr. Michael Feldmeth, der bei Staufen die Practice Unit Digital & Industrie 4.0 leitet. Die wachsende Zahl unterschiedlicher Formate und Anwendungen erschwere zudem eine auf Durchgängigkeit ausgelegte IT-Systemlandschaft und resultiere in einer zunehmend fragmentierten Datenarchivierung.

Fehlende IT-Kompatibilität und mangelndes Analyse-Know-how führen dazu, dass 61 Prozent der befragten Unternehmen selbst einräumen, dass sie nur isolierte Zahlen aus verschiedenen Bereichen sehen, aber zu wenig über die Zusammenhänge zwischen den Daten wissen. Feldmeth: „Die gesammelten Informationen verwirren eher, als dass sie einen Mehrwert liefern oder Grundlage für präzise Handlungsempfehlungen sind. Kurz: Vor lauter Zahlen sehen die Unternehmen den KPI-Wald nicht mehr.“

Das sei ein riskanter Weg, sagt Ignacio Quiñonero Ferrer, Geschäftsführer von AppliediT. Der Digitalisierungsexperte empfiehlt ein methodisches Vorgehen, bei dem im ersten Schritt Daten intelligent zusammengeführt und dann statistisch ausgewertet werden: „Die aktuellen Produktionszahlen einer Maschine liefern nur eine Momentaufnahme. Richtig interessant wird es erst, wenn die Daten der vorgelagerten Prozesse in Kombination mit dem aktuellen Ist-Zustand analysiert werden. Dann werden verborgene Zusammenhänge und interne Abhängigkeiten sichtbar.“

Die positiven Auswirkungen, die ein ganzheitlicher Blick auf die eigene Datenwelt haben kann, werden auch in der Industrie erkannt. So räumen 72 Prozent der Unternehmen ein, dass eine Datenanalyse ihre organisatorische Effizienz steigern würde. 57 Prozent erwarten eine Optimierung der Durchlaufzeiten, 52 Prozent eine Qualitätssteigerung und 48 Prozent eine Erhöhung der Kundenzufriedenheit.

Vor dem Hintergrund immer komplexerer Produkte und Fertigungsprozesse führt nach Ansicht von Quiñonero Ferrer kein Weg an einer professionellen mathematischen Analyse vorbei: „Unternehmen müssen tiefer in die Welt der Daten eintauchen, um zu verstehen, wie sie in ihrem Inneren ticken und welche Anpassungen zu welchen Ergebnissen führen.“ Ob es um Lieferketten, Produktionsprozesse oder HR-Herausforderungen gehe – oft könnten schon kleine Anpassungen und Feinjustierungen an wenigen Stellschrauben eine große Hebelwirkung entfalten.

Für die Studie haben die Unternehmensberatung Staufen und AppliediT, Spezialist für die Echtzeitanalyse industrieller Daten, im Oktober und November 2023 mehr als 400 Industrieunternehmen in Deutschland, Österreich und der Schweiz befragt. 

Quelle