Content:

Donnerstag
03.08.2006

Die Qualität der Konzerndaten und ihre richtige Nutzung sind heute zu den überlebenswichtigen Faktoren für die Wettbewerbsfähigkeit von Unternehmen geworden. Doch trotz einer in den Unternehmen enorm gestiegenen Datenflut lassen die Qualität der Daten, ihre Auswertung und Interpretationsfähigkeit oft sehr zu wünschen übrig. Wesentliche Gründe hierfür sind mangelnde Harmonisierung, eine fehlende Systematik ihrer Auswertung und unzureichendes Stammdaten-Management. Das Institut für Wirtschaftsinformatik der Universität St. Gallen (IWI-HSG) und die Beratungssparte von IBM werden deshalb in den nächsten beiden Jahren gemeinsam mit interessierten Unternehmen neue Konzepte zu einer besseren Erhebung, Aufbereitung und Nutzung dieser Daten entwickeln, wie IBM am Donnerstag mitteilt.

Eine IBM Studie, bei der 900 CFOs (Chief Financial Officers) weltweit befragt wurden, macht das Dilemma deutlich: Obwohl die Finanzmanager über eine Fülle von Daten verfügen, bekunden über 70 Prozent von ihnen ihre Mühe, die Entscheidungsprozesse ihrer Unternehmen effektiv zu unterstützen. Sie schaffen es nach eigenen Angaben nicht, aus der Datenflut die versteckten Informationen für zukünftiges Wachstum, Innovationspotenziale und eine höhere Wettbewerbsfähigkeit ihrer Unternehmen herauszukristallisieren.

Gründe genug für Wissenschaftler und Unternehmensberater, gemeinsam an besseren Konzepten für eine neue Qualität von Konzerndaten zu arbeiten. Professor Hubert Österle, Direktor des Instituts für Wirtschaftsinformatik der Universität St. Gallen, verantwortet das CDQ-Programm auf wissenschaftlicher Seite. Er sieht dringenden Handlungsbedarf: «Corporate Data Quality ist eine fundamentale Voraussetzung für den erfolgreichen Einsatz von Unternehmensanwendungen. Es gibt neue, vielversprechende Ansätze in Theorie und Praxis, aus denen leistungsfähige Methoden und Instrumente entstehen werden.»