E-Book

Das Volumen kontrollieren: Sicherstellung von Vertrauen und Qualität in Big Data

Herausforderung: Sicherstellung einer hohen Datenqualität bei wachsender Datenmenge und -vielfalt

Der Begriff “”Big Data”” scheint nicht groß genug zu sein, um die enorme Datenfülle, die Unternehmen heute zur Verfügung steht, richtig zu beschreiben. Während das Volumen und die Vielfalt der Big-Data-Quellen weiter wachsen, bleibt das Vertrauen in diese Daten beunruhigend gering. Unternehmensleiter haben wiederholt wenig Vertrauen in die Zuverlässigkeit der Daten geäußert, die sie zur Führung ihres Unternehmens nutzen. In der KPMG-CEO-Studie 2017 äußerte fast die Hälfte der CEOs Bedenken hinsichtlich der Integrität der Daten, auf die sie ihre Entscheidungen stützen. Die Ergebnisse von Precisely’s 2019 Enterprise Data Quality Survey zeigen, dass sich dieser Trend fortsetzt:

  • 47 % der Befragten hatten aufgrund mangelnder Qualität nicht vertrauenswürdige oder ungenaue Erkenntnisse aus Analysen.
  • 26 % haben keinen Prozess zur Anwendung von Datenqualität auf die Daten im Data Lake oder Enterprise Data Hub.

Der eigentliche Zweck des Data Lake ist es, neue Ebenen der Transparenz und Klarheit zu ermöglichen. Niemand hat die Absicht, einen Datensumpf zu schaffen, der nur Verwirrung und Misstrauen stiftet.

Lesen Sie weiter, um zu erfahren, wie ein starker Fokus auf Datenqualität, der die Menschen, Prozesse und Technologie Ihrer Organisation umfasst, dazu beiträgt, die Qualität und das Vertrauen in Ihre Analysen zu gewährleisten, die die Geschäftsentscheidungen vorantreiben.

This site is protected by reCAPTCHA and the Google Privacy Policy and Terms of Service apply.