Weitere Artikel
Datenqualitätsmanagement

Fehlerfreie Kundendaten steigern den Geschäftserfolg

Rund ein Viertel der Adressdaten in deutschen Unternehmen ist veraltet oder fehlerhaft und verursacht jedes Jahr Kosten im mehrstelligen Millionen-Euro-Bereich. Dies belegen vielfältige Studien. Ein systematisches und intelligentes Daten-Management ermöglicht es, kostenaufwändige Dubletten zu vermeiden.

Etwa 840.000 Sterbefälle und 8 Millionen Umzüge pro Jahr in Deutschland führen zu Adressänderungen, 370.000 Hochzeiten und 190.000 Scheidungen bringen oft Namenswechsel mit sich. Hinzu kommen jährlich tausende Änderungen bei Straßennamen, Postleitzahlen und Orten. Doch auch bei den Firmen ist alles im Fluss: „Alle sieben Minuten zieht ein Unternehmen um, alle zehn Minuten wird eine Insolvenz angemeldet und alle zwölf Minuten fusionieren zwei Betriebe“, rechnet Jochen Bühler, Abteilungsleiter Bonität und Datenmanagement bei der Auskunftei Schufa in Wiesbaden, vor.

Wer große Datenbestände zu pflegen hat, ist deshalb auf ein effizientes Daten- und Risiko-Management und eine professionelle Datenpflege angewiesen. Neben der Fehlerfreiheit sollte vor allem auch sichergestellt werden, dass Datensätze nicht mehrfach vorhanden sind. Doch wie und wem fällt auf, dass es sich beispielsweise bei den Einträgen „Dr. John J. Farren jr.“ und „John J. Pharan jr. PhD“ um ein und dieselbe Person handelt? Und wie filtert man eine Dublette, die einmal die Bayerischen Motorenwerke in der Namenszeile führt und ein weiteres Mal nur das Akronym BMW? Ein rein mathematischer Vergleich der Datensätze reicht hier nicht aus.

Ein ganzheitlicher Ansatz verknüpft mehrere Teilprozesse
Erforderlich ist vielmehr ein ganzheitlicher Ansatz mit den Teilprozessen Data Profiling, Data Cleansing und Monitoring. Das Data Profiling gibt nicht nur Aufschluss darüber, welche Datentypen in einer Kundendatenbank vorhanden sind, sondern lässt auch erkennen, wie valide und gebräuchlich diese Daten sind. Beim Data Cleansing werden die erkannten Probleme durch Anwendung verschiedener Algorithmen direkt behoben. Um dem ganzheitlichen Ansatz zur Qualitätssteigerung Rechnung zu tragen, bedarf es schließlich einer kontinuierlichen Überprüfung der Konsistenz, Korrektheit und Zuverlässigkeit der Daten. Neue Daten werden deshalb im Teilprozess „Monitoring“ vor der Speicherung in den operativen und analytischen Systemen überprüft. Und in bestimmten Zeitabständen findet eine Prüfung der gesamten Kundendaten statt.

Herausforderung Firmenadressen
Wie viele Unternehmen und Gewerbetreibende gibt es in Deutschland? Die Schufa geht von rund 4 Millionen wirtschaftsaktiven Unternehmen und Gewerbetreibenden aus. Dabei stützt sie sich auf eigene Analysen und Informationen aus der Schufa-Unternehmensdatenbank. Die Erfahrung bei dem Auskunftsdienstleister: Eine Suche nach Adressen und die Bereinigung von Dubletten gestaltet sich bei Firmen noch komplexer als bei Personenadressen. Mathematische, phonetische und statistische Vergleichsverfahren reichen nur bedingt aus, um korrekte Daten zu gewinnen. Neben dem Einsatz herkömmlicher Algorithmen kann eine Zerlegung und Interpretation der Firmenbezeichnungen für eine hohe Treffsicherheit sorgen und die automatische Verarbeitung vereinfachen.

Durch morphologische Analysen und Interpretationen lassen sich unterschiedliche Schreibweisen von Namen und Bezeichnungen auf eine linguistische Grundform reduzieren und werden dann als inhaltlich identisch erkannt. Durch die linguistische Interpretation und unterschiedliche Gewichtung einzelner Namensbestandteile wie etwa Rechtsformen oder Vor- und Nachnamen können geeignete Matching - und Bewertungsmodelle entwickelt werden. Diese erzielen dann höhere Trefferquoten, als sie mit herkömmlichen Verfahren möglich sind. 

Für das Daten-Management von Gewerbekunden werden aufgrund der größeren Komplexität und der permanenten Veränderungen von Unternehmensdaten andere Ansätze und Tools als bei Endverbrauchern benötigt. Eine hohe Trefferquote erreicht man am besten durch den Einsatz von Suchtechnologien, die auch linguistische und kulturspezifische Besonderheiten erkennen und entsprechend gewichten können. Das bewährt sich vor allem auch dann, wenn ein Unternehmen internationale Kunden bedient.
Denn aufgrund unterschiedlicher Rechtschreibung und Aussprache, Abkürzungen, Akronyme, Ähnlichkeiten (z. B. Beecham und Beauchamp), Morphologie (z. B. Vandamme und Van Damme) oder Wortreihenfolgen (z. B. Chong Bung Li und Li Bung Chong) kann ein kennzeichnendes Namenselement in unterschiedlichen Schreibweisen auftreten. Um diese Übereinstimmungen dennoch zuverlässig herauszufiltern, setzen moderne Datenqualitätslösungen verschiedene Verfahren, wie z. B. Wortbilder, Trigramme, exakte Zeichenfolgen, Akronyme, Schlüsselwörter, Matrix und Phonologie ein.

Angesichts dieser komplexen Problemstellung braucht die Gewährleistung einer hohen Datenqualität einige Zeit. Ziel ist deshalb meist nicht eine sofortige Komplettbereinigung sämtlicher vorhandenen Kundendaten, sondern vor allem eine stetige Verbesserung und die Vermeidung von Dubletten direkt bei der Datenerfassung nach dem Prinzip, beim ersten Mal gleich alles richtig zu machen („First Time Right“). Zusätzlich werden die Daten – falls nötig – mit Hilfe der eingesetzten Lösung direkt korrigiert, vervollständigt und standardisiert.


(Dr. Holger Wandt/ Human Inference)


 


 

Datenqualität
Datenqualitätsmanagement
Kundendaten
Datenqualtitätslösungen

Passende Artikel suchen

Finden Sie weitere Artikel zum Thema "Datenqualität" - jetzt Suche starten:

Kommentar abgeben

Bei einer Antwort möchte ich per E-Mail benachrichtigt werden

 
 

 

Entdecken Sie business-on.de: