6 belangrijke problemen met de gegevenskwaliteit die bijna alle grote organisaties achtervolgen

met de komst van datasocialisatie en datademocratie organiseren, delen en beschikbaar stellen veel organisaties de informatie op een efficiënte manier aan alle medewerkers. Terwijl de meeste organisaties profiteren van het liberale gebruik van dergelijke informatiebronnen binnen handbereik van hun werknemers, worden anderen geconfronteerd met problemen met de kwaliteit van de gegevens die door hen worden gebruikt.

aangezien de meeste organisaties ook kijken naar het implementeren van systemen met kunstmatige intelligentie of het verbinden van hun bedrijf via internet of things, wordt dit bijzonder belangrijk.

Business analisten bepalen markttrends, prestatiegegevens en presenteren zelfs inzichten aan leidinggevenden die de toekomst van het bedrijf zullen helpen sturen. En nu de wereld nog meer data-driven wordt, is het van vitaal belang voor business-en data-analisten om de juiste data te hebben, in de juiste vorm, op het juiste moment, zodat ze het kunnen omzetten in inzicht.

het basismodel dat een bedrijf volgt bij de implementatie van datasocialisatie is::

 datasocialisatie

echter, vaak besteden business analisten het grootste deel van hun tijd aan gegevenskwaliteit. Dit is een probleem omdat de voorbereiding en het beheer van gegevens niet de primaire verantwoordelijkheid van de business analist is. Maar ze hoeven er ook niet van afhankelijk te zijn om het voor hen te doen.

enkele van de meest voorkomende problemen op het gebied van gegevenskwaliteit waarmee analisten en organisaties in het algemeen worden geconfronteerd, zijn::

duplicaten

meerdere kopieën van dezelfde records eisen een tol voor de berekening en opslag, maar kunnen ook scheefgetrokken of onjuiste inzichten opleveren wanneer ze onopgemerkt blijven. Een van de belangrijkste problemen kan een menselijke fout zijn — iemand die de gegevens gewoon meerdere keren per ongeluk invoert — of het kan een algoritme zijn dat verkeerd is gegaan.

een oplossing voor dit probleem wordt “data deduplicatie”genoemd. Dit is een mix van menselijk inzicht, gegevensverwerking en algoritmen om potentiële duplicaten te helpen identificeren op basis van waarschijnlijkheidsscores en gezond verstand om te identificeren waar records eruit zien als een nauwe match.

onvolledige gegevens

vele malen omdat de gegevens niet correct in het systeem zijn ingevoerd, of bepaalde bestanden mogelijk beschadigd zijn geraakt, hebben de resterende gegevens verschillende ontbrekende variabelen. Als een adres bijvoorbeeld helemaal geen postcode bevat, kan de resterende informatie van weinig waarde zijn, omdat het geografische aspect ervan moeilijk te bepalen is.

inconsistente formaten

indien de gegevens in inconsistente formaten worden opgeslagen, is het mogelijk dat de systemen die worden gebruikt om de informatie te analyseren of op te slaan deze niet correct interpreteren. Als een organisatie bijvoorbeeld de database van haar consumenten bijhoudt, moet het formaat voor de opslag van basisinformatie vooraf worden bepaald. Naam( voornaam, achternaam), geboortedatum (US/UK stijl) of telefoonnummer (met of zonder landcode) moet worden opgeslagen in exact hetzelfde formaat. Het kan data wetenschappers een aanzienlijke hoeveelheid tijd in beslag nemen om gewoon de vele versies van de opgeslagen gegevens te ontrafelen.

toegankelijkheid

de informatie die de meeste datawetenschappers gebruiken om de resultaten of eindproducten te creëren, te evalueren, te theoretiseren en te voorspellen, gaat vaak verloren. De manier waarop data doorsijpelt naar business analisten in grote organisaties — van afdelingen, subdivisies, vestigingen en tot slot de teams die aan de data werken-laat informatie achter die al dan niet volledige toegang heeft tot de volgende gebruiker.

de methode om de informatie op een efficiënte manier te delen en beschikbaar te stellen aan alle werknemers in een organisatie is de hoeksteen van het delen van bedrijfsgegevens.

systeemupgrades

elke keer dat het gegevensbeheersysteem een upgrade krijgt of de hardware wordt bijgewerkt, bestaat de kans dat informatie verloren gaat of beschadigd raakt. Het maken van meerdere back-ups van gegevens en het upgraden van de systemen alleen door middel van geverifieerde bronnen is altijd aan te raden.

data purging and storage

bij elk managementniveau in een organisatie bestaat de kans dat lokaal opgeslagen informatie per ongeluk of opzettelijk kan worden verwijderd. Daarom is het cruciaal om de gegevens op een veilige manier op te slaan en alleen een spiegelkopie te delen met de medewerkers.

” als zakelijke gebruikers gefrustreerd raken dat ze geen antwoorden kunnen krijgen wanneer ze ze nodig hebben, kunnen ze wachten opgeven en terugkeren naar Flying blind zonder data. Als alternatief, ze kunnen gaan rogue en hun eigen analytics tool te introduceren om de gegevens die ze nodig hebben, die een conflicterende bron van de waarheid kan creëren. In beide scenario ’s verliest data zijn kracht,” schreef Brent Dykes.

als er niet op wordt gelet onjuiste of corrupte gegevens te vermijden alvorens deze te analyseren voor zakelijke beslissingen, kan de organisatie uiteindelijk kansen, inkomsten verliezen, schade aan de reputatie lijden of zelfs het vertrouwen van de CxO ‘ s ondermijnen.

Wat Denkt U?

abonneer u op onze nieuwsbrief

ontvang de laatste updates en relevante aanbiedingen door uw e-mail te delen.

Word Lid Van Onze Telegram Groep. Maak deel uit van een boeiende online community. Kom Erbij.

Geef een antwoord

Het e-mailadres wordt niet gepubliceerd.