Die Prognosen der IT-Szene sind eindeutig: Tag für Tag, Jahr für Jahr vervielfachen sich die Datenmengen im Netz. Es bedarf daher kluger Software-Lösungen, um immense Volumina verarbeiten und auswerten zu können. Big Data, „Watson“, „autonome Software-Systeme“ (ASS) und andere automatisierende Software versprechen der Kundschaft baldige verlässliche Erfolge. Es gelte, Prozesse sowohl im Nachhinein zu überprüfen als auch vorausschauende Bewegungs- und Verhaltensmuster zu erkennen.
Als Instrument der Datenaufbereitung sollen dem arbeitenden oder einkaufenden Menschen nicht nur lange Zahlen- und Wortreihen zur Verfügung stehen. Um eine leichtere Vermittelbarkeit und bessere Verständlichkeit zu ermöglichen, setzt die IT-Szene auf eine Weitergabe und Präsentation der Ergebnisse in Gestalt von Bildern, bewegbaren Bildern (interaktive Visualisierung). Es schlägt vermehrt die Stunde der „virtuellen Realität“ (virtual realitiy, VR), zu der man mit digitalen Brillen Zugang bekommt.
Doch kann man den Ergebnissen trauen? Traut man den Daten, traut man den Ergebnissen. Wer aber garantiert die Integrität, Verlässlichkeit, Verfügbarkeit der Datenmengen? Wie lässt sich „Datenwahrhaftigkeit“ in Echtzeit überprüfen? Aus der Vergangenheit wissen wir, dass Daten immer mehrdeutig sind: „Der Tor bewegte sich durch ein Tor zum Tor und schoss ein Tor.“ Handelt es sich um vier Personen oder um ein Vier zu Null?
So besehen ist die Frage nach der „Datenwahrhaftigkeit“ nicht primär eine technische Herausforderung. Es geht um überprüfbare, an vereinbarten Kriterien orientierte Standardisierungen der Sammlung, Verarbeitung und Bewertung großer Datenmengen durch automatisierende Werkzeuge. Die Standardisierungen können nicht der IT-Entwicklerszene und der IT-Industrie überlassen werden. Dies stellt eine gesellschaftliche Aufgabe dar. Wertevielfalt, Wertepluralismus, Interessenoffenheit, Demokratieprinzipien, Egalität, Integration, Inklusion, Geschlechtergerechtigkeit, Gleichberechtigung, soziale Kontexte und Interdependenzen sind zu berücksichtigen. Technik ist nie neutral und nie wertfrei. Jede Technikentwicklung reproduziert Interessenlagen. Diesen Prozess gilt es zu demokratisieren.
Big Data und vergleichbare Vorgänge (wie etwa ASS) sowie ihre Datengrundlagen müssen nachvollziehbar wie auch überprüfbar sein. Demokratische Transparenz hat Vorrang vor technischem Determinismus. Daten sind ja eben nicht gleich Daten.