„Datenschutz ist sexy!“ – Digitalisierung, Steuerung, Autonomie und Zukunft

Von Peter Leppelt und Dieta Heilmann

Digitalisierung und zunehmende Vernetzung – Stichwort: „Internet der Dinge“ – führen zu einer Entgrenzung gängiger gesellschaftlicher Strukturen und privater Sphären. Die Wirtschaft und deren Lobbyisten heben Vorteile vom „Datenreichtum BigData“ hervor; eine aufgeklärte Positionierung des Individuums im Umgang mit Technik und den anfallenden Daten ist also erforderlich. Doch erkennen wir eigentlich noch das Internet? Sind wir uns des Ausmaßes und der Wirkung monopolisierter Datenberge für das Individuum bewusst? Dieser Beitrag blickt auf Teilaspekte allgegenwärtiger Digitalisierung und stellt Möglichkeiten im Kontext der anfallenden Daten heraus. Unter Berücksichtigung aktueller Trends werden Entwicklungen, Triebkräfte und Lernstrategien skizziert.

 

Pressebühne eins, bitte zur Pressebühne eins!

Auf der Internationalen Funkausstellung 2016 verkündete IBM, „Millionen von Sensoren sollen künftig Geräten Augen und Ohren verleihen und sie zur Interaktion mit dem Menschen befähigen“(dpa) „Im vergangenen Jahr haben wir mehr Daten gesammelt als jemals zuvor in der Menschheitsgeschichte“, sagte Harriet Green, die bei IBM das Geschäft mit dem Internet der Dinge leitet, zu dpa. In Zukunft würden weitere unstrukturierte Daten wie Geräusche, Gerüche und Geschmack hinzukommen. „In wenigen Jahren wird ein Brontobyte an Daten zusammengekommen sein“, so Green – das ist eine unvorstellbare Zahl mit 27 Nullen. „Auf der IFA wollen wir zeigen, wie diese Daten zum Wohl der Menschen genutzt werden können, zum Beispiel für die bessere Betreuung älterer Menschen zusammen mit unserem Partner Nokia.“
dpa via heise.de

Pressebühne zwei

„Gucklöcher vermehren sich wie die Küchenschaben“ schrieb Shoshana Zuboff, Professorin der Harvard Business School als Gast in der FAZ online am 5.3.2016: „Wie wir Googles Sklaven wurden“

Pressebühne drei

„Customer-Lifetime-Value bezeichnet den Wert, den ein Mensch während seines gesamten Kundenlebens für ein Unternehmen darstellt. Diesem Begriff liegt die Intention zugrunde, die ganze menschliche Person, ihr gesamtes Leben in rein kommerzielle Werte umzuwandeln. Der heutige Hyperkapitalismus löst die menschliche Existenz gänzlich in ein Netz kommerzieller Beziehungen auf. Es gibt heute keinen Lebensbereich mehr, der sich der kommerziellen Verwertung entzöge.“ Mit diesen Worten eröffnete Byung-Chul Han, Professor für Philosophie und Kulturwissenschaft, seinen Essay „Hyperkapitalismus und Digitalisierung – Die Totalausbeutung des Menschen“, in der SZ.de am 20.6.2016

Pressebühne vier

Technology Review, das Magazin für Innovation, stellte im September 2016 erste Ergebnisse einer Studie vor, die die Diskussion um künstliche Intelligenz versachlichen und alle fünf Jahre aktualisiert werden soll: „Die Gefahr, dass die Menschheit im Lauf der nächsten 15 Jahre von Künstlicher Intelligenz versklavt oder eliminiert wird, ist erfreulich gering. Zu diesem Schluss kommt eine umfangreiche Studie der Stanford University über gesellschaftliche und ökonomische Auswirkungen dieser Technologie. Allerdings heißt es in der Studie auch, dass KI mit hoher Wahrscheinlichkeit bedeutende Aspekte des Alltags auf den Kopf stellen wird, von Beschäftigung und Bildung bis Transport und Unterhaltung.“

 

Datenflüsterer – Komfort ist ein hohes Gut – unendlicher Datenreichtum

Wer unterwegs ist und via Smartphone Google fragt, wo es denn eben etwas zu trinken gibt, bekommt zuverlässig Steuerung. Zum nächstliegenden Geschäft, in dem es das Getränk gibt, dessen Hersteller bei Google für Werbeintentionen bezahlt hat. Bei PokemonGo ist es ein Geschäftsmodell, Pokestops zu verkaufen: Wo möglichst viele Pokemons zu fangen sind, lassen sich vielleicht ideal auch den durstigen Jägern und Sammlern Getränke verkaufen.

Steuerung zu Werbezwecken wird in den nächsten Jahren ganz selbstverständlich. Steuerung auch in smarten Gebäuden und Wohnungen: der Smartmeter übermittelt den Stromverbrauch, errechnet und steuert den idealen Verbrauch. Die smarte Heizung misst und meldet Temperaturen und ermittelt durch die Luftfeuchtigkeitswerte gleich mit, wie viele Personen anwesend sind. Gekoppelt mit Bewegungsmeldern als Sensoren für Licht- und Heizungsregelung werden ’sichere‘ und energiesparende Überwachungsmöglichkeiten unschlagbar.

Neben diesen Beispielen für nachhaltige Gebäudetechnik kommen unzählige Möglichkeiten für die bequeme „schöne, neue Welt“ hinzu: die Matratze ermittelt das Schlafverhalten, die Zahnbürste weiß, was Zähne und Zahnfleisch brauchen, der Kühlschrank bestellt eigenständig neue Ware, der Schnuller meldet, ob Baby Fieber hat. Barbiepuppe oder ein anderes Echo wie Alexa und Siri hören Wünsche, Fragen und Geheimnisse. Mit überzeugendem Sprachkomfort kommen gerne Antworten oder es kann Hilfe herbeigerufen werden.

Das Internet der Dinge wird Menschen ermöglichen, ihr ganzes Leben in einer Senioren-Residenz zu verbringen und sich von klein auf pampern und verwöhnen zu lassen.

„Will man das? Entspricht das den eigenen, natürlichen Bedürfnissen?“ Soweit ein kleines Übungsangebot zum Hinterfragen der Dinge, deren Antworten wir hier nicht einfach servieren …

 

Autonomie ist etwas für Autos

Autonome Systeme wie selbst fahrende Autos werden in der Zukunft eine große Rolle spielen. Und Entscheidungs-Algorithmen in Gefahrensituationen sind interessant und noch auszudiskutieren. Kann die Vorhersageberechnung der Künstlichen Intelligenz (KI) Gefahrensituationen vermeiden oder aber sind alternativ Entscheidungen zu treffen wie „wen bringe ich um (opfere ich)? Die Kleingruppe mit Kindern vor mir oder aber das zu transportierende Gut oder Individuum?“. Die KI hat eine Entscheidung zu treffen. Es gibt die Möglichkeit, das fest einzuprogrammieren oder es der KI selbst zu überlassen. Dazu müsste sie moralische Guidelines bekommen: Zum Beispiel wäre „mehr Leben sind mehr wert als weniger Leben“ eine mögliche Variante. Der Mensch selbst empfindet das eventuell nicht als wirklich gute Lösung. Der Mensch handelt in einer Gefahrensituation aus sich heraus –, und viele kennen das, wenn der Fahrunterricht lehrt, ein kreuzendes Reh direkt zu überfahren statt auszuweichen, um selbst gegen einen Baum zu fahren.

Worauf wollen wir uns in Zukunft mit der KI verlassen? Was ist die Definition von einprogrammierter „Wahrheit“? Antworten zu finden ist Aufgabe in Zukunft. Und ob wir diese Antworten und Steuerungen kennen, bevor wir selbstfahrende Autos besteigen? Zahllose Beispiele ließen sich weiter aufreihen, von Handel und Transport, Unterhaltung, Produktion und staatlich verordneter Vorratsdatenspeicherung hier einmal abgesehen: der Berg der ermittelten Daten wird immer größer und größer und größer.

Weiß das Individuum, was mit den Daten passiert? Kann das Individuum die Möglichkeiten von Steuerung noch erkennen? Kann das Individuum Autonomie und Privatsphäre bewahren? Aus der Sicht von Datenschutzexperten kommen an dieser Stelle ein eindeutiges Jein, ermutigende Ausführungen, Daten zu schützen und das Hinterfragen neu zu lernen.

 

Beispiel E-Mental-Health: Datenschutz und Datensicherheit werden gerne miteinander verwechselt

Bei Datensicherheit geht es darum, dass Daten sicher verwahrt werden. Das bedeutet, dass zum einen nur bestimmte Menschen darauf Zugriff haben. Nicht durch Reglements, sondern dass technisch nur bestimmte Personen zugelassen werden und die Daten nicht von Unbefugten eingesehen werden können.

Datensicherheit bedeutet, dass die Daten dort bleiben, wo sie sicher sind und nicht irgendwo in irgendwelchen Clouds, von denen niemand weiß, in welche Rechenzentren irgendwo auf der Welt die Daten wandern. Auch Backups gehören dazu. Datensicherung ist also die Realisierungsebene. Datenschutz ist das juristische, ethische und moralische Reglement im Hintergrund, das definiert, wer Dinge warum und zweckgebunden sehen darf.

Bei personenbezogenen Daten ist das Mittel der Wahl, dass zum einen möglichst wenige Daten überhaupt existieren (Datenvermeidung) und sie zum anderen nur durch möglichst wenige eingesehen werden können. Soweit das Gedankengebäude. Wenn also zum Beispiel ein Messaginganbieter sagt, „hier, wir sind vollverschlüsselt“, dann hat das mit Datenschutz erst einmal gar nichts zu tun. Die Daten müssen ja auch wieder entschlüsselt werden und dieser Anbieter hat ja nicht gesagt, dass er die Daten nicht bewusst – oder gar unwissentlich in der Welt weiter verteilt. Weiterhin sind die Nutzdaten – also die Inhalte der Botschaften – häufig auch gar nicht so interessant.

Für den Anbieter sind die Metadaten, also wer hat mit wem wie oft und wie lange von wo nach wo kommuniziert, viel interessanter. Das soziale Netz ist viel interessanter als die Nutzdaten; und das ist mit Verschlüsselung nicht zu lösen.

Betrachten wir hier ein Beispiel. In der Psychologie und in der Medizin werden für Diagnoseverfahren schon lange auch stark statistisch betriebene Analysemethoden genutzt. Während in den reinen Naturwissenschaften aus Faktor A und Faktor B das Produkt C wird, korrelieren hier große Daten. Und das können Maschinen, künstliche Intelligenzen der Big Data sehr gut, projektionsfrei, vielleicht eines Tages in der Zukunft mitfühlend.

Im Kontext mit ständig besser werdender Spracherkennungssoftware, Stichwort „Siri“, ist mit Sicherheit ein Großteil des Diagnoseprozesses von Maschinen zu erledigen. Das ist charmant auf der Ebene von Kosteneinsparungen im Gesundheitswesen und überlastetem Personal, uncharmant auf der Ebene der ethischen Diskussion, ob Diagnosen noch menschlich hinterfragt werden.

Da die Technologien der KI im Hintergrund sehr komplex sind, ist es zudem sehr wahrscheinlich, dass die Diagnosen auf Wanderschaft gehen werden. Wenn die Maschine eine Diagnose fällt, heißt das nicht, dass da ein kleiner Computer in der Ecke sitzt mit einer Zigarre im Mund, der lokal mit dem Patienten auf der Couch vor sich hinarbeitet. Sondern tatsächlich ist das dann ein Cloud-Konstrukt: Allein die Spracherkennungssoftware benötigt ein Rechenzentrum im Hintergrund. Von den Diagnoseberechnungen ganz zu schweigen. Das ist nichts, was lokal erfolgt, sondern von Fremddienstleistern gemacht wird. Es bleibt fraglich, wo die Ergebnisse gespeichert werden und was anschließend damit gemacht wird.

Betrachten wir aktuell im Internet Anbieter von E-Mental-Health, die Unterstützung des psychologischen Gesundheitswesens mit digitalen Technologien, finden wir auch das als neueste Entwicklung benannte „Blended Care“: ein individuell passender, therapieunterstützender Ansatz.

Hier kooperieren gewissermaßen die digitalen Werkzeuge mit den behandelnden Menschen und den Patienten. Dazu gehören Diagnosetests und ROM – Routine Outcome Monitoring, die regelmäßige Erfassung des Behandlungsverlaufs. Psychoedukation unterstützt mit Videos und Texten Patienten und Angehörige. Selbsthilfeübungen und Tagebuch als individuelle Therapiekonzepte können genutzt und mit Behandelnden geteilt werden. Alles via Internet. Unabhängig von einer Bewertung der medizinischen Methode, denn sicher gibt es Menschen, denen es hilft und ebenso Menschen, denen ‚zu viel Internet‘ eher Kontakt mit dem richtigen Leben und Menschen verstellt.

Können Sie an dieser Stelle eine Vorstellung von den Datenmengen bekommen? Unvorstellbar große Datenmengen für große Rechenzentren (Cloudfarmen). Anbieter dieser Dienste versichern Datenschutz als oberstes Gebot, zertifizierte Sicherheit, die weit über Passwortverwaltung hinaus gehen solle. Wir fanden jedoch keine Hinweise, wo die Daten liegen. In Deutschland? Wo genau? Und was wird damit gemacht?

Wenn Vertrauen in der Psychotherapie hohes Gut ist und wenn Patientinnen und Patienten sich gesehen statt beobachtet fühlen wollen, haben Blended Care-Anbieter noch Möglichkeiten offen, mit ihren Angeboten Vertrauen zu schaffen, wie sie die Daten sichern und was sie damit tun.

Für die Zukunft geht es entscheidend darum, dass nicht alle alles über einen wissen, weder die großen Marketing-Datensauger, noch Arbeitgeber, Staat oder Nachbarinnen.

 

Kontroll- und Steuermechanismen

Sehr viele Daten ermöglichen Vorhersagbarkeit. Die Vorhersagbarkeit des Individuums ermöglicht immer auch dessen Steuerung. Die Steuerung von sehr vielen Menschen in monopolistischen Strukturen sorgt schlimmstenfalls für eine nicht demokratisch legitimierte Macht, die keinerlei Kontrollen mehr unterliegt. Aus einer komplexen Maschinerie heraus haben sich zwangsweise Kontroll- und Steuermechanismen gebildet.

Nehmen wir einmal Facebook, dass mittlerweile eine gute Kontrollmöglichkeit hat, Menschen in ihrer Meinung zu bestätigen, respektive in ihrer Meinung theoretisch zu steuern. Im Newsfeed des Individuums werden nur Dinge angezeigt, von denen der Algorithmus (die ominöse Filterbubble) von Facebook „der Meinung ist“, dass es sie sehen soll. Mit dieser Möglichkeit der selektiven Darstellung besteht direkter Einfluss auf die Meinungsbildung des Individuums.

Fantasieren wir einfach einmal eine Macht, eine übergeordnete Instanz, wer auch immer diese sein mag, menschlich oder maschinell, die über mehrere Kommunikationskanäle Einfluss hat. Zum Beispiel mit Facebook, WhatsApp, Pokemon Go und vielen mehr ist ein Individuum bereits sehr exakt steuerbar, ohne dass es etwas merkt. Insbesondere wenn mehrere Individuen im Kontext gesteuert werden.

Szenario: Mal angenommen, die Macht will, dass das Verkehrssystem in einer Großstadt zusammenbricht, zum Beispiel die Straßenbahn. Dann kann ES viele, viele Individuen mit diesen Mechanismen gezielt so steuern, dass sie zu einem bestimmten Zeitpunkt an einem bestimmten Ort sind. Etwa damit dann alle zum gleichen Zeitpunkt auf den Schienen stehen. Oder weil alle gleichzeitig Fahrkarten kaufen und deswegen das System abstürzt. Ganz trivial.

Diese Steuerung ist möglich, ohne dass das Individuum den geringsten Verdacht schöpft. Verklausuliert und banal im Sinne von Pokemon Go: „Dort sind Pokemons, deswegen gehe ich da hin“. Aus diesem Kontext kann niemand erkennen, wenn dort etwas Übergeordnetes viele Individuen steuert. Niemand bastelt sich in der Regel aus solchen „Spiel-Befehlen“ eine Verschwörungstheorie. Das ist also die perfekte Idee für ein „Terminator-Szenario“: Sollten Maschinen irgendwann die Welt beherrschen, dann wahrscheinlich mit der einfachsten Methode. Keine Killer-Roboter, sondern sublime Steuerungsmechanismen gegenüber Individuen, die den Gesamtkontext nicht verstehen. Kein schönes Szenario.

 

Staat und Steuerung

Die Geschichte hat wiederholt gezeigt, dass es zu Machtmissbrauch kommt, wenn Staaten und ihre Einflussgeber Geheimdienste zu viel über ihre Bürgerinnen und Bürger wissen. Wenn Bespitzelung und Totalüberwachung an der Tagesordnung sind. Der Staat sollte zugunsten der Gemeinschaft personenbezogen wissen, was administrativ und juristisch notwendig ist: Meldeadresse und Finanzdaten zwecks Steuererhebung. Die bisher beschriebenen digitalen Kontroll- und Steuermöglichkeiten hat natürlich auch ein Staat. Wenn sublime Steuerungsmöglichkeiten zum Beispiel bei Wahlen und Wahlwerbung eingesetzt werden, ohne dass die Menschen das wissen, dann denken sie womöglich nur, dass sie selbstbestimmt wählen. So kann aus Demokratie Fassade und Scheindemokratie werden.

Es gibt also Methoden, große Massen zu steuern. Unternehmen, die werbefinanziert arbeiten, werden dies in Zukunft auch tun. Die Fragen bleiben auch für die Zukunft: Wer kontrolliert das und gibt es eine Instanz, die das steuern kann und will?

Die Kunst ist, auch bereits in der Gegenwart, solche Kontrollmechanismen zu erkennen, um bewusst wählen und entscheiden zu können. Da wir an dieser Stelle zum Studium der Kunst zukünftiger Freiheit und Demokratie gelangen, überspringen wir IST und SOLL von Legislative, Judikative und Exekutive, insbesondere den Blick auf unser herrschendes Bildungssystem an dieser Stelle. Wir wenden uns hier den Individuen und damit einem kleinen, sexy Teilaspekt dieses „Kunststudiums“ zu.

 

Was macht Datenschutz sexy?

Fangen wir einfach mal beim „gemeinen Nerd“ an, einer stereotypen Gattung der Computerfreaks (völlig altmodischer Begriff …). Dieser Nerd bezieht einen Gutteil seines Selbstbewusstseins daraus, dass er sich bestimmten Mechanismen entzieht, die eigentlich ein gutes Kontrollinstrument sind. Als Beispiel, wenn jemand bargeldlos bezahlt, ist natürlich klar, dass diese Transaktion verfolgbar ist. Firmen, Instanzen, wie Paypal können aus vielen Transaktionen auch viel ableiten. Kaufverhalten und so weiter. Wenn sich jemand mit dieser Thematik gut auskennt und dies vermeiden will, oder auch Fehlinformationen einstreut, sich diesem System (Moloch), das ja ein Kontrollinstrument ist, entzieht, dann wirkt das unter Umständen Selbstwert steigernd. „Man will sich differenzieren, man braucht ein Alleinstellungsmerkmal für sich. Ich fühle mich in diesem Bereich überlegen.“ Ein sehr menschliches Ding.

Dass da draußen zur Zeit sehr viele Kontrollmechanismen über die Menschen quasi zwangsweise entstehen, ist offensichtlich. Die Kunst ist, solche Mechanismen zu erkennen. Wer weiß, wie der Algorithmus bei Facebook funktioniert, ist nicht mehr ganz so leicht kontrollier- und steuerbar. Das ist etwas, das viele Datenschutz-Nerds antreibt und einen durchaus positiven Aspekt hat: Autonomie-Gewinn.

Und das ist für manche und hoffentlich in Zukunft Massen von Menschen sexy im Sinne von anziehend, gewinnend, lustvoll, aphrodisierend – auch für den Selbstwert. Und für die Privatsphäre.

Das Individuum steht in Zukunft vor der Wahl, Dinge neu zu hinterfragen oder nicht. Es geht auch darum, zu hinterfragen „mit wem spreche ich gerade?“ Wo das Internet überall ist, haben wir in Zukunft dann schon erkannt. „Doch wer gibt die Informationen, die ich gerade bekomme?“ Folgt das, was Google oder eine andere Maschine mir gerade erzählt, meiner Forderung oder der Forderung seiner Werbekunden?“ Das ist ein Lernprozess und fällt niemandem in den Schoß.

Es sollte nach unserer Ansicht prioritär an Schulen unterrichtet werden, überall und flächendeckend. Theoretisch ist unser gegenwärtiges Kultussystem so gebaut, dass es Kinder zu kritischen, hinterfragenden Erwachsenen erzieht. Sozusagen Primat unseres Bildungssystems, zum Beispiel im Gegensatz zur ehemaligen DDR, die das Ziel hatte, Menschen zu „guten“ Sozialisten zu erziehen.

Für die Zukunft braucht es nach unserer Ansicht ein Schulsystem, in dem sich neue Technologien und ebenso das Hinterfragen neuer Technologien durchsetzen. Statt jahrelang ein Werkzeug wie Excel zur Berufsvorbereitung zu lehren, brauchen engagierte Lehrerinnen und Lehrer für die jungen Menschen Kenntnisse, wie die Gebäude der neuen Technologien funktionieren und wie „Dinge“ kritisch hinterfragt werden.

Für Datenschutz und Datensicherheit kommen Anforderungen hinzu, Werkzeuge, Programme, Apps, dafür zu bauen. Bequem und einfach einzusetzende Werkzeuge, von denen realisiert wird, wo es Sinn macht, sie einzusetzen. Es wird einen Markt für solche Werkzeuge geben – sie müssen lediglich hinreichend komfortabel sein.

Als Autoren dieses Beitrages waren wir an dieser Stelle uneins, ob das für die Zukunft eine Vision oder eine Illusion ist. Sie haben die Wahl.

Dies ist die ungekürzte Vorabveröffentlichung von unserem 2. Beitrag mit Freigabe der beteiligten Verlage: Am 15. Januar 2017 (online als PDF ab jetzt) erscheinen die Zeitschriften „Sozialpsychiatrische Informationen – Zeitschrift für kritische Psychiatrie seit 1970“ und „Kerbe – Forum für soziale Psychiatrie“ gemeinsam mit dem Schwerpunktthema „Psychiatrie 5.0 – Digitalisierung der Seele?“. praemandatum hat mitgeschrieben. Zwei Beiträge. Beitrag 1 „Gläserner Mensch ‚mit ohne‘ Datenschutz – Überwachung am Arbeitsplatz hier.

Bestellungen bei Axel Hoff, hoff(at)psychiatrie.de oder Telefon 0221/16798916 und hier:

https://www.psychiatrie-verlag.de/zeitschriften/sozialpsychiatrische-informationen.html

http://www.kerbe.info/das-heft/aktuelle-ausgabe/

___

Literaturhinweis

Wer die erstaunlich genauen Weissagungen von Algorithmen genauer verstehen will, versuche das Buch „Sie wissen alles – Wie intelligente Maschinen in unser Leben eindringen und warum wir für unsere Freiheit kämpfen müssen“ von Yvonne Hofstetter, Verlag C. Bertelsmann 2013