Wir sind dafür verantwortlich, menschliche Werte in die technologischen Strukturen der Gegenwart einzubringen, um den Online-Diskurs zu schaffen, den wir uns wünschen.
Fake-News stehen ganz oben auf der Liste der Themen, die den politischen Diskurs bestimmen – heute mehr denn je. Wie sind Fake News so allgegenwärtig geworden? Wie können wir sie bekämpfen? Sind sie vielleicht nur das unweigerliche Resultat des erweiterten Kommunikationsraums, den uns das Internet eröffnet?
In meinem letzten Beitrag habe ich darüber geschrieben, wie sehr ich mich bereits an die Trolle in den Kommentarspalten meiner Online-Artikel und Beiträge in den sozialen Medien gewöhnt habe. Doch ich verweigere mich dem Gedanken, dass dieses Phänomen ein unvermeidlicher Aspekt der neuen Kommunikationstechnologien sein soll. Nichts an der inhärenten Struktur des Internets deutet darauf hin, dass die Wahrheit unweigerlich in einem Sumpf aus alternativen Fakten und persönlichen Angriffen versinken muss. Die schiere Datenmenge, die über das Internet übertragbar ist, mag es begünstigt haben, dass dies zum jetzigen Zeitpunkt geschieht, aber dennoch liegt es in unserer Verantwortung, die Normen für den Diskurs festzulegen, den wir uns wünschen. In meinem Buch Deep Thinking über Künstliche Intelligenz und die Kooperation zwischen Mensch und Maschine, das in Kürze erscheinen wird, argumentiere ich, dass der technologische Fortschritt uns zwar neue Hindernisse in den Weg legt, dass deren Überwindung uns jedoch kreativer werden lässt, da sie uns dazu zwingt, innovative Zukunftsstrategien zu entwickeln, statt uns von dem Fortschritt, den wir gemacht haben, zurückzuziehen. Gehen wir also kreativ an die Sache heran und versuchen wir, neue Probleme zu lösen, ohne alte Freiheiten zu beschränken.
Natürlich können wir als Antwort auf die allgegenwärtigen Trollkommentare die Hände über dem Kopf zusammenschlagen und uns sagen, dass solche Verhaltensmuster nun einmal Teil des Internets sind und dass wir – wollen wir eine Diskussion führen in der jeder Teilnehmer informiert und rücksichtsvoll ist – offline gehen und persönlich diskutieren müssen. Produktiver erscheint mir jedoch der Ansatz, uns die Frage zu stellen, wie wir die Vorzüge menschlicher Interaktion mit dem außergewöhnlichen Potenzial der Technologie verbinden können. Eine norwegische Nachrichtenagentur hat dafür vor Kurzem ein Beispiel geliefert.
Der norwegische Rundfunk (NRK) baute ein Quiz in bestimmte Artikel ein, bei dem Leser Multiple-Choice-Fragen zum Artikel beantworten mussten, ehe sie diesen kommentieren konnten. Das bringt einen doppelten Vorteil: Zum einen schreckt der zeitaufwendige Vorgang Berufstrolle ab; zum anderen nötigt er den Leser dazu, wenigstens ein rudimentäres Verständnis für die Fakten zu entwickeln, bevor er sich in der Kommentarspalte austobt, ohne mehr als die Schlagzeile gelesen zu haben. Anders ausgedrückt: Die Methode richtet sich gegen gezielte Fehlinformationskampagnen und beugt zugleich der Gefahr einer Debatte vor, die sich nicht auf objektiv nachprüfbare Sachverhalte, sondern tief verwurzelte Vorurteile stützt.
Diese Intervention stellt den Versuch dar, wieder klare menschliche Normen in die Online-Kommunikation einzubringen. Wenn wir einen produktiven Diskurs über die Zukunft unserer Gesellschaft anstoßen wollen, müssen wir diesen auf einen gemeinsamen Rahmen aus Grundlagenwissen und Normen für eine respektvolle Kommunikationskultur stützen. Ich sehe keinen Grund, warum uns das nicht im Internet gelingen sollte, zumal wir auf die Demokratisierung von Informationen, die uns das Netz ermöglicht, nicht verzichten wollen. Dazu müssen wir lediglich neue Möglichkeiten finden, unsere Werte in die technologischen Strukturen der Gegenwart einzubringen. Das Quiz der Nachrichtenagentur ist ein Lösungsansatz, doch daneben gibt es noch zahllose andere, die erst noch entdeckt werden müssen. Kommt menschlichen Moderatoren bei der Regulierung virtueller Diskussionen noch eine Rolle zu? Können Algorithmen geschrieben werden, die dazu in der Lage sind, eine gepflegte menschliche Kommunikation zu moderieren, wie sie auch Schimpfwörter in SMS herausfiltern und schwache Passwörter auf Online-Banking-Plattformen erkennen können? Ich will nicht behaupten, selbst die Antworten auf diese Fragen zu kennen. Doch wir müssen uns fragen, was uns wichtig ist und welche Maßnahmen wir zu ergreifen bereit sind, um die Internetumgebung zu schaffen, die wir uns wünschen.
Neben der Schaffung kreativer Lösungsansätze zur Qualitätssicherung müssen wir auch für den Schutz unserer Diskurse sorgen. Hier zeigt sich eines ums andere Mal, wie uns der technologische Fortschritt dazu treibt, über uns selbst hinauszuwachsen, um Lösungen für zunehmend komplexe Problemstellungen zu finden. Wie können wir die oben genannte Strategie – die Verschmelzung der Vorzüge von Mensch und Maschine – auf Fragen der Sicherheit übertragen? Wir könnten die Passwortverwaltung benutzerfreundlicher gestalten, indem wir etwa die Lösungsansätze von Firmen im Bereich der Verschlüsselungssoftware weiter ausbauen, sodass wir nicht mehr Duzende von Anmeldedaten im Kopf behalten müssen. Oder wir deuten ausdrücklich darauf hin, wenn Nutzer von kostenlosen Diensten bei der Registrierung dem Zugriff auf ihre personenbezogenen Daten zustimmen.
Doch ungeachtet der konkreten Maßnahmen müssen wir uns an unseren menschlichen Stärken und Schwächen orientieren, um Sicherheitsvorkehrungen intuitiver und ansprechender zu machen. Mit anderen Worten: Wir müssen sie menschlicher machen. Kein Sicherheitssystem funktioniert, wenn Menschen es nicht nutzen möchten oder nicht wissen, wie sie es effektiv nutzen können. Manchmal wird Sicherheit zu einer Frage des kollektiven Schutzes, bei der ein paar wenige Personen Millionen von Menschen in Gefahr bringen können. Wahrscheinlich kommen wir in diesen Fällen nicht darum herum, rechtliche Rahmenbedingungen zu formulieren – in etwa so wie Eltern ihre Kinder vor Schulanfang impfen lassen müssen, aus denselben Gründen. Ein Gerätehersteller, dessen Produkte leicht einem Missbrauch zum Opfer fallen und in Cyberwaffen verwandelt werden können, muss dafür Verantwortung tragen. Wie sieht es aber mit Privatpersonen aus, die es versäumen, Patches auf ihren Computern zu installieren, und diese damit anfällig für Botnets machen, die das Internet lahmlegen können? Sollten solche Rechner vorsorglich vom Netz genommen werden? Wann ist der Punkt erreicht, an dem Fragen der Cybersicherheit der juristischen Rechenschaftspflicht unterliegen, wenn andere gefährdet werden, wie beim Fahren unter Alkoholeinfluss?
Als Bürger des digitalen Zeitalters sind wir alle verantwortlich, darüber nachzudenken, was wir zu dieser Diskussion beisteuern können. Darüber hinaus tragen wir die Verantwortung für den Schutz unserer eigenen Daten und damit auch des Systems als Ganzes. Diese Verantwortlichkeiten sind oft miteinander verzahnt, etwa wenn Facebook anhand der Daten eines Nutzers entscheidet, welche Beiträge in seinem News-Feed angezeigt werden. Aus sicherheitstechnischer Sicht haben wir die Gewalt über unsere personenbezogenen Daten abgetreten und nehmen in Kauf, dass sie von Dritten missbraucht werden können. Gleichzeitig – und dieser Punkt ist vielleicht der wesentlichere – hat unsere Toleranz gegenüber Ansichten, die von unseren abweichen, stetig abgenommen, da wir zulassen, dass immer häufiger nur noch auf uns zugeschnittene Informationen an uns herangetragen werden.
Die negativen Folgen solcher algorithmischen Bequemlichkeiten mögen nicht sonderlich gefährlich erscheinen, doch im Laufe der Zeit können Sie die Bausteine unserer Gesellschaft verändern – sowohl online als auch offline. Doch wenn wir uns den Umständen gewachsen zeigen, können wir an diesen Herausforderungen wachsen und durch diese unsere Problemlösungskompetenzen verbessern. Probleme wird es auch weiterhin geben; sie sind Teil des Innovationsprozesses. Doch wir sollten sie in positives Licht rücken und als Chance begreifen, zu zeigen, dass wir der Technologie, die wir selbst entwickelt haben, nach wie vor einen Schritt voraus sind.