Kann KI böse sein? Garry Kasparov erklärt, wie KI funktioniert und wo Ethik ins Spiel kommt.
Davos 2019, das Jahrestreffen des Weltwirtschaftsforums, fand im Januar in eben dieser Stadt in der Schweiz statt. Wenig überraschend war KI eines der dort meistdiskutierten Themen (mit 40 Sitzungen zu diesem Thema wurde es nur vom US-China-Handel übertroffen). Der Großteil der Diskussion drehte sich allerdings lediglich um die Formulierung abstrakter Prinzipien bezüglich einer ethischen Nutzung von KI, bestenfalls gab es Aufrufe zur Zusammenarbeit und Forschung in diesem Bereich.
Ich halte es für wichtig, die durch zunehmende Verbreitung von KI entstehenden Probleme zu benennen und zu diskutieren. Ihre Wirkung wird sich unweigerlich weit über das Internet hinaus auf die gesamte Welt erstrecken. Wir haben jedoch bereits jetzt einen Punkt erreicht, an dem es notwendig ist, zu handeln, statt nur zu reden. Durch die ständige Wiederholung hehrer Prinzipien ohne konkrete Vorschläge zu deren Umsetzung zu unterbreiten, wird Unternehmen erlaubt, das Problem nur oberflächlich anzugehen und dadurch mögliche negative Auswirkungen auf ihren Profit zu vermeiden. Ethische Fragen sollten auf demselben Niveau wie Sicherheit behandelt und nicht als PR-Problem abgetan werden.
Einige der in Davos getroffenen Feststellungen decken sich mit Ansichten, die ich bereits in der Vergangenheit geäußert hatte und die sich als nützlich zur Diagnose der Auswirkungen von KI auf Unternehmen und Gesellschaft erweisen könnten. Eine Sichtweise, die ich angesichts einer zunehmend technikfeindlichen, dystopischen Stimmung bereits seit Jahren vertrete, ist der agnostische Aspekt unserer Technologie, den zu meiner Freude auch der CEO von Salesforce, Marc Benioff, hervorgehoben hat. Die Frage einer Integration in unsere Welt wird umso wichtiger, wenn wir diese grundlegende Eigenschaft verstanden haben. Uns wird eine gewaltige Kraft verliehen, die wir ebenso wie die Spaltung von Atomen nützlich oder zerstörerisch einsetzen können.
In den abstrakten Diskussionen in Davos klang es häufig so, als glaubte man, KI wäre eine Art Heilsbringer oder zumindest etwas, das keine Risiken birgt. Ebenso könnte man glauben, dass sich Menschen in vergleichbarer Art erziehen ließen, ein offensichtlicher Trugschluss. Nun haben Menschen zwar einen eigenen Willen, dem die KI nichts vergleichbares entgegen zu setzen hat, auch wenn wir ihr alle Freiheiten gewähren. Ethik ist aber nicht mit Schach vergleichbar. Im Gegensatz zur Programmierung überlegener Schachcomputer können wir nicht einfach Maschinen bauen, die sich als ethischer als wir selbst erweisen. Einer der entscheidenden Punkte liegt darin, diese statt dessen zur Aufdeckung menschlicher Voreingenommenheit zu nutzen, sodass wir uns selbst und mit uns die Gesellschaft stetig verbessern können.
Die Zulassung darf nur ein erster Schritt sein. Führungspersönlichkeiten aus Wirtschaft und Politik müssen diese Einsicht dazu nutzen, ihre Handlungsweise anzupassen. Die Anstellung eines Verantwortlichen für ethische und humanitäre Angelegenheiten, die Salesforce kürzlich vorgenommen hat, ist dahingehend eine willkommene Geste. Idealerweise fördert ethisches Verhalten auch den Profit. Falls dies nicht gegeben ist, muss es erzwungen werden, und zwar gesetzlich, denn nur dadurch lassen sich Unternehmen beeindrucken.
Ein anderer beim Treffen in der Schweiz häufig auftauchender Aspekt war die Wichtigkeit einer Zusammenarbeit zwischen Mensch und KI. Wie ich bereits in meinem Buch Deep Thinking umfangreich ausgeführt hatte und wie es in einem kürzlich erschienenen Bericht als Best Practices zur Integration von KI vorgeschlagen wurde, funktioniert diese Technologie besser, wenn Menschen am Prozess beteiligt sind. KI hat sich nicht als fähig erwiesen, den Menschen hinsichtlich Kreativität oder Beurteilungsvermögen zu übertrumpfen. Ihre Stärken liegen in der Fähigkeit, große Datenmengen zusammenzufassen, Muster zu erkennen und so Vorhersagen zu treffen, nicht jedoch darin, Verfälschungen zu erkennen oder differenzierte soziale Inhalte zu verstehen.
Unternehmen haben das verstanden. Social Media Plattformen beschäftigen daher Mitarbeiter, die für die planmäßige Funktion der Algorithmen zur Informationsfilterung sorgen. Ebenso müssen Ärzte die Empfehlungen der KI-Systeme absegnen und ihr besseres Wissen über die jeweiligen Umstände des Patienten einbringen. Automatisierte Servicesysteme werden menschliche Arbeit eher nicht verdrängen, sondern Arbeitnehmern Zeit für die Bewältigung von Aufgaben verschaffen, die eine KI nicht leisten kann. Das Leistungsvermögen der KI wächst jedoch ständig, denn wir trainieren unsere Ersatzkräfte in diese Richtung, sodass wir ehrgeizig an unseren Zielen festhalten müssen, um unseren Vorsprung zu halten.
Wie sollten nun Politiker und Wirtschaftskapitäne diese Erkenntnisse umsetzen? Ich bezweifle, dass die von der Technologiebranche häufig angewendete Strategie eine nennenswerte Änderung herbeiführen kann. Nach diesem Modell sollten Unternehmen, ohne jegliche Aufsicht, selbstständig Maßnahmen ergreifen, um die potenziellen Nachteile und Gefahren der KI abzufangen. Einige der erforderlichen Maßnahmen könnten sich zumindest kurzfristig negativ auf den Profit auswirken, dabei haben wir doch oft erlebt, dass bei den Silicon Valley-Giganten die Interessen der Aktionäre im Vordergrund stehen. Das jüngste Beispiel: Nach Jahren intensiverer Prüfung gab Facebook im Januar zu, dass es Teenagern 20 $ monatlich bezahlt hat, damit diese eine „Forschungs-App“ zur Erfassung aller ihrer Telefon- und Internetaktivitäten installieren. Es ist schwierig, auf Unternehmen zu setzen, die das Vertrauen der Öffentlichkeit so konsequent missbraucht haben. Im Bereich KI vermute ich ebenfalls, dass halbherzige Maßnahmen, die öffentlichkeitswirksam sind, aber wahrscheinlich substanzielle Verhaltensänderungen vermeiden, das Beste sind, was wir erwarten können.
Das bedeutet, dass sich früher oder später die Behörden einschalten müssen, ohne zu stark zu regulieren. Ein meiner Ansicht nicht allzu abwegiger Vergleich lässt sich mit den Eisenbahnbaronen und Finanzmogulen des 19. Jahrhunderts ziehen. Auch in diesen Fällen standen die Eigeninteressen zu stark im Gegensatz zum öffentlichen Interesse und Teddy Roosevelts Initiative zur Auflösung der Trusts war die richtige Antwort. Ich bin bestimmt kein Freund umfassender staatlicher Eingriffe, deren hässlichste Fratze ich als Sowjetbürger erlebt habe, es gibt aber Situationen, die eine Regulierung und Aufsicht erfordern. Die OECD hat bereits Konferenzen über KI abgehalten, um Industrie, Wissenschaft und Regierungen zusammenzubringen, so auch im vergangenen Jahr, wo ich mit einem kurzen Eröffnungsvideo meinen Beitrag leisten konnte.
KI kann nicht intrinsisch ethischer sein als andere Technologien, nur weil sie „intelligent“ ist. Es gab nie eine „ethische Dampfkraft“ oder ein „ethisches Radio“, sondern nur deren ethische Nutzung, für die Normen und Vorschriften erforderlich waren. Wir hinken bei der Entwicklung des „ethischen Internets“ noch immer weit hinterher, angesichts eines Missbrauchs, der geltende Normen und Gesetze längst überholt hat. Das bedeutet nicht, dass wir aufgeben sollten, sondern nur, dass wir uns mehr anstrengen und einen besseren Job machen sollten.
US-Politiker erkennen, wenn auch verspätet, langsam die Bedeutung dieser Debatte an. Die beliebte neue Kongressabgeordnete Alexandria Ocasio-Cortez sendete kürzlich einen Tweet zu den Gefahren einer nicht unbefangenen KI, die in unüberschaubarem Ausmaß das Denken der Menschen beeinflussen könnte. Die Behörden von Singapur sind einen Schritt voraus: sie haben auf dem Gipfeltreffen in Davos ein Regelwerk zu einer ethischen KI vorgelegt, das Richtlinien für den privaten Sektor zur Implementierung von KI auf transparente, nachvollziehbare und menschengerechte Art enthält. Singapur pflegt ein sehr unternehmensfreundliches Geschäftsklima, dennoch hat seine Regierung erkannt, dass langfristiges Wachstum auf der Förderung und Durchsetzung eindeutiger Normen basiert. Letztendlich brauchen Unternehmen Stabilität, um Vorhersagen über die zukünftige Performance treffen zu können. Die Abwälzung der Verantwortung durch Beschränkung der Maßnahmen auf die Regulierung des Privatsektors sorgt für Unsicherheit – eine schlechte Situation für Gesetzgeber, Investoren und Verbraucher gleichermaßen.
Regelwerke sind zwar ein nützlicher Ausgangspunkt, aber wie könnten wirklich praktische Lösungen aussehen? Eine Möglichkeit, die einem im Zusammenhang mit dem kürzlichen massiven Datenverlust namens Collection #1 in den Sinn kommt, wäre ein zentralisierter staatlicher Dienst, der Menschen informiert, wenn ihre Konten gehackt wurden. Es gab einige vereinzelte Versuche, ein derartiges Tool zu entwickeln – sogar mit gewissem Erfolg. Es wäre ideal, die Glaubwürdigkeit und möglichen Befugnisse einer öffentlichen Aufsicht irgendwann in der Zukunft hinzuzufügen. Stellen Sie sich vor, wie wirksam ein solches Benachrichtigungssystem den Menschen helfen könnte, Schäden durch gestohlene Informationen zu mildern, auf die Schwere des Problems hinzuweisen und generell als Abwehrmittel gegen solche Angriffe zu dienen.
Wie immer schließe ich mit einem Hinweis auf Vorsicht und persönliche Verantwortung. Es liegt letztendlich an den Verbrauchern, ihre digitalen Informationen zu schützen, zumal die KI weiterhin schnell voranschreitet und die Regelwerke Mühe haben, mit der Entwicklung Schritt zu halten. Beachtet die kleinen Dinge, die in Eurer Macht stehen. Oder, wie sich Oliver Cromwell ausgedrückt haben soll: „Vertraue auf Gott und halte dein Pulver trocken.“ Verringert Eure Anfälligkeit für Hacker, indem ihr einen Passwortmanager verwenden, niemals Passwörter wiederverwendet und nicht auf E-Mails hereinfallt, die Informationen über Eure Konten anfordern. Passwörter wiederzuverwenden, wenn Datenverluste unvermeidbar sind, ist als hättet Ihr denselben Schlüssel für Euer Auto, das Haus und Eure Bankkonten.
Wie Davos 2019 gezeigt hat, kämpfen Wirtschaft und Politik immer noch damit, die digitale Welt bestmöglich zu überwachen. Ich bin realistisch genug, daran zu zweifeln, dass sie unbedingt das Beste für die Öffentlichkeit im Sinn haben. In diesem Klima eines raschen technologischen Wandels möchte ich alle ermutigen, die durch KI und andere bahnbrechende Technologien gebotenen Möglichkeiten optimistisch zu betrachten, aber dennoch beim Umgang mit diesen neuen Instrumenten sehr wachsam zu bleiben.