Künstliche Intelligenz ist auf unserer Seite

Garry Kasparov, 21 August 2019

Angesichts der Schlagzeilen zur Ethik und den Gefahren von künstlicher Intelligenz habe ich mich gefragt, ob es auch Artikel zur Ethik eines Hammers oder der Gefahr von Messern gegeben hätte, wenn die klassischen und sozialen Medien zum Zeitpunkt der Erfindung dieser Gegenstände bereits existiert hätten.

Hammer und Messer sind tatsächlich gefährlich, beide sind aber auch elementare Werkzeuge, ohne die unser Alltag nicht denkbar wäre.

Die Auswirkungen von KI übertreffen jedes Steinzeitwerkzeug bei Weitem, sodass einem eher Vergleiche mit der Elektrizität oder dem Internet in den Sinn kommen – Technologien, die unsere Gesellschaft über jedes vorhersehbare Maß hinaus verändert haben. Intelligente Algorithmen wirken subtiler und steigern die Leistungsfähigkeit bestehender Systeme oder lassen völlig neue entstehen. Die Datenanalyse wird viel leistungsfähiger und legt Muster offen, die sich der Mensch nie hätte vorstellen können. Effizienz und Produktivität erhalten überall einen Schub, ob im Chip-Design oder in der Wettervorhersage.

Zugleich werden aber auch Waffen mächtiger, wobei ich keine Science-Fiction-Roboter und auch nicht die echten Roboter meine, die wir aus viralen Videos kennen und die für Kommentare wie „Unser Ende ist gekommen“ verantwortlich sind. Es gibt keinen Grund anzunehmen, dass unsere intelligenten technischen Erfindungen sich eher gegen uns richten als Hämmer und Messer. Sie sind alle gleichermaßen gefährlich, wenn sie in die falschen Händen geraten.

Automatisierte Cyberangriffe sind mittlerweile die Norm, und mithilfe von KI werden sie zunehmend perfektioniert. Bei Phishing-Angriffen können persönliche Daten aus dem Internet gesammelt, zusammengestellt und anschließend als Nachrichten millionenfach versandt werden. Lernalgorithmen finden heraus, welche Nachrichten die besten Ergebnisse erzielen, und können so die Taktik für einen nächsten Angriff anpassen. Automatisierte Angriffe suchen bei allen erreichbaren Geräten nach Einfallstoren, und angesichts Millionen neuer Geräte, die oft schlecht abgesichert sind, verlangen auch die Schutz- und Abwehrfunktionen dringend einen Entwicklungsschub im Bereich KI.

Das Internet der Dinge stellt Sicherheitsforscher vor neue Herausforderungen

Nur wenige Menschen sprechen mit solchem Sachverstand über die Möglichkeiten einer erhöhten Sicherheit wie Rajarshi Gupta , Leiter des Bereichs KI bei Avast . Ich hatte kürzlich anlässlich der InfoSecurity-Tagung in Mexico City  das Vergnügen, mit ihm die Bühne zu teilen und bei einigen hervorragenden mexikanischen Abendessen zusammen zu sitzen. Er hatte dort bemerkenswerte Statistiken zu Echtzeit-Cyberangriffen präsentiert und eine Diskussion geführt, in der es darum ging, wie das „Internet der Dinge“ neue Probleme für Sicherheitsforscher aufwerfen würde. Sie selbst können Sicherheitssoftware auf Ihrem PC und Ihrem Telefon installieren, aber wie sieht es beispielsweise mit Ihrem Toaster aus? Es mag nicht allzu bedrohlich klingen, wenn ein Hacker die Kontrolle über eines Ihrer Haushaltsgeräte übernimmt (selbst wenn dies Ihr Haus in Brand setzen könnte, wie Rajarshi anmerkte), allerdings lässt sich dieses Gerät auch als schwächstes Glied Ihres Netzwerks betrachten.

Angesichts der Vielzahl von neuen Geräten und sich rasant verbreitender Malware ist Rajarshis Mission von enormer Bedeutung. Maschinelles Lernen ist unverzichtbar, da nur so die Sicherheitstools mit der Malware Schritt halten können, die sich stetig weiterentwickelt. Eine klassische Datenbank mit Virensignaturen ist schließlich bereits innerhalb von Sekunden veraltet.

In diesem ständigen Kampf spielen Ressourcen eine wichtige Rolle. Wie Rajarshi in einem unserer Interviews erklärte, können die Abwehrmechanismen von Privatleuten und Unternehmen in der Regel überwunden werden, sobald Staaten ihre mächtigen Ressourcen dafür einsetzen. Im Staatsauftrag agierende Hacker-Armeen nehmen sich in der Regel gegenseitig ins Visier, zunehmend aber auch andere Ziele wie Stromnetze von Energieversorgungsunternehmen und – wie erst kürzlich wieder – die E-Mail-Konten führender Parteipolitiker. Ein Cyberangriff durch Hacker kann die weltpolitische Lage schneller und weit kostengünstiger verändern, als dies mit Panzerbataillonen möglich wäre.

Angriff ist die beste Verteidigung

Unter diesen Umständen ist Abschreckung die einzig wirksame Abwehrmethode. Ich weiß, dass die Mission von Avast in der Verteidigung und Abwehr von Cyberangriffen liegt und daher von großer Bedeutung ist, auch wenn ein „Zurückschlagen mit ebensolchen „Hackermethoden“ nicht erlaubt ist. Meine Philosophie als Schachspieler besagt jedoch, den Angriff als die beste Form der Verteidigung anzusehen. Das gilt auch für das geopolitische Spiel, aber in diesem Fall ist es die Gefahr einer guten Offensive, die zählt. Die Cyberwelt ist zu groß, als dass man sein Staatsgebiet allein mit Verteidigungsmaßnahmen hinreichend oder über längere Zeit hinweg schützen könnte.

KI verspricht also auch, uns und unsere Gesellschaft bei der Verteidigung gegen Fake News, Fake Videos und andere Desinformationsversuche zu unterstützen. Das menschliche Auge und Ohr können möglicherweise nicht zwischen einem echten Video und einer KI-gestützten Fälschung unterscheiden, ein KI-gestützter Erkennungsalgorithmus allerdings schon. Idealerweise werden Fälschungen bereits gelöscht, bevor sie verbreitet werden können, oder zumindest automatisch vor der Veröffentlichung als solche gekennzeichnet.

Es wird ein langer und schwieriger Kampf, aber wir haben auch schon früher solche Kämpfe geführt. Einige Experten haben sogar geglaubt, dass der E-Mail-Spam zum Untergang des Internets führen würde – heute ist es für die meisten von uns kaum noch ein Thema. Allerdings hat man die Sache nicht nur durch Filter, die auch weiterhin ihre Berechtigung haben, in den Griff bekommen. Spammer wurden hart bestraft – auch mit Gefängnisstrafen, was eine stark abschreckende Wirkung hatte. Die Regulierung von böswillig manipulierten Videos und Fake News trifft zwar auf Bedenken hinsichtlich der Einschränkung einer freien Meinungsäußerung, jedoch haben wir einen Präzedenzfall, um diese Kämpfe erfolgreich auszufechten.

Menschliche und maschinelle Intelligenz müssen kombiniert werden, um stabile Strukturen zur Abwehr dieser Bedrohungen zu schaffen. Ich bin froh, sowohl KI als auch Menschen wie Rajarshi Gupta auf unserer Seite zu haben.

Treffen Sie Rajarshi Gupta, Head of AI, am 25. Oktober 2019 live auf der „Cybersec & AI“ in Prag, einer Konferenz für Cybersicherheit und künstliche Intelligenz von Avast. Weitere Informationen erhalten Sie hier 

 

Zugehörige Artikel