Im ersten Teil beschäftigten wir uns mit dem Internet der Dinge im Jahr 2019. Im zweiten Teil drehte sich alles um Bedrohungen für Mobilgeräte im neuen Jahr. Und jetzt, in der letzten Folge unserer dreiteiligen Serie über Prognosen zur Cybersicherheit 2019, untersuchen wir, wie sich künstliche Intelligenz (KI) auf die Bedrohungen des bevorstehenden Jahres auswirken wird.
Kein Sicherheitsbereich birgt mehr Rätsel und Geheimnisse als die KI. In zunehmendem Maße erleben wir gegnerische KI-Algorithmen, die mit KI-Sicherheitsalgorithmen kämpfen. Avast hat viel in die Entwicklung von KI-Algorithmen investiert, um die Kräfte von gegnerischer KI zu bekämpfen, und unsere Erkenntnisse in diesem Bereich haben uns dazu veranlasst, Dinge zu erforschen, von deren Existenz wir zwar wissen, die wir aber noch nicht richtig verstehen. Eines dieser neuen Interessengebiete ist eine als DeepAttacks bekannte Angriffsklasse.
Das Zeitalter von DeepAttacks steht vor der Tür
Wir definieren „DeepAttacks“ als „von KI-Algorithmen automatisch generierte bösartige Inhalte“. Die Häufigkeit dieser Angriffsklasse wird vermutlich zunehmen.
Im Jahr 2018 haben wir viele Beispiele gesehen, bei denen Forscher gegnerische KI-Algorithmen verwendet haben, um Menschen zu täuschen. Zu den Beispielen gehört das von Buzzfeed erstellte gefälschte Obama-Video, in dem Präsident Obama auf überzeugende Weise Sätze von sich gibt, die er in Wirklichkeit nie gesagt hat. Dieses Phänomen wird häufig als „Deepfake“ bezeichnet: Der Einsatz von KI, um Menschen zu täuschen. Wir haben auch Beispiele für gegnerische KI gesehen, die selbst die intelligentesten Objekterkennungsalgorithmen täuschen, wie in diesem Beispiel, bei dem ein Algorithmus ein Stoppschild für ein „45 Meilen pro Stunde“-Schild hält. Glücklicherweise sind jedoch Beispiele aus der Praxis für KI-generierte „Fake News“ selten.
Gleichzeitig können DeepAttacks die Form von gefälschten URLs oder HTML-Webseiten annehmen. Damit lässt sich gefälschter Netzwerkverkehr in Botnetzen erzeugen. Wir erwarten, dass DeepAttacks 2019 häufiger eingesetzt wird, um sowohl menschliche Augen als auch intelligente Abwehrmechanismen zu täuschen. Wir arbeiten intensiv an speziellen Erkennungsmethoden für DeepAttacks, um sie zu identifizieren und zu blockieren, bevor sie allzu groß werden.
Intelligente Angriffe auf Heimnetzwerke
Angreifern stehen nun ausgefeilte Algorithmen zur Verfügung, mit denen Haushalte mit bestimmten Profilmerkmalen (z. B. mit vielen Apple-Geräten oder mit mindestens 10 anfälligen Geräten usw.) identifiziert und angegriffen werden können. Dann können sie die nächste Stufe des gerichteten Angriffs auf ein gewünschtes Zielgerät (z. B. eines, das sich für das Crypto-Mining eignet, mithilfe von Passwort-Crackern, die sich an die spezifischen Gerätetypen anpassen) automatisieren. Somit kann die gesamte bösartige Kette automatisch ausgeführt werden.
KI gegen Klon-Phishing
Wir gehen davon aus, dass KI einen großen Anteil am Ende der als Klon-Phishing bekannten Methode haben wird, bei der ein Angreifer eine nahezu identische Nachbildung einer legitimen Nachricht erstellt, die das Opfer für echt halten soll. Die E-Mail wird von einer Adresse gesendet, die dem legitimen Absender ähnelt, und der Inhalt sieht aus wie eine frühere Nachricht. Der einzige Unterschied ist, dass der Anhang oder der Link in der E-Mail durch einen bösartigen ersetzt wurde.
Nach unseren Erwartungen wird KI bei der Erkennung der kurzlebigen Phishing-Websites, die mit diesen Klon-Phishing-Angriffen in Verbindung stehen, sehr effektiv sein. KI kann auf zweierlei Weise schneller als herkömmliche Algorithmen sein: erstens durch die genaue Identifizierung von neuen und verdächtigen Domänen, und zweitens durch die Nutzung schneller Algorithmen aus den visuellen Erkennungsdomänen zum Abgleichen des Layouts mit Phishing-Sites und Erkennen von Fälschungen. KI lernt außerdem im Laufe der Zeit dazu, folgt Trends und überwacht die Weiterentwicklung von Malware.
Leider werden gezielte Spear-Phishing-Techniken weiterhin Erfolg haben, wenn Angreifer Zeit und Geld investieren, um zielspezifische Informationen zu sammeln, z. B. durch E-Mails, die angeblich von der Schule Ihres Kindes stammen, dem Vorstand Ihres Unternehmens usw. In diesen und vielen anderen Fällen gelingt es einem hochmotivierten Angreifer häufig, sein Ziel zu erreichen, und es ist die Aufgabe anderer Erkennungstechnologien, wie Module zur Verhaltenserkennung, die Bedrohung zu stoppen.
Das Ende von Text-Captchas
Über ein Jahrzehnt lang wiesen Personen im Internet nach, dass sie menschliche Wesen sind, indem sie Buchstaben korrekt erkannten und eingaben. Es war zum Zeitpunkt der Einführung das effektivste Werkzeug, um zu beweisen, dass man kein Bot ist.
Dies ist nicht mehr der Fall.
Eine Studie von Vicarious Ende 2017 zeigte, dass Captchas – selbst komplexe – von Algorithmen überlistet werden können. Dies hat zur Einführung von Verhaltensanalysen geführt, um Bot-Aktivität auf Websites zu identifizieren, indem eine Interaktion nach ihrer Verdächtigkeit bewertet wird. Dadurch müssen Benutzer keine verzerrten Texte mehr erkennen, um sich als Person zu identifizieren. Auch reCAPTCHA, der größte Anbieter von Captchas, zeigt mittlerweile kaum noch reine Text-Captchas an. Die Hacker haben sich an die Technologie angepasst, sodass wir 2019 das Ende der Text-Captchas erleben werden, zumindest auf sicherheitsorientierten Websites.
Die Verbreitung von KI wird in diesem und den kommenden Jahren zunehmen. Und obwohl wir der Meinung sind, dass künstliche Intelligenz mehr gute als schlechte Seiten hat, sind Tools nur so hilfreich wie ihre Anwender. Bleiben Sie 2019 mit den Beiträgen dieses Blogs auf dem Laufenden über alle KI-Neuigkeiten. Um ein umfassenderes Bild über die aktuellen Risiken für die Cybersicherheit zu erhalten, laden Sie den gesamten Avast Prognosebericht für 2019 herunter.