Die Rückkehr des Fake President oder warum es diesmal (alles) anders ist

Die Veröffentlichung von chatGPT hat die öffentliche Wahrnehmung von Künstlicher Intelligenz (KI) verändert und zu wachsender Besorgnis geführt. Prominente Persönlichkeiten wie Tesla-Chef Elon Musk, Apple-Mitgründer Steve Wozniak und andere Technologie-Experten sowie Intellektuelle wie Noah Harari äußern ihre Bedenken darüber, dass die fortschreitende Entwicklung von KI außer Kontrolle geraten könnte. Sie fordern eine Pause von sechs Monaten in der Weiterentwicklung, um die tiefgreifenden Risiken für die Gesellschaft und die Menschheit zu evaluieren.

Was ist der Hintergrund dieser Sorge?

Künstliche Intelligenz wird immer besser und erweckt den Eindruck von menschlicher Intelligenz. Sie besteht Tests, löst Probleme, erkennt Muster und imitiert menschliches Verhalten. Sie kann Menschen täuschen, indem sie vorgibt, wirklich intelligent zu sein. KI ist in vielen Aspekten bereits besser als Menschen, da sie durch die Analyse großer Datenmengen Lösungen findet, die Menschen nicht entdecken könnten.

Bisher war KI jedoch in ihrer Kreativität eingeschränkt und konnte beispielsweise keine neuen Texte, Bilder oder Gespräche generieren. Doch hier scheint sich etwas zu ändern und der Erfolg von KI lässt sich auf zwei Ebenen beschreiben:

Ebene 1:

Auf dieser Ebene täuscht die Künstliche Intelligenz Personen, die unaufmerksam sind. Ein Beispiel dafür ist das nachfolgende Foto einer vermeintlichen Festnahme von Donald Trump, welches beim flüchtigen Betrachten als wahr und nicht KI-generiert wahrgenommen wird.

Quelle: https://www.zdf.de/nachrichten/politik/trump-mug-shot-fake-100.html Abruf 06.04.23 um 20:31 Uhr

 

Ebene 2:

Auf der zweiten Ebene ist das Ergebnis der KI so kohärent, dass es nicht vom Original zu unterscheiden ist, selbst wenn bekannt ist, dass ein Werk von einer KI erstellt wurde.

Woher kommt diese Entwicklung?

Der Hintergrund ist die sogenannte generative künstliche Intelligenz. Dies ist eine spezielle Kategorie von KI-Systemen, die darauf ausgelegt sind kreative Inhalte zu erstellen. Mithilfe von komplexen Algorithmen werden neue Daten oder Inhalte generiert, die auf vorhandenen Mustern und Informationen basieren. Mit umfangreichen Daten werden diese Modelle trainiert. So zielt beispielsweise das Training von chatGPT darauf ab, verschiedene sprachliche Aspekte wie Grammatik, Satzstruktur, Semantik und Stil zu verbessern. Das Modell lernt dabei, wie Wörter und Sätze miteinander in Beziehung stehen und wie sie in verschiedenen Kontexten verwendet werden. ChatGPT kann dadurch vorhersagen, was Menschen als kohärent empfinden, jedoch versteht es nicht die Bedeutung eines Textes.

Welche potenziellen Risiken ergeben sich daraus?

Die Verwendung von Künstlicher Intelligenz wie chatGPT birgt potenzielle Risiken, insbesondere im Bereich der Cyberkriminalität. Da keine umfangreichen Programmierkenntnisse erforderlich sind, können auch Personen mit begrenzten Ressourcen dieses Tool nutzen. Kriminelle Hacker könnten das Tool beispielsweise nutzen, um Phishing-E-Mails zu erstellen.

Waren diese bislang häufig auf der oben beschriebenen Ebene 1, ist davon auszugehen, dass diese Phishing-Attacken sich immer mehr auf der Ebene 2 bewegen werden.

Ein Aspekt von chatGPT hierzu besteht darin, dass es in der Lage ist, einen gewünschten Schreibstil zu imitieren, um E-Mails glaubwürdiger erscheinen zu lassen. Dies ermöglicht es auch Hackern ohne gute Sprachkenntnisse äußerst überzeugende Spear-Phishing-Kampagnen durchzuführen. Opfer können dann dazu verleitet werden, E-Mails von vermeintlich vertrauenswürdigen Absendern zu öffnen, was zur Einschleusung von Malware, Erpressung oder betrügerischen Geldüberweisungen führen kann.

Es ist zu erwarten, dass diese Arten von Social-Engineering-Angriffe durch Training der Modelle mit beispielsweise neuro-linguistischen Techniken immer schwerer als solche zu erkennen sein werden.

 Welche Maßnahmen sind nun hilfreich?

Generell sollte die Software, einschließlich Betriebssystemen, Antivirenprogrammen und anderen Sicherheitsanwendungen auf dem neuesten Stand sein, um Sicherheitslücken zu schließen. Der Zugriff auf sensible Informationen und Systeme sollte beschränkt und Benutzerkonten und Berechtigungen nur entsprechend den Anforderungen vergeben werden.

Die Sensibilisierung der Mitarbeiter wird immer eine wichtige Maßnahme bleiben, um Social-Engineering-Angriffe abzuwehren. Neben der Schulung der Mitarbeiter sind regelmäßige Phishing-Tests hilfreich, um deren Aufmerksamkeit zu erhöhen.

Wie oben erwähnt ist davon auszugehen, dass die Angriffe immer besser werden und selbst die beste Schulung und regelmäßige Phishing-Tests werden es nicht immer verhindern können, dass die Hacker erfolgreich sind.

Daher empfehlen wir jedem Unternehmen dieses Risiko durch eine Vertrauensschadenversicherung abzusichern.