Künstliche Intelligenz, ein Bahnbrecher für Cyberkriminelle
Frederic Dupeux, Chief Information Security Officer at Banque Havilland
Vor einigen Monaten hat die Einführung von ChatGPT sowohl große Begeisterung hervorgerufen als auch Unruhe losgetreten und wird daher viel diskutiert. Dennoch hat künstliche Intelligenz nicht mit ChatGPT begonnen. Viele Tools verwenden diese Technologie bereits beim Angebot verschiedener Dienstleistungen. Aber auch viele Cyberkriminelle haben ihr Potential erkannt.
Ziel der künstlichen Intelligenz (KI) ist es, die menschliche Intelligenz nachzuahmen. Jenseits der rein philosophischen und ethischen Debatte, ob Tools, Algorithmen oder Programme als „intelligent“ eingestuft werden können, gibt es unumstritten eine tiefgründige Veränderung durch Techniken, die die Intelligenz oder Interaktionen des Menschen simulieren. Zwei Fragen stellen sich dabei. Zum einen, wie kontrolliert man eine Intelligenz, deren Ziel es ist, die menschliche zu simulieren? Des Weiteren, wie unterscheidet man eine künstliche Intelligenz von einer menschlichen? Die Revolution, die mit der KI einhergeht, verändert unsere Gewohnheiten und bringt uns dazu, die Zukunft dieser Technologie, die nicht an der Definition eines rechtlichen Rahmens zur Regulierung ihres Verhaltens und ihrer Entwicklung vorbeikommt, zu hinterfragen.
Zugänglich, schnell, intuitiv, natürlichsprachlich, speicherfähig: ChatGPT ist Vorbild eines universellen, logikfähigen und vergangenheitsspeichernden Tools. KI-Modelle wie ChatGPT, eines der fortschrittlichsten, können sehr große Mengen von Daten analysieren. Mithilfe dieser Daten kann das Modell Texte, die denen eines Menschen gleichen, erstellen, Fragen beantworten, Codes generieren usw. Genau hier setzen die Probleme ein.
Auswirkungen auf die Computer- und Netzsicherheit
Wie immer bei technologischen Fortschritten gibt es die Möglichkeit einer missbräuchlichen Nutzung für Betrugsgeschäfte. Die KI wurde geschaffen, um den Menschen nachzuahmen, und ihn auf dem Gebiet der menschlichen Interaktionen zu übertreffen. Dieses Tool eröffnet Möglichkeiten für Cyberkriminelle, die hiermit ihre Geschäftsmodelle verbessern können: Erstellen von schädlichen Codes, überzeugende Phishingversuche, KI-Bots, Systembeschädigungen durch gefälschte Daten oder Aufbau von unechten Anlageportfolien sind nur einige Beispiele. Diese Szenarien sind gut bekannt, ihre Umsetzung ist allerdings sehr zeitaufwändig. Eine KI mit breitem Wissen ermöglicht neue, raffiniertere und schnellere Angriffe; Cyberkriminelle können so die Anzahl und Arten der Angriffsversuche erhöhen.
Bei der Computer- und Netzsicherheit ist der Mensch oft das schwächste Glied. Auf menschlichen Interaktionen basierende Piraterieversuche z.B. per Telefon erfordern vielschichtiges Wissen über die Zielperson des Cyberkriminellen. Dank der Datenmodelle verschafft die KI Zugang zu einer Menge von Informationen, die kein Mensch allein besitzen kann. Man stelle sich nur eine KI vor, die alle Informationen aus Facebook, Instagram, Twitter, Linkedin verbindet… Die KI hätte hiermit hochpräzise Informationen zu den Gewohnheiten und dem Verhalten einer Person. KI-Modelle können nicht nur einen Text schreiben, sondern auch eine Stimme oder ein Videobild erzeugen, eine Diskussion verstehen oder angemessen und in Echtzeit reagieren. Das sogenannte vishing (Phishingangriffe per Telefon) sowie die gesamten Social-Engineering-Tricks werden dadurch in den kommenden Jahren parallel zur Entwicklung der künstlichen Intelligenz weiter zunehmen.
Fake News stellen eine weitere Form von Cyberkriminalität dar, die mit KI zunimmt und große Auswirkungen auf die Bankenwelt haben wird. Die kürzlich erfolgte Verbreitung eines falschen Bildes einer Explosion in der Nähe des Pentagon über soziale Netzwerke sorgte für fallende Kurse an der US-Börse. Unmittelbar nach der Verbreitung des Bildes auf Twitter verlor der Dow Jones ungefähr 80 Punkte, hat diese aber einige Minuten später wieder wettgemacht.
Die Gefahr immer raffinierterer und strukturierterer aus KI stammender Hacking-Möglichkeiten wächst. Ein neuer Rüstungswettlauf hat begonnen, zwischen Hackern, die ihre Angriffe weiter industrialisieren wollen und Betrieben, die sich diesem Problem mithilfe immer komplexerer und spezialisierterer Cybersicherheits-Tools stellen müssen.
KI ist auch eine Chance für die Finanzwelt
Die Finanzwelt braucht Tools, die bei hochpersonalisierten Dienstleistungen den Wünschen des Kunden angepasst sind. Dazu gehören beispielsweise effizientere virtuelle Assistenten, die das Umfeld des Kunden verstehen und angemessene Empfehlungen ausstellen können. Die KI wird in der Lage sein, große Daten zu analysieren, um zum Beispiel Kreditwürdigkeit und Kunden-Onboarding zu erörtern. Vorstellbar wäre auch ein System, das die Bearbeitung von Kreditanträgen rationalisiert, manuelle Arbeit mindert und die Genauigkeit bei der Bearbeitung von Kreditrisikoanalysen erhöht. KI kann bei Investitionsbeschlüssen helfen, indem es die Marktdaten, die neuesten Nachrichten und Trends analysiert. So können Investitionschancen identifiziert oder Portfolio-Zuteilungen optimiert werden. KI stellt also eine wichtige Entwicklung für Unternehmen dar, vor allem für Banken. Ziel ist es, die Vorteile der KI zu maximieren und gleichzeitig dessen Cybersicherheitsrisiken einzudämmen. Genau hier spielt der Chief Information Security Officer (CISO) eine entscheidende Rolle.
Die Risiken verstehen und die Unternehmen begleitend unterstützen
Neue Technologien bringen Chancen aber auch Herausforderungen mit sich. Momentan fehlt es an Regulierung bezüglich der Anwendung von KI, folglich müssen die CISO sich anpassen. Regulierung auf europäischer Ebene wird von wesentlicher Bedeutung für die Prüfbarbarkeit sowie die Einhaltung von Sicherheitsnormen sein. Ziel wird es sein, die KI zu definieren und ihre Risiken zu reduzieren. Bis dahin sind ein gutes Verständnis der Technologien und eine Begleitung der Unternehmen die Schlüsselelemente zur Lösung. Welche Rolle spielt der CISO bei der Gewährleistung ihrer Sicherheit?
Er kann dem Unternehmen helfen, seine Anforderungen an die KI und deren Einsatzmöglichkeiten zu verstehen, zum Beispiel über Schulungen und Diskussionsforen aus denen dann neue Dienstleistungen oder Anwendungen gewonnen werden können. Hierbei handelt es sich um Analysen, die die Risiken der Anwendung von KI identifizieren und die Schutzbedürftigkeit der auszutauschenden Daten einschätzen.
Weiterhin ist es wichtig, Mitarbeiter kontinuierlich hinsichtlich neuer Bedrohungen und Angriffsformen der Cyberkriminalität zu sensibilisieren. Auch muss die Relevanz der Kontrollen den möglichen KI gesteuerten Angriffen angepasst oder revidiert werden.
Last but not least wird es im Bereich der Steuerung notwendig sein, eine Bestandsaufnahme der KI-Tools vorzunehmen und deren Anwendung zu kennen. Auch wird eine interne Definition notwendig sein, ein Benutzerhandbuch und Verhaltenskodex sind einzurichten. Die Anwendung eines solchen Systems wird strenge Prüfungsverfahren beanspruchen, mit klar definierten Prüfungsabläufen, die der Anwendung von KI angepasst sind.
Der Mensch redet immer noch mit!
Betrügerische Anwendungen von KI finden jetzt schon statt. Eine rechtmäßige Nutzung wird aber notwendig sein für die Weiterentwicklung der Unternehmen. Wie bei allen neuen Technologien gilt es, sie zu verstehen und mit ihr umzugehen. Auch für den Fortschritt unserer Gesellschaft wird die KI eine wesentliche Rolle spielen. Allerdings bleibt es ratsam, die Resultate und den Wert von aus KI stammenden Informationen kritisch zu betrachten. Übrigens, wer versichert uns überhaupt, dass dieser Artikel nicht von einer KI geschrieben wurde?
(source: AGEFI)