Künstliche Intelligenz: Fluch und Segen für die Zukunft der IT-Sicherheit

Studie von PAiCE zu den Potenzialen der Künstlichen Intelligenz für die Industrie© fotolia / fotomek

In vielen Bereichen der Digitalisierung bietet die Künstliche Intelligenz (KI) enorme Entwicklungspotenziale sowohl für die Forschung als auch für Unternehmen. Sie ist jedoch auch ein nicht zu unterschätzender Faktor, wenn es um IT-Sicherheit geht. Zum einen bietet sie Verbesserungsmöglichkeiten bei der Sicherheit von IT-Systemen, zum anderen können die KI-Systeme selbst schnell zu einer Angriffsfläche für Cyberkriminelle werden und neue Bedrohungen für die IT-Sicherheit darstellen.

Mit genau diesem Wechselspiel zwischen IT-Sicherheit und KI beschäftigt sich die Studie „Künstliche Intelligenz und IT-Sicherheit“ der ExpertInnen der interdisziplinären Arbeitsgruppe „IT-Sicherheit, Privacy, Recht und Ethik“ der Plattform Lernende Systeme. Die durchgehende Forderung: Die Unterstützung von kleinen und mittleren Unternehmen sowie von IT-Fachkräften beim Aufbau von Kompetenzen, um eben diesen Gefahren vorbeugen und im schlimmsten Fall auch handlungsfähig sein zu können.

Ein wichtiger Faktor zur Prävention von Cyberangriffen auf IT-Systeme selbst ist und bleibt der Mensch. Besonders im Hinblick auf den Fachkräftemangel kann aber KI als Unterstützung bei IT-Sicherheitsaufgaben, wie dem Aufspüren von Sicherheitslücken oder dem Erkennen von Angriffen, dienen. Die letzte Entscheidungsinstanz müsse aber der Mensch selbst bleiben. Daher sollten Behörden und Unternehmen neben der Investition in neue Technologien noch stärker in die Ausbildung von IT-Fachkräften investieren.

KI bietet Angreifern aber auch einige neue Angriffsmöglichkeiten. Beispielsweise hilft sie, Schwachstellen in IT-Systemen zu finden, bestehende Schadsoftware zu optimieren und sicher geglaubte Authentifizierungsverfahren leichter zu knacken. Auch Täuschungsmanöver, beispielsweise via E-Mail, welche zur Herausgabe empfindlicher Daten der angegriffenen Person führen, sind mithilfe der KI leichter umzusetzen. Beim so genannten Social Engineering werden verfügbare Informationen über den Empfänger im Netz gesammelt und somit eine individualisierte E-Mail-Attacke ermöglicht. Für den Betroffenen wird die Erkennung solcher E-Mails somit immer schwieriger.

Andererseits kann KI selbst zukünftig ein Ziel von Angreifern werden. Die Daten, mit welcher das jeweilige KI-System bespielt wird, können gehackt oder lernende Algorithmen manipuliert werden. Dies hätte dann zum Beispiel Auswirkungen auf KI-basierte Vorhersagen, wie man sie unter anderem im Wertpapierhandel vorfindet oder sensible Daten aus dem Gesundheitsbereich könnten missbraucht werden. Die Erforschung von präventiven Möglichkeiten wie Lernalgorithmen, welche den Datenschutz erhalten und unterstützen, wird damit immer notwendiger.

Die vollständige Studie steht hier zum Download zur Verfügung.