Studie von Armasuisse

Generative KI bedroht die Cybersicherheit

Uhr
von Lia Perbo und jor

Der Einsatz von grossen Sprachmodellen birgt erhebliche Risiken für die Cybersicherheit, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt. Demnach sollten insbesondere staatliche Institutionen Vorsicht walten lassen, wenn sie generative künstliche Intelligenz einsetzen.

(Source: Jackie Niam / AdobeStock.com)
(Source: Jackie Niam / AdobeStock.com)

Die Entwicklung und Verbreitung von künstlicher Intelligenz stellt grosse Herausforderungen für die Sicherheit im Cyberraum dar. Insbesondere maschinelle Lernmodelle zur Generierung von Texten, Bildern oder Videos, besser bekannt unter dem Begriff "generative künstliche Intelligenz", werden immer leistungsfähiger und bieten erhebliche Missbrauchsrisiken, wie eine Studie des Bundesamts für Rüstung Armasuisse zeigt. 

Zu den Risiken gehören etwa Deep Fakes, gefälschte Nachrichten oder Betrugsversuche. Ein solcher Missbrauch von Lernalgorithmen könne die Sicherheit der genutzten KI-Anwendungen gefährden. Beispielsweise könnten KI-Modelle Text oder Software generieren, die teilweise subtile Fehler enthalten, jedoch nur schwer zu finden sind, schreibt Armasuisse.

Large Language Models (LLMs) würden bereits heute in sicherheitsrelevanten Produkten und Anwendungen eingesetzt. Da sie allerdings mehrheitlich im Ausland hergestellt werden, sei insbesondere für staatliche Akteure in der Schweiz Vorsicht geboten. Für eine sichere Entwicklung und einen sicheren Einsatz von generativer KI sollten Sicherheitskontrollen in der Datenverarbeitungskette zum Einsatz kommen, stellen die Studienautoren und -autorinnen fest. 

Der Cyber Defense Campus von Armasuisse erarbeitete die Open-Access-Studie mit Titel "Large Language Models in Cybersecurity" in Zusammenarbeit mit der Fachhochschule Westschweiz (HES-SO). Sie soll Fachpersonen und Entscheidungsträgern aus der öffentlichen Verwaltung und Wirtschaft bei der Beurteilung von Einsatzrisiken und der Entwicklung von Sicherheitsmassnahmen helfen. Die Autorinnen und Autoren rufen Staat, Wirtschaft und Gesellschaft dazu auf, sich mit den schnell wachsenden technologischen Entwicklungen auseinanderzusetzen und proaktive Massnahmen zu ergreifen.

 

Übrigens: Eine Firma, die Deepfakes den Kampf angesagt hat, ist das ETH-Spin-off Latticeflow AI. Lesen Sie hier mehr dazu

Wenn Sie mehr zu Cybercrime und Cybersecurity lesen möchten, melden Sie sich hier für den Newsletter von Swisscybersecurity.net an. Auf dem Portal gibt es täglich News über aktuelle Bedrohungen und neue Abwehrstrategien.

Webcode
kYym726B