Site icon unternehmerweb

Cybercrime boomt: So schützt man sich vor Kriminellen

Künstliche Intelligenz ist nützlich, kann aber auch von Kriminellen missbraucht werden

Cybercrime boomt

Im Jahr 2022 sind die angezeigten Straftaten im Bereich der Internetkriminalität um 30 Prozent auf mehr als 60.000 gestiegen. Sexualdelikte fallen da ebenso darunter wie Vermögensdelikte. Bei Betrugsdelikten gibt es ein Plus von 23 Prozent auf mehr als 27.600 Fälle und der Schaden belief sich auf 700 Millionen Euro – wobei die Dunkelziffer noch weit höher sein dürfte. „Mit ein Grund für den rapiden Anstieg ist der stetige technologische Fortschritt. Zudem agieren die Täter häufig aus dem Ausland, was die Rückverfolgbarkeit der Straftaten sowie den Zugriff auf die Täter und auf das entwendete Vermögen erschwert“, erklärt Mag. Manuel Scherscher, Leiter der Abteilung für Wirtschaftskriminalität und Betrug im BK. „Mit ein Grund für den rapiden Anstieg ist der stetige technologische Fortschritt. Zudem agieren die Täter häufig aus dem Ausland, was die Rückverfolgbarkeit der Straftaten sowie den Zugriff auf die Täter und auf das entwendete Vermögen erschwert“

Wer sich schützen will, sollte die Instrumente seiner Gegner kennen

Der Einsatz von Künstlicher Intelligenz (KI) spielt derzeit im Bereich der Internetkriminalität noch eine untergeordnete Rolle, aber die Entwicklung schreitet enorm voran. Aufklärung der Bevölkerung zählt daher auch in diesem Bereich zu den effektivsten Präventivmaßnahmen. „Um sich wirksam vor Deepfakes – sprich realistisch wirkenden Medieninhalten – zu schützen, sollte man wissen, welche technischen Möglichkeiten es jetzt schon gibt und wie man sich davor schützen kann“, erklärt Dr. Sven Kurras, Director of Analytics bei RISK IDENT. Der KI-Experte zeigte anhand praktischer Beispiele vor, dass bereits jetzt Gesichter, Stimmen, Videos und sogar ganze Dialoge künstlich erzeugt werden können, wobei diese aber derzeit teilweise noch fehlerbehaftet sind. „Unscharfe Übergänge zwischen Gesichtern und dem Hintergrund sind sehr verdächtig, ebenso asymmetrische Brillen. Wenn Teile von Bildern oder Videos eine unterschiedliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“

Praktische Tipps zum Erkennen von Deepfakes

Dr. Kurras empfiehlt insbesondere auf folgende Punkte zu achten, um Deepfakes zu enttarnen: „Unscharfe Übergänge zwischen Gesichtern und dem Hintergrund sind sehr verdächtig, ebenso asymmetrische Brillen. Wenn Teile von Bildern oder Videos eine unterschiedliche Auflösung haben, sollte man ebenfalls auf der Hut sein.“ Wichtig ist auch das Bauchgefühl: Verhält sich die andere Person untypisch? Gibt es Auffälligkeiten in der Mimik, bei den Mundbewegungen, den Zähnen, beim Blinzeln oder der Lippensynchronität? Auch eine andere Aussprache, Betonung, Wortwahl oder Dialekt als gewohnt, können laut dem KI-Experten Alarmsignale sein.

Hat man während eines Live-Videocalls Verdacht geschöpft, könnte man das Gegenüber zu gezielten Tests auffordern, wie zum Beispiel zum Singen, um Text-To-Speech-Modelle zu entlarven. Um Face-Overlays zu stören, ist die Aufforderung die Hand vor dem Gesicht zu schwenken, ein guter Tipp. Zudem gibt es algorithmische Gegenmaßnahmen zur Deep-Fake-Erkennung. Für den Privatbereich gibt es bereits recht nützliche technische Tools, um mittels KI verfälschte Videos zu enttarnen, wie beispielsweise den Deepfake-O-Meter oder den Scanner von Deepware, wobei deren Websites zum Zeitpunkt des Versands dieser Presseaussendung gerade gewartet wurden.

Wissen über KI laut KFV-Umfrage noch begrenzt

Künstliche Intelligenz bietet allerdings nicht nur Schattenseiten, sondern auch sehr viel positives Potenzial, etwa im Bereich der Arbeitsvereinfachung und Steigerung der Effizienz. Aber auch dabei gilt es einiges zu beachten, denn nicht jeder, der sich strafbar macht, tut dies aus böser Absicht. Wie eine aktuelle Umfrage des Fachbereichs Eigentumsschutz im KFV zeigt, gaben nur knapp 10% der Befragten an, über ein umfassendes Wissen über KI zu besitzen, 52% verfügen nur über ein Basiswissen, 35% stufen ihr Verständnis als begrenzt ein und 3% gaben an, überhaupt kein Wissen in dem Bereich zu haben.

Was ist erlaubt und ab wann macht man sich strafbar?

„Aufbauend auf den Prinzipien westlicher Rechtssysteme wird es nicht möglich sein, dass intelligente Computer sogar als Täter im strafrechtlichen Sinn angesehen werden“. Armin Kaltenegger

Dr. Armin Kaltenegger, Leiter des Bereichs Eigentumsschutz sowie des Bereichs Recht und Normen im KFV erklärte, dass der Einsatz von Künstliche Intelligenz auch unbewusst und ohne böse Absichten strafbar werden kann, zum Beispiel bei der Verletzung von Urheberrechten oder dem fahrlässigen Vertrauen in KI-gesteuerte Algorithmen. Die Frage, ob intelligente Computer sogar als Täter im strafrechtlichen Sinn angesehen werden könnten, wurde von dem erfahrenen Juristen hingegen verneint: „Aufbauend auf den Prinzipien westlicher Rechtssysteme wird das nicht möglich sein“. Aber wer haftet dann für ein von KI-Systemen selbst erlerntes Fehlverhalten? Überhaupt niemand? Diejenigen, die KI-Dienstleistungen zur Verfügung stellen? Oder gar die Nutzer? Dr. Kaltenegger dazu: „Ob dieses Phänomen den Betreibern oder Nutzern angerechnet werden kann, wird sehr stark von der Lernfähigkeit der Systeme und der Vorhersehbarkeit der Prozesse abhängen. Ein wichtiger Faktor wird auch sein, wie die Rechtsordnung darauf reagiert“.
Etablierte Betrugsformen stellen derzeit noch immer den Großteil der Delikte dar.

Folgende Tipps sollten beachtet werden

Neffen- und Nichtentrick

Falsche Polizisten

Datendiebstahl

Unverlangte Werbeanrufe (Cold Calls)

Ping-Anrufe

Allgemeine Tipps

Quelle: Presseaussendung KfV

Exit mobile version