Digitale Täuschung: Die Schattenseiten von KI und ihre Rolle bei Deepfakes (2024)

Der Einfluss von Falschinformationen ist ein ernstzunehmendes Thema, dass Unternehmen in Deutschland in Betracht ziehen sollten um zukünftige Probleme zu vermeiden. Heutzutage wird KI in vielen Bereichen unseres Alltags angewendet, um gewisse Aufgaben effizienter auszuführen. Jedoch bietet KI auch viele Möglichkeiten illegale Aktionen erfolgreich und besser umzusetzen. KI ermöglicht die Kreation von ,Deepfakes‘, dies beinhaltet eine manipulierte Audio-, Bild oder Videoaufnahme, die anhand von KI Algorithmen kreiert wurde, um Personen oder Systeme zu täuschen.

Bei Franklin Fitch haben wir hinsichtlich des Themas ‚Deepfakes‘ kürzlich ein ‚Round Table‘- Event veranstaltet. Zusammen mit unserem Gastredner Simon Nicholls (VP of EMEA bei Keepnet Labs, eine Human Risk Management Plattform), haben wir die Bedrohung von KI für Unternehmen in 2024 genauer erforscht. Unsere Veranstaltung befasste sich spezifisch mit den Thema generative KI, und ermöglichte einen genaueren Einblick in die Jailbroken-Versionen der generativen KI. Hier gibt es eine Liste von Tools, die die Unterstützung illegaler Aktivitäten zulassen. Diese sind XXXGPT, WolfGPT, WormGPT und DarkBARD. Viele dieser Tools ermöglichen das Klonen von Stimmen, was den Prozess der Erstellung einer computergenerierten Kopie der Stimme einer Person vereinfacht. Es liegt eine positive Korrelation zwischen der Benutzung einer computergenerierten Kopie einer Stimme und der erfolgreichen Ausführung einer Kriminaltat vor.

Die Rolle von Deepfakes bei Cyberangriffen

Wir haben in unserer Diskussionsrunde uns zwei Vorfälle angeschaut, die stark von ‚Deepfakes‘ beeinflusst wurden. Hierzu gehören die Angriffe von 2023 auf die Hotelgruppe MGM und Caesar, die durch Deepfakes schweren Schaden erlitten haben. Diese werden oftmals in Verbindung mit ‚Voice Pishing‘ benutzt, um vertrauliche Daten, wie Passwörter, Kreditkartennummern oder andere sensible Informationen der Opfer zu ergattern. Beide Unternehmen haben verschiedene Lösungen implementiert, um deren Schäden zu beheben. Caesars bezahlte ein Beratungsunternehmen, das alle Systeme von Grund auf wiederherstellen sollte, MGM entschied sich jedoch gegen den Rat, das Lösegeld zu zahlen. Beide Unternehmen endeten mit einem Gesamtschaden von $100m.

Die Anwendung von ‚Deepfakes‘ kann Ihr Unternehmen in vielen Aspekten negativ beeinflussen, da es das Vertrauen von Individuen durch Manipulation gewinnt. Der Preis von ,Deepfakes‘ kann wiederum auch für Hacker kostspielig sein. Professionelle ,Deepfakes‘ fangen oftmals schon bei $20.000 an, allerdings erlauben gewisse Tools die Kreation von ,Deepfakes‘ für weniger als $8. Diese manipulierten Medieninhalte, geben sich oft als Unternehmensleiter aus um gewisse Informationen zu erlangen. Durch die weite Verbreitung von Presse und Sozialen Medien, ist es für Hacker heutzutage umso leichter KI Modelle zu erstellen basierend auf den vorhandenen Informationen die in der Öffentlichkeit kursieren.

Top 5 Tipps Sicherheitsmaßnahmen gegen KI Cyberangriffe

Es gibt eine Reihe von Sicherheitsmaßnahmen, die die Risiken bösartiger KI deutlich einschränken können. Wir haben folgende Punkte für Sie zusammengestellt:

1. Kontinuierliche Überwachung und Anpassung

2. Schulungen zur Erkennung und Meldung von ,Deepfakes‘

3. Fortgeschrittene Lösungen zur Erkennung von Bedrohungen

4. Robuste Authentifizierungen und Zugangskontrollen

5. Reaktionsplanung auf Vorfälle

Kontinuierliche Überwachung und Anpassung

Überwachen Sie regelmäßig die Netzwerkaktivitäten und das Systemverhalten, um ungewöhnliche Muster oder Abweichungen zu erkennen. Sie sollten anpassungsfähige Cybersicherheitsmaßnahmen implementieren, die sich mit den dynamischen Taktiken von KI-gestützten Cyberangriffen weiterentwickeln können. Dazu gehört, dass Sie über die neuesten Bedrohungsdaten informiert bleiben und Ihre Abwehrstrategien entsprechend anpassen.

Schulungen zur Erkennung und Meldung von ,Deepfakes‘

Die Schulung von Mitarbeitern in der Erkennung von Fälschungen ist wichtig. Ihre Mitarbeiter sollten lernen, wie sie merkwürdige Dinge in Videos oder Audiodateien erkennen können, z. B. seltsame Gesichtsbewegungen oder Geräusche, die nicht richtig zu sein scheinen. Sie müssen auch wissen, welche Schritte sie unternehmen müssen, wenn sie etwas Verdächtiges sehen, und wem sie es sofort mitteilen müssen. Bei dieser Art von Fähigkeiten geht es nicht nur darum, online vorsichtig zu sein, sondern auch darum, das gesamte Unternehmen vor cleveren Betrügereien zu schützen, die sehr echt aussehen können.

Darüber hinaus können Social-Engineering-Simulationen wie Vishing (Voice-Phishing), Smishing (SMS-Phishing) und Callback-Voice-Phishing-Simulatoren das Training noch verbessern. Diese Simulatoren zeigen den Mitarbeitern, wie Phishing-Versuche im wirklichen Leben aussehen könnten, so dass sie besser vorbereitet sind. Sicherheitsschulungen tragen dazu bei, dass alle Mitarbeiter über alle Arten von Online-Bedrohungen auf dem Laufenden bleiben, nicht nur über Deepfakes.

Fortgeschrittene Lösungen zur Erkennung von Bedrohungen

Setzen Sie fortschrittliche Lösungen zur Erkennung von Bedrohungen ein, die künstliche Intelligenz und maschinelles Lernen nutzen, um potenzielle Cyberbedrohungen zu identifizieren. Diese Lösungen können große Datensätze analysieren, anormale Verhaltensweisen erkennen und Muster aufdecken, die auf KI-gesteuerte Angriffe hindeuten. Die Implementierung von Spitzentechnologien verbessert die Fähigkeit Ihres Unternehmens, hochentwickelten Cyber-Bedrohungen einen Schritt voraus zu sein.

Robuste Authentifizierungen und Zugangskontrollen

Verstärken Sie die Authentifizierungsprozesse und Zugangskontrollen, um unbefugten Zugang zu sensiblen Informationen zu verhindern. Implementieren Sie eine Multi-Faktor-Authentifizierung (MFA) und stellen Sie sicher, dass Mitarbeiter nur auf die Daten und Systeme zugreifen können, die sie für ihre Aufgaben benötigen. Dadurch werden die potenziellen Auswirkungen einer Sicherheitsverletzung begrenzt und eine zusätzliche Sicherheitsebene gegen KI-gestützte Angriffe auf Anmeldeinformationen geschaffen.

Reaktionsplanung auf Vorfälle

Entwickeln und aktualisieren Sie einen Plan für die Reaktion auf einen Vorfall, der die Schritte beschreibt, die im Falle eines Cybersicherheitsvorfalls zu unternehmen sind. Dieser Plan sollte Protokolle zur Identifizierung und Eindämmung von KI-gestützten Bedrohungen und zur Wiederherstellung betroffener Systeme enthalten. Führen Sie regelmäßig Übungen und Simulationen durch, um sicherzustellen, dass das Reaktionsteam gut auf verschiedene Szenarien vorbereitet ist und die Auswirkungen potenzieller Angriffe minimiert werden.

Das mangelnde Bewusstsein für Deepfakes in Deutschland

Im Bezug zu Deutschland, hat sich herausgestellt, dass nur insgesamt 71% der Teilnehmer einer großen Umfrage wussten was der Begriff ,Deepfakes‘ bedeutete. Daher, kann festgestellt werden, dass dieses Thema in Deutschland eher langsamer wahrgenommen und behandelt wird. Laut Maia Klaassen, Expertin für Desinformation und gesellschaftliche Resilienz an der estnischen Universität, kann ein klarer Vorteil erzielt werden durch internationale Kooperation und Aufklärung, um das Problem richtig anzugehen. Die genannten Tipps zur Risikoeinschränkung sind ein wichtiger Ansatz für viele Unternehmen um bestimme Gefahren der KI besser zu bekämpfen, darunter ,Deepfakes‘.

Für weitere Informationen zum Thema deepfakes schauen Sie gerne auf unserer Blog-Seite vorbei. Wir veröffentlichen regelmäßig Nachrichten zum Thema. Sollten Sie auf der Suche nach einer neuen Position im IT Security oder Cybersecurity Bereich sein, wenden Sie sich gerne an unsere Berater oder schauen Sie sich unsere offenen Positionen hier an.

Digitale Täuschung: Die Schattenseiten von KI und ihre Rolle bei Deepfakes (2024)

References

Top Articles
Latest Posts
Article information

Author: Terrell Hackett

Last Updated:

Views: 5994

Rating: 4.1 / 5 (72 voted)

Reviews: 87% of readers found this page helpful

Author information

Name: Terrell Hackett

Birthday: 1992-03-17

Address: Suite 453 459 Gibson Squares, East Adriane, AK 71925-5692

Phone: +21811810803470

Job: Chief Representative

Hobby: Board games, Rock climbing, Ghost hunting, Origami, Kabaddi, Mushroom hunting, Gaming

Introduction: My name is Terrell Hackett, I am a gleaming, brainy, courageous, helpful, healthy, cooperative, graceful person who loves writing and wants to share my knowledge and understanding with you.