Press release

Neue KI-Studie: Angreifer profitieren von unzureichenden KI-Richtlinien bei intensiver KI-Nutzung

0
Präsentiert von Businesswire

Eine aktuelle Umfrage unter weltweiten Experten für digitales Vertrauen offenbart ein hohes Maß an Unsicherheit in Bezug auf generative künstliche Intelligenz (KI), einen Mangel an Unternehmensrichtlinien für deren Einsatz, unzureichende Schulung sowie Befürchtungen im Hinblick auf die Ausnutzung durch bösartige Akteure – das ist das Ergebnis des Generative AI 2023: An ISACA Pulse Poll.

Diese Pressemitteilung enthält multimediale Inhalte. Die vollständige Mitteilung hier ansehen: https://www.businesswire.com/news/home/20231025578210/de/

Global digital trust association ISACA surveyed more than 2,300 professionals who work in audit, risk, security, data privacy and IT governance to get their take on the current state of generative AI. (Graphic: ISACA)

Global digital trust association ISACA surveyed more than 2,300 professionals who work in audit, risk, security, data privacy and IT governance to get their take on the current state of generative AI. (Graphic: ISACA)

Fachleute für digitales Vertrauen aus der ganzen Welt, die in den Bereichen Cybersicherheit, IT-Audit, Governance, Datenschutz und Risiko tätig sind, äußerten sich in einem neuen ISACA-Poll zum Thema generative KI – künstliche Intelligenz, die Texte, Bilder und andere Medien generieren kann. Dabei wurden die Nutzung durch Mitarbeiter, Schulungen, die Einhaltung ethischer Grundsätze, das Risikomanagement, die Ausnutzung durch Angreifer und die Auswirkungen auf Arbeitsplätze untersucht.

Blindflug in die KI – auch ohne Richtlinien

Der Umfrage zufolge setzen viele Mitarbeiter in den befragten Unternehmen generative KI ein, obwohl keine Richtlinien für deren Nutzung bestehen. Nur 28 Prozent der Unternehmen erlauben ausdrücklich die Nutzung generativer KI, nur 10 Prozent erklären, dass formale, umfassende Richtlinien vorhanden sind, während bei mehr als einem Viertel der befragten Unternehmen weder Richtlinien existieren noch geplant sind. Trotzdem erklären mehr als 40 Prozent der Mitarbeiter, dass sie generative KI verwenden. Vermutlich ist der tatsächliche Prozentsatz noch deutlich höher, denn weitere 35 Prozent sind sich nicht sicher.

Diese Mitarbeiter nutzen generative KI auf verschiedene Weise:

  • Erstellung von Textinhalten (65 %)

  • Steigerung der Produktivität (44 %)

  • Automatisierung wiederkehrender Aufgaben (32 %)

  • Erbringung von Kundenservice (29 %)

  • Verbesserung der Entscheidungsfindung (27 %)

Unzureichende Erfahrung und Ausbildung

Obwohl die Mitarbeiter die Nutzung der Technologie rasch ausgeweitet haben, bieten nur sechs Prozent der befragten Unternehmen allen Mitarbeitern KI-Schulungen an, und mehr als die Hälfte (54 Prozent) geben an, dass überhaupt keine KI-Schulungen angeboten werden – selbst für Teams, die direkt von KI betroffen sind. Nur 25 Prozent der Befragten erklären, über umfangreiche Erfahrungen mit generativer KI zu verfügen.

„Mitarbeiter warten nicht auf die Erlaubnis, generative KI zu erkunden und zu nutzen, um einen Mehrwert für ihre Tätigkeit zu erzielen. Zweifellos müssen Unternehmen bei der Bereitstellung von Richtlinien, Anleitungen und Schulungen aufholen, um dafür zu sorgen, dass die Technologie angemessen und ethisch vertretbar eingesetzt wird“, kommentiert Jason Lau, ISACA Board Director und CISO bei Crypto.com. „Durch eine stärkere Abstimmung zwischen Arbeitgebern und Mitarbeitern in Bezug auf generative KI werden Unternehmen in der Lage sein, ein besseres Verständnis der Technologie in ihren Teams zu fördern, einen größeren Nutzen aus KI zu ziehen und sich wirksamer vor ihren Risiken zu schützen.“

Bedenken hinsichtlich Risiken und Ausnutzung

Die Umfrage untersuchte auch die ethischen Bedenken und Risiken im Zusammenhang mit KI. 41 Prozent der Befragten sind der Meinung, dass den ethischen Standards für die Implementierung von KI nicht hinreichend beachtet werden. Weniger als ein Drittel der Unternehmen definieren das Risikomanagement bei KI als unmittelbare Priorität, für 29 Prozent handelt es sich um eine Priorität auf längere Sicht, und 23 Prozent sagen, dass ihr Unternehmen derzeit keine Pläne verfolgt, sich mit KI-Risiken zu beschäftigen, obwohl die Befragten folgende Punkte als Hauptrisiken der Technologie bezeichneten:

  1. Fehlinformation/Desinformation (77 %)

  2. Datenschutzverletzungen (68 %)

  3. Social Engineering (63 %)

  4. Verlust von geistigem Eigentum (58 %)

  5. Verlagerung von Arbeitsplätzen und Zunahme der Qualifikationslücke (jeweils 35 %)

Mehr als die Hälfte (57 Prozent) der Befragten sind sehr oder extrem besorgt darüber, dass generative KI von bösen Akteuren ausgenutzt wird. Neunundsechzig Prozent der Befragten sind der Meinung, dass Angreifer KI ebenso erfolgreich oder erfolgreicher einsetzen als Fachleute für digitales Vertrauen.

„Selbst Fachleute für digitales Vertrauen geben an, nur über begrenzte Erfahrungen mit KI zu verfügen. Dies ist ein Grund zur Besorgnis, da sich die KI schneller weiterentwickelt als alle anderen bisherigen Technologien und der Einsatz in Unternehmen rasant zunimmt“, so John De Santis, Board Chair von ISACA. „Ohne eine geeignete Governance können Mitarbeiter leicht wichtiges geistiges Eigentum über diese Tools teilen, ohne dass wirksame Kontrollmechanismen vorhanden sind. Es ist wichtig, dass sich die Führungskräfte schnell mit den Vorteilen und Risiken der Technologie vertraut machen und auch ihren Mitarbeitern Zugang zu diesem Wissen verschaffen.“

Auswirkungen auf Arbeitsplätze

Bei der Frage zu den aktuellen Funktionen, die mit KI befasst sind, sehen die Teilnehmer die Verantwortung für eine sichere Bereitstellung von KI bei den Experten für Sicherheit (47 Prozent), IT-Betrieb (42 Prozent) sowie Risiko und Compliance (jeweils 35 Prozent). Ein Blick in die Zukunft zeigt, dass jedes fünfte Unternehmen (19 Prozent) in den nächsten 12 Monaten Stellen für KI-bezogene Funktionen schaffen wird. Fünfundvierzig Prozent erwarten den Wegfall einer beträchtlichen Zahl von Arbeitsplätzen aufgrund von KI. Mit Blick auf ihre eigenen Arbeitsplätze sind Fachleute für digitales Vertrauen jedoch optimistisch: 70 Prozent gehen davon aus, dass sich die KI positiv auf ihre Funktion auswirken wird. Um von den positiven Auswirkungen profitieren zu können, wünschen sich 80 Prozent zusätzliche Schulungen, um ihren Arbeitsplatz zu behalten oder ihre Karriere voranzutreiben.

Optimismus trotz Herausforderungen

Trotz der Ungewissheiten und Risiken, die mit KI verbunden sind, sind 80 Prozent der Befragten davon überzeugt, dass die KI einen positiven oder neutralen Einfluss auf ihre Branche haben wird, 81 Prozent erwarten einen positiven oder neutralen Einfluss auf ihr Unternehmen und 82 Prozent rechnen mit einem positiven oder neutralen Einfluss auf ihre Karriere. Fünfundachtzig Prozent der Befragten sehen in der KI ein Tool, das die menschliche Produktivität steigert, und 62 Prozent glauben, dass sie sich positiv oder neutral auf die Gesellschaft als Ganzes auswirken wird.

Mehr erfahren

Weitere Informationen finden Sie in der Infografik sowie in anderen KI-Ressourcen, darunter das AI Fundamentals Certificate, das kostenlose Whitepaper The Promise and Peril of the AI Revolution: Managing Risk und ein kostenloser Leitfaden mit Überlegungen zu KI-Richtlinien unter www.isaca.org/resources/artificial-intelligence.

Über ISACA

ISACA® (www.isaca.org) stattet Einzelpersonen und Unternehmen mit dem Wissen, den Qualifikationen, der Ausbildung, der Schulung und der Unterstützung durch die Community aus, um ihre Karrieren voranzutreiben, ihre Unternehmen und Einrichtungen umzugestalten und eine vertrauenswürdige und ethische digitale Welt aufzubauen. ISACA nutzt das Know-how ihrer 165.000 Mitglieder, die in Bereichen des digitalen Vertrauens wie Informationssicherheit, Governance, Assurance, Risiko, Datenschutz und Qualität tätig sind. Die Organisation ist in 188 Ländern vertreten, darunter 225 Regionalverbände weltweit. Über ihre Stiftung One In Tech unterstützt ISACA IT-Ausbildung und Karrierewege für einkommensschwache und unterrepräsentierte Bevölkerungsgruppen.

Die Ausgangssprache, in der der Originaltext veröffentlicht wird, ist die offizielle und autorisierte Version. Übersetzungen werden zur besseren Verständigung mitgeliefert. Nur die Sprachversion, die im Original veröffentlicht wurde, ist rechtsgültig. Gleichen Sie deshalb Übersetzungen mit der originalen Sprachversion der Veröffentlichung ab.