Ein kurzes Tippen auf das Smartphone – und schon lächelt das eigene Gesicht von Supermans Körper oder aus dem neuen Beyoncé-Musikvideo. Möglich machen dies sogenannte Deepfake-Anwendungen wie „Reface“ oder „Faceswap“, die mit Hilfe künstlicher Intelligenz (KI) authentisch wirkende Video-Illusionen erzeugen und vor allem in sozialen Netzwerken beliebt sind. Eine repräsentative Umfrage von Next Media Hamburg, zu der im Sommer 2021 mehr als 2.500 Menschen in Deutschland angesprochen wurden, zeigt jedoch: Vielen Menschen in Deutschland bereiten die automatisierten Manipulations-Möglichkeiten von Video, Bild oder Ton durch KI Sorgen. Knapp drei Viertel (71,5 Prozent) der Befragten sehen in Deepfakes eine Gefahr für die Glaubwürdigkeit der Medien. 58,8 Prozent der Umfrage-Teilnehmenden fürchten, dass sie für kriminelle Zwecke missbraucht werden.
Denn was bei den lustigen Deepfake-Apps ein großer Spaß ist, kann bei bewussten Täuschungen und manipulierten Nachrichten schnell zum Problem werden: Etwa wenn Identitäten gestohlen oder Politikerinnen und Politikern Worte in den Mund gelegt werden, die sie nie gesagt haben. Fast jeder Zweite (44,8 Prozent) hat inzwischen Angst, Fälschungen nicht mehr erkennen zu können, weil Deepfake-Algorithmen Gesichtszüge und Stimmen heutzutage nahezu perfekt imitieren. 39,1 Prozent der Befragten zweifeln bereits an der Echtheit mancher Inhalte.
„Bis vor einigen Jahren galten Videos und Tonaufnahmen in der Regel als Belege für Realität. Durch KI-generierte Deepfake-Videos ist es für Konsumentinnen und Konsumenten schwieriger geworden, die grundsätzliche Echtheit von Informationen zu bewerten“, so Dr. Nina Klaß, Leiterin von Next Media Hamburg der Standortinitiative für die Hamburger Medien- und Digitalszene. „Viele der Deepfakes, die uns heute in den sozialen Medien begegnen, werden kreativ und für Unterhaltungszwecke entwickelt, aber natürlich gibt es da auch negative Ausnahmen, die vor allem der Täuschung der Öffentlichkeit und der bewussten Verzerrung von Fakten dienen. Deswegen gilt es, Aufklärung darüber zu betreiben, was technisch bereits alles möglich ist und im zweiten Schritt eine Kennzeichnungspflicht von Deepfake-Inhalten einzuführen.“
In der Umfrage der Standortinitiative gaben rund zwei von drei Teilnehmenden (61,9 Prozent) zu, nicht genug über Deepfakes zu wissen, um sie einem Freund oder Bekannten erklären zu können. Von denjenigen, die die Technologie verstanden haben, sprach sich eine klare Mehrheit (58,1 Prozent) für eine Deepfake-Kennzeichnungspflicht aus.
Künstliche Intelligenz: eine Technologie – viele Hoffnungen
Unabhängig vom Thema Deepfakes knüpfen die Menschen in Deutschland überwiegend Hoffnungen an künstliche Intelligenz als Zukunftstechnologie. Viele glauben, dass KI ihr Leben einfacher (39,4 Prozent) und sicherer (25,3 Prozent) macht. Und jeweils rund jeder Dritte hofft, dass sich dank KI die Effizienz der eigenen Arbeit erhöht (34,7 Prozent) und Zeit gespart wird (32,2 Prozent). Aber auch skeptische Menschen gibt es: 34,6 Prozent der Befragten versprechen sich durch KI nichts von alledem.
_________________________
LESEN SIE AUCH: Künstliche Intelligenz: Deutsche haben Berührungsängste abgebaut – Umfrage von Next Media Hamburg 2019
Bildquellen
- processor-2217771: Colin Behrens / Pixabay.com