Image
Top
Navigation
Juli 21, 2020

Deepfakes: Von KI manipuliertes Storytelling

Unser Alltag wird immer mehr von künstlicher Intelligenz beeinflusst. Viele Tätigkeiten lassen sich von einem Computer präziser, umfangreicher und schneller als von einem Menschen erledigen. So handelt es sich bei Alexa, Netflix oder auch Google Maps um KI-basierte Anwendungen, die täglich genutzt werden und uns das Leben erleichtern. Doch jede Medaille hat zwei Seiten. Aktuell kursieren in den sozialen Netzwerken zahlreiche Videos, die sich als reale Inhalte ausgeben und NutzerInnen anhand von verfälschten Geschichten täuschen. Dahinter steckt eine neue Technologie namens Deepfakes. Diese nutzt KI, um visuelle Inhalte absichtlich zu fälschen. Aber ist das von KI manipulierte Storytelling eine ernstzunehmende Gefahr oder ein potenzielles Marketing-Tool?

eine Wand mit der Aufschrift Data has a better idea mit Fenster, das einen Ausblick auf die Stadt hat

Quelle: Unsplash/ Franki Chamaki

Fake News vs. Deepfakes: Was ist neu?

Spätestens seit dem US-Wahlkampf im Jahr 2016 sind Fake News den meisten von uns ein Begriff. Donald Trump ist dafür bekannt geworden, in den sozialen Netzwerken wie etwa Twitter gezielt Falschmeldungen zu verbreiten, um die WählerInnen von seiner Kandidatur zu überzeugen. Deepfakes sind das Pendant der Fake News für das Bewegtbild. Die Bezeichnung stammt von den englischen Begriffen „Deep Learning“ und „Fake“. Beim ersteren handelt es sich um ein Teilbereich des Machine Learnings. Das ist eine spezielle Methode der Informationsverarbeitung, die dem menschlichen Gehirn ähnelt.

Website Banner Online Kurs Brand Storytelling

Auf Basis vorhandener Informationen und mithilfe des neuronalen Netzes kann ein Computersystem das Erlernte immer wieder mit neuen Inhalten verknüpfen. Diese Arbeitsweise macht es der KI möglich, eigene Prognosen oder Entscheidungen zu treffen, und das ohne menschliches Eingreifen. So kann das System anhand von Bilddaten Videoinhalte automatisiert fälschen und beispielsweise die Mona Lisa, das berühmte Ölgemälde von Leonardo da Vinci, zum Leben erwecken.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Filmindustrie im Deepfake-Fieber: May AI be with you

Deep Learning kann also überall dort eingesetzt werden, wo es große Datenmengen gibt, die sich nach Mustern untersuchen lassen. Daher findet die Methode häufig im Bereich der Gesichts-, Objekt- oder Spracherkennung ihre Anwendung. So können andere Gesichter inklusive Mimik auf jegliche Personen montiert werden. Vor allem Prominente sind betroffen, da es zahlreiche Fotos und Videos von ihnen online zu finden gibt. Dies erleichtert die Manipulation.

Aktuell wirken einige Deepfakes zwar noch gekünstelt, aber es wird daran gearbeitet, die Hochauflösung zu verbessern. Auch die Filmindustrie profitiert von dieser Technologie und setzt sie für Spezialeffekte ein. Ein berühmtes Beispiel dafür ist der Spielfilm „Star Wars Rogue One“ aus dem Jahr 2016. Hier konnte eine 19-jährige Statistin mithilfe von Deepfakes, die im selben Jahr verstorbene Schauspielerin Carrie Fischer spielen.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Deepfake-Kampagne: Wenn KI aus David Beckham ein Sprachtalent macht

Auch im Content Marketing eröffnet die Deepfake-Technologie neue Möglichkeiten. So nutzte die britische Non-Profit-Organisation „Malaria No More“ KI, um eine Deepfake-Kampagne für eine Petition gegen Malaria zu kreieren. Zu diesem Zweck hat David Beckham der Organisation sein Gesicht „geliehen“. So spricht der Fußballstar im Werbespot mit den Stimmen von neuen Malaria-Überlebenden in Fremdsprachen, die er selbst gar nicht beherrscht. Die Deep-Learning- und KI-Experten aus London haben das Ganze möglich gemacht. Dabei wurde das Gesicht von David Beckham durch einen KI-Algorithmus mit der Mimik des jeweiligen Sprechers abgeglichen. Das Ergebnis wirkt erstaunlich echt!

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Durch KI manipuliertes Storytelling: Gefahr oder Marketing-Tool?

Medien dienen als Informationsquelle, da RezipientInnen keinen direkten Zugang zu den Weltgeschehnissen haben und sich somit auf sie verlassen. So galten Videos bislang als wichtige Beweise, um Sachverhalte auf ihren Wahrheitsgehalt zu prüfen. Das könnte bald nicht mehr möglich sein, wenn die Manipulation von Videoinhalten weiterhin perfektioniert wird und diese Technologie jedem als Tool zur Verfügung steht. Öffentlichkeit und vor allem Medienmacher müssen noch genauer darauf achten, ob Content manipuliert wurde. Auch im politischen Bereich könnten Deepfakes zu Konflikten führen, wenn Politikern wie Barack Obama Aussagen unterstellt werden, die sie gar nicht getroffen haben.

YouTube

Mit dem Laden des Videos akzeptieren Sie die Datenschutzerklärung von YouTube.
Mehr erfahren

Video laden

Die Deepfake-Technologie ist jedoch vielseitig einsetzbar und kann auch als ein effektives Marketing-Tool dienen. So könnten Unternehmen aus der Touristikbranche von Deepfakes profitieren, indem sie Videosequenzen verwenden, die KundInnen an verschiedene Reiseorte versetzen. Oder ein Kleidungshersteller, der seinen potenziellen KäuferInnen veranschaulicht, wie die neueste Kollektion an ihnen aussehen könnte. Das würde die Werbung persönlicher und greifbarer machen, da die KonsumentInnen sich selbst in der jeweiligen Situation wiederfinden. Es bleibt also spannend, wie die Deepfake-Technologie sich in Zukunft weiterentwickelt und ob das Publikum mit personalisiertem und ausgefallenem Storytelling sich zu einer Marke mehr hingezogen fühlt.

Wenn ihr den Blogpost über Deepfakes spannend fandet, schaut euch gerne unseren Beitrag über Storytelling in einer postfaktischen Welt an.

Workshop

Storytelling Workshop Berlin

Beratung

Content Marketing Agentur
Kristina Lauer
Als motivierte Sportskanone startet Kristina ihre Reise in die Welt der PR. Mit Spitzen-Ausdauer meistert sie die Strecke von einer Idee bis zur guten Geschichte.