von Ramon Acher­mann, Dri­ton Ahme­ti und Mischa Rieder

Die­se Fall­stu­die unter­sucht die zuneh­men­de Bedeu­tung und die weit­rei­chen­den Impli­ka­tio­nen von gene­ra­ti­ver Künst­li­cher Intel­li­genz (KI) und Deepf­akes in der heu­ti­gen digi­ta­len Ära. Deepf­akes, die mit­tels KI gene­rier­te Vide­os oder Audio­da­tei­en sind, die rea­le Per­so­nen täu­schend echt dar­stel­len, haben in den letz­ten Jah­ren ins­be­son­de­re durch ihre Ver­brei­tung in sozia­len Medi­en und Nach­rich­ten­platt­for­men an Sicht­bar­keit gewon­nen. Die­se Tech­no­lo­gien bie­ten sowohl inno­va­ti­ve Anwen­dungs­mög­lich­kei­ten als auch erheb­li­che Miss­brauchs­ri­si­ken, vor­nehm­lich im Kon­text der Ver­brei­tung von Falsch­in­for­ma­tio­nen und poli­ti­scher Mani­pu­la­ti­on. Der theo­re­ti­sche Teil der Stu­die beleuch­tet die Ent­ste­hung und Erken­nung von Deepf­akes sowie die recht­li­chen und ethi­schen Her­aus­for­de­run­gen, die durch die­se Tech­no­lo­gie auf­ge­wor­fen wer­den. Im empi­ri­schen Teil wird am Bei­spiel von Deepf­akes, die den ehe­ma­li­gen US-Prä­si­den­ten Donald Trump dar­stel­len, unter­sucht, wie sol­che Inhal­te die Wahr­neh­mung der Medi­en und der Öffent­lich­keit beein­flus­sen. Die Ana­ly­se zeigt, dass Deepf­akes die Glaub­wür­dig­keit von Nach­rich­ten­quel­len unter­gra­ben, die poli­ti­sche Pola­ri­sie­rung ver­stär­ken und eine all­ge­mei­ne Skep­sis gegen­über digi­ta­len Medi­en­in­hal­ten för­dern kön­nen. Die Ergeb­nis­se der Stu­die ver­deut­li­chen die Not­wen­dig­keit prä­ven­ti­ver und reak­ti­ver Mass­nah­men zur Ein­däm­mung der nega­ti­ven Aus­wir­kun­gen von Deepf­akes. Regu­la­to­ri­sche Ansät­ze, die För­de­rung foren­si­scher Exper­ti­se und die Stär­kung der Medi­en­kom­pe­tenz in der Bevöl­ke­rung wer­den als ent­schei­den­de Schrit­te iden­ti­fi­ziert, um der Des­in­for­ma­ti­on durch Deepf­akes wirk­sam zu begegnen.