Deepfakes: Unbekannte Gefahr für viele Deutsche Dirk Bongardt, 22. Mai 202422. Mai 2024 Laut einer aktuellen Umfrage hat jeder dritte Deutsche noch nie von Deepfakes gehört – gefälschten Videos oder Bildern, die durch KI-Technologie nahezu echt wirken. Dabei stellen Deepfakes eine wachsende Bedrohung für die Gesellschaft dar, da sie zur Verbreitung von Desinformation und Manipulation eingesetzt werden können. Experten warnen, dass die Technologie in den falschen Händen enormen Schaden anrichten kann, indem sie das Vertrauen in digitale Medien und Fakten untergräbt. Aufklärung und Sensibilisierung der Bevölkerung sind daher dringend erforderlich, um dieser Gefahr entgegenzuwirken (Quelle: IT-Times). Dirk meint: „Nicht vertrauenswürdig“ ist ein Prädikat, das in unserer Gesellschaft inzwischen inflationär vergeben wird. Das Vertrauen in Medien, Politiker, Institutionen, auch und gerade in Wissenschaftler ist erodiert. Und das, obwohl ein Drittel der Deutschen noch gar keinen Begriff von den modernsten Werkzeugen der Lüge haben. Das größere Problem ist aber, dass viele sich bei der Entscheidung, welchen Informationen sie vertrauen sollen, eher von dumpfen Gefühlen leiten lassen, als von klassischen Glaubwürdigkeitskriterien. Ich bin ziemlich sicher, wir alle könnten kompetenter entscheiden, wem wir vertrauen, stünden „Ockhams Rasiermesser“ und „Hitchens Rasiermesser“ ab der Grundschule auf dem Lehrplan. Und, unbedingt, „Medienkompetenz“. Weitersagen!teilen teilen teilen teilen merken teilen E-Mail Bitte dieses Feld leer lassen Hol dir den ChatGPT-Leitfaden mit Sofort-Erfolg – und verpasse keine Neuigkeiten mehr! Wir senden keinen Spam! Erfahre mehr in unserer Datenschutzerklärung. E-Mail-Adresse * Prüfe deinen Posteingang oder Spam-Ordner, um dein Abonnement zu bestätigen. Das könnte Sie auch interessieren:Digitale Depression: Auswirkungen der neuen Medien…Inhalte planen mit System„Data and Goliath“ - Wie wir unsere Privatsphäre…Shitstorms: Psychologie und TippsChatGPT ohne Konto, Angst vor Deepfakes wächst,… Nachrichten