Sie sind hier:
Alles Fake?
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Dr. Nicolas Müller
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Dr. Nicolas Müller
Sie sind hier:
Alles Fake?
Künstliche Intelligenz (KI) entwickelt sich in einem atemberaubenden Tempo, aber mit den Chancen kommt auch das Potenzial für Missbrauch: Generative KI-Modelle werden immer besser darin, täuschend echte "Deepfakes" zu erstellen - also Audio- oder Videoaufnahmen von Personen, die allerdings nicht echt, sondern komplett digital erstellt sind. Während sich die Technologie für Film und Fernsehen legitim nutzen lässt, so birgt sie doch ein großes Missbrauchspotenzial: Desinformation, Verleumdung und Betrug, wie z.B. der "Enkelkindertrick 2.0".
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Dr. Nicolas Müller
Dieser Web-Vortrag verdeutlicht Zuhörern ganz ohne technische Vorkenntnisse die Problematik anhand von "Audio-Deepfakes", d.h. gefälschten Stimmaufnahmen. Die technischen Hintergründe werden dargestellt und aktuelle Forschung zu Gegenmaßnahmen präsentiert: Können wir KI dazu nutzen, Deepfakes zu entlarven? Kann man lernen, Deepfakes zu erkennen, und wenn ja, woran? Wie soll man sich verhalten, wenn ein mögliches Deepfake anruft?
Machine Learning Scientist am Fraunhofer-Institut für Angewandte und Integrierte Sicherheit (AISEC) in Garching
Dr. Nicolas Müller
-
Gebühr4,00 €Sobald die vhs den Link verschickt hat, ist eine kostenlose Abmeldung leider nicht mehr möglich. Danke für Ihr Verständnis.
- Kursnummer: 242-1270
-
StartMo. 30.09.2024
19:00 UhrEndeMo. 30.09.2024
20:00 Uhr
Veranstalter: vhs Marktheidenfeld