Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Sind DeepFakes und CGI-Menschen gefährlich?

  • Ersteller Gelöschtes Mitglied 32834
  • Erstellt am

Sind DeepFakes und CGI-Menschen gefährlich?

  • Man muss schon aufpassen, aber man wird sich dran gewöhnen.

    Stimmen: 0 0,0%

  • Umfrageteilnehmer
    2
Gab ja auch so 'ne Seite, wo man Fotos von bekleideten Frauen hochgeladen hat und die Künstliche Intelligenz hat daraus Nacktfotos generiert. Ich war selbst überrascht, wie gut das funktioniert hat selbst mit sehr alten Fotos, als ich die Website ausgiebig getestet hatte. Der Name der Website fällt mir gerade nicht ein, aber der Dienst ist mittlerweile kostenpflichtig. 15 Cent pro Bild und bezahlen kann man nur mit Bitcoin. Bei der kostenlosen Version wird das generierte Nacktfoto nur noch verschwommen angezeigt.
Hab die Website gefunden: https://deepsukebe.io/en/

In der kostenlosen Version dürfen die Bilder maximal eine Auflösung von 640x640 Pixel haben und das Ergebnis ist wie gesagt verschwommen. Es funktioniert am besten mit Fotos, auf denen die Person frontal steht.
 
Hier ein Bild aus dem Frauen-des-Tages-Thread. Ich habe es zurechtgeschnitten und auf 640 Pixel Seitenlänge skaliert. Wer will kann ja mal versuchen, um sich vom Ergebnis zu überzeugen.

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 
Hier ein Bild aus dem Frauen-des-Tages-Thread. Ich habe es zurechtgeschnitten und auf 640 Pixel Seitenlänge skaliert. Wer will kann ja mal versuchen, um sich vom Ergebnis zu überzeugen.

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Hier mal das von der KI generierte Foto. In der kostenlosen Version leider nur verschwommen. Soll wohl einen Anreiz schaffen, die kostenpflichtige Version zu benutzen. Früher konnte man mit der kostenlosen Version 5 Bilder alle 90 Minuten generieren und nichts war verschwommen. Heute nur noch eins alle 90 Minuten und das Ergebnis ist verschwommen.

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 
Fakecatcher: Intel kann Deepfakes in Echtzeit entlarven
Detektor erkennt und analysiert den Blutfluss menschlicher Gesichter – mit einer Genauigkeit von 96 Prozent

Deepfakes entwickeln sich zunehmend zu einem gesellschaftlichen Problem: Sorgten Einzelbeispiele in jüngerer Vergangenheit immer häufiger für Aufsehen, soll nun die fiktive, aber originalgetreue Darstellung von Personen zur Verbreitung von Falschinformationen endgültig in den Alltag übergehen. Um dieser Entwicklung entgegenzutreten, hat Chiphersteller Intel nun einen Detektor angekündigt, der solche Videos effektiv entlarven soll.

 
Zurück
Oben