Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Sind DeepFakes und CGI-Menschen gefährlich?

  • Ersteller Gelöschtes Mitglied 32834
  • Erstellt am

Sind DeepFakes und CGI-Menschen gefährlich?

  • Man muss schon aufpassen, aber man wird sich dran gewöhnen.

    Stimmen: 0 0,0%

  • Umfrageteilnehmer
    2
Das ist aber ein komisches Beispiel. Wenn ich morgens aus dem Fenster schaue und ich sehe einen blauen Himmel, woher soll ich da wissen, dass am Nachmittag eine Kältefront oder ein Gewitter aufzieht?
:)

Man Weiss es einfach - oder eben nicht. Was macht das schon für einen Unterschied.

Anders sieht es z.B. in der Landwirtschaft aus. Für die ist das unter Umständen sehr relevant, wie sich das Wetter in den nächsten Stunden oder Tagen entwickeln wird. Aber glaub mir: Erfahrene Bauern wissen, wie das Wetter wird und wann sie welche Arbeit verrichten können. Und die Anfänger müssen es halt lernen. Die Natur hält die Antworten schon bereit, noch bevor wir gefragt haben. Flora und Faune kennen keine App, und trotzdem kündigen sie das entsprechende Wetter an.
Kleines Beispiel: Wenn die Schwalben tief fliwgwn, wird es in den nächsten Stunden regnen. Dies deshalb, weil tiefdruckwetter und hohe Luftfeuchtigkeit die Insekten nur bodennah fliegen kässt. Also fliegen auch die Schwalben tief um zu ihrer Nahrung zu kommen. Das Problem im 21. Jahrhundert unter den Smartphone-junkies: Wer kennt noch eine Schwalbe?
 
:)

Man Weiss es einfach - oder eben nicht. Was macht das schon für einen Unterschied.

Anders sieht es z.B. in der Landwirtschaft aus. Für die ist das unter Umständen sehr relevant, wie sich das Wetter in den nächsten Stunden oder Tagen entwickeln wird. Aber glaub mir: Erfahrene Bauern wissen, wie das Wetter wird und wann sie welche Arbeit verrichten können. Und die Anfänger müssen es halt lernen. Die Natur hält die Antworten schon bereit, noch bevor wir gefragt haben. Flora und Faune kennen keine App, und trotzdem kündigen sie das entsprechende Wetter an.
Kleines Beispiel: Wenn die Schwalben tief fliwgwn, wird es in den nächsten Stunden regnen. Dies deshalb, weil tiefdruckwetter und hohe Luftfeuchtigkeit die Insekten nur bodennah fliegen kässt. Also fliegen auch die Schwalben tief um zu ihrer Nahrung zu kommen. Das Problem im 21. Jahrhundert unter den Smartphone-junkies: Wer kennt noch eine Schwalbe?
Mauerseegler und Schwalben sind meine Freunde!
 
:)

. Das Problem im 21. Jahrhundert unter den Smartphone-junkies: Wer kennt noch eine Schwalbe?
Das Problem bei mir wäre weniger, ob ich eine Schwalbe erkenne. Sondern dass gar keine da sind, wenn ich dem Fenster schaue.

Ich verstehe die Diskussion nicht. Ich bin kein Landwirt und will auch nicht lernen, wie ich das wetter selber berechnen kann.

Lass mich doch morgens 1 Minute in die Wetter App schauen, damit ich entscheiden kann, ob ich Jacke und Regenschirm mitnehme oder nicht. Wo ist das Problem damit?
 
Das Problem bei mir wäre weniger, ob ich eine Schwalbe erkenne. Sondern dass gar keine da sind, wenn ich dem Fenster schaue.

Ich verstehe die Diskussion nicht. Ich bin kein Landwirt und will auch nicht lernen, wie ich das wetter selber berechnen kann.

Lass mich doch morgens 1 Minute in die Wetter App schauen, damit ich entscheiden kann, ob ich Jacke und Regenschirm mitnehme oder nicht. Wo ist das Problem damit?
Ja, natürlich sind abgeschweift. Ich hatte eine Wetterapp ja nur als Beispiel für die eine oder andere sinnlose Form der "Digitalisierung" gebraucht.

Konkret geht es ja hier um "deepfakes" von Bildern, Videos und sonstiger Daten. Letztendlich sind deepfakes ja auch erst durch die Digitalisierung von Bildmaterial möglich geworden. Genau genommen wäre es ganz einfach zu sagen hier korrekt, dort bearbeitet (manche sagen auch verfälscht) mit dem Ziel zu manipulieren. Man bräuchte Bildmaterial nur mit dem selben Aufwand betrachten, mit dem es bearbeitet wurde.

Bei Fotos oder Videos kommt aber noch eine andere Komponente dazu: Emotion bzw. interpretation. Unser Gehirn macht in der Sekunde der Betrachtung viel mehr als wir denken. Es kominiert unzähliche Erfahrungen aus der Vergangenheit und so wird unter Umständen ein völlig "neues" Bild im Kopf erzeugt. Von visueller Täuschung reden wir da noch gar nicht.

So ist es eine große Kunst, gesehene Bilder genau auf das zu reduzieren, was man sieht. Das lässt sich trainieren.

Ich könnte z.B. fragen: Was siehst Du hier?

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 
Schön langsam mache auch ich mir Sorgen

"Beratungsstellen, Netzaktivisten und Forscher warnen vor zunehmenden Problemen durch bösartig eingesetzte Deepfakes"

"Es ist ein Dienst mit derzeit nur wenigen Nutzern. Sie sind aktiv im Austausch mit dem Entwickler in einem Onlineforum. Der Dienst, den er anbietet, ist die Vorstufe des Albtraums vieler Frauen und Datenschützer. Er ermöglicht es, Gesichter mit nur einem Klick in Pornofilme einzubauen."


Sollte jemand den Artikel nicht lesen können, ich habe einen Account beim Standard
 
Schön langsam mache auch ich mir Sorgen

"Beratungsstellen, Netzaktivisten und Forscher warnen vor zunehmenden Problemen durch bösartig eingesetzte Deepfakes"

"Es ist ein Dienst mit derzeit nur wenigen Nutzern. Sie sind aktiv im Austausch mit dem Entwickler in einem Onlineforum. Der Dienst, den er anbietet, ist die Vorstufe des Albtraums vieler Frauen und Datenschützer. Er ermöglicht es, Gesichter mit nur einem Klick in Pornofilme einzubauen."


Sollte jemand den Artikel nicht lesen können, ich habe einen Account beim Standard

Gefährlich.
Damit lassen sich Leben ruinieren.
Vor allem in Ländern, in denen eine strenge Sexualmoral herrscht.

Man nehme das Gesicht der afghanischen Nachbars-tochter und füge es in den Porno ein. Und dann zeige man diesen Porno dem Vater oder dem Dorf.
Eine Tragödie für das Mädchen.
Oder man nehme das Gesicht eines Mannes und stecke ihn in einen Schwulen Porno und behaupte dann, er sei Schwul. In manchen Ländern bedeutet sowas den Tod.

Unendlich viele Möglichkeiten, das Leben eines Menschen zur Hölle zu machen.
Man kann nur hoffen, dass die Menschen weltweit soweit sensibilisiert werden, dass sie nicht alles glauben, was sie sehen.
 
Die uralte Frage, ob der technische Fortschritt Gefahren birgt. Ja, das tut sie. Die Konsequenzen können gut sein und können schlecht sein. Auf sie deswegen verzichten? Ich sage: Kommt nicht in Frage. Es hat schon was Gruseliges, was man heutzutage mit KI alles machen kann. Man braucht nur 6-8 Fotos eines Menschen aus verschiedenen Perspektiven, die man leicht aus Instagram oder sonst wo findet, um Deepfakes von seinem Gesicht in Pornos und Personalausweise usw. einzubauen. Das mit der Nachbarstochter und dem Dorf ist natürlich übel, keine Frage, aber ich sehe darin ein zweischneidiges Schwert. Es gibt Menschen, von denen echte kompromittierende Aufnahmen auftauchen, auch die Chance, zu sagen: "Hey, hör mal, Alter, das ist ist nicht meine Tochter in den Videos, das sind Deepfakes." Oder:"In dem Video bin nicht ich beim Ehebruch zu sehen, das sind Deepfakes von mir, das Steinigungsurteil ist also nicht rechtsgültig." Ich sehe in Deepfakes auch eine Chance für die Menschen, ein Stück Freiheit zurückzuerlangen. Natürlich kann das nur funktionieren, wenn Deepfakes so weite Verbreitung finden, dass sich das kollektive Bewusstsein dahingehend entwickelt, dass man bei kompromittierenden Aufnahmen automatisch von einem Fake ausgeht.
 
Da hat vor kurzem eine Serie gespielt, Hamilton- Undercover in Stockholm, da ging es auch um DeepFakes, dann auch nicht in Verbindung mit Terrorismus, vielleicht noch Sciene-Fiction, würde ich aber nicht unterschätzen. Selbstverständlich birgt jeder Fortschritt Gefahren und Herausforderungen. Ich denke jeder sollte sich im Rahmen seiner Möglichkeiten diesen Gefahren stellen ;)
 
Gab ja auch so 'ne Seite, wo man Fotos von bekleideten Frauen hochgeladen hat und die Künstliche Intelligenz hat daraus Nacktfotos generiert. Ich war selbst überracht, wie gut das funktioniert hat selbst mit sehr alten Fotos, als ich die Website ausgebieg getestet hatte. Der Name der Wrbsite fällt mir gerade nicht ein, aber der Dienst ist mittlerweile kostenpflichtig. 15 Cent pro Bild und bezahlen kann man nur mit Bitcoin. Bei der kostenlosen Version wird das generierte Nacktfoto nur noch verschwommen angezeigt.
 
Zurück
Oben