Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

KI war gestern, jetzt kommt die Quanten-KI
Die Forschung an künstlicher Intelligenz (KI) erlebt einen Boom, große Erwartungen hat man auch an den Quantencomputer. In den Forschungslabors von Google arbeitet man nun an der Verschmelzung dieser beiden Ansätze: der Quanten-KI.

Hartmut Neven stammt aus der klassischen KI-Forschung, hat Algorithmen für Bildanalyse und Computer-Sehen entwickelt, 2006 stieß er zum Tech-Konzern Google, wo er unter anderem an der Entwicklung der App „Google Goggles“ und der Computerbrille „Google Glass“ beteiligt war. Vor ein paar Jahren hat der deutsche Physiker dann das „Google Quantum AI Lab“ gegründet – ein Forschungslabor, wo die zwei großen Zukunfts-Technologien zu etwas noch Größerem verschmelzen sollen: Quantencomputer plus künstliche Intelligenz ergibt Quanten-KI.

Die Idee, so erzählt Neven am Rande eines Vortrags an der TU Wien, sei eigentlich naheliegend: „Maschinelles Lernen ist im Grunde angewandte Optimierung. Und es ist wohlbekannt, dass man mit Quantenrechnern Optimierungsprobleme schneller und besser lösen kann. Da dachte ich: Dann muss man einfach nur zusammenfügen. Voilà, machen wir Quanten-KI!“

 
Quanten Computer sind nichts für die Masse, und werden primär für Regierungen und deren Organisationen zur Verfügung stehen. Vielleicht in 10-20 Jahren werden wir darüber vielieicht nochmal darüber reden,
 
Installateure setzen auch KI ein

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Wie Propaganda Sprachmodelle unterwandert
Russische Desinformationskampagnen richten sich mittlerweile nicht nur an Menschen. Einschlägig bekannte Netzwerke versuchen, Propaganda – etwa über den Ukraine-Krieg – in die Trainingsdaten von KI-Sprachmodellen wie ChatGPT, Gemini oder Claude einzuschleusen. Das geht leichter als bisher gedacht, wie Forschende jetzt herausgefunden haben.

Da staunte die US-Desinformationsforscherin Sophia Freuden nicht schlecht: Wieso macht sich ein russisches Desinformationsnetzwerk die Mühe, jährlich rund 3,6 Millionen Propagandatexte zu publizieren, die dann von niemandem gelesen werden?

Während ihrer Forschungstätigkeit für die NGO „American Sunlight Project“ befasste sich Freuden intensiv mit dem sogenannten Pravda-Netzwerk. Dieses russische Desinformationsnetzwerk wurde erstmals 2024 von französischen Behörden entdeckt. Es erstellt eine ganze Reihe an gefälschten Nachrichtenportalen im Internet. Auf diese Seiten kopiert eine künstliche Intelligenz Artikel aus regierungsnahen russischen Medien, wie RT oder Sputnik und übersetzt sie in alle möglichen Sprachen. Hauptthema war der Krieg in der Ukraine.

Desinformationskampagnen für Maschinen
Doch dieses Netzwerk agierte anders als die russischen Propaganda-Netzwerke, die Freuden bisher erforscht hatte. Die Portale des Pravda-Netzwerkes waren extrem unübersichtlich gestaltet, eine wilde Anhäufung russischer Propaganda ohne sinnvolle Anordnung, ohne Suchfunktion – und dementsprechend hatten die Seiten auch kaum Zugriffe.

 
Soziologin: "KI führt uns weder ins Verderben, noch löst sie all unsere Probleme"
Immer wieder heißt es, Künstliche Intelligenz sei eine Bedrohung für die arbeitende Bevölkerung. Aber stimmt das wirklich? Ein Gespräch mit der Arbeitssoziologin Sabine Pfeiffer

Wie wird die Arbeitswelt in Zukunft aussehen? Mit dieser Frage beschäftigt sich Sabine Pfeiffer seit den 1990er-Jahren. Die deutsche Professorin lehrt und forscht an der Friedrich-Alexander-Universität Erlangen-Nürnberg und dem Bayerischen Forschungsinstitut für Digitale Transformation, wie Digitalisierung und Technik das Arbeiten verändern. Im Gespräch mit dem STANDARD erklärt die Arbeitssoziologin, warum sie Prognosen rund um die Auswirkungen von Künstlicher Intelligenz kritisch gegenübersteht und worüber in der Digitalisierungsdebatte viel zu wenig gesprochen wird.

STANDARD: Frau Pfeiffer, erleben wir durch Künstliche Intelligenz gerade eine Revolution?

Pfeiffer: Die Art, wie wir mit KI-Sprachmodellen interagieren, ist auf jeden Fall revolutionär. Deswegen fühlt sich das Tool auch so intelligent an, weil es mit uns spricht und wir nicht nur Menüpunkte anklicken oder gar selbst programmieren müssen. Wir können unsere Fragen genau so formulieren, wie wir es auch bei einer Kollegin oder einem guten Freund machen würden. Vorhersagen, dass bald eine Superintelligenz geboren wird, die uns evolutionär abschafft, halte ich jedoch für sehr fragwürdig.

 
So lange KI nicht reguliert wird

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Wo ist jetzt Tyler?
KI-Missbrauch
Deepfakes: Grok wird zum Werkzeug für Pädophile, die Investoren freut’s
Mit dem Bildbearbeitungstool des Chatbots werden massenhaft sexualisierte und erniedrigende Fakes generiert. Damit sammelt Elon Musk für xAI Milliarden ein

Einst war Twitter die einflussreichste Onlineplattform der Welt. Staatenlenker verkündeten ihre Pläne vorab auf Twitter, bevor sie in den Abendnachrichten landeten. Eilmeldungen verbreiteten sich auf der Plattform in Echtzeit. Wer informiert sein wollte, war auf Twitter. Heute heißt Twitter längst X. Die staatstragenden Ankündigungen gibt es noch, sie werden aber von einer Flut von Propaganda-Bots übertönt. Statt rasend schnellen Nachrichten ist X unter Elon Musk zu einer Echokammer der MAGA-Bewegung und ihrer Freunde aus Russland geworden. Damit ist die Abwärtsspirale aber nicht gestoppt, jetzt kommen sexueller Missbrauch und Pädophilie hinzu. Möglich macht es der Chatbot Grok von Musks eigener Firma xAI.

Im Nachhinein betracht, klang es nach arger Verharmlosung, als Elon Musk von einem "Spicy-Mode" für Grok sprach. Dabei handelt es sich um den Bildgenerator des umstrittenen KI-Modells. Dieser wird nun für die massenhafte Erzeugung von Missbrauchsmaterial genutzt, auch zur Darstellung von Minderjährigen. Die sexuellen Fantasien der X-Nutzer kennen offenbar keine Grenzen – ebenso wenig wie Grok selbst.

 
Confer: Privacy-freundliche Alternative zu ChatGPT und Co geht an den Start
Das Projekt des Signal-Erfinders Moxie Marlinspike soll Nutzereingaben und auch die Antworten der KI vor fremdem Zugriff schützen

KI-Assistenten wie ChatGPT oder Gemini können im Alltag praktische Helfer sein. Aber abseits ihrer Anfälligkeiten für Fehler haben sie ein großes Problem. Sie sind, so warnen immer wieder auch Expertien, potenzielle Überwachungstools. Die Betreiber haben Zugriff auf die Nachrichten und speichern diese. Das ermöglicht nicht nur die Einblicke auf die Nutzer, sondern stellt auch einen Datenschatz dar, der sowohl Behörden, als auch kriminelle Akteure interessiert. Immer wieder fordern Aktivisten und Bürgerrechtler daher mehr Transparenz und größere Sorgfalt bei der Implementation solcher Systeme.

Ob OpenAI und Konsorten oder die Politik entsprechende Maßnahmen setzen, bleibt abzuwarten. Einen weiteren Ausweg will hingegen Moxie Marlinspike zeigen. Er hat dereinst die Entwicklung des verschlüsselten Messengers Signal ins Leben gerufen. Und mit "Confer" hat er einen eigenen Chatbot ins Netz gestellt, der massive Vorteile in Sachen Privacy verspricht.

 
Donica Blewinsky und Hitlergrußzeiger Murks dokumentieren immer wieder ihre Größenwahnsinnigkeit
Musk klagt OpenAI und Microsoft auf bis zu 134 Mrd. Dollar
Der Tech-Milliardär Elon Musk fordert in seiner Klage gegen den ChatGPT-Entwickler OpenAI und dessen Partner Microsoft bis zu 134 Milliarden Dollar (115 Mrd. Euro). Ihm stünden „unrechtmäßige Gewinne“ zu, die die Unternehmen durch seine frühe Unterstützung des KI-Start-ups erzielt hätten, erklärte er in einem am Freitag bei einem US-Bundesgericht eingereichten Dokument.

Auf OpenAI würden zwischen 65,5 Milliarden und 109,4 Milliarden Dollar entfallen, während der OpenAI-Investor Microsoft zwischen 13,3 Milliarden und 25,1 Milliarden Dollar erhalten habe.

Anfechtungen von OpenAI und Microsoft
Musk, der OpenAI im Jahr 2018 verließ und nun mit xAI und dessen Chatbot Grok ein Konkurrenzunternehmen betreibt, wirft dem ChatGPT-Entwickler vor, mit der Umwandlung in ein gewinnorientiertes Unternehmen seine Gründungsabsichten verletzt zu haben.

Er habe etwa 38 Millionen Dollar beigesteuert, das habe 60 Prozent der frühen Anschubfinanzierung von OpenAI entsprochen. „So wie ein früher Investor in ein Start-up Gewinne erzielen kann, die um ein Vielfaches höher sind als seine ursprüngliche Investition, sind es auch die unrechtmäßigen Gewinne, die OpenAI und Microsoft erzielt haben – und auf deren Herausgabe Herr Musk nun Anspruch hat“, heißt es in dem Dokument.

 
Zurück
Oben