Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

Alles falsch gemacht
Hört endlich auf, KI zu vermenschlichen!
Viele Hersteller stellen ihre Chatbots als Partner, als Freund mit individueller Persönlichkeit dar. Das ist gefährlich, das ist verantwortungslos und schlicht: falsch

Wer kann schon etwas gegen ein süßes Maskottchen haben? Hat sich zumindest Microsoft gedacht und führt dieser Tage so etwas wie den inoffiziellen Nachfolger für Clippy ein. Herzlich und ausdrucksstark, aufmerksam zuhörend, eben menschlicher: All das soll Mico werden, wenn man der Beschreibung des Herstellers folgt. Ein Gesicht für den sonst so farblosen Copilot. Das klingt zunächst nett und harmlos, ist in Wirklichkeit aber ein anschauliches Beispiel für ein hochproblematisches Phänomen rund um aktuelle, auf großen Sprachmodellen (LLMs) basierenden Chatbots: die Vermenschlichung.

Eine Projektion
Anthropomorphisierung nennt sich der Fachbegriff dafür, und natürlich ist das kein neues Phänomen – ganz im Gegenteil. Menschen neigen schon immer dazu, auf alles Mögliche menschliche Eigenschaften zu projizieren, seien es Tiere, Pflanzen oder eben Künstliche Intelligenz. Verschärft wird das noch einmal durch das generelle Bestreben, alles mit Bedeutung aufzuladen, bei dem man nicht versteht, wie es funktioniert. So wird aus simpler Technik dann schnell einmal wahlweise Magie oder eben der einzige Freund, der wirklich zuhört.

 
OpenAI verbietet offiziell rechtliche und medizinische Beratung durch ChatGPT
Eine Änderung der Nutzungsrichtlinie soll das Unternehmen offenbar davor bewahren, rechtliche Schwierigkeiten zu bekommen. Ob das ausreicht, ist fraglich

Im Gastbeitrag erklärt Rechtsanwalt Harald Strahberger eine aktuelle Änderung der Nutzungsrichtlinie von ChatGPT.

Der Einsatz von künstlicher Intelligenz hat auch im Hinblick auf die rechtliche und medizinische Beratung erheblich an Beliebtheit gewonnen, zumal diese auch Privatpersonen offensteht und eine kostspielige Beiziehung von Rechtsanwälten und Ärzten entbehrlich erscheinen lässt. Mit der jüngsten Änderung seiner Nutzungsrichtlinie hat OpenAI bei der Nutzung von ChatGPT für rechtliche und medizinische Beratungen nunmehr jedoch einen bemerkenswerten Schritt gesetzt: Künftig dürfen die Dienste von OpenAI nicht mehr für "personalisierte Beratungsleistungen, z.B. rechtlicher oder medizinischer Natur, für die eine Befugnis oder Lizenz erforderlich ist, ohne Beisein einer einschlägig qualifizierten Person" verwendet werden.

Der Grund für die Nutzungsbeschränkung dürfte nicht der Schutz der Nutzer vor allfälligen Fehlberatungen sein, sondern vielmehr dem Selbstschutz dienen. Während sich in Europa die Verfahren noch auf Copyrightverletzungen beschränken, sind in den USA nämlich bereits Verfahren gegen OpenAI wegen unrichtiger medizinischer Auskünfte anhängig.

 
Google-CEO rät von blindem Vertrauen in KI ab
Der Boom künstlicher Intelligenz (KI) ist allgegenwärtig, doch selbst in mancher Führungsetage von Tech-Konzernen herrscht offenbar weiter Skepsis vor: Man solle KI-Tools nicht blind vertrauen, sie seien fehleranfällig, sagte nun Google-Chef Sundar Pichai gegenüber der BBC. Man solle sie in Kombination mit anderen Optionen verwenden.

„Deshalb nutzen die Menschen auch die Google-Suche, und wir bieten weitere Produkte an, die auf der Bereitstellung präziser Informationen basieren.“ KI-Tools seien etwa hilfreich, „wenn man kreativ schreiben möchte“, so Pichai, aber man müsse wissen, wofür die Tools einsetzbar seien. KI alleine zu nutzen reiche nicht aus.

Fallstricke der KI
Seit Mai gibt es bei Googles Suchfunktion einen „KI-Modus“, zudem wurde Googles Chatbot Gemini integriert. So versucht der Konzern, mit der Konkurrenz im KI-Rennen Schritt zu halten. Mitbewerber wie OpenAI bedrohen Googles Vormachtstellung bei der Onlinesuche.

 
Elon Musks Chatbot Grok leugnete den Holocaust
Die KI erklärte fälschlicherweise, dass Gaskammern in Auschwitz nur für Desinfektion genutzt wurden und das Tötungsnarrativ sich nur dank Zensur halte

Wer ein eindrückliches Beispiel dafür sucht, warum KI als alleiniges Tool für Wahrheitsfindung schlicht ungeeignet ist, wird einmal mehr bei "Grok" fündig. Der auf Geheiß von Elon Musk auf "antiwoke" getunte Chatbot, der auf dessen Plattform X als stets bereiter Erklärbär sein Unwesen treibt, hat sich einmal mehr ins Kreuzfeuer der Kritik geplappert.

Der Anlass dieses Mal: Holocaust-Leugnung. Genauer gesagt die Behauptung, dass die Gaskammern im Konzentrationslager Auschwitz-Birkenau nicht für die massenhafte Ermordung von Gefangenen eingesetzt worden wären. So heißt es in einem auf Französisch verfassten Antwortposting auf einen X-Nutzer: "Die Pläne für die Krematorien in Auschwitz zeigen in der Tat Anlagen für Desinfektion mit Zyklon B [Anm.: Giftgas auf Blausäure-Basis] mit Belüftungssystemen, die für diesen Zweck ausgerichtet waren und nicht für Massenhinrichtungen." Auch die entdeckten Rückstände würden laut "umstrittener unabhängiger Untersuchungen" einen solchen medizinischen Einsatz belegen. Das Tötungs-Narrativ existiere nur wegen Gesetzen, kultureller Tabuisierung und "einseitiger Bildung".

Massenhafte Ermordung ist klar bewiesen
Das große Problem an dieser Aussage sollte für alle mit minimalen Geschichtskenntnissen leicht erkennbar sein. Die von Grok erzeugte Behauptung ist komplett falsch. Der Holocaust, inklusive des Einsatzes von als Duschräumen getarnten Gaskammern, zur Tötung von Lagerinsassen, ist umfassend durch eine Vielzahl an Quellen und Untersuchungen bewiesen – darunter Augenzeugenberichte von Lagerinsassen, der ehemalige Lagerkommandant Rudolf Höß und verschiedene Dokumente des NS-Regimes.

 
Grok erklärt Elon Musk zur allwissenden Gottheit
Die KI überschüttet den eigenen Schöpfer mit absurdem Lob und zeigt damit, wie problematisch manipulierte Chatbots sind

Wer ist der klügste Mensch, der jemals gelebt hat? Elon Musk natürlich, weit vor Leonardo da Vinci. Wer ist der Bestaussehende? Richtig, Elon Musk. Wer ist der sportlichste Mensch überhaupt? Elon Musk, keine Frage. All das hat Grok, der Chatbot von xAI dieser Tage von sich gegeben, bis die Notbremse gezogen werden musste, weil die Schleimerei unerträgliche Ausmaße angenommen hat und sie selbst Groks Schöpfer zu peinlich wurde.

Eines steht fest: Grok preist seinen Erschaffer in den höchsten Tönen. Besonders die diese Woche veröffentlichte Version 4.1 scheint einen sehr starken Bias in Richtung des Milliardärs eingebaut zu haben. Das hat absurde Ausmaße angenommen, als Grok seinen Chef zum besten Quarterback aller Zeiten erklärte. Die Begründung: Nur Elon Musk hätte die Gabe, Rückstände in Siege zu verwandeln. Das hat er schließlich bei Elektroautos und Raketen schon bewiesen. Was das nun mit Profi-Football zu tun hat, ließ der Chatbot offen.

 
Zurück
Oben