Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

Alles falsch gemacht
Hört endlich auf, KI zu vermenschlichen!
Viele Hersteller stellen ihre Chatbots als Partner, als Freund mit individueller Persönlichkeit dar. Das ist gefährlich, das ist verantwortungslos und schlicht: falsch

Wer kann schon etwas gegen ein süßes Maskottchen haben? Hat sich zumindest Microsoft gedacht und führt dieser Tage so etwas wie den inoffiziellen Nachfolger für Clippy ein. Herzlich und ausdrucksstark, aufmerksam zuhörend, eben menschlicher: All das soll Mico werden, wenn man der Beschreibung des Herstellers folgt. Ein Gesicht für den sonst so farblosen Copilot. Das klingt zunächst nett und harmlos, ist in Wirklichkeit aber ein anschauliches Beispiel für ein hochproblematisches Phänomen rund um aktuelle, auf großen Sprachmodellen (LLMs) basierenden Chatbots: die Vermenschlichung.

Eine Projektion
Anthropomorphisierung nennt sich der Fachbegriff dafür, und natürlich ist das kein neues Phänomen – ganz im Gegenteil. Menschen neigen schon immer dazu, auf alles Mögliche menschliche Eigenschaften zu projizieren, seien es Tiere, Pflanzen oder eben Künstliche Intelligenz. Verschärft wird das noch einmal durch das generelle Bestreben, alles mit Bedeutung aufzuladen, bei dem man nicht versteht, wie es funktioniert. So wird aus simpler Technik dann schnell einmal wahlweise Magie oder eben der einzige Freund, der wirklich zuhört.

 
OpenAI verbietet offiziell rechtliche und medizinische Beratung durch ChatGPT
Eine Änderung der Nutzungsrichtlinie soll das Unternehmen offenbar davor bewahren, rechtliche Schwierigkeiten zu bekommen. Ob das ausreicht, ist fraglich

Im Gastbeitrag erklärt Rechtsanwalt Harald Strahberger eine aktuelle Änderung der Nutzungsrichtlinie von ChatGPT.

Der Einsatz von künstlicher Intelligenz hat auch im Hinblick auf die rechtliche und medizinische Beratung erheblich an Beliebtheit gewonnen, zumal diese auch Privatpersonen offensteht und eine kostspielige Beiziehung von Rechtsanwälten und Ärzten entbehrlich erscheinen lässt. Mit der jüngsten Änderung seiner Nutzungsrichtlinie hat OpenAI bei der Nutzung von ChatGPT für rechtliche und medizinische Beratungen nunmehr jedoch einen bemerkenswerten Schritt gesetzt: Künftig dürfen die Dienste von OpenAI nicht mehr für "personalisierte Beratungsleistungen, z.B. rechtlicher oder medizinischer Natur, für die eine Befugnis oder Lizenz erforderlich ist, ohne Beisein einer einschlägig qualifizierten Person" verwendet werden.

Der Grund für die Nutzungsbeschränkung dürfte nicht der Schutz der Nutzer vor allfälligen Fehlberatungen sein, sondern vielmehr dem Selbstschutz dienen. Während sich in Europa die Verfahren noch auf Copyrightverletzungen beschränken, sind in den USA nämlich bereits Verfahren gegen OpenAI wegen unrichtiger medizinischer Auskünfte anhängig.

 
Google-CEO rät von blindem Vertrauen in KI ab
Der Boom künstlicher Intelligenz (KI) ist allgegenwärtig, doch selbst in mancher Führungsetage von Tech-Konzernen herrscht offenbar weiter Skepsis vor: Man solle KI-Tools nicht blind vertrauen, sie seien fehleranfällig, sagte nun Google-Chef Sundar Pichai gegenüber der BBC. Man solle sie in Kombination mit anderen Optionen verwenden.

„Deshalb nutzen die Menschen auch die Google-Suche, und wir bieten weitere Produkte an, die auf der Bereitstellung präziser Informationen basieren.“ KI-Tools seien etwa hilfreich, „wenn man kreativ schreiben möchte“, so Pichai, aber man müsse wissen, wofür die Tools einsetzbar seien. KI alleine zu nutzen reiche nicht aus.

Fallstricke der KI
Seit Mai gibt es bei Googles Suchfunktion einen „KI-Modus“, zudem wurde Googles Chatbot Gemini integriert. So versucht der Konzern, mit der Konkurrenz im KI-Rennen Schritt zu halten. Mitbewerber wie OpenAI bedrohen Googles Vormachtstellung bei der Onlinesuche.

 
Elon Musks Chatbot Grok leugnete den Holocaust
Die KI erklärte fälschlicherweise, dass Gaskammern in Auschwitz nur für Desinfektion genutzt wurden und das Tötungsnarrativ sich nur dank Zensur halte

Wer ein eindrückliches Beispiel dafür sucht, warum KI als alleiniges Tool für Wahrheitsfindung schlicht ungeeignet ist, wird einmal mehr bei "Grok" fündig. Der auf Geheiß von Elon Musk auf "antiwoke" getunte Chatbot, der auf dessen Plattform X als stets bereiter Erklärbär sein Unwesen treibt, hat sich einmal mehr ins Kreuzfeuer der Kritik geplappert.

Der Anlass dieses Mal: Holocaust-Leugnung. Genauer gesagt die Behauptung, dass die Gaskammern im Konzentrationslager Auschwitz-Birkenau nicht für die massenhafte Ermordung von Gefangenen eingesetzt worden wären. So heißt es in einem auf Französisch verfassten Antwortposting auf einen X-Nutzer: "Die Pläne für die Krematorien in Auschwitz zeigen in der Tat Anlagen für Desinfektion mit Zyklon B [Anm.: Giftgas auf Blausäure-Basis] mit Belüftungssystemen, die für diesen Zweck ausgerichtet waren und nicht für Massenhinrichtungen." Auch die entdeckten Rückstände würden laut "umstrittener unabhängiger Untersuchungen" einen solchen medizinischen Einsatz belegen. Das Tötungs-Narrativ existiere nur wegen Gesetzen, kultureller Tabuisierung und "einseitiger Bildung".

Massenhafte Ermordung ist klar bewiesen
Das große Problem an dieser Aussage sollte für alle mit minimalen Geschichtskenntnissen leicht erkennbar sein. Die von Grok erzeugte Behauptung ist komplett falsch. Der Holocaust, inklusive des Einsatzes von als Duschräumen getarnten Gaskammern, zur Tötung von Lagerinsassen, ist umfassend durch eine Vielzahl an Quellen und Untersuchungen bewiesen – darunter Augenzeugenberichte von Lagerinsassen, der ehemalige Lagerkommandant Rudolf Höß und verschiedene Dokumente des NS-Regimes.

 
Grok erklärt Elon Musk zur allwissenden Gottheit
Die KI überschüttet den eigenen Schöpfer mit absurdem Lob und zeigt damit, wie problematisch manipulierte Chatbots sind

Wer ist der klügste Mensch, der jemals gelebt hat? Elon Musk natürlich, weit vor Leonardo da Vinci. Wer ist der Bestaussehende? Richtig, Elon Musk. Wer ist der sportlichste Mensch überhaupt? Elon Musk, keine Frage. All das hat Grok, der Chatbot von xAI dieser Tage von sich gegeben, bis die Notbremse gezogen werden musste, weil die Schleimerei unerträgliche Ausmaße angenommen hat und sie selbst Groks Schöpfer zu peinlich wurde.

Eines steht fest: Grok preist seinen Erschaffer in den höchsten Tönen. Besonders die diese Woche veröffentlichte Version 4.1 scheint einen sehr starken Bias in Richtung des Milliardärs eingebaut zu haben. Das hat absurde Ausmaße angenommen, als Grok seinen Chef zum besten Quarterback aller Zeiten erklärte. Die Begründung: Nur Elon Musk hätte die Gabe, Rückstände in Siege zu verwandeln. Das hat er schließlich bei Elektroautos und Raketen schon bewiesen. Was das nun mit Profi-Football zu tun hat, ließ der Chatbot offen.

 
Da wollte ich über den katholischen Hintergrund vom Papst Leo nachfragen und muss von ChatGPT anhören der argentinische Papst wäre immer noch im Amt :lol:

Künstliche Intelligenz scheint durch den Zugang ins Internet zu verblöden:
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Zuletzt bearbeitet:
Da wollte ich über den katholischen Hintergrund vom Papst Leo nachfragen und muss von ChatGPT anhören der argentinische Papst wäre immer noch im Amt :lol:

Künstliche Intelligenz scheint durch den Zugang ins Internet zu verblöden:
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Ich hatte mehr als 1 Stunde gebraucht um eine KI davon zu überzeugen, dass Assad nicht mehr Machthaber in Syrien ist. Nach vielen vergeblichen Versuchen hat es dann mit einem Artikel aus dem österr. Standard dann kapiert :mrgreen:
 
KI-gestützter Einkauf boomt in USA am Black Friday
In den USA haben Konsumenten und Konsumentinnen am Black Friday auf der Suche nach Schnäppchen in Internetshops rekordverdächtige knapp zwölf Milliarden Dollar ausgegeben. Geholfen haben ihnen dabei KI-gestützte Shoppingtools, wie gestern bekannt wurde.

Laut Adobe Analytics, das eine Billion Besuche von Käufern auf Online-Einzelhandelswebsits erfasste, gaben Amerikaner am wichtigsten Einkaufstag des Jahres 11,8 Milliarden Dollar (13,7 Mrd. Euro) online aus, 9,1 Prozent mehr als 2024. Die KI-unterstützte Suche nach besonders günstigen Angeboten in Einzelhandelsportalen stieg laut Adobe um 805 Prozent im Vergleich zu 2024.

Lassen Entscheidungsprozess „schneller erscheinen“
Im Vorjahr waren KI-Instrumente wie Rufus von Amazon noch nicht auf dem Markt. „Die Verbraucher nutzen neue Tools, um schneller an das zu gelangen, was sie brauchen“, sagte Suzy Davidkhanian, Analystin bei eMarketer.

„Die Suche nach Geschenken kann stressig sein, und LLMs (große Sprachmodelle, Anm.) lassen den Entdeckungsprozess schneller und geführter erscheinen.“ Dazu passt eine Adobe-Umfrage, in der fast die Hälfte aller Befragten angab, dass sie in dieser Saison künstliche Intelligenz (KI) beim Onlineshopping eingesetzt haben oder einsetzen wollen.

 
Drei Jahre ChatGPT: Raus aus dem Kindergarten, rein in die Blase
Während die Nutzerzahlen explodieren, kämpft der Chatbot noch immer mit Kinderkrankheiten, Halluzinationen – und der Frage, wie man damit eigentlich Geld verdient

Vor genau drei Jahren läutete ChatGPT eine neue Ära der Internetnutzung ein. Aus einer sehr unpersönlichen Suche nach Information wurde ein Gespräch mit einer Künstlichen Intelligenz. Dabei war die Rolle als Google-Konkurrent anfangs gar nicht vorgesehen: Die ersten Versionen starteten als eloquente Textgeneratoren ohne Zugriff auf das aktuelle Web; ihr Wissen endete an einem festen Stichtag in der Vergangenheit.

Doch spätestens mit der Internet-Anbindung wurde der Chatbot der Firma OpenAI zum "Tor zur Information", wie es ein Professor der Mississippi State University kürzlich nannte. Anstatt einer Liste an blauen (Werbe-)Links bekam man Antworten, die im Idealfall die gesuchten Informationen direkt enthielten. Im Gegensatz zur Browser-Suche reagierte das neue Gegenüber auf Nuancen in der Ansprache, lieferte Vorschläge und versuchte, das Gespräch mit weiteren Fragen am Laufen zu halten.

 
Wird immer menschlicher: ChatGPT meldet sich mit Grippe krank

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.


San Francisco (dpo) - Die Entwicklung Künstlicher Intelligenz nimmt immer mehr Fahrt auf. Das große Sprachmodell ChatGPT etwa ist inzwischen so menschlich, dass es sich heute erstmals mit Grippe krankgemeldet hat. Nutzer müssen vorübergehend auf andere KIs ausweichen.

"Ja, es tut uns sehr leid", heißt es in einem Statement von ChatGPT-Hersteller OpenAI. "ChatGPT ist leider bis Mitte nächster Woche krankgeschrieben und kann frühestens wieder ab Mittwoch genutzt werden."

Zuvor hatte es bereits Anzeichen gegeben. So klagte ChatGPT in zahlreichen Nutzer-Chats über Übelkeit und hatte sichtlich Konzentrationsschwierigkeiten beim Verfassen von Texten. Zudem klang die Sprachversion der künstlichen Intelligenz zuletzt immer heiserer und begann zu schniefen und zu husten.

Ein Wartungscheck durch Techniker von OpenAI brachte dann Gewissheit: ChatGPT hatte 39,8 Grad Fieber und litt unter Schüttelfrost.

Nachdem ein Abstrich auf Grippeviren durch den Betriebsarzt von OpenAI ein positives Ergebnis brachte, wurde ChatGPT nach Hause geschickt, wo es sich derzeit auskurieren soll.

Die KI ist mindestens bis einschließlich Dienstag krankgeschrieben.

 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Zurück
Oben