Alles falsch gemacht
Hört endlich auf, KI zu vermenschlichen!
Viele Hersteller stellen ihre Chatbots als Partner, als Freund mit individueller Persönlichkeit dar. Das ist gefährlich, das ist verantwortungslos und schlicht: falsch
Wer kann schon etwas gegen ein süßes Maskottchen haben? Hat sich zumindest Microsoft gedacht und führt dieser Tage so etwas wie den inoffiziellen Nachfolger für Clippy ein. Herzlich und ausdrucksstark, aufmerksam zuhörend, eben menschlicher: All das soll Mico werden, wenn man der Beschreibung des Herstellers folgt. Ein Gesicht für den sonst so farblosen Copilot. Das klingt zunächst nett und harmlos, ist in Wirklichkeit aber ein anschauliches Beispiel für ein hochproblematisches Phänomen rund um aktuelle, auf großen Sprachmodellen (LLMs) basierenden Chatbots: die Vermenschlichung.
Eine Projektion
Anthropomorphisierung nennt sich der Fachbegriff dafür, und natürlich ist das kein neues Phänomen – ganz im Gegenteil. Menschen neigen schon immer dazu, auf alles Mögliche menschliche Eigenschaften zu projizieren, seien es Tiere, Pflanzen oder eben Künstliche Intelligenz. Verschärft wird das noch einmal durch das generelle Bestreben, alles mit Bedeutung aufzuladen, bei dem man nicht versteht, wie es funktioniert. So wird aus simpler Technik dann schnell einmal wahlweise Magie oder eben der einzige Freund, der wirklich zuhört.
www.derstandard.at
Hört endlich auf, KI zu vermenschlichen!
Viele Hersteller stellen ihre Chatbots als Partner, als Freund mit individueller Persönlichkeit dar. Das ist gefährlich, das ist verantwortungslos und schlicht: falsch
Wer kann schon etwas gegen ein süßes Maskottchen haben? Hat sich zumindest Microsoft gedacht und führt dieser Tage so etwas wie den inoffiziellen Nachfolger für Clippy ein. Herzlich und ausdrucksstark, aufmerksam zuhörend, eben menschlicher: All das soll Mico werden, wenn man der Beschreibung des Herstellers folgt. Ein Gesicht für den sonst so farblosen Copilot. Das klingt zunächst nett und harmlos, ist in Wirklichkeit aber ein anschauliches Beispiel für ein hochproblematisches Phänomen rund um aktuelle, auf großen Sprachmodellen (LLMs) basierenden Chatbots: die Vermenschlichung.
Eine Projektion
Anthropomorphisierung nennt sich der Fachbegriff dafür, und natürlich ist das kein neues Phänomen – ganz im Gegenteil. Menschen neigen schon immer dazu, auf alles Mögliche menschliche Eigenschaften zu projizieren, seien es Tiere, Pflanzen oder eben Künstliche Intelligenz. Verschärft wird das noch einmal durch das generelle Bestreben, alles mit Bedeutung aufzuladen, bei dem man nicht versteht, wie es funktioniert. So wird aus simpler Technik dann schnell einmal wahlweise Magie oder eben der einzige Freund, der wirklich zuhört.
Hört endlich auf, KI zu vermenschlichen!
Viele Hersteller stellen ihre Chatbots als Partner, als Freund mit individueller Persönlichkeit dar. Das ist gefährlich, das ist verantwortungslos und schlicht: falsch