Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

KI schreibt überzeugende Falschmeldungen
Im Mittelpunkt der Debatte über künstliche Intelligenz (KI) steht auch die Sorge vor automatisch generierter Falschinformation. Wie berechtigt diese ist, untermauert eine aktuelle Studie, wonach KI-generierte Texte in sozialen Netzwerken oft glaubwürdiger erscheinen als jene von Menschen. Ein heimischer Experte plädiert für eine strenge Regulierung – in Österreich gebe es generell großen Aufholbedarf.

Künstliche Intelligenz soll in Europa künftig in vier Bereiche eingeteilt werden – abhängig von dem Risiko, das von den KI-Systemen ausgeht. Das ist das Ziel des Europäischen Parlaments mit dem geplanten “AI Act“ – dem weltweit ersten umfassenden KI-Gesetz. Als besonders riskant gelten darin Gesichtserkennungssoftwares zur Echtzeitüberwachung der Bevölkerung – ihr Einsatz soll in Europa künftig komplett untersagt werden.

Wie gefährlich beliebte KI-Sprachmodelle wie Chat-GPT sind, ist hingegen weniger klar. Debattiert wird unter anderem das Risiko, dass sich mit Hilfe der künstlichen Intelligenz automatisch generierte Falschinformationen in der Bevölkerung verbreiten.

Studie untermauert Bedenken
Dass KI-Sprachmodelle durchaus dazu in der Lage sind, zeigen Schweizer Forscherinnen und Forscher in einer aktuell im Fachjournal „Science Advances“ präsentierten Studie. Das Team von der Universität Zürich wollte unter anderem klären, ob Menschen KI-generierte Texte auf Twitter als solche erkennen. Die fast 700 Probandinnen und Probanden waren nicht dazu in der Lage, die KI-Tweets zuverlässig von den Texten realer Personen zu unterscheiden.

“Fake News“ wirken überzeugend

 
„Das sind Geschichtenmaschinen“
Die jüngsten Entwicklungen im Bereich künstliche Intelligenz haben die Frage aufgeworfen, ob Systeme wie ChatGPT irgendwann zu mächtig werden könnten. Gefahren gebe es, und man müsse sie ernst nehmen – noch sei der Menschen aber überlegen, so der Tenor bei einer Konferenz in Wien.

Die oft widerlegte Behauptung „Die Masernimpfung kann Autismus verursachen“ hält sich seit vielen Jahren hartnäckig im Internet. Wenn Systeme wie ChatGPT so trainiert würden, dass sie genau auf diese Informationen zugreifen, würden sie auf die Frage „Hat die Masernimpfung gefährliche Nebenwirkungen?“ genau diese Falschinformationen ausspuken.

Das ist die größte Gefahr, so Hannes Werthner, ehemaliger Dekan der Fakultät für Informatik an der TU Wien und einer der Hauptorganisatoren der internationalen Tagung in Wien: „Das sind Geschichtenmaschinen, keine Wahrheitsmaschinen. Und das Problem ist: Wie kann man das abschätzen, was hier richtig oder falsch ist?“

“Liege nachts wach“

 
So ist das halt, was hat man denn erwartet? Das ist auch keine besondere Gefahr, schon immer muss man abwägen und alles prüfen, wer glaubt dass das bei KI nicht nötig ist tko ga jebe, dann fällt er eben drauf rein und investiert gem. KI-Rat sein ganzes Vermögen in eine Kieselsteinsammlung.
 
Ist ChatGPT schon wieder am absteigenden Ast?
Die Zugriffe auf ChatGPT sind zum ersten Mal seit Beginn des Hypes gesunken. Das ändert aber nichts daran, dass die Technologie per se weiter für Aufsehen sorgt

Liebe Mitmenschen,

ChatGPT wird Ihnen vermutlich nicht fremd sein, sonst würden Sie diesen Newsletter wohl nicht lesen. Vergangene Woche sorgte nun eine Nachricht für Aufsehen: Nachdem OpenAIs frei zugängliches KI-Tool Anfang des Jahres die Welt im Sturm erobert hatte, sind die Zugriffe von Mai auf Juni laut dem Traffic-Analysten Similarweb um rund zehn Prozent eingebrochen. Zudem deutet sich an, dass die Nutzungszeit pro Besuch nachlässt, so die Analysten. Chatbots wie dieser hätten nun die schwierige Aufgabe, nach einem anfänglichen Hype ihren wahren Nutzen zu beweisen.

 
Mich wundert das absolut nicht, der Hype wurde hauptsächlich von Medien herbeigeschrieben, dabei bedienten sie sich längst bewährter Strategien wie zuletzt bei Corona und Klimawandel: Horrorszenarien erfinden und verbreiten, allein in D und A waren zirka 96 Milliarden Jobs gefährdet
 
So besonders sind se nicht.....unsere KI's hier, vom türkischen Geheimdienst eingesetzt um interdisziplinäre Vorgänge zu erforschen geht schon mal in die Hose.......KI-Barbaros, KI-Schkyttiboy und KI-TUFFI haben den Test nicht bestanden....sie werden sie bald absetzen..............
 
Musk gründete nun auch KI-Unternehmen
Twitter-Chef Elon Musk hat nun auch ein eigenes KI-Unternehmen gegründet. Musk kündigte die Gründung von xAI gestern auf Twitter an. Weitere Details sollen am Freitag bekanntgegeben werden.

Auf der xAI-Website wird Musk als Direktor genannt, neben ihm werden elf weitere, ausschließlich männliche, Teammitglieder vorgestellt, die zuvor bei anderen Unternehmen mit Schwerpunkt auf KI gearbeitet hatten, darunter Google, OpenAI und DeepMind.

„Ankündigung der Gründung von @xAI, um die Realität zu verstehen“, gab sich Musk auf Twitter wortkarg. Unklar ist noch, welchen Plan er mit xAI verfolgt. Im April kündigte er an, einen Konkurrenten zu ChatGPT zu veröffentlichen.

Kurios ist Musks neues Start-up auch deshalb, weil Musk in der Vergangenheit oft vor den Risiken von KI gewarnt hatte. Er ist auch Teil des Future-of-Life-Instituts, das vor den Risiken einer „Superintelligenz“ warnte.

 
US-Ermittlungen gegen ChatGPT-Macher OpenAI
Wegen einer möglichen Verletzung von Verbraucherschutzgesetzen hat die US-Kartellbehörde einem Zeitungsbericht zufolge Ermittlungen gegen OpenAI eingeleitet. Nach Ansicht der FTC gefährde die Microsoft-Beteiligung mit ihrem populären Chatbot ChatGPT personenbezogene Daten und die Reputation von Menschen, berichtete die „Washington Post“ heute.

Daher habe die Behörde in einem 20-seitigen Schreiben Informationen angefordert, wie OpenAI mit den Risiken im Zusammenhang mit künstlicher Intelligenz (KI) umgeht. Weder die FTC noch OpenAI waren für eine Stellungnahme zu erreichen.

Generative KI wird mit Unmengen von Daten trainiert, die häufig auf dem Internet zusammengesucht werden. Dazu gehören auch persönliche Einträge auf Plattformen wie Facebook, Instagram und Twitter. Außerdem fließen sämtliche Anfragen sowie dabei von Nutzern zur Verfügung gestellte Informationen in die Datenbank ein.

 
KI beantwortet medizinische Fragen
Die zu Google gehörende Firma DeepMind hat mit Med-PaLM ein Sprachmodell entwickelt, das darauf trainiert ist, Antworten auf medizinische Fragen zu geben. Zum Teil schneidet die künstliche Intelligenz dabei ähnlich gut ab wie Fachleute – für den Einsatz in der Praxis gibt es laut Forscherinnen und Forschern aber noch zu viele Ungewissheiten.

Zu den bekanntesten großen KI-Sprachmodellen zählt Chat-GPT der Firma OpenAI. Anhand von großen Datenbanken ist es mit dem Modell möglich, eine Vielzahl an Fragen zu beantworten und aus wenigen Inputs gut verständliche Texte zu generieren. Ähnliches möchte die zu Google gehörige KI-Schmiede DeepMind nun in der Medizin erreichen.

 
Zurück
Oben