Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

Autorenprotest wegen Nutzung von Werken für KI
Mehr als 8.000 Schriftsteller und Schriftstellerinnen in Nordamerika, darunter Dan Brown, James Patterson, Jodi Picoult, Margaret Atwood und Jonathan Franzen, haben mit einem offenen Brief gegen die kostenlose Nutzung ihrer Werke für die Entwicklung künstlicher Intelligenz (KI) protestiert.

„Millionen von urheberrechtlich geschützten Büchern, Artikeln, Essays und Gedichten bieten die Nahrung für KI-Systeme – unendliche Mahlzeiten, für die es keine Rechnung gab“, hieß es.

KI ohne Literatur „banal und limitiert“
„Ihr gebt Milliarden von Dollar aus, um KI-Technologien zu entwickeln. Es ist nur fair, dass ihr uns dafür kompensiert, unsere Werke zu benutzen, ohne die die KI banal und extrem limitiert wäre.“ Bei der generativen KI werden Inhalte wie Texte, Bilder und Videos maschinell erstellt, entwickelt wird sie unter anderem mit veröffentlichtem Material.

 
KÜNSTLICHE DUMMHEIT
ChatGPT wird immer dümmer, doch niemand weiß, warum
Forschende schickten die KI für eine Studie mehrfach in einen Testparcours und bewiesen einen signifikanten Abfall der Qualität

Wer schon immer das Gefühl hatte, dass die Qualität von ChatGPT in jüngster Zeit stark nachgelassen hat, darf jetzt laut "Ich hab's gewusst" rufen. Denn ein Forschungsteam hat jetzt bestätigt, was viele schon lange zu wissen glaubten: Die künstliche Intelligenz (KI) wird immer dümmer.

Forscherinnen und Forscher der Universitäten Stanford und Berkeley veröffentlichten diese Woche ein neues Paper. In der Forschungsarbeit wurde vor allem die Veränderung in der Form der Antworten von ChatGPT analysiert und dabei festgestellt, dass die Leistung der dem Chatbot zugrundeliegenden KI-Modelle GPT-3.5 und GPT-4 in der Tat "stark variiert", wie es die Forscherinnen und Forscher diplomatisch formulieren. Tatsächlich zeigt sich, dass GPT-4, das aktuelle Modell, bei den getesteten Aufgaben im Laufe der Zeit immer schlechter abgeschnitten hat.

 
Protest gegen KI auch in London
Angeführt von „Succession“-Star Brian Cox haben sich am Freitag Hunderte britische Schauspielerinnen und Schauspieler dem Protest ihrer US-Kollegen in Hollywood angeschlossen, die seit gut einer Woche für bessere Bezahlung und gegen den Einsatz von künstlicher Intelligenz (KI) bei Filmproduktionen streiken.

An der Kundgebung auf dem Londoner Leicester Square nahmen auch Stars wie „The Crown“-Hauptdarstellerin Imelda Staunton und „Downton Abbey“-Star Jim Carter teil. Auch Simon Pegg und Hayley Atwell, die zuletzt im neuen „Mission Impossible“-Film mitgespielt hatten, waren dabei.

 
Biden fordert Regeln für Einsatz von KI
US-Präsident Joe Biden hat bei einem Treffen mit Vertreterinnen und Vertretern großer Technologie- und Internetkonzerne auf Regeln für einen verantwortungsvollen und sicheren Einsatz von künstlicher Intelligenz (KI) gedrungen. KI berge ein „enormes Versprechen unglaublicher Möglichkeiten“, sagte Biden gestern bei dem Treffen mit Managern von Unternehmen wie Meta, Microsoft und Open AI in Washington. Aber sie berge auch „Risiken für unsere Gesellschaft, unsere Wirtschaft und unsere nationale Sicherheit“.

An dem Treffen im Weißen Haus nahmen hochrangige Vertreter der Unternehmen Amazon, Anthropic, Google, Inflection, Meta, Microsoft und OpenAI teil. In einer freiwilligen, nicht sanktionierbaren Selbstverpflichtung kündigten sie an, bei der Entwicklung und dem Einsatz von KI bestimmte Prinzipien einzuhalten. So sagten sie etwa zu, KI-Programme vor ihrer Markteinführung erst intern und extern zu testen. Damit seien diese sieben Unternehmen federführend „beim Anführen dieser Innovation mit Verantwortung und Sicherheit“, sagte Biden.

Vorwärtsstrategie gegen Einschränkungen
Die IT-Unternehmen wollen damit möglicherweise strengeren Gesetzen zuvorkommen. Bidens Regierung arbeitet aber weiter an Verordnungen und will auch im Kongress entsprechende Gesetze ausarbeiten lassen. Ob diese vor der im nächsten Jahr anstehenden Präsidentschaftswahl allerdings noch beschlossen werden können, ist fraglich. Laut „New York Times“ ist die unverbindliche Selbstverpflichtung so gefasst, dass sie die Unternehmen bei der KI-Entwicklung nirgends einschränkt.

 
Forscher arbeiten an Computerchip mit menschlichen Gehirnzellen
"Dishbrain" kombiniert gezüchtete Gehirnzellen mit Siliziumchips, "um bessere KI-Maschinen zu entwickeln"

Unter dem Titel "Dishbrain" könnte ein Forschungsprojekt die Entwicklungsfortschritte bei künstlicher Intelligenz (KI) maßgeblich beschleunigen. Forscher der Monash University in Australien haben einen halbbiologischen Computerchip entwickelt, der gängige siliziumbasierte Schaltkreise mit gezüchteten menschlichen Gehirnzellen kombiniert. Ein Programm der australischen Regierung hat das Projekt nun mit weiteren 360.000 Euro (rund 600.000 australischen Dollar) gefördert.

Das Forscherteam unter der Leitung von Adeel Razi hat sich zum Ziel gesetzt, programmierbare biologische Computerplattformen zu entwickeln, indem es die Bereiche künstliche Intelligenz und synthetische Biologie miteinander verbindet. Diese neuartige Technologie könnte in Zukunft die Leistung bestehender rein siliziumbasierter Hardware übertreffen und somit erhebliche Auswirkungen auf zahlreiche Industriezweige haben, so die Hoffnung der Forschenden.

"Neue Art von maschineller Intelligenz" notwendig

 
KI-Entwickler gründen Arbeitsgruppe für Sicherheitsfragen
Vier bei der Entwicklung von Abwendungen mit künstlicher Intelligenz (KI) führende US-Konzerne wollen möglichen Risiken der neuen Technologie mit einer gemeinsamen Arbeitsgruppe begegnen.

Das gaben die daran beteiligten Unternehmen Google, Microsoft, Anthropic und der ChatGPT-Entwickler OpenAI heute bekannt. Die Gruppe bekommt den Namen „Frontier Model Forum“.

Dort sollen Expertinnen und Experten der Firmen zusammenarbeiten. Es geht darum, Gefahren zu minimieren und branchenweite Standards zu entwickeln.

Erst in der vergangenen Woche hatte US-Präsident Joe Biden bei einem Treffen mit Vertretern großer Technologie- und Internetkonzerne auf Regeln für einen verantwortungsvollen und sicheren Einsatz von KI gedrängt. Diese berge ein „enormes Versprechen unglaublicher Möglichkeiten“, sagte er. Aber sie berge auch „Risiken für unsere Gesellschaft, unsere Wirtschaft und unsere nationale Sicherheit“.

 
KI als Unterstützung bei Hautkrebsdiagnose
Bei der Hautkrebsdiagnose kommt heute bereits künstliche Intelligenz (KI) zum Einsatz. Ihre Treffsicherheit beim Ergebnis konnte nun dadurch verbessert werden, dass menschliche Entscheidungen – etwa jene von Wiener Forschern – einbezogen werden.

Online seit gestern, 18.51 Uhr
Teilen

Dafür wird in der KI das Verstärkungslernen integriert. So konnte die Rate der von Dermatologen gestellten korrekten Hautkrebsdiagnosen um zwölf Prozentpunkte gesteigert werden. Ziel der Studie war zu erheben, ob menschliche Präferenzen das Potenzial haben, die auf KI basierende Entscheidungsunterstützung bei der Hautkrebsdiagnose zu verbessern. Die Studie ist in der Fachzeitschrift „Nature Medicine“ erschienen.

Als Mittel zum Zweck untersuchten Wiener Forscherinnen und Forscher der MedUni Wien das Verstärkungslernen (Reinforcement Learning). Auch Auswirkungen menschlicher Entscheidungen sind nun im System integriert. Das geschah konkret über „Belohnungstabellen“, die die positiven und negativen Folgen klinischer Bewertung aus Sicht der Ärzte widerspiegelten, erläuterte Forscher Harald Kittler.

Diagnose Hautkrebs deutlich genauer
Auf dieser Grundlage wurden Ergebnisse der KI-Diagnose nicht nur mit richtig oder falsch bewertet, sondern abhängig von den Auswirkungen der Diagnose bzw. der daraus folgenden Entscheidungen mit einer bestimmten Anzahl von Plus- oder Minuspunkten „belohnt“ bzw. „bestraft“.

„So lernte die KI nicht nur bildbasierte Merkmale, sondern auch Konsequenzen von Fehldiagnosen in der Einschätzung von gutartigen und bösartigen Hauterscheinungen zu berücksichtigen“, so Kittler. Die Treffsicherheit der Diagnose Hautkrebs konnte „deutlich verbessert werden“, hieß es. Der Erfolg lässt sich, so die Forscher, auf die differenzierteren, „menschlicheren“ Vorschläge des KI-Systems zurückführen.

Menschliche Fehlentscheidungen berücksichtigt

 
Zoom: Datennutzung zu KI-Training nur mit Zustimmung
Der Videokonferenzdienst Zoom will einige Nutzerdaten zum Training von Software mit künstlicher Intelligenz (KI) verwenden – versichert aber, dass das nur mit Zustimmung passieren werde. Die US-Firma sah sich gestern zu einer Klarstellung gezwungen, nachdem es Wirbel über einige Formulierungen der Nutzungsbedingungen gegeben hatte.

„Wir nutzen Audio-, Video- oder Chatinhalte zum Training unserer KI-Modelle nicht ohne Kundenzustimmung“, schrieb Produktchefin Smita Hashim in einem Blogeintrag. Sie verwies dabei auf zwei neue Funktionen, die Zoom bisher testweise kostenlos anbietet: automatisch erstellte Zusammenfassungen von Unterhaltungen und Formulierungsvorschläge für Chats.

 
KI-Rezepte zwischen originell und tödlich
Welches Gericht lässt sich aus den Lebensmitteln, die man noch in der Küche findet, zaubern? Die neuseeländische Supermarktkette Pak ’n’ Save bietet auf ihrer Website ein durch künstliche Intelligenz unterstütztes Service, das nach ein paar Klicks Rezepte liefert. Schönheitsfehler: Die Resultate sind mitunter für menschliche Geschmäcker zumindest ungewöhnlich – und im schlimmsten Fall gar tödlich.

 
Zurück
Oben