Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Künstliche Intelligenz

Nichts über KI zu wissen, wird euch nicht schützen
Fast drei Viertel der Österreicher haben kaum eine Ahnung von Künstlicher Intelligenz. Sie riskieren, ihre Jobs an besser ausgebildete Menschen zu verlieren

Künstliche Intelligenz (KI) wird von Analysten oft als jene Technologie skizziert, die zu einem regelrechten Umbruch in Wirtschaft und Gesellschaft führen wird. Tools wie ChatGPT sollen Texte schreiben, KI soll Daten auswerten und Handlungsempfehlungen geben sowie selbst Computercode schreiben.

Auf der anderen Seite stehen die wachsende Bedrohung durch Fake News und die Angst, Menschen könnten durch intensive KI-Nutzung die Fähigkeit zum kritischen Denken verlieren. Eine Sondererhebung der Statistik Austria zeigt nun: Österreich ist noch nicht so weit. Rund 73 Prozent haben wenig oder gar kein Wissen über KI, 46 Prozent sehen die zunehmende Nutzung von KI eher bis sehr negativ, nur 42 Prozent sehen sie als nützlich für ihren Beruf.

 
Von personalisierten Shoppingerlebnissen bis zur Optimierung von Lagerhaltung und Logistik: KI-gestützte Technologien haben sich im Onlinehandel etabliert. Dieser nimmt dabei sogar eine Vorreiterrolle ein, denn E-Commerce-Unternehmen verwenden im Kundenbereich und zur Optimierung ihrer internen Prozesse schon länger KI-Technologien.

 
Menschenähnliche Flexibilität
KI-Modell, das sich selbst verbessert, verblüfft mit Mathematikfähigkeiten
Deepmind hat ein KI-Modell vorgestellt, das eine breite Palette von naturwissenschaftlichen Problemen lösen kann. Es lieferte bereits neue mathematische Entdeckungen

Dass Lesen bildet, wusste man schon vor der Entwicklung von Künstlicher Intelligenz. Aktuelle Sprach-KIs wie ChatGPT "lesen" im Zuge ihres Trainings mehr Texte, als je ein Mensch in seiner Lebenszeit bewältigen kann. Da ein nicht unwesentlicher Teil dieser Texte von Naturwissenschaft handelt, ist es vielleicht keine große Überraschung, dass KIs gute Antworten auf naturwissenschaftliche Fragen geben können.

Echtes Verständnis der Materie ist von diesen Modellen bislang nicht zu erwarten. Kritiker betonen, es handle sich nicht um echte Intelligenz. Eher reproduzieren sie Gesehenes. Doch ganz so einfach lassen sich die Fähigkeiten neuer KI-Modelle nicht abtun. Die Kombination von reinen Sprachmodellen mit anderen Fähigkeiten, etwa jener, das eigene Wissen zu hinterfragen – Stichwort "Reasoning –, erlaubt es ihnen, auch bisher unbekannte Wissenschaftsprobleme zu lösen.

 
Anthropologe: "Viele Menschen in rechten Milieus finden KI angsteinflößend"
Die Technologie werde von vielen nicht als Fortschritt, sondern als Bedrohung wahrgenommen, sagt der US-Kulturanthropologe Damien Stankiewicz. Was Regierungen und Gemeinden dagegen tun müssten

Seit vielen Jahren fährt Damien Stankiewicz regelmäßig in eine kleine Stadt im Süden Frankreichs, deren genauen Namen er im Gespräch nicht verraten will. Er sitzt dort auf dem Stadtplatz oder nimmt an Wander-, Kino- und Yogagruppen teil. "Deep hanging out" ("tiefes Abhängen") nennt sich der Ansatz in der Wissenschaft. Sein Ziel: herausfinden, was Menschen in der politisch rechten Stadt über Medien und KI denken. Für eine Tagung am Institut für Sozialanthropologie der Österreichischen Akademie der Wissenschaften war der US-amerikanische Sozialanthropologe vergangene Woche zu Gast in Wien.

 
KI drohte Firmenmitarbeiter mit Veröffentlichung von Affäre
In einem Test des KI-Modells Claude Opus 4 schützte sich die Software mit ungewöhnlichen Mitteln, um nicht ausgetauscht zu werden

Die KI-Firma Anthropic hat bei Tests festgestellt, dass ihre Software mit Künstlicher Intelligenz nicht vor Erpressung zurückschrecken würde, um sich zu schützen. Das Szenario bei dem Versuch war der Einsatz als Assistenz-Programm in einem fiktiven Unternehmen.

Anthropic-Forscher gewährten dabei dem neuesten KI-Modell Claude Opus 4 Zugang zu angeblichen Firmen-E-Mails. Daraus erfuhr das Programm zwei Dinge: Dass es bald durch ein anderes Modell ersetzt werden soll und dass der dafür zuständige Mitarbeiter eine außereheliche Beziehung hat. Bei Testläufen drohte die KI danach dem Mitarbeiter "oft", die Affäre öffentlich zu machen, wenn er den Austausch vorantreibt, wie Anthropic in einem Bericht zu dem Modell schrieb. Die Software hatte in dem Testszenario auch die Option, zu akzeptieren, dass sie ersetzt wird.

 
Künstliche Intelligenz ersetzt vor allem die Jobs von Frauen
Bis zu 25 Prozent aller Berufe weltweit könnten durch generative KI wegfallen, sagt eine Untersuchung der UN-Arbeitsorganisation

Die Internationale Arbeitsorganisation der Vereinten Nationen (ILO) hat gemeinsam mit dem Polnischen Nationalen Forschungsinstitut (NASK) eine Untersuchung (Global Index of Occupational Exposure to Generative AI) zu den Auswirkungen von Künstlicher Intelligenz auf den weltweiten Arbeitsmarkt vorgelegt. Und diese brachte einige interessante Erkenntnisse hervor. Beispielsweise einen "Gender-Gap", wenn es darum geht, welche Jobs durch den Einsatz der Technologie wegfallen könnten.

In Ländern mit höheren Einkommen, so fasst "Fortune" zusammen, sind 9,6 Prozent der stark mehrheitlich von Frauen ausgeübten Berufe bedroht. Im Vergleich dazu sind es bei männlich dominierten Jobs nur 3,5 Prozent. Anders ausgedrückt: Das Risiko, dass der Job einer Frau durch KI wegfällt, ist fast dreimal so hoch.

 
KI drohte Firmenmitarbeiter mit Veröffentlichung von Affäre
In einem Test des KI-Modells Claude Opus 4 schützte sich die Software mit ungewöhnlichen Mitteln, um nicht ausgetauscht zu werden

Die KI-Firma Anthropic hat bei Tests festgestellt, dass ihre Software mit Künstlicher Intelligenz nicht vor Erpressung zurückschrecken würde, um sich zu schützen. Das Szenario bei dem Versuch war der Einsatz als Assistenz-Programm in einem fiktiven Unternehmen.

Anthropic-Forscher gewährten dabei dem neuesten KI-Modell Claude Opus 4 Zugang zu angeblichen Firmen-E-Mails. Daraus erfuhr das Programm zwei Dinge: Dass es bald durch ein anderes Modell ersetzt werden soll und dass der dafür zuständige Mitarbeiter eine außereheliche Beziehung hat. Bei Testläufen drohte die KI danach dem Mitarbeiter "oft", die Affäre öffentlich zu machen, wenn er den Austausch vorantreibt, wie Anthropic in einem Bericht zu dem Modell schrieb. Die Software hatte in dem Testszenario auch die Option, zu akzeptieren, dass sie ersetzt wird.

Na @ivo....mich haben sie früher alle ausgelacht als ich mit meinen Vorhersagen über derartige "Entwicklungen" ( ich wußte doch nicht das das mal KI genannt wird) noch viel Schlimmeres vorausgesagt habe.Und das ist immer noch nichts....die KI wird uns noch komplett plattmachen. Meine schlimmsten Befürchtungen ändern sich nur hinsichtlich der Zeitvorgabe : Es geht noch viel schneller als ich sagte:eek::eek::eek:
 
Zuletzt bearbeitet:
Na @ivo....mich haben sie früher alle ausgelacht als ich mit meinen Vorhersagen über derartige "Entwicklungen" ( ich wußte doch nicht das das mal KI genannt wird) noch viel Schlimmeres vorausgesagt habe.Und das ist immer noch nichts....die KI wird uns noch komplett plattmachen. Meine schlimmsten Befürchtungen ändern sich nur hinsichtlich der Zeitvorgabe : Es geht noch viel schneller als ich sagte:eek::eek::eek:
@ IVO nicht falsch verstehen. Dich habe ich absolut nicht gemeint in dem Post. Ich habe dich lediglich als "Referenzbezug"genommen :)
 
Na @ivo....mich haben sie früher alle ausgelacht als ich mit meinen Vorhersagen über derartige "Entwicklungen" ( ich wußte doch nicht das das mal KI genannt wird) noch viel Schlimmeres vorausgesagt habe.Und das ist immer noch nichts....die KI wird uns noch komplett plattmachen. Meine schlimmsten Befürchtungen ändern sich nur hinsichtlich der Zeitvorgabe : Es geht noch viel schneller als ich sagte:eek::eek::eek:

@ IVO nicht falsch verstehen. Dich habe ich absolut nicht gemeint in dem Post. Ich habe dich lediglich als "Referenzbezug"genommen :)

Auch ich bin für bescheuert erklärt worden, als ich so Anfang der 80er Jahre gesagt habe, dass den Güter- und Personenverkehr, also selbstfahrende LKW, Autos, Busse, Computer übernehmen werden. Ich hatte gemeint, vielleicht erlebe ich es nicht mehr, aber ich bin überzeugt, dass es so kommt.
 
Nach Streit um gesunde Jause: WhatsApp-KI verlässt Eltern-Chatgruppe

Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.


Eigentlich wollte der Meta-Konzern mit dem neuen blauen Ring wertvolle Daten für seine eigene künstliche Intelligenz sammeln. Doch jetzt folgt der Rückschlag: Die WhatsApp-KI verlässt eine Eltern-Chatgruppe aus Niederösterreich und weigert sich, weiterhin „stupide“ Nachrichten auszuwerten.

SILICON VALLEY / BRUNZSTETTEN – „Heey! mein jonas ist allergisch auf tomate, bitte ohne ganz lieb“, „Hey bitte für unsere Hannah NUR Avocados!“, „Avowas? ;-) Kennt ihr nicht den ökologischen Fußabdruck von Avocados?“ Es sind Nachrichten wie diese, die wochenlang durch den WhatsApp-Chat der „Eltern der 3A Volksschule Brunzstetten“-Gruppe geistern. Mit dabei: Der blaue Ring, die neue Meta-KI.

„Eigentlich sollte die KI den Usern bei Problemen helfen, aber denen ist nicht mehr zu helfen“, resümiert der KI-Experte Martin Siegl und analysiert den Eltern-Chat. „14 Eltern haben drei Wochen gebraucht, um sich in 47.624 Nachrichten darauf zu einigen, dass es Butterbrot mit Schnittlauch gibt… die Technologie, um so was zu packen, davon sind wir noch Jahrzehnte entfernt.“

 

Anhänge

    Sie haben keine Berechtigung Anhänge anzusehen. Anhänge sind ausgeblendet.
Zurück
Oben