Aktuelles
  • Herzlich Willkommen im Balkanforum
    Sind Sie neu hier? Dann werden Sie Mitglied in unserer Community.
    Bitte hier registrieren

Selbstlernende Maschinen: Software "AlphaGo" besiegt Go-Genie Lee Sedol

Lorne Malvo

Biden 2020
In dem vielbeachteten Duell zwischen Mensch und Computer im Brettspiel Go hat die Google-Software AlphaGo auch die zweite Partie gewonnen und ist damit auf dem Weg zum Gesamtsieg. Der südkoreanische Spitzenspieler Lee Sedol gab am Donnerstag nach rund viereinhalb Stunden auf. Kommentatoren hatten bis zuletzt von einem engen Spiel gesprochen, der Computer eroberte aber etwas mehr Fläche auf dem Brett. [...]

AlphaGo wurde bei der britischen Firma DeepMind entwickelt, dieGoogle vor gut zwei Jahren kaufte, laut Medienberichten für 500 Millionen Dollar. Mitgründer Demis Hassabis schrieb bei Twitter, der zweite Sieg sei für ihn selbst schwer zu fassen. „AlphaGo hat in diesem Spiel einige wunderschöne kreative Züge gespielt.“ In die Software wurden zwar anfangs Millionen Züge der besten menschlichen Spieler einprogrammiert - sie lernt aber selbst dazu. Hassabis spricht oft davon, Computern das Denken beizubringen.

Go-Genie Lee Sedol verliert gegen AlphaGo

Das erstaunliche an diesen Algorithmen ist, dass niemand genau weiß, wie sie funktionieren, da sie sich eben selber etwas beigebracht haben. Auch die Algorithmen, die eure Google-Suche steuern, werden von niemandem genau verstanden. Es sind Algorithmen, die sich das Suchen selber beigebracht und eigenständig perfektioniert haben. Sie sind wie eine "black box". Daten kommen rein, andere Daten kommen raus, aber was genau mit ihnen passiert weiß niemand. Nur, dass sie außerordentlich leistungsstark sind und Jahrhunderte oder Jahrtausende menschliches Lernen in wenigen Jahren oder Monaten simulieren können.

Diese selbstlernenden Intelligenzen erobern mehr und mehr Bereiche menschlichen Lebens. Nun also auch das komplexeste Brettspiel, welches von Menschen gespielt wird (die Anzahl an möglichen Zügen in Go ist größer, als die Zahl der Atome im Universum).

Das wirft die Frage auf, wie lange es dauern wird, bis künstliche die menschliche Intelligenz in quasi allen Bereichen ersetzt haben wird, und was das für die Menschheit bedeutet.

Hierzu ein offener Brief von Elon Musk, Stephen Hawking und Dutzenden KI-Experten, in welchem vor den Folgen selbstlernender KI gewarnt wird:

FLI - Future of Life Institute | AI Open Letter

Diesen Brief könnt ihr auch unterschreiben.

Zusammengefasst ist der Inhalt des Briefes folgender: Künstliche Intelligenz kann dem Menschen bedeutende neue Technologien bringen (bspw. neue Medikamente), der Brief ruft aber auch die Forschung dazu auf, KI nicht nur leistungsfähiger zu machen, sondern über deren soziale Konsequenzen nachzudenken.

Elon Musk sieht in selbstlernenden Maschinen die momentan größte Gefahr für die Existenz der Menschheit. So könnte es seiner Meinung nach sein, dass eine KI irgendwann von alleine, oder weil es ein Mensch einprogrammiert hat, einen Überlebensinstinkt nachgeht, und sich dann gegen den Menschen richtet:

Why Elon Musk Is Nervous About Artificial Intelligence | Inc.com

Altman wrote a blog post in February about why people should fear artificial intelligence technology, followed by one about what to do about that fear. "Development of superhuman machine intelligence (SMI) is probably the greatest threat to the continued existence of humanity," he wrote. "At some point, someone will probably try to give a program the fitness function of 'survive and reproduce'.... Unfortunately for us, one thing I learned when I was a student in the Stanford AI lab is that programs often achieve their fitness function in unpredicted ways."

Weniger apokalyptische Szenarien sind die hohe Arbeitslosigkeit, sowie deren soziale Folgen. Andere Fragen beschäftigen sich mit KI, die in der Lage ist zu töten (sollten KI-Tötungsmaschinen bspw. im Krieg erlaubt sein?), deren ethische Programmierung (wie wiegt eine KI bspw. menschliches Leid mit ökonomischen Schaden auf?), oder mit Fragen bezüglich technischer Kontrollierbarkeit (Wie kann man verhindern, dass bspw. Terroristen KI nutzen?)

Einen vollen Fragenkatalog findet ihr hier:

http://futureoflife.org/data/documents/research_priorities.pdf

In diesem Thread soll es also in erster Linie um Künstliche Intelligenz, selbstlernende Maschinen, etc. gehen, und zweitrangig um "AlphaGo" und Google's DeepMind.
 
Das erstaunliche an diesen Algorithmen ist, dass niemand genau weiß, wie sie funktionieren, da sie sich eben selber etwas beigebracht haben. Auch die Algorithmen, die eure Google-Suche steuern, werden von niemandem genau verstanden. Es sind Algorithmen, die sich das Suchen selber beigebracht und eigenständig perfektioniert haben. Sie sind wie eine "black box". Daten kommen rein, andere Daten kommen raus, aber was genau mit ihnen passiert weiß niemand. Nur, dass sie außerordentlich leistungsstark sind und Jahrhunderte oder Jahrtausende menschliches Lernen in wenigen Jahren oder Monaten simulieren können.
Diese Algorithmen würde perfekt ins BF passen, einige vlt. sogar als Mods und Admins, die die alten Namen bei Userumbenennung dokumentieren würden
 
richtig geile sache aber auch etwas gruselig
aber ich denke die vorteile überwiegen
jetz einfach aufzuhören mit der entwicklung wäre dumm
man stelle sich vor als die menschen das feuer endeckten haben sie es einfahch nicht genutzt weil sie angst hatten oder es gibt 1000 andere beispiele
 
richtig geile sache aber auch etwas gruselig
aber ich denke die vorteile überwiegen
jetz einfach aufzuhören mit der entwicklung wäre dumm
man stelle sich vor als die menschen das feuer endeckten haben sie es einfahch nicht genutzt weil sie angst hatten oder es gibt 1000 andere beispiele

Feuer ist ein Werkzeug für den Menschen, künstliche Intelligenz kann das auch sein, es kann aber auch den gesamten Menschen ersetzen.
 
Feuer ist ein Werkzeug für den Menschen, künstliche Intelligenz kann das auch sein, es kann aber auch den gesamten Menschen ersetzen.
in der arbeitswelt werden wir menschen aufjedenfall in zukunft immer mehr ersetzt werden aber ich seh das nicht negativ sondern positiv

die einzigste gefahr ist halt das die robtoter irgendwann gegen die menschen kämpfen
 
in der arbeitswelt werden wir menschen aufjedenfall in zukunft immer mehr ersetzt werden aber ich seh das nicht negativ sondern positiv

die einzigste gefahr ist halt das die robtoter irgendwann gegen die menschen kämpfen

Das auch, aber nicht nur. Es geht auch darum, dass durch die KI sämtliche gesellschaftliche Macht in die Hände sehr weniger fallen könnte, die alles kontrollieren und die von niemandem mehr abhängig sind. Arbeitskraft ist ein Machtfaktor. Sie ist genau genommen sogar der einzige echte Machtfaktor, den viele Menschen haben. Arbeit gegen Geld ist die Basis unseres Wirtschaftssystems. Wenn es KI gibt, verlieren die Menschen diesen Machtfaktor. Alle Menschen werden dann voll und ganz von den wenigen Personen, die die KI und alle Produktionsmittel kontrollieren, abhängig sein. Im Sinne der marxistischen Theorie des Kapitalismus wäre das eine Welt, in der es nur noch Kapital gibt, Arbeit als Produktionsfaktor existiert nicht mehr. Das würde totale Kontrolle und Macht der Kapitalisten bedeuten. Die Menschheit könnte dann nur auf die Empathie der wenigen Menschen hoffen, die die KI kontrollieren, denn es gäbe real keinen Weg mehr sich Rechte und Privilegien zu erkämpfen. Streiken geht sowieso nicht mehr, da es gar keine Arbeitsplätze mehr gibt. Auch Krieg gegen die KI-Besitzer wird wohl kaum möglich sein, da die KI vermutlich kriegerisch weit überlegen sein wird. Also auch ohne Terminator birgt KI riesige Gefahren für die Menschheit. Deswegen hat Musk übrigens auch OpenAI mitbegründet. Diese Organisation will verhindern, dass die KI nur in die Hände Weniger fällt.
 
Ihr braucht keine Angst zu haben, dass die Menschen eines Tages alle arbeitslos sein werden, weil Maschinen sie verdrängen werden, die Unternehmen müssen ja schließlich ihre Produkte verkaufen können, wenn es keine Menschen mit Einkommen gibt wird auch niemand ihre Ware kaufen können.
 
Also ich bin seit den 80ern in der IT, seitdem gab es diverse Trends, unter anderem KI und "Neuronale Netze". Wirklich getan hat sich meiner Meinung nach aber längst nicht so viel wie vorhergesagt wurde, die Sprachcomputer am Telefon erkennen oft immer noch nicht zuverlässig ob man "vier" oder "fünf" gesagt hat, wie sollen sie dann "intelligent" sein? Ich weiß nicht genau woran es liegt, ob an der Hardware, der Programmierung, an unserem Unvermögen festzustellen wie ein intelligentes etwas wie das Gehirn arbeitet oder alles zusammen. Vielleicht gehts einfach nicht.

Dieser Go-Computer ist natürlich nicht wirklich intelligent, da können die noch so wichtig schreiben, er kann nix außer weltklasse Go spielen, man kann ihm auch nicht mal eben was anderes beibringen ohne die Programmierung massiv zu ändern. Auch die ganzen japanischen Roboter auf youtube sind nicht wirklich intelligent.

Was u.a. Arbeitsplätze seit Jahrzehnten vernichtet ist die Automatisierung, nicht KI.
 
Ihr braucht keine Angst zu haben, dass die Menschen eines Tages alle arbeitslos sein werden, weil Maschinen sie verdrängen werden, die Unternehmen müssen ja schließlich ihre Produkte verkaufen können, wenn es keine Menschen mit Einkommen gibt wird auch niemand ihre Ware kaufen können.

Du hast dann aber keinerlei Möglichkeit mehr selber zu kontrollieren wie viel Einkommen du bekommst sondern bist voll und ganz darauf angewiesen, wie viel dir die KI bzw. wer auch immer sie kontrolliert dir zugesteht.
 
Zurück
Oben