Lorne Malvo
Biden 2020
In dem vielbeachteten Duell zwischen Mensch und Computer im Brettspiel Go hat die Google-Software AlphaGo auch die zweite Partie gewonnen und ist damit auf dem Weg zum Gesamtsieg. Der südkoreanische Spitzenspieler Lee Sedol gab am Donnerstag nach rund viereinhalb Stunden auf. Kommentatoren hatten bis zuletzt von einem engen Spiel gesprochen, der Computer eroberte aber etwas mehr Fläche auf dem Brett. [...]
AlphaGo wurde bei der britischen Firma DeepMind entwickelt, dieGoogle vor gut zwei Jahren kaufte, laut Medienberichten für 500 Millionen Dollar. Mitgründer Demis Hassabis schrieb bei Twitter, der zweite Sieg sei für ihn selbst schwer zu fassen. „AlphaGo hat in diesem Spiel einige wunderschöne kreative Züge gespielt.“ In die Software wurden zwar anfangs Millionen Züge der besten menschlichen Spieler einprogrammiert - sie lernt aber selbst dazu. Hassabis spricht oft davon, Computern das Denken beizubringen.
Go-Genie Lee Sedol verliert gegen AlphaGo
Das erstaunliche an diesen Algorithmen ist, dass niemand genau weiß, wie sie funktionieren, da sie sich eben selber etwas beigebracht haben. Auch die Algorithmen, die eure Google-Suche steuern, werden von niemandem genau verstanden. Es sind Algorithmen, die sich das Suchen selber beigebracht und eigenständig perfektioniert haben. Sie sind wie eine "black box". Daten kommen rein, andere Daten kommen raus, aber was genau mit ihnen passiert weiß niemand. Nur, dass sie außerordentlich leistungsstark sind und Jahrhunderte oder Jahrtausende menschliches Lernen in wenigen Jahren oder Monaten simulieren können.
Diese selbstlernenden Intelligenzen erobern mehr und mehr Bereiche menschlichen Lebens. Nun also auch das komplexeste Brettspiel, welches von Menschen gespielt wird (die Anzahl an möglichen Zügen in Go ist größer, als die Zahl der Atome im Universum).
Das wirft die Frage auf, wie lange es dauern wird, bis künstliche die menschliche Intelligenz in quasi allen Bereichen ersetzt haben wird, und was das für die Menschheit bedeutet.
Hierzu ein offener Brief von Elon Musk, Stephen Hawking und Dutzenden KI-Experten, in welchem vor den Folgen selbstlernender KI gewarnt wird:
FLI - Future of Life Institute | AI Open Letter
Diesen Brief könnt ihr auch unterschreiben.
Zusammengefasst ist der Inhalt des Briefes folgender: Künstliche Intelligenz kann dem Menschen bedeutende neue Technologien bringen (bspw. neue Medikamente), der Brief ruft aber auch die Forschung dazu auf, KI nicht nur leistungsfähiger zu machen, sondern über deren soziale Konsequenzen nachzudenken.
Elon Musk sieht in selbstlernenden Maschinen die momentan größte Gefahr für die Existenz der Menschheit. So könnte es seiner Meinung nach sein, dass eine KI irgendwann von alleine, oder weil es ein Mensch einprogrammiert hat, einen Überlebensinstinkt nachgeht, und sich dann gegen den Menschen richtet:
Why Elon Musk Is Nervous About Artificial Intelligence | Inc.com
Altman wrote a blog post in February about why people should fear artificial intelligence technology, followed by one about what to do about that fear. "Development of superhuman machine intelligence (SMI) is probably the greatest threat to the continued existence of humanity," he wrote. "At some point, someone will probably try to give a program the fitness function of 'survive and reproduce'.... Unfortunately for us, one thing I learned when I was a student in the Stanford AI lab is that programs often achieve their fitness function in unpredicted ways."
Weniger apokalyptische Szenarien sind die hohe Arbeitslosigkeit, sowie deren soziale Folgen. Andere Fragen beschäftigen sich mit KI, die in der Lage ist zu töten (sollten KI-Tötungsmaschinen bspw. im Krieg erlaubt sein?), deren ethische Programmierung (wie wiegt eine KI bspw. menschliches Leid mit ökonomischen Schaden auf?), oder mit Fragen bezüglich technischer Kontrollierbarkeit (Wie kann man verhindern, dass bspw. Terroristen KI nutzen?)
Einen vollen Fragenkatalog findet ihr hier:
http://futureoflife.org/data/documents/research_priorities.pdf
In diesem Thread soll es also in erster Linie um Künstliche Intelligenz, selbstlernende Maschinen, etc. gehen, und zweitrangig um "AlphaGo" und Google's DeepMind.
AlphaGo wurde bei der britischen Firma DeepMind entwickelt, dieGoogle vor gut zwei Jahren kaufte, laut Medienberichten für 500 Millionen Dollar. Mitgründer Demis Hassabis schrieb bei Twitter, der zweite Sieg sei für ihn selbst schwer zu fassen. „AlphaGo hat in diesem Spiel einige wunderschöne kreative Züge gespielt.“ In die Software wurden zwar anfangs Millionen Züge der besten menschlichen Spieler einprogrammiert - sie lernt aber selbst dazu. Hassabis spricht oft davon, Computern das Denken beizubringen.
Go-Genie Lee Sedol verliert gegen AlphaGo
Das erstaunliche an diesen Algorithmen ist, dass niemand genau weiß, wie sie funktionieren, da sie sich eben selber etwas beigebracht haben. Auch die Algorithmen, die eure Google-Suche steuern, werden von niemandem genau verstanden. Es sind Algorithmen, die sich das Suchen selber beigebracht und eigenständig perfektioniert haben. Sie sind wie eine "black box". Daten kommen rein, andere Daten kommen raus, aber was genau mit ihnen passiert weiß niemand. Nur, dass sie außerordentlich leistungsstark sind und Jahrhunderte oder Jahrtausende menschliches Lernen in wenigen Jahren oder Monaten simulieren können.
Diese selbstlernenden Intelligenzen erobern mehr und mehr Bereiche menschlichen Lebens. Nun also auch das komplexeste Brettspiel, welches von Menschen gespielt wird (die Anzahl an möglichen Zügen in Go ist größer, als die Zahl der Atome im Universum).
Das wirft die Frage auf, wie lange es dauern wird, bis künstliche die menschliche Intelligenz in quasi allen Bereichen ersetzt haben wird, und was das für die Menschheit bedeutet.
Hierzu ein offener Brief von Elon Musk, Stephen Hawking und Dutzenden KI-Experten, in welchem vor den Folgen selbstlernender KI gewarnt wird:
FLI - Future of Life Institute | AI Open Letter
Diesen Brief könnt ihr auch unterschreiben.
Zusammengefasst ist der Inhalt des Briefes folgender: Künstliche Intelligenz kann dem Menschen bedeutende neue Technologien bringen (bspw. neue Medikamente), der Brief ruft aber auch die Forschung dazu auf, KI nicht nur leistungsfähiger zu machen, sondern über deren soziale Konsequenzen nachzudenken.
Elon Musk sieht in selbstlernenden Maschinen die momentan größte Gefahr für die Existenz der Menschheit. So könnte es seiner Meinung nach sein, dass eine KI irgendwann von alleine, oder weil es ein Mensch einprogrammiert hat, einen Überlebensinstinkt nachgeht, und sich dann gegen den Menschen richtet:
Why Elon Musk Is Nervous About Artificial Intelligence | Inc.com
Altman wrote a blog post in February about why people should fear artificial intelligence technology, followed by one about what to do about that fear. "Development of superhuman machine intelligence (SMI) is probably the greatest threat to the continued existence of humanity," he wrote. "At some point, someone will probably try to give a program the fitness function of 'survive and reproduce'.... Unfortunately for us, one thing I learned when I was a student in the Stanford AI lab is that programs often achieve their fitness function in unpredicted ways."
Weniger apokalyptische Szenarien sind die hohe Arbeitslosigkeit, sowie deren soziale Folgen. Andere Fragen beschäftigen sich mit KI, die in der Lage ist zu töten (sollten KI-Tötungsmaschinen bspw. im Krieg erlaubt sein?), deren ethische Programmierung (wie wiegt eine KI bspw. menschliches Leid mit ökonomischen Schaden auf?), oder mit Fragen bezüglich technischer Kontrollierbarkeit (Wie kann man verhindern, dass bspw. Terroristen KI nutzen?)
Einen vollen Fragenkatalog findet ihr hier:
http://futureoflife.org/data/documents/research_priorities.pdf
In diesem Thread soll es also in erster Linie um Künstliche Intelligenz, selbstlernende Maschinen, etc. gehen, und zweitrangig um "AlphaGo" und Google's DeepMind.