Ein Name ist untrennbar mit dem Begriff künstliche Intelligenz verbunden – »Deep Blue«. 1996 sorgte der Supercomputer für Furore, als er den damaligen Schachweltmeister Gari Kasparow unter Turnierbedingungen in der sechsten Partie vom Brett fegte.
Obwohl »Deep Blue« in einer einzigen Sekunde rund 500 Millionen Züge durchrechnete und die Eröffnungen aller wichtigen Partien der letzten hundert Jahre kannte, war er eines nicht: intelligent. Ihm fehlte jede Fähigkeit, aus vorhergehenden Fehlern zu lernen – das übernahmen die Programmierer für ihn, die seine Software zwischen den Partien so programmierten, dass der PC nicht zweimal in dieselbe Falle tappte.
Auch wenn moderne Computer »Deep Blue« mit ihrem Rechentempo mittlerweile locker übertrumpfen, scheitern sie immer noch an demselben Problem. Computerspieler sprechen deshalb spöttisch von künstlicher Dummheit, wenn ihr hochgezüchteter PC zwar bombastische Grafiken auf den Monitor zaubert, aber trotzdem mit denselben Tricks besiegt werden kann.
Um Computer endlich einmal »zur Vernunft« zu bringen, bedienen sich moderne Programme deshalb der Heuristik. Damit bezeichnen Wissenschaftler die Fähigkeit, Probleme durch das Erkennen neuer Zusammenhänge zu lösen. So wie Kleinkinder mit der Zeit beginnen, aus ihren Irrtümern zu lernen, sollen eines Tages auch Computer ihre Niederlagen systematisch analysieren und in Siege verwandeln.
Wenn dies gelingen sollte – kombiniert mit ausgereiften intelligenten Programmen – wäre die Lernfähigkeit von Computern theoretisch unbegrenzt. Ab diesem Zeitpunkt wären heutige Sci-Fi Ängste – von sich erhebenden Maschinen – realisitisch, nicht aber notwendig.
Ich denke schon, dass die Computer mal richtig schlau werden können.
Es gibt ja schon Chips, die in Roboter eingebaut sind, die das menschliche Gehirn nachstellen und sogar selbstständig lernen.
Um so schlaue die Computer werden, um so fauler wird der Mensch und eines Tages sind die Computer bzw. die Maschinen an der Macht und kontrollieren die Menschen.
@ lumannn super Beitrag, kann dir nur recht geben!
Das Menschen moralisch entscheiden können, weiß man,.. in der Regel tun sie dies auch, es sei denn sie sind in der Wirtschaft, so wird ein egoistischer Entschluss gefasst.
Menschen über eine Maschine wachen zu lassen, die direkt/indirekt zb wie in deinem Beispiel die weltweite Nahrungsmittelproduktion kontrolliert, halte ich ebenfalls für riskant wenn nicht gar fahrlässig.
Der Mensch in seiner heutigen Form wäre eine ebenso lausige und unzuverlässige Aufsichtsperson über so viel Macht und Verantwortung. (leider)
Ich denke die Frage WIESO die Maschine zu solch einem (für uns moralisch nicht vertretbarem) Schluss kommen würde, ist des Rätsels Lösung.
So würde eine Maschine anhand der empirischen Daten entscheiden was die beste Vorgehensweise wäre. Egoistisch wie der Mensch ist, muss man hier auch anmerken „was das beste Vorgehen für uns Menschen wäre“. Paradox ist nur, dass exakt aus diesem Grund die Maschine nicht unmoralisch sondern richtig handeln würde.
Wir sehen es heute schon, der Mensch hat vor ein paar Wochen bereits den Break-even-Point überschritten und mehr an Rohstoffen aus der Natur genommen, als sie jährlich wieder produzieren kann. Wir leben jetzt also schon auf Kredit. Da mit einem immer schnelleren Bevölkerungswachstum in den nächsten Jahren/Jahrzehnten zu rechnen ist, würde der Verbrauch drastisch steigen.
Die Maschine würde sich also anhand der Daten ausrechnen, dass bei weiterem Wachstum der Bevölkerung, sich die Menschen über kurz oder lang selbst ausrotten würden. Es gibt für die Maschine nur zwei Möglichkeiten aber langfristig nur einen logischen Schluss. A) Die Menschen müssen sich auf einen neuen Planeten ausdehnen, B) die Bevölkerung darf nicht weiter in diesem Tempo wachsen. Da auf der neuen Welt allerdings das gleiche Spiel wieder von neuem beginnen würde, würde sich die Maschine für Antwort B mit Option auf A entscheiden.
Zusammengefasst kann man also sagen, eine intelligente Maschine würde nicht unmoralisch, sie würde nur logisch agieren. Da sie die Fehler der Menschen sieht und sie zu lösen versucht.
@notsure Vollkommen richtig. Eine relativ einfache Implementierung einer „moralischen Regel“ wäre z.B.: Wenn das System versucht weniger Nahrung als zuvor zu produzieren (Produktion geht zurück – ob da noch ein gewisser Torleranzwert eingearbeitet wird, ist Implementierungsdetail), muss das zuerst von einem (oder mehreren) Mensch(en) autorisiert werden.
Schlussfolgerung von dieser Regel: Das Computersystem kann autonom nur mehr produzieren, nie aber weniger.
Das ist natürlich eine relativ einfache Lösung und evt. nicht die komfortabelste für den Menschen, aber es kann eine gewisse Sicherheit gewährleistet werden.
Zitat:
„Das Menschen moralisch entscheiden können, weiß man,.. in der Regel tun sie dies auch, es sei denn sie sind in der Wirtschaft, so wird ein egoistischer Entschluss gefasst.“
Der Faktor Mensch kann aber auch ein „moralisch sicheres“ System, recht schnell ruinieren. Die allseits typische Frage schießt mir in den Kopf: Wer überwacht den Überwacher?
Ich finds immer noch sehr interessant, wie schnell man bei Computern in andere Themen abschweift ^^