Schöne neue Welt: „Maschinen werden nicht die Weltherrschaft übernehmen“ – oder?

Künstliche Intelligenz, die Autos und Verkehrsströme lenkt oder Einkäufe erledigt, aber auch hilfebedürftige Menschen zu Hause pflegt und Krankheiten diagnostiziert – dieser Welt nähern wir uns in zunehmender Geschwindigkeit, das ist  einigermaßen unstrittig.
“Freien Blick auf die Auswirkungen der Technik auf den Menschen” versprach nun das “Frankfurter Zukunfts-Symposium” – „Schöne neue Welt?“ am 29. Oktober 2016 an der Goethe-Universität. Veranstalter waren Uni, Giordano-Bruno-Stiftung und der Ethikverband der deutschen Wirtschaft.

zukunftssymposium-goethe-uni

Michael Schmidt-Salomon bei der Eröffnung im Hörsaalzentrum der Uni Frankfurt, Westend

Die Frankfurter Veranstaltung wollte Antworten finden auf Fragen wie etwa jene, ob die Technik den Menschen perfektioniert oder ihn ersetzbar macht. Weiter: “Kann uns traditionelle Ethik bei der Bewältigung zukünftiger Herausforderungen behilflich sein oder benötigen wir eine neue?”
Dass viele Menschen durch hochintelligente Maschinen eher Unheil erwarten als “Erlösung” oder zumindest eine Erleichterung und Verbesserung ihres Lebens oder ihrer Lebensumstände, ist ein Umstand, der  sicherlich auch abhängig von der Kultur auftritt – sprich in Deutschland eher häufiger als in den USA, wenn man dabei Menschen mit ähnlichen soziodemografischen Merkmalen vergleicht.
Matthias Horx, dessen Zukunftsinstitut den Hauptsitz in Frankfurt am Main hat, stieg in seinen Vortrag unter anderem mit dem Hinweis auf Ray Kurzweil ein, der Technologie als Erlösung betrachte, die die “Singularität” quasi herbeisehnt. Ray Kurzweil selbst hatte ich vor knapp einem Jahr auf der Bühne erlebt beim “Nobel Week Dialogue” in Göteborg.

„Maschinen werden nicht die Weltherrschaft übernehmen“, urteilte Stuart Russell, Professor an der kalifornischen Universität Berkeley, bei der Podiumsdiskussion in Göteborg im Dezember 2015 im Plenum zum Thema „Should we fear or welcome the Singularity?“ (Sollten wir uns vor der Singularität fürchten oder sie begrüßen?).
Singularität meint den Moment, in dem sich Maschinen in ihren geistigen Fähigkeiten selbst so verbessern können, dass technischer Fortschritt in neue, unvorhersehbare Dimensionen vordringt. Dass künstliche Intelligenz dabei außer Kontrolle gerät und sich gegen ihre Erfinder richtet, hält Russell jedoch für eine fantastische Idee. „Künstliche Intelligenz könnte auch die Menschheit retten“, hält er dem entgegen. Dazu müsse sie aber menschliche Werte und moralische Normen verstehen.

Niemand wolle ja, dass der Hausroboter die Katze kocht, weil der Kühlschrank leer ist, aber schnell ein Essen auf den Tisch muss. Dass der Roboter das Haustier als wertvolles Familienmitglied einstuft und nicht als Quelle von billigem Fleisch, ist ein anschauliches Beispiel für ethische Entscheidungen und Dilemma-Situationen, das viel Heiterkeit im Plenum auslöst. „Es geht für Computer darum zu verstehen, was für Menschen richtig und falsch bedeutet.“

Wer künstliche Intelligenz als mögliches Sicherheitsrisiko betrachtet, müsse sich auch fragen, ob menschliches Versagen – etwa mit Blick auf den Absturz der Germanwings-Maschine über den französischen Alpen 2015 – nicht das größere Risiko sei.

Doch für Ray Kurzweil, Erfinder und Leiter der Entwicklung bei Google, ist es natürlich entscheidend, die Sicherheit von künstlicher Intelligenz zu gewährleisten. Kurzweil sagt in seinem Vortrag, er habe 50 Jahre über das Denken nachgedacht und berichtet über Erkenntnisse aus der Neocortex-Forschung und „Reverse Engineering“- Projekten, die versuchen, die Funktionsweise des menschlichen Gehirns anhand von Simulationen zu verstehen. Daran arbeitet Kurzweil auch in einer Forschungsgruppe bei Google.
„Wir haben kein perfektes Wissen, aber wie haben sehr viel nützliches Wissen über die Vorgänge im Gehirn.“ Letzten Endes werden Menschen in Zukunft künstliche Intelligenz jederzeit in der Cloud anzapfen können, um das eigene Denkvermögen zu erhöhen, meint Kurzweil. „Wir werden eine Mischform werden aus biologischem und nichtbiologischem Denken“, so lautete Ray Kurzweils Prognose in Göteborg.

Horx vertritt (und verkauft) ein “Technolution-Modell”, das er als sozioevolutionäres Technologie-Prognose-System bezeichnet.
Horx relativiert die von manchen erwartete Ablösung des Menschen durch Maschinen, beispielsweise des Autofahrers durch selbstfahrende Vehikel, als er sagt, dass die Sinnlichkeit des Menschen allgemein unterschätzt werde. Daraus leitet Horx Gründe ab, warum das selbstfahrende Auto auch scheitern oder sich seine Einführung zumidnest erhelblich verzögern könnte. Die Soziotechnik des Autofahrens beschreibt Horx als Kombination aus verschiedenen Motiven, darunter Streben nach Kontrolle und Kontrollerleben, Macht- und Statusdemonstration, Autonomie/Freiheit, aber auch Cocooning, also das Streben danach, im eigenen Auto einen Rückzugsort zu finden. Am Ende meint Matthias Horx trotzdem: “Die Autoindustrie könnte sich durch das selbstfahrende Auto selbst disruptieren.” Fazit: Horx glaubt, das selbstfahrende Auto werde kommen (und sich durchsetzen), aber es werde noch unheimlich lange dauern bis zu seiner allgemeinen Verbreitung . . .

About Frank Wewoda

Journalist
This entry was posted in Zukunftsmusik. Bookmark the permalink.