"Auch Maschinen brauchen moralische Regeln"
Der Mainzer Philosoph Thomas Metzinger (57) warnt vor den Folgen einer ungezügelten Entwicklung und Erforschung der Künstlichen Intelligenz. Dies berichtet das Hamburger Wirtschaftsmagazin BILANZ. Gefahren sieht Metzinger vor allem beim Einsatz der Künstlichen Intelligenz in den Bereichen Militär und Finanztransaktionen, etwa an der Börse. Die Menschen sollten hier "keine weitere Autonomie an Maschinen abgeben, weil der mögliche Schaden die Allgemeinheit betrifft". Denkende Maschinen könnten zu der Überzeugung gelangen, "dass die Menschen irreparable Störkräfte sind, die man in Reservaten friedlich aussterben lässt".
05.01.2016
Rechner, die menschliche Wahrnehmung und menschliches Handeln nachbildeten, bieten Metzinger zufolge jedoch auch Chancen: "Wenn wir in den nächsten 20 bis 50 Jahren erkennen, dass wir die Kontrolle über globale Krisen wie Migration oder Klimawandel verloren haben, dann könnte es auch eine Künstliche Intelligenz geben, die mit unendlich vielen Fakten gefüttert wird und gute Vorschläge" zur Bewältigung der Probleme mache.
Um dieses Ziel zu erreichen, müssten die Wissenschaftler Maschinen jedoch verantwortungsvoll programmieren: "Zum einen müssen wir Menschen klären, was wir selbst mit Maschinen tun wollen - sei es beim Drohnenkrieg, bei autonomen Kampfrobotern, bei Pflegerobotern. Aber auch die Maschinen selbst brauchen moralische Regeln." Doch die Entscheidung darüber, welche ethischen Maßstäbe angelegt würden, sei insofern problematisch, als weltweit unterschiedliche Wertsysteme existierten. "Stellen Sie sich Google-Autos in Saudi-Arabien vor: Es könnte sein, dass das System Ungläubige beim Autounfall eher sterben lässt als Gläubige", sagte Metzinger der BILANZ.