Mensch und Maschine Hand in Hand. Oder doch gegeneinander? Was wird die Zukunft bringen? Foto: Mauritius

Die Erforschung Künstlicher Intelligenz ist eines der spannendsten Kapitel in der Wissenschaft und eines der lukrativsten in der globalen Wirtschaft. Doch Experten warnen: So groß die Chancen dieser Entwicklung sind, so gefährlich sind auch die Risiken für die Zukunft der Menschheit.

Stuttgart - „Brave New World“ – Die schöne neue Welt der Zukunft. Der britische Schriftsteller Aldous Huxley (1994-1963) hat diese Zukunft in seinem 1932 erschienenen dystopischen Roman beschrieben. Die Gesellschaft der Zukunft, in der Stabilität, Frieden und Freiheit gewährleistet scheinen, ist in Wirklichkeit eine Diktatur, die auf physischer Konditionierung, mentaler Indoktrination und totalitärer Kontrolle beruht.

Die Elite – „Alpha-Plus (Führungspersönlichkeiten) – gebietet über die Masse – „Epsilon-Minus“ (Menschen für einfachste Tätigkeiten). Was Huxley damals noch nicht ahnte: Die „Alpha-Plus“ der Zukunft könnten intelligente Maschinen sein, die die Menschheit steuern, indoktrinieren und manipulieren.

Künstliche Intelligenz – Vision oder Albtraum?

Bill Gates. Foto: dpa
Roboter als Busfahrer, Lageristen, Zimmermädchen, Empfangsdame oder Krankenschwester. So könnte schon in einigen Jahren der Alltag in der realen schönen neuen Welt aussehen. Für Bill Gates, Gründer des Software-Konzerns Microsoft, wird „der Traum zur Realität“. Auf der derzeit in Dana Point (US-Bundesstaat Kalifornien) stattfindenden „Code Konferenz 2016“, wo sich die Visionäre und Macher der digitalen Welt wie Jeff Bezos (Amazon), Elon Musk (Tela), Devin Wenig (eBay) und Sean Rad (Tinder) treffen, prophezeit Gates der Menschheit eine wunderbare Zukunft. „Darauf haben wir hingearbeitet“, dass künstliche Intelligenz in zehn Jahren zu unserem Alltag gehört.

Weniger „Terminator“, mehr „Matrix“

Elon Musk. Foto: dpa
Was sich so verlockend anhört, könnte in den schlimmsten Albtraum der Menschheitsgeschichte münden. Der US-Unternehmer, Investor und Erfinder Elon Musk (Resla, PayPal, SpaceX) ist einer der schärfsten Kritiker des Künstlichen-Intelligenz-Glaubens. Auf der jährlich von der Technologie-Website Recode organisierten „Code Conference“ warnt er davor, dass die Menschheit eines Tages von einer übermächtigen „Artifical Intelligence“ (AI, englische Abkürzung für künstliche Intelligenz)unterjocht werden könnte.

Um dieses Schreckensszenario zu verhindern hat Musk im November 2015 die gemeinnützige Organisation „OpenAI“ gegründet. „Open AI“ soll die Menschheit vor sich selbst und ihren Erfindungen schützen. „Wenn künstliche Intelligenz so gleichmäßig verteilt ist, dass jeder seinen eigenen AI-Vertreter hat, und einer von ihnen etwas wirklich Schreckliches plant, dann könnte die Mehrheit diesen Plan gemeinsam vereiteln“, sagt er auf der „Code Conference“.

Er denke nicht an eine Art „Skynet“, der künstlichen Superintelligenz aus dem Film „Terminator“. Auch betrachte er dies nicht als die einzig mögliche Zukunft mit künstlicher Intelligenz, so Musk weiter. Lediglich wolle er die Wahrscheinlichkeit erhöhen, dass unsere Zukunft auch gut werde.

Superintelligenz der Zukunft

Intelligenz und Bewusstsein

„Artifical Intelligence“ ist eine Superintelligenz – dass heißt eine Form von Intelligenz, die der Mensch erschaffen hat und die dem besten menschlichen Hirn hinsichtlich kreativer und problemlösender Intelligenz meilenweit überlegen ist. Eine Simulation menschlicher Fähigkeiten bei Maschinen also.

Allerdings gehe es dabei nicht darum, dass Computer tatsächlich denken oder fühlen, erklärt Reinhard Karger, Leiter der Unternehmenskommunikation des Deutschen Forschungszentrums für Künstliche Intelligenz (DFKI) in Kaiserslautern. „Dafür ist ein Bewusstsein notwendig, das Computer nach allem, was wir heute wissen, nicht erlangen werden.“

Thomas Le Blanc. Foto: dpa
„Die Künstliche Intelligenz der Zukunft wird kein stählerner Roboter sein, sondern ein Programm, ein Konglomerat, die Cloud“, erklärt Thomas Le Blanc, Science-Fiction-Autor und Leiter der Phantastischen Bibliothek in Wetzlar. „Natürlich frage ich mich, wann werden wir fremdgesteuert.“

Außer Kontrolle

Diese Frage haben sich Elon Musk und andere auch schon oft gestellt. Im November 2015 warnte der Tesla-Chef mit anderen prominenten Technologie-Kritikern wie dem britischen Astrophysiker Stephen Hawking, Apple-Mitgründer Steve Wozniak und Sprachwissenschaftler Noam Chomsky in einem offenen Brief vor den Gefahren einer außer Kontrolle geratenen Künstlichen Intelligenz. „Künstliche Intelligenz ist an einem Punkt angelangt, an dem der Einsatz solcher Systeme innerhalb weniger Jahre, nicht Jahrzehnte, möglich sein wird“, schreiben die Forscher.

Ist der Geist bereits aus der Flasche?

Der schwedische Philosoph Nick Bostrom, der an der Oxford University lehrt, gehört wie Musk und Hawking zu den Unterzeichnern des Manifests des „Future of Life Institute“, das sich die Erforschung von Superintelligenz und ihrer ungefährlichen Nutzbarmachung zur Aufgabe gemacht hat. Bostrom ist einer prominentesten Wissenschaftskritiker auf den Gebieten der Bioethik und Technikfolgenabschätzung.

Auch er warnt davor, dass Künstliche Intelligenz zum existenziellen Risiko für die Menschheit werden könnte. In seinem 2014 erschienen Buch „Superintelligenz – Szenarien einer kommenden Revolution“ (Suhrkamp Verlag, Berlin, 480 Seiten) schildert er die düstere Zukunftsvision einer tief greifenden globalen Veränderung in Folge des technologisch-digitalen Fortschritts. Der Mensch müsse handeln, bevor der Geist aus der Flasche gelassen sei, warnt Bostrom eindringlich.

Künstliche Intelligenz und Ethik

Ethik für Roboter

Nicht alle teilen diese pessimistische Sicht der Zukunft. Thomas Le Blance betont, er halte es mit Isaac Asimov (1920–1992). „Der Roboter ist unser Freund. Warum soll eine Künstliche Intelligenz uns vernichten wollen? Ich glaube nicht, dass die Zukunft der Menschheit durch Computer bedroht ist. Es wird nicht irgendwann eine Maschine wie in ‚Terminator‘ auftauchen und die Menschheit von heute auf morgen ausrotten. Es könnte ein evolutionärer Prozess, in dem die menschliche Intelligenz auf Maschinen übergeht.“

Assimovs drei Gesetze der Robotik

Der russisch-amerikanische Biochemiker und Schriftsteller Isaac Asimov ist einer der bedeutendsten Visionäre in der Science-Fiction-Literatur. In seinem Buch „I, Robot“ („Ich, der Roboter“) von 1950, das dem gleichnamigen Science-Fiction-Film von Alex Proyas aus dem Jahr 2004 zugrunde liegt, formuliert er die nach ihm benannten Asimov’schen Robotergesetze.

Damit sich kein Roboter jemals gegen einen Menschen auflehnen kann, muss jedes Maschinenwesen die drei Gesetze der Robotik einhalten:

1. Ein Roboter darf keinem Menschen schaden oder durch Untätigkeit einen Schaden an Menschen zulassen.

2. Ein Roboter muss jeden von einem Menschen gegebenen Befehl ausführen, aber nur, wenn dabei das erste Gesetz nicht gebrochen wird.

3. Ein Roboter muss seine eigene Existenz bewahren, es sei denn, dies spricht gegen das erste oder zweite Gesetz.

„I, Robot“

„I, Robot“ – mit Will Smith in der Hauptrolle als Polizist Del Spooner – spielt im Chicago des Jahres 2035. Androide werden in vielen Bereichen als unentbehrliche Arbeiter und Helfer eingesetzt. Als kurz vor Einführung des neuen Robot-Typs NS-5 der Chefentwickler des Herstellers U. S. Robotics, Dr. Alfred Lanning, nach einem Sturz aus seinem Bürofenster tot aufgefunden wird, entspinnt sich ein Zukunftskrimi, der wie der Film „Blade Runner“ von 1982 (mit Harrison Ford in der Hauptrolle) zu den absoluten Highlights des Genres zählt.

Künstliche Intelligenz und das Ende der Welt

Chancen und Risiken

„Unser Ziel ist, digitale Intelligenz so voranzubringen, dass sie wahrscheinlich der Menschheit als Ganzer dient — unbeschränkt von einer Erfordernis, eine finanzielle Rendite zu erzielen“, heißt es in einem Blog-Beitrag auf der Website von „OpenAI“.

Sam Altman, Präsident des US-amerikanischen Gründerzentrums Y Combinator und zusammen mit Tesla-Motors-Chef Elon Musk Co-Vorsitzender von „OpenAI“ warnt: „Künstliche Intelligenz wird höchstwahrscheinlich zum Ende der Welt führen. Aber in der Zwischenzeit wird es großartige Unternehmen geben.“

Ob Künstliche Intelligenz tatsächlich zu einer Bedrohung für die Menschheit werden kann, sei heute schwer vorherzusagen, sagen andere Experten wie Andreas Dengel, Wissenschaftlicher Direktor am Deutschen Forschungszentrum für Künstliche Intelligenz. „Jedoch sind Risikodimensionen offensichtlich.“ Vermutlich werde sie selbst in ferner Zukunft einige Eigenschaften von Menschen niemals haben.

Das Leben als Videospiel

Irrtum, entgegnet Elon Musk auf der „Code Conference“ im sonnigen Kalifornien. Glaubt man dem 1971 im südafrikanischen Pretoria geborenen Unternehmer sind wir Menschen längst „Cyborgs“ – Figuren in einer Art Zivilisations-Videospiel. Musk: „Wir haben digitale Versionen von uns selbst, ein Teil unseres Selbst existiert online als E-Mails, Social-Media-Profil und alles was wir sonst so online machen.“

Und das sei nur der Anfang, unkt der US-Unternehmer. In Zukunft würde das menschliche Bewusstsein mit der digitalen Intelligenz symbiotisch verschmelzen. Die Menschen würden wie in der Science-Fiction-Filmtrilogie „Matrix“ (1999, 2003) zu Untertanen von Robotern degradiert. „In Sachen Intelligenz wären wir so weit unterlegen, so ähnliche wie Haustiere, so wie eine Hauskatze.“