Künstliche Intelligenz: Wenn der Mensch synthetische Götter erschafft

kuenstlicheIntelligenz heise 160Bislang sind künstliche Intelligenz und apokalyptische Zukunftsszenarien nahezu untrennbar miteinander verknüpft, der Pop-Kultur sei Dank. Dabei weiß bis dato noch niemand, ob nun Maschinen wie in „Terminator“ durch die Zeit reisen und dem Menschen den Garaus machen, oder ihn als Energielieferanten heranzüchten, wie es in der „Matrix“ der Fall ist. Tatsächlich ist es sogar so, dass selbst die Entwickler nicht einmal wissen, wie die Zukunft der künstlichen Intelligenzen aussieht, an denen sie gerade arbeiten, was an und für sich das eigentlich Erschreckende ist. Jeder, der sich nun misstrauisch zu den digitalen Helfern wie Siri, Alexa und Cortana umdreht kann aber aufatmen, denn zum aktuellen Zeitpunkt ist die am weitesten fortgeschrittene KI „geistig“ ungefähr so leistungsfähig wie ein Kleinkind – mit einer „erwachsenen“ Intelligenz rechnen die optimistischsten Wissenschaftler in frühestens 15 bis 20 Jahren...

KI Künstliche Intelligenz - Fluch oder Segen?

Wenn man nun die bereits heute möglichen Leistungen einer KI betrachtet, können wir dann einer zukünftig sehr wahrscheinlichen Superintelligenz noch Herr werden? Und müssen wir das überhaupt? Ist eine generalisierte künstliche Intelligenz (AGI) tatsächlich der „heilige Gral“ der Automatisierung, oder schaufelt sich die Menschheit ihr digitales Grab?

Künstliche Intelligenzen haben im Fernsehen schon immer für Faszination gesorgt - Beispielsweise Knight Riders K.I.T.T. In der Realität sind IBMs Deep Blue & Watson, SIRI, Alexa und Cortana wohl die bekanntesten Vertreter dieser Gattung. Die Grundidee, menschliches Denken zu automatisieren, ist allerdings schon deutlich älter als jedes der aufgeführten Programme. Bereits im 18. Jahrhundert veröffentlichte Julien Offray de la Mettrie sein Werk „L’Homme Machine“, oder zu Deutsch: Der Mensch als Maschine.

Der eigentliche Durchbruch kam rund 200 Jahre später, als 1956 in Hanover, New Hampshire, eine sechswöchige Konferenz stattfand. In deren Rahmen fiel erstmals tatsächlich der Begriff „Künstliche Intelligenz“. Kurze Zeit später im selben Jahr, sorgte Arthur L. Samuels Software, ein Dame-Programm, für Aufsehen. Es war lernfähig und konnte somit aus bisherigen Partien Rückschlüsse ziehen, wodurch es sich stetig verbesserte, bis es seine ersten Kontrahenten schlug.

Ins öffentliche Interesse rückte die KI allerdings eher durch die Pop-Kultur und Filme wie beispielsweise „Terminator“ oder „Matrix“, in denen die Maschinen die Macht an sich reißen und die Menschheit bekämpfen. Aber auch durch kuriose Versuche in Gameshows wie „Jeopardy“, wo es IBMs Watson gelang, den 76-maligen Gewinner Ken Jennings haushoch zu schlagen.

 

Heute gehören digitale Helfer bereits zum Alltag

Menschen sprechen mit ihren Smartphones, lassen sich von Google, Siri und Cortana die Wettervorhersage geben, bestellen über Alexa ein Buch auf Amazon, oder lassen sich von ihren Fahrassistenz-Systemen komfortabel über die Straßen chauffieren.
Soziale Medien schlagen Freunde aufgrund gleicher Hintergrundinformationen, beispielsweise der gleichen Grundschule, vor. Suchmaschinen analysieren die Anfrage des Nutzers und passen ihre Vorschläge immer genauer an und Computerprogramme besiegen Menschen in komplizierten Spielen wie Schach oder Go – die artifizielle Intelligenz ist vollends im Heute angekommen und zur Normalität geworden.

Allerdings gehört zu diesem Alltag auch dazu, dass sich die Verbraucher immer häufiger mit diesen Produkten und Programmen auseinandersetzen. So wird etwa ganz gerne gewitzelt, dass man in den 80ern ungern telefonierte, da man möglicherweise vom Staat abgehört werden könnte – heute spricht man offen mit der „Wanze“ und lässt sie eine Pizza bestellen. Natürlich kann man Vorsicht auch auf die Spitze treiben, aber Dank einer breiten Auswahl an Informationsplattformen und dem Interesse der User, ist schon frühzeitig ein Bewusstsein dafür vorhanden, was die allzeit präsenten Helferlein leisten können. Das wiederum führt dazu, dass Gegner der KI-Produkte von Google, Amazon und Co. ihre Privatsphäre wahren wollen und sich offen gegen die digitalen Zuhörer aussprechen.

Auf der anderen Seite gibt es Befürworter, die gerne ihr komplettes Haus automatisieren wollen, um noch mehr Komfort zu verspüren.

Beide Ansichten sind nachvollziehbar. Und doch können jetzt vor allem die Kritiker erst einmal beruhigt aufatmen, denn apokalyptische Szenarien wie in den eingangs erwähnten Kino-Blockbustern sind eher unwahrscheinlich. Dennoch sollte die Entwicklung von artifizieller Intelligenz kritisch betrachtet werden, denn die Wissenschaft gibt zu, dass mit einer generalisierten künstlichen Intelligenz (artificial general intelligence / AGI) etwas erschaffen wird, das in den kommenden Jahren alles bisher Dagewesene bei weitem übertreffen wird.

 

Künstliche Intelligenz: Eine moderne Sage

Schon seit jeher erzählen sich Völker Legenden über listige Geister, launische Götter sowie die Veranlagung des Menschen, immer mehr zu wollen, dabei aber für Warnungen unempfänglich zu sein. Nehmen wir als Beispiel Ikarus. Dieser wurde mit seinem Vater Dädalus im Labyrinth von Kreta gefangen gehalten. Mit Hilfe von Federn, Wachs und einem Gestänge baute Dädalus Flügel, um die Flucht aus dem Verlies zu ermöglichen. Vor dem Flug warnte er Ikarus, weder zu hoch, noch zu tief zu fliegen, da sonst die Sonne das Wachs der Flügel schmelzen, oder die Feuchtigkeit des Meeres in den Federn zum Absturz führen würde. Nach einem reibungslosen Anfang wurde Ikarus übermütig und flog so hoch, dass das Wachs zu schmelzen begann und er abstürzte.

Eine andere Legende handelt von König Midas, der sich wünschte, dass alles, was er berührte, zu Gold würde. Der Gott Dionysos erfüllte ihm diesen Wunsch, nahm die Worte des Midas jedoch sehr genau. Nachdem der König mehrere Gegenstände zu seiner Freude in pures Gold verwandelte, berührte er seine Tochter, die in seinen Armen zur Statue wurde. Später fürchtete Midas, er würde verhungern oder verdursten müssen, denn auch das Essen war ihm nicht mehr möglich.

 

Wo liegen die Gemeinsamkeiten dieser beiden Mythen und einer KI?

Im Falle des Ikarus kann man die Warnungen vor Übermut von Experten und Kritikern mit denen des Dädalus vergleichen. Die Wissenschaft ist auf dem besten Wege, ein superintelligentes „Wesen“ zu erschaffen, bei dem sie allerdings noch nicht einmal weiß, wie sie ihm später Einhalt gebieten soll.

Oder eben der Vergleich zur Sage von Midas, der eine klare Anweisung gegeben hat, die von Dionysos wortwörtlich umgesetzt wurde. Jeder App Entwickler, der schon einmal einen komplizierten Code geschrieben hat, weiß, wie wichtig es ist, alle Eventualitäten schon im Voraus abzuwägen.

 

Künstliche Intelligenz - Droht der Menschheit der SuperGAU?

Das Erschaffen einer Superintelligenz, die möglicherweise außer Kontrolle gerät, ist also tatsächlich ein Thema, wenn auch nicht so überspitzt dargestellt wie in der Pop-Kultur. Auch wenn das Groteske daran ist, dass ein Großteil der Menschheit ein solches Szenario interessanterweise auf irgendeine Art und Weise „cool“ fände. Ein deutlich detaillierteres Bild von dem, was auf uns zukommen könnte, zeichnet der Neurowissenschaftler und Philosoph Sam Harris. In einem TED-Talk referierte der US-Amerikaner über die Frage, ob wir überhaupt imstande sind, eine generalisierte Intelligenz erschaffen können, ohne die Kontrolle zu verlieren. Er und einige Experten sind sich sicher: Nein. Zumindest nicht zum aktuellen Stand.

Wir werden an einen Punkt gelangen, an dem wir Maschinen bauen, die intelligenter sind als wir. Und wenn wir erst einmal solche Maschinen haben, werden sie beginnen, sich selbst weiterzuentwickeln. Das ist, was der Mathematiker IJ Good als eine „Intelligenzexplosion“ bezeichnet.“, heißt es in Harris‘ TED-Talk.

 

Diese digitale Evolution birgt ein gewisses Risiko. Harris spricht von einem Vergleich mit Ameisen. „Wir wollen sie nicht verletzen oder gar töten. Im Gegenteil: Manchmal nehmen wir Unannehmlichkeiten in Kauf, um sie möglichst in Frieden zu lassen, machen sogar unnatürlich große Schritte, um kein Tier versehentlich platt zu treten. Es sei denn, ihre Anwesenheit stört uns bei der Umsetzung unserer Ziele, etwa beim Hausbau. Dann rotten wir ein ganzes Volk aus, ohne mit der Wimper zu zucken. Meine Sorge ist, dass wir eines Tages Maschinen haben werden, die sich – bewusst oder unbewusst – genau so entscheiden könnten, wenn ein Mensch der konsequenten Ausübung ihrer Tätigkeit im Weg steht.

 

Für die Science-Fiction bietet solch eine Entwicklung genügend Stoff für Filme, Romane und dergleichen. Das ist auch der Grund, warum die Menschheit eine postapokalyptische Zukunft irgendwie besser aufnehmen würde, als eine, die deutlich wahrscheinlicher ist: Entwickeln sich KIs regelmäßig weiter und bilden im Rahmen einer generalisierten Intelligenz sogar so etwas wie ein Gewissen, oder ein Bewusstsein aus, könnte der Mensch sehenden Auges in eine noch nie dagewesene Ära der Arbeitslosigkeit und der Armut laufen.

Warum? Nun, es ist naheliegend zu behaupten, dass eine solche Superintelligenz früher oder später das Interesse der Mächtigen und Reichen weckt und die Verlockung ist groß, sie zu Verteidigungszwecken zu benutzen. Dass sie dem Wohl der Allgemeinheit verfügbar sein soll, um Hunger und Armut zu bekämpfen ist zwar das höhere Ziel, aber eher unwahrscheinlich. Ergo würde die Schere zwischen Arm und Reich nicht nur noch weiter auseinanderklaffen, sondern aus Armut könnte im schlimmsten Fall eine Hungersnot werden.

 

Künstliche Intelligenz: Mensch? Maschine? Menschmaschine?

So düster diese Zukunftsvision sein mag, so wahrscheinlich ist sie auch. Wenn auch erst in den nächsten 30 oder 40 Jahren, aber Entwickler sind sich einig, dass es so kommen wird, wenn sie es nicht schaffen, die künstliche Intelligenz schon jetzt so sicher zu machen, dass sie sich ihrem Willen beugen wird. Mehr noch werden früher oder später moralische Fragen hinzukommen. Beispielsweise, ab wann man eine KI als menschlich, oder menschenähnlich anerkennen muss. Aber auch wo eine klare Grenze gezogen wird. Denn spätestens dann, wenn die generalisierte Intelligenz ein Bewusstsein ausbildet, das per Speichermedium in einen Körper transferiert werden kann, muss sich die Ethik dem Thema annehmen.

Bereits jetzt werden viele Parallelen zum Menschen gezogen, doch es muss noch einiges passieren, bis eine KI als „menschlich“ bezeichnet werden kann. Damit man die künstliche und die menschliche Intelligenz jedoch vergleichen kann, müssen diese in mehrere Bereiche aufgespalten werden: Die kognitive Intelligenz, die sensomotorische Intelligenz, die emotionale und die soziale Intelligenz.

In einigen dieser Sparten ist der Computer dem Menschen bereits überlegen, wie zum Beispiel der kognitiven Intelligenz, die unter anderem für das Aufnehmen, Lernen und Umsetzen von Wissen zuständig ist.

 

In der Sensomotorik ist der Mensch im „Gesamtpaket“ noch überlegen. Splittet man jedoch die einzelnen Sensoren auf, übernehmen auch hier die Maschinen die Führung. Beispielsweise in der Akustik, wo sensible Mikrofone deutlich mehr Frequenzen wahrnehmen können als der Mensch. Ähnlich ist es bei der Optik: Das menschliche Auge ist zwar sehr gut ausgebildet, dennoch sind viele Kameras in der Lage, im Infrarot- oder UV-Bereich Bilder aufzuzeichnen. Allerdings hat der Mensch den Vorteil, alle Sinneseindrücke kombinieren und daraus Schlüsse ziehen zu können.

Auf der emotionalen Ebene ist der Mensch der Maschine bislang weit überlegen. Die Fähigkeit, sich in andere hineinzuversetzen und Sympathie, Empathie, Zorn oder Liebe zu verspüren, sind Vorgänge, die hormonell gesteuert werden und daher bislang noch nicht auf künstliche Weise herbeigeführt werden können. Und doch schaffen es heute bereits einige Programme, die Gesichtszüge von Menschen zu erkennen und die Gefühlslagen, entsprechend der Programmierung der Algorithmen, einzuordnen.

 

Und schließlich die soziale Ebene: hier leisten künstliche Intelligenzen bislang (noch?) nichts. Besonders ausgeprägt ist diese Art der Intelligenz bei Politikern oder Führungspersonen. Die soziale Intelligenz erlaubt es beispielsweise in Kommunikationssituationen positive Konsequenzen herbeizuführen, während negative auf ein Minimum reduziert werden. Umgangssprachlich werden sie auch als „Soft Skills“ bezeichnet.

 

Welchen Intelligenzquotient (IQ) hat künstliche Intelligenz (KI)?

Betrachtet man die Entwicklung der letzten Jahre, schreitet der IQ von KI rasant voran. 2014 erreichte man gerade mal einen IQ von 27. Im Sommer 2017 waren es bereits 47 Punkte bei einem KI-IQ-Test. Somit ist die am weitesten fortgeschrittene KI bereits auf dem geistigen Stand eines Kleinkindes in der ersten Klasse. Im Gegensatz dazu liegt der Durchschnitt eines Erwachsenen bei rund 100. Bis ein Computer diesen Stand erreicht hat, vergehen laut Experten aber noch ca. 20 bis 30 Jahre. Ab dann wird die Entwicklung aber in atemberaubenden Tempo voranschreiten.

 

Nach der von Good beschriebenen „Intelligenzexplosion“ wird eine solche Supermaschine die letzte Erfindung der Menschheit sein. Alles Weitere wird von der KI übernommen, die fortan ungefähr eine Million Mal schneller „denkt“, beziehungsweise leistungsfähiger ist, als der Entwicklertrupp, der sie geschaffen hat. Das wiederum bedeutet, dass sie innerhalb einer Woche die geistige Arbeit verrichtet, für die ein Mensch 20.000 Jahre bräuchte. Und das jede Woche. Die Entwicklung, die wir miterleben würden, wäre aus jetziger Sicht unvorstellbar.

 

Künstliche Intelligenz: Computer? Energie!

Ebenfalls unvorstellbar vom aktuellen Standpunkt aus, sind die Möglichkeiten, die sich mit einer generalisierten Intelligenz eröffnen. Dr. Hiroshi Yamakawa ist ein führender KI-Entwickler in Japan und fest davon überzeugt, dass eine AGI tatsächlich den heiligen Gral für die menschliche Zukunft darstellen dürfte.

In seinen Augen kann eine Superintelligenz nicht nur die Aufgaben eines Menschen erledigen, sondern künftig sogar wie ein Mensch. Das heißt auch, dass der Entwickler entlastet werden soll, indem die KI Probleme behebt, an die man während der Entwicklungsphase noch gar nicht gedacht hat.

Yamakawa orientiert sich bei seiner Forschung am menschlichen Hirn, um der KI den gleichen Sinn für Werte und ein humanes Verhalten zu programmieren, damit sie die Gedankengänge des Menschen nachvollziehen und verstehen kann. Das soll die Kommunikation zwischen Mensch und Maschine in Zukunft vereinfachen, auch wenn diese bereits hochentwickelt ist. Einige funktionale Bereiche des Hirns wurden bereits erfolgreich in einem künstlichen neuronalen Netzwerk implementiert. Das erleichtert es, eine Roadmap zu erstellen, an deren Ende dann die – hoffentlich – perfekte künstliche Intelligenz steht.

Die Dienste, die diese für die Menschheit leisten wird, hat Yamakawa bereits klar vor Augen. In einem Interview mit dem Future Of Life Institute sagt er: „Der größte Vorteil, den eine AGI bietet, liegt im Fortschritt für Wissenschaft und Technologie. Sind diese Felder erst einmal ausgereift, wird sie Lösungen für globale Konflikte, wie beispielsweise Umwelt- und Nahrungsmittelprobleme, sowie die Weltraumbesiedlung bieten.“ Seine Vision geht noch weiter: „In Zukunft wird die Gesellschaft aus Menschen sowie öffentlichen KIs zusammengesetzt werden, was ich als ein Ökosystem gemeinsamer intelligenter Mittel (ecosystem of shared intelligent agents / EcSIA bezeichne.“

 

Das klingt zwar gut, aber einen gewissen Wermutstropfen bietet auch Yamakawas Ansatz: Wie genau dieses EcSIA aussehen soll, könne man nicht wirklich verstehen, da das Konzept zu „komplex und weitläufig“ sei. Dennoch solle der Wohlstand, der mit der Umsetzung eines solchen Ökosystems entstehe, gleichmäßig auf alle aufgeteilt werden, so dass Armut und Hunger effektiv bekämpft werden können. Im Gegensatz zu anderen Experten auf dem Gebiet, rechnet Yamakawa damit, dass bereits ab 2030 die Forschung an einer KI abgeschlossen sein wird, die in der Lage ist, sich selbst weiterzuentwickeln.

Zwar ist die Bevölkerung in Japan deutlich offener für Automatisierung und eine menschliche Darstellung von künstlichen Intelligenzen und Robotern (beispielsweise die Mangas über „Astro Boy“ oder „Doraemon“), dennoch ist man sich bewusst, dass eine falsch programmmierte KI verheerende Auswirkungen haben kann. Dabei reicht das Spektrum von Cyberkriminalität bis hin zum bewaffneten Konflikt, um der AGI habhaft zu werden. Im Interview rät Yamakawa daher, dass „wir besser schnell Fortschritte machen. Wenn möglich sollten wir außerdem mehrere Methoden parat haben, um ein existenzielles Risiko einer AGI berechnen zu können.

 

Künstliche Intelligenz: 01000110 01100001 01111010 01101001 01110100

Wenn wir noch einmal einen Blickauf die Pop-Kultur werfen, wird das Zusammenleben zwischen Mensch und Maschine, egal ob körperlich oder nur als „Stimme“, immer beliebter. Auch die Menge von Serien und Filmen, die diese Thematik behandeln nimmt stetig zu. Selbst die moralische Frage, ob Menschen noch Menschen sind, wenn das Bewusstsein, ähnlich einer Datei, auf ein Speichermedium übertragen werden kann, um den Körper zu wechseln („Altered Carbon“) wird behandelt. Eine ähnliche Thematik ist es, ab wann eine künstliche Intelligenz als menschlich betrachtet werden sollte („Der 200 Jahre Mann“, „I, Robot“).

 

KI - Einige Lösungsansätze für die Zukunft

Eine AGI kann die Menschheit in der Tat in eine Zukunft führen, wie wir sie uns nicht zu träumen wagen (ironischerweise in jeglicher Hinsicht), wenn sie:

  1. bereits im Vorfeld gegen alle möglichen eintreffenden Eventualitäten abgesichert wird

  2. stets das Ziel verfolgt, das Wohl der Menschen als oberstes Gebot anzusehen

Dabei könnten diverse Varianten hilfreich sein. Beispielsweise hat der Buchautor Isaac Asimov bereits in den 1940er Jahren die drei Regeln der Robotik aufgestellt, die sich auch auf eine KI übertragen ließen:

  1. Ein Roboter darf keinen Menschen verletzen oder durch Untätigkeit zu Schaden kommen lassen.

  2. Ein Roboter muss den Befehlen eines Menschen gehorchen, es sei denn, solche Befehle stehen im Widerspruch zum ersten Gesetz.

  3. Ein Roboter muss seine eigene Existenz schützen, solange dieser Schutz nicht dem Ersten oder Zweiten Gesetz widerspricht.

Bei solchen Gesetzen ist es allerdings wichtig, eine Superintelligenz so menschlich wie möglich zu gestalten, damit sie „versteht“, was Richtig und was Falsch ist. Außerdem muss auch hier auf eine möglichst genaue Formulierung geachtet werden, wenn man nicht enden möchte, wie König Midas. Solange ein solches Verständnis nicht vorliegt, wird es auch schwierig sein, einer generalisierten Intelligenz immer einen Schritt voraus zu sein. Was passieren könnte, wenn die KI den Menschen für ein störendes Hindernis hält, ähnlich einem Ameisenhügel beim Picknick, wurde bereits umfassend beschrieben.

 

Das Herzstück, der Programm-Code, muss gegen alle Zugriffe von außen gesichert werden. Hier liegt eine besondere Herausforderung, denn zum jetzigen Zeitpunkt schaffen es Hacker sogar noch manuell in hochentwickelte Systeme einzudringen und mit selbstgeschriebenen Algorithmen Breschen in die digitalen Verteidigungsanlagen von Unternehmen zu schlagen. Wozu eine per Cyberattacke abgeänderte AGI imstande wäre, ist aus heutiger Sicht noch nicht wirklich greifbar.

Denkbar wäre es, den Code durch eine zusätzliche, weniger weit entwickelte KI zu sichern. Ein solches Zwei-Stufen-System wird bereits heute bei autonom fahrenden Fahrzeugen eingesetzt: A ist „dumm“ und kann lediglich melden, dass ein Notfall eintreten wird. In diesem Fall greift B als „intelligenter“ Part ein und kümmert sich um alles Weitere. So könnte B als Wächter eingesetzt werden, während A lediglich die Aufgabe besitzt, den Code zu sichern.

 

Was also die beiden Zukunftsszenarien von Dr. Hiroshi Yamakawa und Sam Harris so greifbar und doch so unspektakulär macht, ist die Tatsache, dass sie realistisch sind. Keine zeitreisenden Killerroboter, keine Menschen züchtenden Maschinen. Sondern: Fakten über Risiken und Chancen, die mit einer generalisierten – oder vielleicht besser gesagt – einer menschenähnlichen Intelligenz möglich sind. Für welche der beiden Varianten wir uns entscheiden, liegt einzig in den Händen der Entwickler und deren Absichten.





Twittern