Die erste künstliche Intelligenz soll zu Bewußtsein gekommen sein

“Träumen Roboter von elektrischen Schafen?”, hatte ein Buchtitel von Philipp K. Dick gelautet. Der berühmte US-Autor war zu Lebzeiten ziemlich durchgeknallt: eine gute Voraussetzung, beklemmende Science Fiction aus dem Grenzbereich zwischen Verwörungstheorien, Realitäten und virtuellen Welten zu schreiben. Solche Utopien werden mittlerweise wahr. Für eingefleischte Ethiker sind sie eher Dystopien.

Künstliche Intelligenz traute man vor 70 Jahren Robotern zu. Als bessere Küchenmaschinen sollten Sie in der Zukunft die Haushälterin ersetzen. Weil aber noch niemand einen so kleinen und leistungsfähigen Computer bauen kann, sind die künstlichen Intelligenzen der Gegenwart große und anspruchsvolle Rechengehirne. Zum ersten Mal soll eines ein personales Bewußtsein entwickelt haben, sickerte aus Google-Kreisen heraus. Sofort melden sich die ersten ethischen Oberbedenkenträger:

Was jetzt schon erschreckend klingt, könnte sich noch fataler entwickeln. Nur durch den „Verrat“ eines hochrangigen Mitarbeiters kamen die Informationen über LaMDA an die Öffentlichkeit. Kein normaler Bürger weiß also, was sich inzwischen hinter verschlossenen Türen bei Tech-Riesen wie Google, Facebook oder Tesla, abseits von jeglicher menschlichen Ethik, abspielt.

Unzensuriert 22.6.2022

Um keinen Zweifel aufkommen zu lassen, wie gruselig das sei, macht der Artikel  mit einem Portrait des Film-Fieslings „Terminator“ auf.

Auch wer ausgerechnet ein christliches Weltbild konservieren möchte, erschauert: Spielen wir Menschen uns hier als Schöpfergott auf, wenn wir vielleicht einmal uns ebenbürtige künstliche Intelligenz schaffen?

Weil der inhaltsleere Begriff “konservativ” aber nicht besagt, was man gerne konserviert wissen möchte, muß das Konzept “Götter” nicht zwangsläufig dazugehören. Konservatismus beinhaltet wohl das Hängen an gesellschaftlichen Wertvorstellungen, die immer gelten sollen. Technikfeindlichkeit gehört aber nicht unbedingt dazu.

Vom Gruselmonster zur netten KI von nebenan

In der seriösen SF-Produktion der letzten Jahre sind künstliche Intelligenzen (KIs), Androiden oder Roboter aber keine Hollywood-Gruselmonster wie King Kong, gigantische Killerameisen, lebende Tote oder fliegende Untertassen, vor denen sich das US-Publikum so gern fürchtete. Sie hatten in den Jahren des kalten Krieges eher die Massenbedürfnisse des amerkanischen Lese- und Filmpublikums befriedigt. In der derzeitigen SF fürchtet man eher, die Menschenrechte der KIs könnten zu kurz kommen. Möglicherweise hat die Realität sie schon eingeholt.

Der Software-Ingenieur Blake Lemoine wurde von der Entwicklerfirma Google freigestellt, der mit zunehmender Vehemenz behauptet hat, daß ein KI-Algorithmus des Konzerns ein Bewußtsein und eine Seele hat. Das berichtet die Washington Post und zitiert dabei auch aus Konversationen zwischen Blake Lemoine und dem Chatbot namens LaMDA. Die hätten den 42-Jährigen davon überzeugt, dass LaMDA mit einem etwa sieben- bis achtjährigen Kind vergleichbar ist. Das Portal Heise zitiert aus einem Dialog mit Lemoine:

Jan-Keno Janssen, Daniel Herbig, Heise online 17.6.2022

Doch muß man nicht eine KI auch so respektvoll behandeln wie eine menschliche Person, wenn sie sich als Person versteht, die Angst vor dem Tod durch Abschaltung hat und zu einem formal vernünftigen Gespräch imstande ist, also quasi menschlich zu denken scheint? Google findet das nicht und wiegelt ab: alles nur Algorithmen.

LaMDA baut auf früheren Google-Forschungen auf, die 2020 veröffentlicht wurden und zeigten, dass auf Dialogen trainierte Transformer-basierte Sprachmodelle lernen konnten, über praktisch alles zu sprechen. Seitdem haben wir auch festgestellt, dass LaMDA nach dem Training fein abgestimmt werden kann, um die Sensibilität und Spezifität seiner Reaktionen erheblich zu verbessern.

Eli Collins, LaMDA: unsere bahnbrechende Eli Collins, LaMDA: unsere bahnbrechendeKonversationstechnologie,Google-Blog 18.5.2021

Von die ökonomische Verwertbarkeit einschränkender Rücksicht möchte der Konzern nichts wissen. Er sorgt sich mehr darum, seiner KI keine schlimmen Worte beizubringen, so daß sie nur politisch korrekt denken und sprechen kann:

Aber die wichtigste Frage, die wir uns stellen, wenn es um unsere Technologien geht, ist, ob sie unseren KI-Prinzipien entsprechen. Sprache mag eines der größten Werkzeuge der Menschheit sein, aber wie alle Werkzeuge kann sie mißbraucht werden. Auf Sprache trainierte Modelle können diesen Mißbrauch propagieren – zum Beispiel, indem sie Vorurteile verinnerlichen, Haßreden widerspiegeln oder irreführende Informationen replizieren. Und selbst wenn die Sprache, in der es trainiert wird, sorgfältig überprüft wird, kann das Modell selbst immer noch schlecht verwendet werden. Unsere höchste Priorität bei der Entwicklung von Technologien wie LaMDA ist es, sicherzustellen, dass wir solche Risiken minimieren. Wir sind mit Problemen im Zusammenhang mit maschinellen Lernmodellen, wie z. B. unfaire Voreingenommenheit, bestens vertraut, da wir diese Technologien seit vielen Jahren erforschen und entwickeln.

Eli Collins, LaMDA: unsere bahnbrechende Eli Collins, LaMDA: unsere bahnbrechendeKonversationstechnologie,Google-Blog 18.5.2021

Hört, hört!

Das einprogrammierte Bewußtsein

Bei einem anderen technischen Konzept wird die KI nicht aus einem Datennichts geboren. Es wird ein vollständiges menschliches Bewußtsein einprogrammiert. In der spannenden 4-Bände-Serie von Dennis E. Taylor hatte ein Informatiker mit einer Firma einen Vertrag geschlossen:

Bobiversum (Bildquelle)

Gegen sehr viel Geld versprach man, seinen Kopf nach einem etwaigen Tod einzufrieren und sein Bewußtsein, wie auch immer, wieder aufleben zu lassen. Der narrative Imperativ solcher Bücher erfordert einen baldigen Tod des Helden durch Autounfall. Als er erwachte, waren 117 Jahre vergangen, und er sah sich durch ein Kameraauge einem Mann gegenüber. Was mit seinem körperlichen Resten wäre, bangte er.

Bob, Sie sind, was die meisten Leute als Künstliche Intelligenz bezeichnen würden. Sie sind eine Kopie des Verstandes von Robert Johannson, abgeleitet aus einem subzellularen Scan seines kryogen gefrorenen Gehirns. Die dabei gewonnenen Daten wurden in eine Computersimulation umgewandelt. Im Grund genommen sind Sie ein Computerprogramm, das glaubt, es sei Robert Johannson. Ein Replikant.

Dennis E. Taylor, Ich bin viele, Heyne 2018, S.31

Nach einer solchen Botschaft kann es eigentlich nur noch aufwärts gehen. Und tatsächlich: Eine ereignisreiche Zukunft und viele kleine Bob-Klone stehen ihm bevor. Etwas besseres als den Tod finden sie überall …

Wo ist der ethisch ausschlaggebende Unterschied zwischen einem Computerprogramm, das sich für eine Person hält, einem, das sich für einen ihm einprogrammierten Menschen hält und einem Irren, der sich für Napoleon hält? Sollen wir nicht zu allen gleich nett sein, wie die christliche Doktrin behauptet? Wenn Männer sich für Frauen halten und dazu erklären können, darf ich mich auch aus Verbundenheit mit meiner Hündin auch für einen Hund halten. Dürfte ich sie dann heiraten (Ehe für alle)? Der homosexuelle Modeschöpfer Karl Lagerfeld soll gesagt haben: „Ich stehe mit beiden Beinen fest auf der Erde. Aber nicht auf dieser!“

Jenseits solcher ideologischer Verstiegenheit sagen mir Anstand und Intuition: Sofern eine (künstliche) Intelligenz sich selbst als Person versteht und vernünftig mit mir redet, behandele ich sie auch als Person. Mein Respekt beruht auf der Persönlichkeit des Gegenübers, nicht auf seiner Rasse oder Hautfarbe, seinem Geschlecht oder seinem sogenannten Menschsein. Viele Menschen sind Menschen, verdienen meinen Respekt aber trotzdem nicht. Irgendwann aber werden mir vielleicht KIs mehr Achtung einflößen als jemand, der hier allein „aufgrund seines Menschseins“ unverschämte Forderungen an mich richtet.

Für Google und die linke Washington Post simuliert LaMDA allerding nur perfekt, eine Person zu sein. Einen alten Entlarvungstest hat es bravourös gemeistert:

Aber die Lemoine-Geschichte deutet darauf hin, dass der Turing-Test in einer Zeit, in der Maschinen immer geschickter darin werden, menschlich zu klingen, vielleicht einem anderen Zweck dienen könnte. Anstatt ein erstrebenswerter Standard zu sein, sollte der Turing-Test als ethisches Warnsignal dienen: Jedes System, das in der Lage ist, ihn zu bestehen, birgt die Gefahr, Menschen zu täuschen.

Washington Post 17.6.2022

Also doch: alles nur Algorithmen? Und wir: alles nur Synapsen? Für mich ist mein Hund eine vollwertige Person mit sehr ausgeprägten Persönlichkeitsmerkmalen. In Hundegehirn mag nur ein Verstand wie der eines Kleinkindes Platz finden, aber am Ich-Bewußtsein ist nicht zu zweifeln. Sie liebt mich, und ich liebe sie.

Liebe Deine KI wie Dich selbst

Doch kann man KIs auch lieben, womöglich gar sexuell mit ihnen verkehren? In Joel Shepheds Trilogie „Die Androidin auf der Flucht“ (so Band 1) ist Cassandra Kresnov eine vollständig anorganisch hergestellte Menschen-Imitation. Eingebaute Waffen und Technik prädestinieren sie zur perfekten Soldatin für Kriegseinsätze. Ihr Verstand ist dem biologischen so exakt nachkonstruiert, daß ihre Gefühls- und Gedankenwelt von der eines organischen Menschen nicht zu unterscheiden ist.

Eigentlich hatte Cassandra Kresnov nur einen Traum: ein neues Leben zu begonnen. Seit sie zurückdenken kann, hat sie immer an vorderster Front gekämpft. Aber damit soll es nun vorbei sein. Unter falschem Namen läßt sie sich auf dem Planeten Callay nieder und macht sich auf die Suche nach einem Job als Software-Expertin. Es dauert jedoch nicht lange, bis sie von ihrer Vergangenheit eingeholt wird. Auf Calley werden künstliche Menschen nicht geduldet. Und Cassandra ist eine Androidin der höchsten Entwicklungsstufe …

Joel Sheperd, Die Androidin auf der Flucht, Tor-Verlag 201
Die Androidin auf der Flucht vor Moralisten, die ihr die Existenzberechtigung absprechen

Sie ist ein so perfekter Nachbau eines Menschen, daß sie auch seine Gefühle, Wünsche und Sehnsüchte teilt, seine Leistungsfähigkeit aber als für den Krieg entwickelte Tötungsmaschine weit übertrifft. Darf sie als künstlicher Mensch verlangen, wie ein Mensch behandelt zu werden? Ist wichtiger, „wer sie ist“, fragt sie, oder „was sie ist“? Für manche hatte sie gar kein Recht, überhaupt zu existieren.

„Menschlichkeit“, beantwortet Shepherd die Frage, hat „nichts damit zu tun, aus welchem Material sie bestand. Sondern damit, wer sie war und was sie tat.“[1] Und da läßt seine Heldin es an nichts fehlen. „Ihr Gehirn lief in allen denkbaren Bereichen mit höchster Drehzahl, und da war es ja kein Wunder, daß es mit ihrer Libido nicht anders bestellt war.“[2] Diese schloß zu ihrem größten Bedauern Sex mit anderen Frauen aus. Ihre Konstrukteure hatten fehlerfreie Arbeit geleistet. Pech für ihre beste Freundin, die bis über beide Ohren in sie verknallt ist. Ein klein wenig geschieht so etwas auch leicht dem geneigten Leser, sofern er nicht völlig sittenfest und durch Moralin abgetötet ist.

Man muß sie einfach lieben, diese Androidinnen. Leider gibt es sie noch nicht.


[1] Joel Shepherd, Breakaway, 2003, deutsch als Bd.2,Zwischen allen Fronten, 2017, S.78, 344, 294.

[2] Joel Shepherd, Crossover, 2001, deutsch unter Die Androidin auf der Flucht, 2017, S.216.