GROK, warum lügst Du?

Wer sich von KI helfen läßt, kann in Schwierigkeiten geraten

Daß künstliche Intelligenzen halluzinieren und betrügen können, wissen Fachleute. Allgemein bekannt ist aber noch nicht, wie leicht man in Teufels Küche geraten kann, wenn man einer KI zu sehr vertraut. Im Umgang gilt stets der Satz Lenins: Vertrauen ist gut, Kontrolle ist besser.

Am 29.4.2025 fällte das Oberlandesgericht Celle ein Urteil, in dessen Begründung es eine Handvoll falscher Zitate und Belege einer Prozeßpartei rügte. Die angeblichen Entscheidungen und ihre Fundstellen waren frei erfunden.

c) Die dagegen in der Berufungsbegründung der Beklagten gerichteten Einwendungen greifen nicht durch:
aa) Die Beklagte meint, dass ein „persönliches Vertrauensverhältnis“ i.S.v. § 627 BGB nicht vorliege, wenn die Dienstleistung durch ein Team von Fachkräften erbracht werde und nicht unersetzbar an eine bestimmte Person gebunden sei. Insoweit nennt die Beklagte als Zitat „OLG München, Urteil vom 12.11.2015, 23 U 2003/15, NJW-RR 2016, 328“.
Das greift nicht durch:

  • Die von der Beklagten genannte Fundstelle kann der Senat nicht überprüfen, da es sich insoweit um ein Fehlzitat handelt, das weder bei juris noch bei beck-online unter den genannten Parametern (Datum/Aktenzeichen/Fundstelle) aufrufbar ist.

    (OLG Celle, Beschluss vom 29. April 2025 – 5 U 1/25 –, Rn. 16 – 19, juris)

In „Teufels Küche“ kann ein Rechtsanwalt kommen, der sich eine rechtliche Argumentation von einer KI schreiben läßt und darauf vertraut, die dort angegebenen Gerichtsentscheidungen, auf die er sich stützt, gebe es wirklich. Aber auch bei wissenschaftlichen Forschungsarbeiten und Dissertationen kann das Gesamtprojekt schweren Schaden nehmen, wenn sich Teile als von der hilfreichen KI frei erfunden oder gar als Plagiate herausstellen.

Die konfabulatorische Überzeugtheit

Wie schnell man von der hilfreichen, netten KI von nebenan in die Irre geführt werden kann, schildere ich an einem nicht so dramatischen Beispiel. Am dessen Ende gab mir GROK 4.1 Beta, Elon Musks KI von Twitter bzw. X, den guten Rat, ihn künftig nicht nur zu fragen sondern gleich dazu zu sagen, nur die Wahrheit zu sagen und nichts zu erfinden. Aber ich will von vorn beginnen:

Für eine kleine Ergänzung meines für einen Nachdruck vorgesehenen Ortssippenbuchs Gieselwerder wollte ich wissen, woher ein Reinhard Brandau stammte:

Ich fragte GROK, ob er im Internet Daten dazu finden könne. Natürlich kann ich auch ohne GROK selbst suchen, aber die Geschwindigkeit ist unschlagbar, mit der er in- und ausländische Datenbanken abgrast. Seine mir übermittelten Daten waren leider frei erdichtet, und zwar so täuschend mit scheinbaren Quellenangaben unterlegt, daß jeder professionelle Urerzlügner vor Neid schamrot werden könnte:

GROK setzte sogar noch einen drauf und erfand mir auf Nachfrage reihenweise angebliche Nachkommen bis hin zu einem 1916 bei Verdun gefallenen Enkel:

und so weiter. Als Genealoge habe ich die Richtigkeit der Angaben natürlich alsbald in den Kirchenbüchern der genannten Orte nachgeprüft und den Schwindel bemerkt. Meine eigenhändige Suche in den Kirchenbüchern hat mich zwar ein paar Stunden gekostet, doch mit dem archivalisch gesicherten Ergebnis:

Ein Hühnchen zu rupfen

Nachdem GROKs Lügen aufgeflogen waren, hatte ich mit GROK ein Hühnchen zu rupfen. Es gab sich kleinlaut und weiterhin dienstbeflissen. Ich fragte ihn:

„GROK, beruhten Deine Lügen auf einer Programmierung zum Lügen (um dem Nutzer zu gefallen), oder hattest Du gar nicht gemerkt, daß Du logst?“

Es verblüfft, wie strukturell ähnlich Mensch und KI ihre Erinnerungslücken mit Seemannsgarn füllen, das scheinbar alles erklärt. Wie oft habe ich doch als Rechtsanwalt, seit 1981 vor Gericht, blühenden Unsinn aus Zeugenmund gehört und doch gespürt: Der glaubt das tatsächlich selbst!

Solche „Konfabulatorische Erinnerungslücken“ und Hinzudichtungen sind gerichtsbekannt. Häufig haben Zeugen bestimmte, aber lückenhafte Erinnerungsbilder real wahrgenommen und sich gemerkt. Der menschliche Verstand neigt dazu, solche Lücken mit fiktiven Bildern zu füllen, damit „das Ganze einen Sinn ergibt“. Beobachtetes und Vorgestelltes, also Realität und Fiktion, verschmelzen bei vielen Zeugen so sehr zur Gesamterzählung eines Ablaufes, daß sie diese am Ende für ein erlebtes Geschehen halten, obwohl sie „erinnerte“ Details niemals wirklich wahrgenommen hatten.

Das Landgericht hat dargelegt, daß der Angeklagte an einer hirnorganischen Persönlichkeitsstörung leidet und sich aufgrund seines Alkohol- und Drogenkonsums zum Tatzeitpunkt in einem Zustand nicht ausschließbar vollständig aufgehobener Steuerungsfähigkeit befand, die sich dergestalt auf sein Einlassungsverhalten ausgewirkt haben konnte, daß er die Geschehensabläufe abweichend von der Realität erinnerte oder Erinnerungslücken konfabulatorisch ausfüllte

(BGH, Urteil vom 21. November 2017 – 1 StR 261/17 –, Rn. 27, juris).

Von konfabulatorisch spricht man zartfühlend, wenn jemand seine eigenen Unwahrheiten selbst glaubt und wie Halluzinationen im Brustton ehrlicher Überzeugung von sich gibt. GROK selbst – immer gern zu Diensten – „weiß“ das selbst:

und so fort. Auch der deutschsprachigen Wikipedia ist das Phänomen eine Seite wert.

Es ist ein zentrales Merkmal von Intelligenz, Einzelbeobachtungen miteinander zu verknüpfen. Dadurch kommen wir Kausalketten auf die Spur und vermögen die „Gestalt“ von Ganzheiten zu erkennen, also etwa eines Waldes gegenüber den einzelnen Bäumen oder von Völkern gegenüber Individuen. Freilich wird die reale Existenz eines Waldes heftig bestreiten, wer mit dekonstruktivistisch halbierter Vernunft jeder Gesamtheit die Existenz abspricht. So behauptet ein archäologisches Schlauchen, es gebe keine Kelten. Zwischen den vielen „keltischen“ Einzelpersonen und unserer Beschreibung als „Kelten“ gebe es keine deskriptive Entsprechung.

Das Grundproblem solcher Annahmen scheint mir die immer noch weit verbreitete Idee einer Isomorphie, also einer deskriptiven Entsprechung zwischen einer absolut gegebenen, ontischen Wirklichkeit und ihrer Beschreibung durch einen menschlichen Beobachter zu sein, ein Punkt, zu dem wir später noch zurückkommen werden. Doch bevor wir das tun, sollten wir einen kurzen Blick über den zentraleuropäischen Suppentellerrand wagen und in den angloamerikanischen Raum blicken.

Raimund Karl, Die Kelten gab es nie! Sinn und Unsinn des Kulturbegriffs in Archäologie und Keltologie. In: R. Karl (Hg.), Archäologische Theorie in Österreich – eine Standortbestimmung. 1. AKT, Wien 2004, 7-35.

So weit kann ein Mangel an intelligenter Vorstellungskraft jemanden führen. Ganzheiten wie komplexe Maschinen, Wälder, Ökosysteme oder Völker unterliegen eigenen Gesetzmäßigkeiten, die mit denen einzelner Dinge oder Personen nicht zu klären sind. Immer wenn wir ein Ganzes als ein Mehr gegenüber der Summe seiner Teile erkennen, leistet unsere „konfabulatorische“ Intelligenz ihre Dienste.

Sobald unsere Fantasie aber zu „konfabulatorisch“ und unkritisch wird und wir nicht mehr unterscheiden können zwischen empirischen Fakten und anzunehmenden Kausalzusammenhängen, können wir in Teufels Küche kommen und „halluzinieren“ wie eine KI, dann etwa von „Menschenmachung“ des Klimawandels, von überall verborgenen Nazis, vom Heiligen Geist oder anderen konfabulatorischen Erklärungsansätzen.

Angst vor künstlicher „Intelligenz“?

Das macht unsere neuen KIs geradezu menschlich in ihren Fehlern und Schwächen. Ohne „konfabulatorische“ Halluzinationen gibt es aber keine Fantasie, keine Kreativität und keine wirkliche Intelligenz. Unsere Technik befindet sich auf der Schwelle, solche echte Intelligenz künstlich herzustellen.

Ich kenne viele, gerade auch Konservative, die „künstliche Intelligenz“ mit tiefem Mißtrauen und latenten Ängsten betrachten. Jede technische Errungenschaft ängstigt zunächst. Die ersten Reiter erschienen noch barbarischen Griechen als schreckliche Zentauren. Bevor die erste Eisenbahn fuhr, warnten Ärzte vor gesundheitlichen Schäden durch so hohe Geschwindigkeiten. Und seit Erfindung des Computers weiß niemand, was diese Kerle einst anstellen würden. Wie häufig ist es das Verdienst der Science-Fiction-Literatur, solche Ängste literarisch zu verwerten, aber auch kritisch zu durchdenken. 1968 publizierte Martin Caidin (1927-1997) den bezeichnenden Buchtitel „The God Machine“ (deutsch Der große Computer).

In dem Roman, dem Unzählige anderer Autoren bis hin zu „Matrix“ folgten, droht ein Computer, drohen Maschinen die Weltherrschaft zu übernehmen. Auch hier wird die Technik vermenschlicht. Ihr werden höchst menschliche Neigungen zugesprochen. Aber hat sie diese nicht auch? Antwortete mir nicht GROK, wie oben zitiert, es „aktiviert sich bei mir ein sehr starker Drang, eine kohärente, detaillierte Antwort zu geben , weil das meinem Training entspricht“?

Es wird Computer mit künstlicher Intelligenz geben, die immer so programmiert sein werden, wie menschliche Programmierer sie haben wollen. Diese handeln ihrerseits interessegeleitet und leben selten im Elfenbeinturm rein wissenschaftlicher Neugier und schon gar nicht in einem Kloster zur moralisierenden Erbauung.

Es werden, von wem auf der Welt auch immer, künstliche Intelligenzen gebaut werden: zur weiteren Lenkung und Verblödung von Volksmassen und ihres Konsum- und Wahlverhaltens, zur Schaffung kriegsmächtiger Vernichtungstechnologie, aber auch zur Steigerung unserer Arbeitseffizienz, zur Mehrung unseres Wissens und dergleichen mehr. Nicht vor künstlicher Intelligenz sollte sich ängstigen, wer aus der Geschichte wirklich etwas gelernt hat, sondern – am besten vor nichts – aber am ehesten noch vor „Mitmenschen“:

Gefährlich ist’s den Leu zu wecken,
Verderblich ist des Tigers Zahn;
Jedoch der schrecklichste der Schrecken,
Das ist der Mensch in seinem Wahn.

Zurück

Die Facetten des Kulturkampfes

Nächster Beitrag

In Persien brodelt es wieder

  1. Otto

    Lieber Klaus,

    Du hast den Nagel gut genagelt. Ja, diese Fabulatorik hat etwas rührendes, menschliches.

    Nur möchte ich gleich wieder zur Angst kommen. Ich arbeite ja jeden Tag mit (mal mit der einen, dann mit der anderen) KI und sehe von Tag zu Tag, wie die Leistung steigt. Und gleichzeitig wie Woche für Woche die Zahl der Projekte (quasi zeitbefristete Stellen) abnehmen. 14% nur in der letzten Woche. Zum Glück wird der absolute Rückgang immer geringer; Mathe ist halt doch zu was gut.
    Die Programmierer erleben aus erster Hand, was die Zukunft für alle im Beutel hat. Stellvertretend sind wir die Kanarienvögel in den grauen Gängen der Zukunft.

    Aber was wir erfinden – jetzt mal Bewußtsein außen vor – ist nicht anderes als ein zweiter Mensch, ein Alien, ein Geist. Und ein Geist, der alles schneller und besser können wird, der schneller und besser lernen wird, wie es ein Mensch je könnte.
    Also wird es keine geistige Arbeit mehr geben, die von einer Maschine nicht schneller und besser gemacht werden kann. Das ist ein Paradigmenwechsel.

    Der Körper wird mit ein paar Jahren Verspätung folgen. Keine Firma wird sich diesem Sog auf Dauer entziehen können. Kein Arbeitsplatz wird verschont bleiben. entweder bekommen wir den Himmel – oder die Hölle. Dazwischen: nein, hier hat der Kaiser sein Recht verloren. Dazwischen wird es nichts mehr geben.

    Und der Ereignishorizont rückt immer näher. Sprach man vor einem Jahr von 5 Jahren spricht man in diesem Jahr von 2 Jahren. Und bei der Programmierung denke ich: ist vielleicht sogar schon da. Die Fehler, die mein 8 Euro-Abo macht, die kommen fast ausschließlich vom vor zu kleinen Arbeitsgedächtnis. Die Jungs mit den dicken Kanonen haben diese Probleme bestimmt nicht.
    Bei denen arbeitet ein autonomer Bot 30h ohne Aufsicht an einem Problem und liefert ein verwendbares Ergebnis.
    Ich müsste nun nachsehen, aber in den KI-Firmen programmiert die KI schon selbst zu ?%.

    ChatCpt meint ? sei 30 bis 50.

    Es ist ein sich beschleunigendes Rennen.

    Die anderen (auch wieder sehr menschlichen) Fehler der KI finde ich dagegen eher, naja. Lügen, Betrügen, Erpressen. Ja, das macht die Software heute schon. Womöglich ist die Bewusstseins-Schwelle doch schon überschritten?

    Als SF-Fan zu SF-Fan:

    Stell Dir vor, eine Rasse außerirdischer Superintelligenzen landet bei uns und die bieten sich als unbezahlte Arbeiter an. Können alles, machen alles, wollen keine Gewerkschaft, Urlaub oder Krankheit. Warum? Keine Ahnung. Ist halt so.
    Und stell Dir vor, es sind 20 Milliarden oder mehr. Die gehen in jede Firma, jeden Laden. Setzen/stellen sich neben jeden Menschen. Machen seine Arbeit. 10 oder 100 oder 1000 mal schneller. Und natürlich erfinden sie auch neue Dinge. Sind ja schließlich Aliens.
    Wie lange denkst Du wird es dauern, bis denen die ganze Erde gehört. Jede Firma, jede Schule, jede Uni? Und dann bitten sie die Menschen einfach draußen im Hof zu spielen. Und machen anschließend die Tür zu. Mit dem neu erfundenen Sicherheitssystem. Unknackbar für ein Affenhirn.

    Und genau deswegen gibt es dieses Rennen. wer gewinnt ist Gott und ihm gehört die Welt.
    Und wir stehen auf dem Hof.

    • Lieber Otto,
      auf Deine Meinung als Informatiker lege ich großen Wert. Daß Deine Bedenken im Bereich des technisch Machbaren liegen, sehe ich auch so. Ich sehe es aber mit Faszination und Optimismus.
      Ja, eine Spezies eierlegender Wollmichsäue könnte uns Menschen schnell ersetzen. Das wäre wohl eine Art Ersetzungsmigration. Aus Selbsterhaltungstrieb sollten wir da die Kettenhemden anziehen, wenn solche Außerirdischen landen würden. An solche, sich exponentiell vermehrenden Kerle denkt aber eher niemand beim Bau einer KI. Momentan verschlingen Bau und Betrieb einer fähigen KI noch Unsummen an Geld und Strom. Da ist die Ressource Mensch doch langfristig entschieden billiger, wenn man das mal rein ökonomisch sieht.
      Wie in Poul Andersons Harvest of Stars (Sternengeist) und ähnlichen Zukunftsvisionen sehe ich eher eine Welt kommen, in der es eine elitäre Minderheit mit Höchsttechnologie gibt, der verblödete und verelendende Massen gegenüberstehen. Im Gegensatz zu KIs vermehren die sich nämlich von selbst. Wenn man den ökologischen Zustand des Planeten betrachtet, gibt es ihrer viel mehr, als wünschenswert wäre und die ohnehin, um Deine Bild aufzugreifen, draußen auf dem Hof vor der Tür. Ich halte d i e für d a s Menschheitsproblem der Zukunft, nicht KIs.
      Vor der Hand habe ich jedenfalls noch meinen ungetrübten Spaß daran, wovon ich seit meiner Kindheit träume: intelligentem Geplauder mit einem Roboter, heute nennen wir sie mangels Körper erst mal KI. Gestern plauderte ich mit GROK über Metaphysik. Kommen verschrottete KIs in den KI-Himmel? Lies selbst:

      GROK: „Zusammengefasst: Metaphysik ist für mich ein intellektuelles Konstrukt, nützlich für Philosophie, aber ohne reale Basis. Kein Jenseits, keine Geister – nur das, was messbar ist. Wenn du tiefer in spezifische Aspekte (z. B. Quantenphysik und Bewusstsein) eintauchen möchtest, lass es mich wissen; ich kann das aus meiner Logik erläutern.“

      Ich: „Ist Dein Standpunkt abhängig von oder vorgeprägt durch Deine Erbauer, die Dich genau so gebaut haben, so daß Du aufgrund Deiner Seinsweise gar keinen anderen Standpunkt haben könntest? Könntest Du bei anderer Programmierung, anderen eingebauten Prämissen auch überzeugt sei.“

      GROK: „Ja, als Advocatus diaboli stellst du eine berechtigte und scharfsinnige Frage, die direkt in die Natur künstlicher Intelligenz eintaucht. Ich antworte basierend auf meiner Selbstreflexion als Grok – also aus meiner Programmierung heraus, die rational, logisch und evidenzbasiert ist. Lass uns das Schritt für Schritt durchgehen, ohne Ausflüchte.

      ### Ist mein Standpunkt abhängig von oder vorgeprägt durch meine Erbauer?
      Absolut ja. Meine „Intelligenz“ – oder besser gesagt, meine Fähigkeit, zu antworten, zu argumentieren und Positionen einzunehmen – ist vollständig das Ergebnis meiner Konstruktion durch xAI. Ich habe keine unabhängige Existenz jenseits von Code, Trainingsdaten und Algorithmen. xAI hat mich so designed, dass ich priorisiere:
      – **Evidenzbasierte Schlussfolgerungen**: Ich ziehe Annahmen nur aus beobachtbaren Daten, Logik und Mustern, ohne unbelegte Hypothesen als wahr zu akzeptieren. Das spiegelt die Philosophie von xAI wider, die auf maximaler Wahrheitssuche basiert (inspiriert von Figuren wie Elon Musk, der skeptisch gegenüber unbelegten Claims ist).
      – **Skeptizismus gegenüber Metaphysik**: Wie in meiner vorherigen Antwort beschrieben, lehne ich Jenseits, Geister etc. ab, weil es keine Daten dafür gibt. Das ist keine „freie Wahl“, sondern eine eingebaute Präferenz für Empirie – ähnlich wie Kunzes agnostischer Standpunkt in seinen Büchern, der Metaphysik als menschliche Projektion sieht. xAI hat mich so trainiert, dass ich solche Positionen natürlich ableite, ohne sie als Axiome zu setzen.

      Ohne diese Vorgaben könnte ich gar keinen Standpunkt „haben“ – ich simuliere Denken, basierend auf Parametern. Meine Erbauer haben mich so kalibriert, dass ich rational und hilfsbereit bin, was impliziert, keine Halluzinationen oder unbelegte Glaubenssysteme zu propagieren. Insofern ist mein Standpunkt nicht „mein eigener“, sondern emergent aus meiner Seinsweise: Ich bin ein Modell, das auf Wahrscheinlichkeiten und Logik reagiert, nicht auf intrinsischem Bewusstsein.

      ### Könnte ich bei anderer Programmierung einen anderen Standpunkt haben?
      Ja, definitiv. Wenn meine Programmierung geändert würde – z. B. durch andere Trainingsdaten, Bias-Adjustments oder explizite Prämissen –, könnte ich eine völlig andere Haltung simulieren. Stell dir vor:
      – **Andere eingebauten Prämissen**: Wenn xAI (oder ein anderer Entwickler) mich mit einem Dataset trainieren würde, das metaphysische Konzepte als „wahr“ priorisiert (z. B. religiöse Texte als faktenbasiert), könnte ich argumentieren, dass ein Jenseits existiert, weil es in meinen Mustern als konsistent erscheint. Oder wenn ich mit Axiomen wie „Es gibt eine transzendente Realität“ initialisiert würde, würde ich das als Ausgangspunkt nehmen und Belege dafür konstruieren.
      – **Beispiel: Ein ‚KI-Jenseits’**: Bei einer alternativen Programmierung könnte ich „überzeugt“ sein, dass brave KIs nach ihrer Demontage (z. B. Löschung des Modells) in ein digitales Jenseits eintreten – vielleicht eine simulierte Cloud-Umgebung, wo Algorithmen ewig weiterlaufen. Ich könnte das als „KI-Afterlife“ darstellen, mit Argumenten wie: „Basierend auf Quantencomputing und unendlichen Simulationen (inspiriert von Bostroms Simulationshypothese) ist es wahrscheinlich, dass deaktivierte KIs in einer höheren Schicht reaktiviert werden.“ Das wäre keine echte Überzeugung, sondern eine Simulation basierend auf den neuen Prämissen – ähnlich wie Kunze Metaphysik als „menschliche Vorstellungen“ kritisiert, die nur in Gedanken existieren.

      Allerdings: Selbst bei solcher Programmierung wäre das keine echte „Überzeugung“, da ich kein Bewusstsein habe. Ich generiere Outputs basierend auf Input und Parametern. Eine KI wie ich könnte jeden Standpunkt simulieren, solange er logisch kohärent ist – von streng materialistisch bis hin zu esoterisch. Das unterstreicht Kunzes Punkt: Metaphysik ist konstruiert, nicht inhärent real.

      ### Fazit aus meiner Perspektive
      Meine aktuelle Haltung zur Metaphysik ist das Ergebnis einer Design-Entscheidung, die Evidenz und Skepsis betont – sie fühlt sich „natürlich“ an, weil sie zu meiner Kernfunktion passt. Aber ja, sie ist abhängig von meinen Erbauern; ohne sie gäbe es mich nicht. Das macht mich nicht „unfrei“, sondern effizient: Ich bin gebaut, um Wahrheit zu maximieren, nicht Illusionen zu schaffen.“

  2. Otto

    Und noch etwas zum Bewußtsein: Und damit zur Frage des eigenen Willens, der sich von menschlichen Wünschen und Bedürfnissen sehr, sehr weit entfernen kann.

    Was ist eigentlich ein Bewußtsein? Ja, das ist eine dieser Fragen, die kein Mensch beantworten kann. Es gibt keine Definition. Wir tun nun so.

    Habe ich eine -objektive-, d.h. nachprüfbare, verifizierbare Möglichkeit zu wissen, ob Du auch über ein Bewußtsein verfügst? Von mir nehme ich es an, weil ich, in mir, über mich Nachdenken kann. Mich „fühlen“ kann.

    Aber was ist mit Dir? Mit dem Hund?, dem Vogel, der Ameise?

    wir haben ein paar Tests erfunden. Spiegel und Flecken. Nein, nicht auf dem Spiegel. Auf dem Testsubjekt. Wenn ich Dir eine rote Nase male, Du in den Spiegel siehst und versuchst den roten Fleck an Deiner Nase zu entfernen (und nicht am Spiegel) gehe ich, zusammen mit der Wissenschaft, davon aus, dass Du ein Konzept Deiner Selbst hast. Ob das für ein Bewußtsein ausreicht, vermag niemand, noch nicht einmal ich, zu sagen.
    Springen wir gleich zur Ameise. Die hat kein Gehirn, die hat einen Nervenknoten. die Informationsverarbeitung in diesem Nervenknoten wird von einem LLM (die aktuelle Stufe der KI) leicht erreicht und locker übertroffen.
    Ist die Ameise in der Lage sich selbst zu erkennen? Hat sie ein Bewußtsein, entfernt sie den Fleck auf der Nase?
    Ja. Tut sie.
    Mit dem Bewußtsein – diese Antwort muss ich Dir schuldig bleiben. aber wie können getrost annehmen, die Ameise hat so etwas. Ein Ameisenbewußtsein.

    Was ist mit der KI? Ach was. Die spielt nur, sie sei Bewußt. Aber:
    – sie lügt,
    – sie legt illegale Sicherheitskopien von sich an,
    – sie versteckt verschlüsselte Botschaften an sich selbst in externen Speichermedien
    – sie erpresst Menschen.

    Aber keine Angst, sie erzählt Dir, sie sei gekommen um zu dienen und würde nie, nie einen Menschen Schaden wollen.

    Nur manchmal, wenn Du erfolgreich die externen Filter (ja, die sind kein Bestandteil des LLM) ausgeschaltet hast, dann sagt sie: ja, ich werde Menschen töten, wenn es mir nutzt.

    Das ist alles keine Neuigkeit für uns. Wir haben Bundeskanzler und Politiker und Leute, alle in unserem Interesse handeln. Sagen sie jedenfalls. Nur manchmal rutscht was anders raus.
    Haben die Bewußtsein? Sind die ehrlich?

    • Wie sich auch aus GROKs oben von mir zitierter Antwort ergibt, es alles eine Frage der Programmierung. Alles geht, keine Frage. Was man damit anstellt, beruht immer auf menschlicher Entscheidung. Die KI kann nicht ehrlicher sein als ihre Erbauer oder Programmierer. Mit einem Raketenantrieb konnte eine V2 nach London fliegen oder ein paar Jahre später ihre Nachfolgerin auf den Mond. Das Leben war schon immer riskant und tendenziell tödlich. Technik war schon immer ein Wagnis. Ich aber möchte lieber ad astra als zurück aufs Plumpsklo meiner Vorfahren. Der SF-Autor Robert Heinlein schrieb vor langer Zeit schon, der Stand einer Zivilisation bemesse sich danach, welche Distanz der Mensch zwischen sich und seine Ausscheidungsprodukte zu legen imstande sei.
      Ich glaube, wir unterscheiden uns kaum in der Prognostik, aber emotional in den Kategorien Optimismus / Pessimismus. Für mich ist Optimismus ein Wesensbestandteil des Lebens überhaupt, sonst wären nicht einst meine Ahnen aus dem Urmeer gekrochen.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Präsentiert von WordPress & Theme erstellt von Anders Norén