Intelligenz ist Intelligenz, auch wenn sie künstlich ist

Categories: AI and MLPerspectiveTechnology

Ich hatte vor ein paar Wochen ein anregendes Gespräch mit dem Leiter unserer GenAI-Praxis, Suhail Khaki. Suhail bemerkte, dass je mehr er mit GenAI arbeitet, desto mehr erscheint es ihm, dass es weniger wie herkömmliche Computersoftware und mehr wie eine Person in der Art und Weise, wie es interagiert, ist. Er sagte: „Intelligenz ist Intelligenz“. Das brachte mich zum Nachdenken: Viele der sogenannten „Probleme“ mit GenAI sind tatsächlich darauf zurückzuführen, dass es auf der Art und Weise basiert, wie Menschen denken. Es ist nicht wirklich GenAI, das schuld ist – in großem Maße verhält es sich einfach überraschend gut so, wie wir Menschen es tun.

Wenn Ihnen jemand zweimal dieselbe Frage stellt, wie wahrscheinlich ist es, dass Sie jedes Mal genau die gleiche Antwort Wort für Wort geben? Das werden Sie nicht, es sei denn, es ist eine auswendig gelernte Rede. Wenn Sie zwei verschiedenen Entwicklern die Aufgabe geben, denselben Algorithmus zu implementieren, wie wahrscheinlich ist es, dass beide genau denselben Code schreiben? Das wird nicht passieren. Beide könnten es „richtig“ machen, aber die beiden Programme werden unterschiedlich sein – geringfügig oder sogar radikal.

Warum überrascht und frustriert es uns also, wenn sich GenAI genauso verhält? Menschen geben unterschiedliche Antworten auf dieselbe Frage, weil viele Variablen unser Verhalten beeinflussen, einschließlich dessen, was wir an diesem Morgen zum Frühstück gegessen haben, wer unser Publikum ist, wie die Frage formuliert war (einschließlich Intonation) und was wir zwischen der ersten und der zweiten Wiederholung der Frage gelernt und gedacht haben. GenAI hat andere Faktoren, die es beeinflussen – es braucht zum Beispiel kein Frühstück –, aber es verhält sich im Wesentlichen auf eine „menschliche“ Weise, wenn es auf dieselbe Frage eine andere Antwort gibt. Ähnlich verhält es sich beim Programmieren. Es gibt viele richtige Antworten auf dasselbe Softwareentwicklungsproblem. Welche ein bestimmter Entwickler wählt oder welche derselbe Entwickler zu unterschiedlichen Anlässen wählt, wird durch viele interne und externe Variablen bestimmt, nicht zuletzt durch die Summe unserer bisherigen Erfahrungen und unseres Trainings.

Was wir in GenAI „Halluzinationen“ nennen, ist ebenfalls uns Menschen eigen. In den USA liefern Politiker beider Parteien zahlreiche Beispiele für erfundene Fakten, um Gedächtnislücken oder unbequeme Wahrheiten zu kaschieren. Man kann darüber streiten, ob diese politischen Falschaussagen absichtlich gemacht werden oder nicht, aber manchmal geschehen menschliche Halluzinationen ohne böse Absicht. Eine ältere Frau, die ich kannte, hatte eine vaskuläre Demenz, eine Hirnerkrankung, die den Zugang zu bestimmten Erinnerungen oder Fähigkeiten blockiert. Ihre Intelligenz war jedoch weitgehend unberührt. Wenn man sie nach ihrem Tag fragte, erzählte sie fröhlich eine Geschichte über Aktivitäten, die an der Oberfläche sehr plausibel klangen, aber tatsächlich nie stattgefunden haben. Ich glaube keineswegs, dass sie dies absichtlich tat, um zu täuschen. Stattdessen, da die tatsächlichen Fakten in ihrem Gedächtnis nicht verfügbar waren, generierte ihr Gehirn meiner Meinung nach kreativ eine Antwort, die plausibel klang, aber nicht durch die Wahrheit gefiltert war. Sie wurde erst dann diagnostiziert, als sie von einem Psychologen formell interviewt wurde, der ihr objektiv nachprüfbare Fragen stellte, wie die Namen ihrer Kinder. Erst dann wurde offensichtlich, dass sie eine medizinische Erkrankung hatte und dass ihre Antworten in normalen Gesprächen weitgehend erfunden waren.

Obwohl ich kein Psychologe bin, vermute ich, dass die menschliche Intelligenz, wenn sie keinen Zugang zu geeigneten Informationen hat, aber sich in Umständen befindet, die eine sofortige Antwort erfordern, dazu neigt, die Lücken zu füllen – oder Dinge zu erfinden. Wir würden es vorziehen, wenn unsere Politiker und meine ältere Freundin mit vaskulärer Demenz einfach sagen würden: „Es tut mir leid, ich weiß es nicht“, „Ich möchte dazu nichts sagen“ oder „Ich erinnere mich nicht“. Aber wenn die Person das Gefühl hat, eine Antwort geben zu müssen, unabhängig von fehlenden oder intern unterdrückten Informationen, erhalten wir „Fake News“, falsche Erinnerungen oder Halluzinationen. Das Gleiche gilt für GenAI – es greift auf eine plausibel klingende, aber ungültige Antwort zurück, wenn es keine genaue findet.

Meine Frau ist Psychologin und sie sagt mir, dass es im menschlichen Gehirn ein Konzept namens „Ausfüllen des fehlenden Gestaltens“ gibt. Das Gehirn versucht verschiedene Strategien und Optionen, um fehlende Daten zu ergänzen. Diese Präsentation von Optionen trägt zur menschlichen Kreativität und Problemlösungsfähigkeit bei. Wir alle haben das schon erlebt, wenn wir versucht haben, ein Problem zu lösen, und dann plötzlich die Antwort gefunden haben. Dies geschieht weitgehend unbewusst, unterhalb unserer Bewusstseinsebene. Wenn unser Gehirn nicht ausreichend falsche Alternativen ablehnt, dann können wir menschliche Konfabulationen erhalten, um die „Lücken zu füllen“, obwohl die beste Option möglicherweise darin besteht, es „offen zu lassen“ und zu sagen, dass man es nicht weiß. Aber wenn unser Gehirn eine gute Wahl unter den generierten Alternativen trifft, erhalten wir Originalität, Spontaneität und Erfindung.

In einem LLM ist dies bis zu einem gewissen Grad kontrollierbar, indem ein Parameter namens „Temperatur“ eingestellt wird, der im Wesentlichen den Grad der Zufälligkeit bei der Generierung alternativer Antworten bestimmt. Während das Senken der Temperatur die Halluzinationen in einem LLM begrenzt, verringert es auch die Anzahl der guten Alternativen, die in Betracht gezogen werden. Der Nachteil von weniger Alternativen ist, dass die „besseren“ und „besten“ Alternativen möglicherweise überhaupt nicht generiert werden, was die effektive „Intelligenz“ der KI einschränkt. Anstatt die Generierung von Alternativen zu unterdrücken, ist meiner Ansicht nach die richtige Antwort eine bessere Filterung der mehreren generierten Alternativen. Tatsächlich arbeiten eine Reihe von GenAI-Startups an der Prävention von Halluzinationen, indem sie generierte Antworten intelligent filtern. Aber die Generierung alternativer Antworten, selbst falscher, ist eigentlich ein Merkmal der menschlichen Intelligenz – es ist ein „Feature“, kein „Bug“. Wir befinden uns nur noch in einem relativ frühen Stand der Technik, was die Filterung angeht – obwohl ich überzeugt bin, dass das kommen wird.

Warum überraschen und ärgern uns diese „menschlichen“ Inkonsistenzen und Konfabulationen, wenn sie von GenAI kommen? Die meisten von uns sind mit Computern aufgewachsen. Obwohl sie manchmal frustrierend oder verwirrend sein können, sind Computer auch vorhersehbar. Insbesondere wenn sie programmiert sind, machen Computer jedes Mal dasselbe auf die gleiche Weise und geben Ihnen konsistent die gleiche Antwort auf die gleiche Frage. Wir erleben Computer als Maschinen oder „robotisch“ (im engen Sinne) in den Interaktionen, die wir mit ihnen haben.

GenAI ist nicht so. Obwohl es auf einer Maschine läuft, verhält es sich in wichtigen Aspekten mehr wie eine Person. Im Vergleich zu einem programmatischen Gerät ist GenAI relativ unvorhersehbar und inkonsistent.

Ich würde argumentieren, dass die Unvorhersehbarkeit und Inkonsequenz von GenAI ein wesentliches Merkmal jeder Intelligenz ist, die versucht, in gewisser Hinsicht das menschliche Gehirn zu emulieren. Vielleicht ist Inkonsequenz ein Merkmal der Intelligenz im Allgemeinen. Es ist vielleicht nicht immer ein Merkmal, das wir mögen, aber wenn wir die Vorteile der Intelligenz in unseren Maschinen wollen, denke ich, dass wir auch lernen werden, mit ihren Eigenheiten umzugehen.

Bedeutet das, dass wir GenAI nicht für nützliche Arbeit verwenden können? Ich würde argumentieren, dass wir trotz unserer eigenen Fehler und Aussetzer seit vielen, vielen Generationen fehlbare Menschen für nützliche Arbeiten eingesetzt haben. Wir können einige dieser gleichen Praktiken bei der Nutzung von GenAI anwenden.

Bei der Führung von Menschen haben wir oft mehrere Spezialisten, die für verschiedene Aspekte derselben Aktivität zuständig sind. Oft wird die Arbeit von einem Manager überwacht, der die Konsistenz und Qualität der Ergebnisse sicherstellt. Für kritische Aufgaben haben wir dokumentierte Verfahren, die von den Menschen befolgt werden müssen. Und in Notsituationen oder solchen, die eine Echtzeit-Körperkontrolle erfordern (wie Sport), verlassen wir uns auf Training. Trainierte Reaktionen sind solche, bei denen Menschen vordefinierte oder vorab erlernte Richtlinien befolgen – im Wesentlichen Programmierung – automatisch und weitgehend ohne nachzudenken. Diese gleichen Prinzipien der menschlichen Arbeit können und werden auch heute auf GenAI angewendet.

Bewusst oder unbewusst werden Analogien zur menschlichen Organisation auf heutige GenAIs entwickelt und angewendet, mit weiteren in der Entwicklung. „Ensembles“ spezialisierter LLMs werden von „Agenten“ und anderen Technologien orchestriert, um die Stärken jedes Modells zu nutzen, analog zu einem menschlichen Team mit ergänzenden Fähigkeiten. Wie ein menschlicher Vorgesetzter tauchen GenAI-Managementansätze wie „LLMs für LLMs“ und programmgesteuerte Analysen von Modellausgaben auf, um die Qualität der KI-Ausgabe zu filtern und zu bewerten. Diese Manager können auch Halluzinationen abfangen und die KI – oder das Team von KIs – zurück an das Reißbrett schicken, um eine bessere Antwort zu finden. Für kritische oder endnutzerorientierte Aufgaben können Implementierungen die besten Merkmale programmierter Ansätze und GenAI-Modelle kombinieren. Beispielsweise könnte eine Kundendienstanwendung Dialogflow [https://cloud.google.com/dialogflow] für die strukturierte Komponente von Dialogen zusammen mit einem oder mehreren LLMs für die Anrufweiterleitung, das Sammeln von Informationen und die Ergebnissummenbildung verwenden.

Die letzte Grenze sind vielleicht Maschinen- oder Industrie-Kontrollsysteme oder die Steuerung lebenswichtiger Echtzeitsysteme. Für diese Systeme benötigen wir deterministische Ausgaben. Kreativität kann in manchen Situationen nützlich sein, aber selbst mit Menschen im Entscheidungsprozess verlassen wir uns in der Regel auf trainierte Reaktionen und dokumentierte Schritt-für-Schritt-Verfahren, die wir erwarten, dass Menschen sie robotisch befolgen. Das liegt daran, dass in Notfällen selten Zeit oder geistige Energie zum Improvisieren bleibt – und dokumentierte Verfahren wurden erforscht, überprüft und getestet. Das robotische Befolgen von Anweisungen ist wahrscheinlich das am wenigsten menschliche, was wir tun, aber manchmal notwendig – zum Beispiel in einer Notfallsituation wie dem Steuern des Autos aus einem Schleudern, wenn es auf Eis ausrutscht. In diesem Fall ist Improvisieren von Grund auf der falsche Ansatz – es ist besser, wenn wir uns darauf trainiert haben, in die Schleuderbewegung hinein zu lenken, um die Kontrolle wiederzuerlangen, ohne die Physik in Echtzeit verarbeiten zu müssen. Für Aktivitäten wie Sport, das Fliegen eines Flugzeugs in einem Notfall und andere Echtzeit-Entscheidungen sind erlernte und trainierte Fähigkeiten eine wichtige Grundlage. Kreativität ist in manchen Fällen immer noch vorteilhaft, aber nur auf der Basis einer soliden Grundlage erlernter Fähigkeiten.

Wie menschliche trainierte Reaktionen auf Notfall- oder Echtzeitsituationen im Sport neigen von Computern betriebene Kontrollsysteme dazu, automatischer, regelbasiert und deterministisch zu sein. Das soll KI jedoch nicht völlig ausschließen. Wir haben bereits gute Beispiele dafür, dass herkömmliche, nicht-genetische Modelle eine wichtige Rolle in solchen Systemen spielen: Zum Beispiel haben die fortschrittlichen Fahrerassistenzsysteme Ihres Autos zur Spurführung, Kollisionsvermeidung und adaptiven Geschwindigkeitsregelung wichtige Aspekte, die auf KI basieren. Meine Erfahrung ist, dass diese KI-basierten Systeme wesentlich zu meiner Sicherheit beitragen. Allerdings würde ich, wie viele andere auch, zögern, mein Leben in die Hände einer Technologie zu legen, die zu Halluzinationen neigt. Andererseits bin ich viele Jahre lang ohne jegliche Fahrerassistenz selbst gefahren, und mein fehlbares menschliches Gehirn hat es mir dennoch ermöglicht zu überleben. Vielleicht – mit der richtigen Überwachung – hat GenAI auch hier eine Rolle. Schließlich – Intelligenz ist Intelligenz, selbst wenn sie künstlich ist.

Author

Jim-Blog-1-1

Author

Dr. Jim Walsh CTO

CTO

View all Articles

Top Insights

Homeoffice Whitepaper

Homeoffice Whitepaper

AtlassianCloudSecurityAutomotiveCommunicationsConsumer and RetailFinancial ServicesHealthcareManufacturing and IndustrialMediaTechnology

Top Authors

Ravikrishna Yallapragada

Ravikrishna Yallapragada

AVP, Engineering

Amit Handoo

Amit Handoo

Vice President, Client Engagement

Sameer Tikoo

Sameer Tikoo

Senior Vice President & GM, Communication Services BU

Dr Maria Aretoulaki

Dr Maria Aretoulaki

Principal Consultant Conversational & Generative AI Design

Blog Categories

  • URL copied!