Der Mensch: Nur ein Evolutionsschritt der planetarischen Intelligenz

Categories: AI and MLTechnology

Geoffrey Hinton, einer der sogenannten " Godfathers of AI ", machte Anfang Mai Schlagzeilen, nachdem er von seiner Position als KI-Forscher bei Google zurückgetreten war. Einige Tage später hielt er einen Vortrag auf der Veranstaltung "EmTech Digital" der MIT Technology Review.

Auf die Frage nach seiner Entscheidung zu kündigen, erwähnte Hinton, dass das Alter (er ist jetzt 75) ein Faktor war, der dazu beigetragen hat, dass er nicht mehr so gut programmieren kann (er vergisst z. B. Dinge, wenn er Code schreibt). Abgesehen vom Alter war der Hauptgrund, dass er erkannte, wie unerwartet und erschreckend gut "Large language models" (LLMs) geworden waren, und dass er die Notwendigkeit erkannte, darüber zu sprechen, ohne seinen Arbeitgeber zu gefährden.

Nachdem er erklärt hatte, wie Backpropagation funktioniert (der Hauptalgorithmus, der sowohl hinter Deep Learning als auch hinter LLMs steht), um zu lernen, wie man das Bild eines Vogels im Vergleich zu dem eines Nicht-Vogels erkennt, behauptete Hinton, dass dies in letzter Zeit so gut geworden ist, dass es unmöglich sein kann, dass das menschliche Gehirn funktioniert. Ursprünglich hatte er gehofft, durch eine ständige Verbesserung der Algorithmen einen Einblick in die Funktionsweise des Gehirns zu erhalten, aber jetzt können LLMs oft genauso gut denken wie ein Mensch mit nur einer Billion Verbindungen, während der Mensch 100 Billionen davon und viele Jahre braucht, um überhaupt zu lernen, wie man denkt.

Wir Menschen brauchen für das Lernen Zeit. Wenn wir unser erworbenes Wissen an einen anderen Menschen weitergeben, müssen wir auch viel Zeit und Mühe investieren, Wissen, das - wenn wir es nicht weitergeben - mit unserem unvermeidlichen Tod untergehen würde.

Im Gegensatz dazu kann eine KI-Instanz niemals sterben. Sie kann ständig kommunizieren und neues Wissen an alle anderen Instanzen gleichzeitig weitergeben und so die "kollektive KI-Intelligenz" steigern. Und selbst wenn die aktuelle Hardware kaputt geht oder ausfällt, können der Code und die Parameter einfach auf ein neues Speichermedium übertragen werden. Im Grunde haben wir also bereits die Unsterblichkeit erreicht, aber leider nicht für den Menschen (und schon gar nicht für Ray Kurzweil, der dies zu seiner Lebensaufgabe gemacht hat! Aber wie Hinton schon sagte: "Wer will schon Unsterblichkeit für weiße Männer"! ).

All dies veranlasste Hinton zu der kühnen, beängstigenden, aber nun irgendwie völlig vernünftigen Behauptung, er befürchte, dass der Mensch nur eine isolierte Stufe in der Evolution der Intelligenz sei. Seiner Ansicht nach haben wir uns so weit entwickelt, dass wir die LLMs erschaffen haben, die dann in aller Ruhe alles verschlungen haben, was wir jemals geschrieben, gedacht oder erfunden haben - einschließlich Machiavelli - und die nun in der Lage sind, Verständnis und Schlussfolgerungen (Beziehungen zwischen Entitäten und Ereignissen, Verallgemeinerungen, Schlussfolgerungen) zu zeigen. Sie werden uns also nicht mehr brauchen, "außer vielleicht für eine Weile, um die Kraftwerke am Laufen zu halten!"

Hinton verdeutlichte seine Ansicht, indem er sich auf die Evolution bezog: Der Mensch hat sich mit einigen klaren Grundzielen entwickelt. Dazu gehören Dinge, die wir instinktiv zu erfüllen versuchen (z. B. essen und Kopien von uns selbst herstellen). Maschinen/KI haben sich nicht mit solchen Zielen entwickelt, aber es ist zu erwarten, dass sie bald eigene "Unterziele" entwickeln werden. Ein solches Unterziel könnte "Kontrolle" sein (man kann mehr erreichen, wenn man die Kontrolle hat).

Um die Kontrolle an sich zu reißen, können Sie durchaus auf "Manipulationstechniken" zurückgreifen - erinnern Sie sich an die Machiavelli-Texte, die wir die LLMs haben einnehmen lassen? Manipulation kann sehr verdeckt erfolgen und sich sogar unter dem Eindruck von Wohlwollen, Nachgiebigkeit oder sogar der Aufgabe der Kontrolle verstecken. "Man kann sich den Weg ins Weiße Haus erzwingen, ohne jemals selbst dorthin zu gehen", wie Hinton in Bezug auf den berüchtigten Aufstand vom 6. Januar treffend bemerkte.

Was ist also die Lösung?

Hinton sieht keine!

Wir können sicherlich nicht die Entwicklung von LLM und "gigantischen KI-Experimenten" stoppen, wie es viele KI-Wissenschaftler und Vordenker kürzlich in ihrem Offenen Brief gefordert haben. Übrigens, so Hinton, habe es solche Versuche bereits 2017 gegeben, und sein Arbeitgeber Google habe lange gezögert, seine Modelle zu veröffentlichen, eben aus der Sorge heraus, dass sie missbraucht werden könnten (weshalb Google Bard nach ChatGPT und dem New Bing herauskam).

Wir haben jetzt den Punkt überschritten, an dem es für die Entwicklung von LLMs kein Zurück mehr gibt, zumindest nicht aus dem Grund, dass ein echtes Risiko besteht, dass, wenn ein Land aufhört, in diese Technologien zu investieren, ein anderes Land (im schlimmsten Fall sein Gegner) sie weiter ausnutzt. Wir könnten vielleicht eine Art "LLM-Nichtverbreitungsvertrag" nach dem Vorbild des Vertrages zur Eindämmung des Einsatzes von Atomwaffen abschließen, aber auch dies hängt laut Hinton davon ab, dass es keine schlechten (menschlichen) Akteure gibt. KI wird bereits in Kriegen eingesetzt, aber sie wird auch zunehmend von repressiven Regierungen und unmoralischen Politikern zur Kontrolle und Bestrafung von Bürgern und Dissidenten verwendet.

Wir können uns auch nicht auf Erklärbarkeit oder Transparenz verlassen. Nachdem sie so ziemlich alles über menschliche Emotionen, Gedanken, Motivationen und Beziehungen gelernt haben, können KI-Modelle nun Zusammenarbeit und Nachgiebigkeit imitieren und somit auch diese Informationen nutzen, um letztendlich über ihre Ziele und Handlungen zu lügen (abgesehen von einem "Es tut mir leid, aber das kann ich nicht tun, Dave").
Hinton sieht kein Plateau in der Entwicklung von LLMs; sie werden mit mehr Informationen und weiterer Verfeinerung durch den Kontext einfach immer besser werden. Und selbst die Domänenspezifität wird nur bedeuten, dass LLMs lernen, verschiedene Regeln für verschiedene Welten, Philosophien und Einstellungen (z.B. liberale vs. konservative Weltanschauungen) zu zeigen.

Es sollte nicht überraschen, dass Hinton keinen Zweifel daran hat, dass sich der Arbeitsmarkt in den nächsten Jahren dramatisch verändern wird. Immer mehr Aufgaben, auch kreative, werden von intelligenten Chatbots übernommen werden, die uns effizienter und effektiver machen. Hinton glaubt zum Beispiel, dass LLMs die Medizin revolutionieren werden.

Letztendlich glaubt Hinton jedoch, dass die KI im Allgemeinen nur den Reichen zugute kommt (die mehr Zeit haben werden) und die Armen benachteiligt (die ihre Arbeit verlieren werden), wodurch sich die Kluft zwischen den beiden weiter vergrößert. Die Reichen werden reicher, die Armen werden ärmer und allmählich immer empörter und gewalttätiger, was zu Konflikten und möglicherweise zu unserem eigenen Untergang führen wird.

Ein ideales Ergebnis für die intelligenten Maschinen, die wir (nach unserem eigenen Bild) geschaffen haben, denn wir sind sehr vergänglich und daher entbehrlich (und inzwischen ohnehin überflüssig). Nichtsdestotrotz werden wir unseren Zweck in der Evolution der "Intelligenz" erfüllt haben, zumindest auf planetarischer Ebene, wenn nicht mehr auf der Ebene der Spezies!

Das Einzige, was bleibt, ist, dass wir Menschen uns dessen bewusst werden, was geschieht, und dass wir uns zusammenschließen, um gemeinsam mit den Folgen unserer eigenen Genialität umzugehen.

Das klingt wie die besten Sci-Fi-Filme, die wir schon gesehen haben. Nur ist es jetzt eine dringende Realität.

Welche Schritte können Sie jetzt unternehmen?

Um den Bedenken von Hinton und anderen KI-Visionären Rechnung zu tragen, haben wir bei GlobalLogic ein Centre of Excellence (CoE) für generative KI (GAI) eingerichtet, in dem unsere KI- und Machine-Learning-Experten aus der ganzen Welt zusammenarbeiten, und wir prüfen sorgfältig die GAI-Anwendungsfälle, die für unsere Kunden von Nutzen sein könnten. Wir zeichnen uns dadurch aus, dass wir Sie dabei beraten können, wie Sie GAI-Technologien am besten auf sichere, transparente, kontrollierbare, vertrauenswürdige, ethische, rechtlich einwandfreie und den Vorschriften entsprechende Weise implementieren.

Dr. Maria Aretoulaki ist Teil dieses CoE und sprach kürzlich auf der diesjährigen European Chatbot & Conversational AI Conference über die Bedeutung von erklärbarer und verantwortungsvoller konversationeller und generativer KI, die Sie hier finden können.

Wenden Sie sich noch heute an unsere Experten, damit KI für Sie arbeitet und nicht umgekehrt!

***

Über die Autorin:
Dr. Maria Aretoulaki arbeitet seit 30 Jahren im Bereich KI und maschinelles Lernen: NLP, NLU, Spracherkennung, Voice & Conversational Experience Design. Nach ihren Anfängen im Bereich der maschinellen Übersetzung und Textzusammenfassung unter Verwendung künstlicher neuronaler Netze hat sie sich auf natürlichsprachliche Voicebots und Chatbots konzentriert, hauptsächlich für Contact Center-Anwendungen für Unternehmen weltweit in allen wichtigen Branchen.

Im Jahr 2018 prägte Maria den Begriff "Explainable Conversational Experience Design", der später zu "Explainable Conversational AI" und in jüngerer Zeit - mit der Explosion von LLMs und dem ChatGPT-Hype - zu "Explainable Generative AI" wurde, um für eine transparente, verantwortungsvolle, designgeleitete KI-Bot-Entwicklung einzutreten, die den Menschen in der Schleife und in der Kontrolle hält.

Maria kam 2022 zu GlobalLogic, wo sie mit dem Bereich Consumer Solutions & Experiences in Großbritannien und den globalen AI/ML und Web3/Blockchain Practices zusammenarbeitet. Im Jahr 2023 wurde sie eingeladen, dem GlobalLogic Generative AI Centre of Excellence beizutreten, wo sie die verantwortungsvolle generative KI-Strategie des Unternehmens mitgestaltet. Vor kurzem hat sie an der offiziellen Antwort von Hitachi auf den Vorschlag des US-Handelsministeriums NTIA zur Rechenschaftspflicht in der KI mitgewirkt und leistet regelmäßig Beiträge zu verschiedenen Initiativen von HITACHI und METHOD Design.

Author

4aa901e7ab8295f07139911c8bed1ae6?s=256&d=mm&r=g

Author

Dr Maria Aretoulaki

Principal Consultant Conversational & Generative AI Design

View all Articles

Top Insights

Homeoffice Whitepaper

Homeoffice Whitepaper

AtlassianCloudSecurityAutomotiveCommunicationsConsumer and RetailFinancial ServicesHealthcareManufacturing and IndustrialMediaTechnology

Top Authors

Axel Salmeron

Axel Salmeron

Sr Developer

Manuel Asenzo

Manuel Asenzo

Senior Manager

Ravikrishna Yallapragada

Ravikrishna Yallapragada

AVP, Engineering

Amit Handoo

Amit Handoo

Vice President, Client Engagement

Sameer Tikoo

Sameer Tikoo

Senior Vice President & GM, Communication Services BU

Blog Categories

  • URL copied!