ressorts.
KI kurz vor der globalen Machtübernahme?
Künstliche Intelligenz

KI kurz vor der globalen Machtübernahme?

Foto: Pexels, Markus Spiske
Warning: Undefined array key 1 in /home/httpd/vhosts/paulbrandenburg.com/pbschwarzaufweiss.de_2023-07-24/wp-content/plugins/elementor/includes/widgets/audio.php on line 325 Warning: Undefined array key 1 in /home/httpd/vhosts/paulbrandenburg.com/pbschwarzaufweiss.de_2023-07-24/wp-content/plugins/elementor/includes/widgets/audio.php on line 329

Der Chatbot ChatGPT hat seit seiner Veröffentlichung im November 2022 als Beta-Version in der Tech-Branche und darüber hinaus einigen Staub aufgewirbelt. Geht von der Künstlichen Intelligenz tatsächlich eine Bedrohung aus?

Zurzeit erfährt die Debatte rund um Künstliche Intelligenz (KI) einen neuen Schub, weil Elon Musk angekündigt hat, einen eigenen KI-basierten Chatbot namens TruthGPT auf den Markt zu bringen. Musk hat die Firma OpenAI, die ChatGPT entwickelte und betreibt, im Jahr 2015 selbst mitgegründet, stieg dort aber 2018 wieder aus. Heute wird das Unternehmen OpenAI unter anderem von Google und Microsoft mit milliardenschweren Investitionen unterstützt; letzterer Konzern nutzt das Programm zum Beispiel in seiner Suchmaschine Bing.

Was ist ein Chatbot?

ChatGPT ist ein Programm, das einen Dialog zwischen dem Nutzer und einem anderen menschlichen Sprecher nachahmt. Diese Art von Programmen entwickelte sich seit dem Beginn der KI-Forschung in der Informatik in den 1950er Jahren zu einem zentralen Kriterium der Beurteilung der Leistungsfähigkeit künstlicher Intelligenz (KI). Ziel war es ein Programm zu schreiben, das den nach dem Mathematiker Alan Turing benannten Turing-Test besteht. Das bedeutet, dass die Ausgaben des Programms nicht von denen eines Menschen unterschieden werden können.

Das erste bekannte Beispiel ist das Chatprogramm ELIZA von Joseph Weizenbaum, das von 1964 bis 1966 entwickelt wurde. Im Zentrum stand damals – sowie bei ChatGPT heute – der sprachliche Dialog zwischen Mensch und Maschine. Man kann dem Programm durch Texteingaben Anweisungen geben oder Fragen stellen. Dabei kann die Texteingabe auch Programmiersprachen beinhalten, man kann sich also mit ChatGPT auch über Computer-Code ‚unterhalten’. Seit der aktuellen, Mitte März dieses Jahres, veröffentlichten Version mit der Bezeichnung GPT-4, hat der Bot dazu noch ein multimodales Sprachmodel, das auch Bilder oder Audiodateien als Eingaben verarbeiten kann.

Unter der Haube

Chatbots basieren auf Sprachmodellen. In solchen Sprachmodellen wird zum Einen die grammatische Struktur der Zielsprache formallogisch beschrieben – die Syntax der Sprache. Und zum anderen bestehen die Modelle aus einer Liste der kleinsten Bedeutungsträger der Sprache – den Wörtern –, die mit Hilfe der Syntax zu größeren bedeutungstragenden Einheiten wie Sätzen und Texten zusammengesetzt werden können. Diese grundlegende Unterscheidung zwischen syntaktischer und semantischer Modellierung ist die Grundlage der Nachahmung der menschlichen Sprache durch den Computer, dem sogenannten Natural Language Processing.

Die Art und Weise der Nachahmung ist stetig weiterentwickelt und differenziert worden, und im Laufe der Zeit sind viele verschiedene Sprachmodelle entwickelt worden, die sich hinsichtlich ihrer Eigenschaften und Fähigkeiten stark unterscheiden, und mittlerweile auch noch andere Aspekte in der Modellierung berücksichtigen, wie zum Beispiel die Situationen, in denen Sprache gebraucht wird.

ChatGPT

Die Kapitalien GPT im Namen des Bots von ChatGPT stehen für Generative Pre-trained Transformer, auf Deutsch in etwa: erzeugende, vor-trainierte (Sprach-)Transformation. „Generativ“ bedeutet, dass der Bot in erster Linie nicht darauf ausgerichtet ist, Texte zu analysieren, sondern sprachliche Äußerungen wie Sätze, Texte und Gedichte erzeugen soll; „vor-trainiert“ heißt, dass der Bot an einem Textkorpus trainiert wurde, bevor er für den Nutzer zugänglich gemacht wurde; und „Transformation“ – beziehungsweise auf Englisch „Transformer“ – bezeichnet das regelgeleitete Überführen einer Zeichenfolge in eine andere Zeichenfolge, durch Methoden des maschinellen Lernens, wobei sich das Sprachmodel des Bots durch spezielle Algorithmen selbst korrigiert und optimiert.

Viel Wirbel um … was?

Man kann den Hype, der zurzeit um KI-basierte Chatsysteme gemacht wird, als Wiederkehr des KI-Enthusiasmus der 1950er Jahre sehen. Im Zeitalter von Kybernetik und Elektronengehirnen versuchte man, einen General Problem Solver – also einen Problemlöser für alles – zu konstruieren, der die menschliche Intelligenz in einem umfassenden Sinn ersetzen kann.

Diese Ambitionen zerschlugen sich ob der Komplexität und Unbestimmtheit der Aufgabenstellung ziemlich schnell, sodass man sich ab den 1960er Jahren damit begnügte, sogenannte Expertensysteme für genau definierte Wissensdomänen zu entwickeln.

Mit der Weiterentwicklung der Computertechnik kam es dann ab den 2000er Jahren zu einem Revival des General Problem Solvers, also dem Projekt, die menschliche Intelligenz in Gänze digital zu modellieren, diesmal unter dem Namen Artificial General Intelligence (AGI), auf Deutsch: Allgemeine Künstliche Intelligenz.

Die technischen Fortschritte, die dabei in den vergangenen 20 Jahren gemacht wurden, sind beeindruckend. Die dabei verwendeten avancierten statistischen und probabilistischen Methoden haben – insbesondere in technokratischen Kreisen wie zum Beispiel dem Weltwirtschaftsforum (WEF) – zu neuen Hoffnungen bezüglich der Möglichkeiten von KI geführt.

Zugleich führen sie aber auch immer dringender zur Frage, in welchem Verhältnis Verfahren dieser Art überhaupt zur menschlichen Intelligenz stehen. Musk hat wiederholt die Befürchtung geäußert, dass KI eine potentielle Gefahr für die gesamte Menschheit darstelle: Wenn ihre Fähigkeiten, den Menschen nachzuahmen, immer weiter steigen, komme laut dieser Sichtweise irgendwann der Punkt, an dem sie wie Skynet in der Filmreihe Terminator die Kontrolle übernehme und das menschliche Leben auf dem Planeten der Rationalität der Maschinen unterwerfe.

Politische Chatbots

In Bezug auf ChatGPT kritisiert Musk zudem auf abc News, dass der Chatbot eine ideologische Voreingenommenheit habe und darauf trainiert werde, politisch korrekte Antworten im Sinne des links-liberalen Establishments zu liefern: Zum Beispiel schreibt das Programm nicht für alle Politiker Lobgedichte und es befolgt staatliche Vorgaben zur Corona-Berichterstattung. Dem wolle Musk mit TruthGPT etwas entgegensetzen, und zwar indem die zugehörige KI darauf ausgerichtet werden solle, die Wahrheit zu suchen und die Natur des Universums zu verstehen. (Siehe: https://abcnews.go.com/Technology/wireStory/elon-musk-hell-create-truthgpt-counter-ai-bias-98654332).

Wenn es auch stimmen mag, dass Konkurrenz und Pluralität in Bezug auf die Weiterentwicklung von KI wichtige Punkte sind, so ist Musks Wahrheits-Semantik im Titel seines projektierten Chatbots nichts weiter als das übliche blumige PR-Geschwätz.

Chatbots sind nicht intelligent, sie ahmen menschliche Intelligenz nach. Menschliche Intelligenz ist immer perspektivisch, deshalb sind auch die Sprachmodelle, die die Programmierer von KI entwickeln, immer perspektivisch. Auch Musks projektierter Chatbot wird die Wahrheit innerhalb der Parameter suchen oder erzeugen, die ihm seine Programmierer vorgeben, und seien es auch noch so viele.

Entscheidend für die Entwicklung von KI ist, dass ihre Anwender verstehen, wie sie funktioniert und nach welchen Prämissen sie konstruiert ist, sonst wird sie zu einem neuen Orakel, dem die Massen blind folgen, ohne zu wissen warum. Die neuen Orakel sind im Gegensatz zu den antiken allerdings keine göttlichen Ratgeber für existenzielle Lebensfragen, sondern werden, beeinflusst durch private und staatliche Interessen, dahingehend gestaltet, die Nutzer berechenbar und damit ökonomisch monetarisierbar und politisch kontrollierbar zu machen. Es ist nicht die Künstliche Intelligenz an sich, die uns Sorgen bereiten sollte, sondern wer die Macht über die KI-Anwendungen besitzt und deren Ergebnisse und Einsatzbereiche beeinflusst.

Jan Bovelet ist Gestalter, Ingenieur und Wissenstheoretiker. Promotion Philosophie an der TU-Berlin, zahlreiche Buch- und Zeitschriftenveröffentlichungen, Ausstellungen und künstlerische Projekte im In- und Ausland.

Mehr zum Thema:
Kundgebung in Osnabrück: Albtraum Künstliche Intelligenz und Digitalisierung

Diesen Artikel teilen:

Facebook
Twitter
LinkedIn
Telegram

schwarz auf weiß unterstützen

Freiwilliges Zeitungs-Abo oder Einzelspende an:

IBAN: DE83 1005 0000 0191 2112 65
(BIC: BELADEBE)

Kontoinhaber: Flugwerk UG (haftungsbeschränkt)

oder hier PayPal –

Ein Abo ist freiwillig. Alle Inhalte sind ohne Bezahlung verfügbar.

ODER
alles von Paul Brandenburg

Spenden an Paul Brandenburg persönlich werden für alle seine Projekte verwendet: