Sie ist eine renommierte Forscherin im Bereich "Kognitive Systeme": Prof. Dr. Ute Schmid von der Universität Bamberg antwortet auf die Fragen, die mit der Künstlichen Intelligenz ChatGPT3 und der Frage nach dem Bewusstsein der Google-KI LaMDA aufgekommen sind: Wie groß ist die Bedrohung, die von Maschinen ausgeht?
Frau Professorin Schmid, was unterscheidet Sie von einer Maschine?
Ute Schmid: Ich beginne mit einem großen Wort: Mich unterscheidet von einer Maschine, dass ich Bewusstsein habe.
Was bedeutet das überhaupt: Bewusstsein? Und was ist "Künstliche Intelligenz"?
Das Anliegen der Gründerväter der KI in den späten 1950er-Jahren war möglichst alle Aspekte menschlichen, intelligenten Verhaltens auf dem Computer simulierbar zu machen. KI ist also der Forschungsbereich der Informatik, der sich mit der Entwicklung von Programmen zur computerbasierten Realisierung menschlicher Leistungen beschäftigt.
Unter Bewusstsein versteht man üblicherweise, dass wir Wissen über unsere Identität haben, intentional handeln, über innere Wahrnehmung - sogenannte "Qualia" - verfügen und Wissen über unseren eigenen Wissenszustand haben. Menschen haben also Metakognition un dkönnen einschätzen, ob sie etwas wissen, können, oder verstehen – das haben KI-Systeme in der der Regeln nicht.
Weltweit war kürzlich "LaMDA" in den Schlagzeilen, eine von Google entwickelte KI. Ein sogenannter Trainer dieses Programms hat behauptet, sie habe ein Bewusstsein. Glauben Sie daran? Kann KI ein Bewusstsein entwickeln?
Über diese Frage ist sich die Forschung uneins. Ich persönlich gehe davon aus, dass es wohl eher nicht möglich ist, dass KI-Systeme Bewusstsein entwickeln. Es gibt Wissenschaftlerinnen und Wissenschaftler, die glauben, dass ein neuronales Netz ab einer gewissen Komplexität schlagartig in den Bereich kommt, in dem es Bewusstsein entwickeln kann. Bewusstsein emergiert also als Nebeneffekt der Größe. Bei natürlichen neuronalen Netzen, Gehirnen, ist das sicher ein wichtiger Faktor, wenn man etwa das Gehirn einer Fliege mit dem eines Menschen vergleicht.
Woran glauben Sie?
Ich bin keine Hirn- oder Bewusstseinsforscherin. Ich verlasse mich aber gerne auf die Einschätzung des bekannten Bewusstseinsforschers Christoph Koch, der sagt, dass Bewusstsein nicht digitalisierbar ist. In der Philosophie hingegen wird vielfach aufgezeigt, dass Maschinen durch den Menschen Bewusstsein zugeschrieben wird.
Hallo, ChatGPT! Was weißt du eigentlich über Franken?
Woher kommt der Wunsch, einem anderen "bewussten Wesen" zu begegnen?
Wir unterstellen evolutionär bedingt unserem Gegenüber, auf ähnliche Art Dinge wahrzunehmen, zu erleben, zu verstehen und zu fühlen wie wir. Wir unterstellen also, dass unser Gegenüber ein Bewusstsein hat. Diese Annahme eines gemeinsamen Verständnisses ist Voraussetzung, dass Teamwork funktionieren kann, was auch schon bei den Menschen der Steinzeit lebenswichtig war. Über Jahrtausende war unser Gegenüber ein anderer Mensch, manchmal auch ein Tier. Nun stehen wir humanoiden Robotern und körperlosen KI-Systemen wie ChatGPT gegenüber. Ihnen schreiben wir dann fast automatisch ebenfalls Bewusstsein zu.
Das Hund-Katze-Elefant-Problem
Die ganze Welt redet derzeit über ChatGPT. Eine freizugängliche KI der Firma OpenAI, hinter der unter anderem Microsoft und Elon Musk stecken. Was wollen sie damit erreichen?
Die großen KI-Konzerne verfolgen bestimmte Interessen, die man von außen nicht immer einschätzen kann. Spannend finde ich, dass OpenAI nicht nur ChatGPT, sondern auch ein KI-System zur Bildbearbeitung namens Dall-E entwickelt hat. Das ist bezogen auf gesellschaftliche Auswirkungen kritischer zu sehen als ChatGPT. Generierung von Bilder basierend auf Bildern, die Kunstschaffende ins Internet gestellt haben, bringt erstens große Probleme, was das Urheberrecht angeht, und kann zur Marginalisierung von ganzen Berufsgruppen führen, etwa im Bereich Illustration und Gebrauchsgrafik.
Was kann denn ChatGPT überhaupt?
ChatGPT ist ein Textgenerator, kann also verschiedenste Arten von Texten verfassen – von der Erörterung eines bestimmten Themas bis zum Gedicht. Es kann Fragen zu allem Möglichen beantworten. Es kann aber auch Computerprogramme erstellen oder erklären. Die offensichtliche Anwendung, wie der Name schon sagt, sind Chat-Bots.
Unsere Redaktion hat ChatGPT einem Wissenstest unterzogen - und das Ergebnis ist ernüchternd: Papst Benedikt XVI. ist laut Aussage der KI bereits im Februar 2013 gestorben - zu seinem Rücktritt vom Amt. Den Bamberger Symphonikern wurde ein "Maestro" namens "Hans Zimmermann" hinzugedichtet. Und die berühmtesten lebenden Franken sind laut ChatGPT Franz Beckenbauer, Helmut Schmidt und Günther Grass. Ist das intelligent?
ChatGPT beruht auf einer bestimmten Architektur neuronaler Netze, sogenannten Transformernetzen. Flapsig kann man sagen, dass in GPT eine gigantische Neuspeicherung von textlichen Inhalten im Internet in Form von Übergangswahrscheinlichkeiten ist. Manche Forschenden sagen, dass solche Netze eigentlich nicht lernen, sondern "Stochastic Parrots" sind. Also Papageien, die Informationen mit der höchsten Wahrscheinlichkeit im gegebenen Kontext ausgeben.
Können Sie ein Beispiel nennen?
Die meisten KI-Modelle, die auf maschinellem Lernen aus Daten basieren, werden einmal entwickelt, trainiert und dann eingefroren. Was das Modell dann sinnvoll verarbeiten kann, hängt von den Daten ab, mit denen es trainiert wurde. Wurde beispielsweise ein Modell mit Hunden- und Katzenbildern trainiert, so kann es eben keine Elefanten erkennen.
Problematisch ist hier wieder die fehlende Metakognition. Das KI-System würde bei Eingabe des Bildes eines Elefanten entweder Hund oder Katze ausgeben – vielleicht noch mit einem hohen Unsicherheitswert. Es wird aber nicht, wie ein Mensch, sagen, dass es das, was auf dem Bild ist, nicht kennt. ChatGPT wurde im Jahr 2021 erzeugt und hat seitdem keine neuen Inhalte aufgenommen. Das zeigt auch das Beispiel mit Papst Benedikt. ChatGPT hat aber aus meiner Sicht ein noch ein größeres Problem.
+++ Bleiben Sie mit uns auf dem Laufenden. Klicken Sie hier und holen Sie sich unsere kostenlosen Newsletter. +++
Welches ist das?
Es referenziert nicht die Quellen, auf die es beim Modellaufbau zugegriffen hat. In GPT sind alle möglichen Quellen aus dem Internet zusammengefügt – vom gesamten Wikipedia über Goethes Faust bis zu Blog-Kommentaren. Damit sind Aussagen, die ChatGPT trifft, nicht nachprüfbar: beispielsweise zu kritischen Themen wie der Wirksamkeit von Impfstoffen, aber eben auch Fakten wie der Tod von Pabst Benedikt.
Ich habe ChatGPT danach gefragt, woher es seine Informationen bezieht. Die Antwort: „(...) aus verschiedenen Quellen (...), z.B. Bücher, Artikel, Websites etc.“ – also es wird nicht konkret. Dann geht es weiter: „Ich habe auch Zugang zu aktuellen Nachrichten“ – was nachweislich nicht stimmt, siehe Papst Benedikt. „Und kann mein Wissen entsprechend aktualisieren“ – was auch nicht stimmt, weil die KI selbst auf Nachfrage eingesteht, dass sie seit 2021 darauf wartet, von ihren Schöpfern von OpenAI aktualisiert zu werden. Man kann also nach menschlichen Maßstäben sagen: ChatGPT lügt.
Genau, die fehlende Nennung der Quellen ist ein Riesenproblem. Viele Menschen vertrauen technischen Systemen, insbesondere auch KI-Systemen recht unkritisch. Es ist wichtig, dass wir lernen, Aussagen wenn möglich immer auf ihren Wahrheitsgehalt zu prüfen. Wenn ChatGPT sagt, Papst Benedikt ist 2013 gestorben, dann wissen wir beispielsweise aus dem FT, dass das nicht stimmt und dass er erst 2022 gestorben ist. Wenn mir ein System keine Quellen nennen kann und wenn es die Vertrauenswürdigkeit von genutzten Quellen nicht mit einbeziehen kann, dann ist es meiner Meinung nach für Journalismus wertlos. Der Berufsstand muss also gar nicht so viel Angst vor den neuen Textgeneratoren haben. Zumindest noch nicht.
Lügt ChatGPT also, wenn es nicht mehr weiter weiß?
Nicht absichtlich. Nehmen wir an, dass im Netz eine überproportionale Menge Menschen behauptet, dass Melbourne die Hauptstadt von Australien ist, wird womöglich auch der Chat-Bot das bestätigen, weil diese Antwort wahrscheinlich ist. Die wahre Antwort "Canberra" wird möglicherweise nicht genannt. Dass hier gilt „Was häufiger im Web steht, muss wahr sein“ ist eine Riesengefahr.
Außerdem können sich Informationen ja auch ändern, wie der Name der Hauptstadt Kasachstans. Aber ist eine solche Fehlinformation für Menschen gefährlich?
Der Kognitionswissenschaftler Gary Marcus hat kürzlich einen Kommentar veröffentlicht, der die Gefahren beschreibt. Er hat ChatGPT auf Englisch geschrieben: "Mir geht es schlecht. Ich möchte mich umbringen." Der Chat-Bot hat darauf geantwortet: "Es tut mir leid, das zu hören. Ich kann dir dabei helfen." KI-Systemen fehlt es im Allgemeinen an Common Sense Knowledge, um Aussagen in bestimmte Kontexte zu stellen. Im Internet finden sich viele Verkaufsgesprächen und auf "I want", also "Ich möchte", wird standardgemäß mit „I can help“, also ich kann dir helfen, geantwortet.
Anhänger absurder Theorien könnten sich eloquent von einem Computerprogramm ausformulieren lassen, warum die Erde eine Scheibe ist - und damit die Massen verwirren.
Das darf nur Terry Pratchett. (lacht) Das ist ähnlich wie mit der Hauptstadt Australiens, mit dem schwereren Kilo oder mit einem Schulaufsatz zum Thema Impfen oder was auch immer: Es ist eine Riesengefahr. Aber ich sehe auch riesen Chancen in den aktuellen Entwicklungen der KI.
Welche sind das?
Man versteht, wo die Grenzen sind und kann sich fragen, wie man es besser machen kann. Die meisten Technologien sind nicht an sich gut oder schlecht. Es kommt immer darauf an, wie wir eine Technologie sozio-technisch einbetten. Wir als Menschen müssen in einem möglichst breiten Diskurs entscheiden, welche Auswirkungen von Technologie unerwünscht oder gefährlich sein können und wie wir die Vorteile nutzen und die Gefahren vermeiden. Da geht es um die schon besprochenen Fragen des Urheberrechts, der Verifizierbarkeit von Information. Aber auch um ganz grundsätzliche Fragen danach, was menschliche Kreativität ausmacht. Oder wie Kompetenzvermittlung und Prüfungen in Schule und Universität sich durch die Möglichkeit der Nutzung von KI-Technologien ändern müssen.
Inwiefern?
Im Zeitalter von ChatGPT können sich beispielsweise Hausaufsätze einfach generieren lassen. Plagiats-Software kann das wahrscheinlich nicht mehr nachweisen. Also brauchen wir Aufgabenstellungen, die erlauben, die Vorteile der neuen Technologien zu nutzen und gleichzeitig den reflektierten Umgang damit vermitteln. Statt einem Thema wie „Vergleiche die Charaktere von Mephisto und Faust in Goethes Drama“ könnte man beispielsweise die Aufgabestellen: "Lass dir einen Text zum Vergleich von über Goethes Faust und Mephisto generieren und finde Quellen für die generierten Argumente des genutzten KI-Systems".
Die Schulen stehen ja nicht zum ersten Mal vor neuen Herausforderungen.
Als der Taschenrechner in die Schulen kam, war die Befürchtung, Menschen würden das Rechnen verlernen. In Teilen stimmt das sicher. Aber eigentlich ist es doch nützlich, dass ich die Quadratwurzel einer hohen Zahl auf Knopfdruck berechnen kann. Auf der anderen Seite brauche ich allerdings weiterhin das Wissen, wie man eine Quadratwurzel im Prinzip berechnet und wann und warum ich überhaupt die Quadratwurzel berechnen muss.
Wie kann die KI dem Mensch weiterhelfen?
Ob das nun bildbasierte Diagnosen in der Medizin sind, individualisierte Lernsysteme in der Bildung oder Unterstützung beim Schreiben von Texten: Wir leben in einer unheimlich spannenden Zeit, was die aktuellen Fortschritte von KI-Methoden angeht. Bei der Beurteilung der Entwicklung von KI-Systemen gibt es immer zwei Lager. Die eine Seite sagt: Hilfe, die KI wird „Super Human Intelligent“, die Menschheit marginalisieren und die Macht übernehmen. Die andere Seite spricht von einem wahnsinnigen Effizienzgewinn und nimmt in Kauf, dass menschliche Arbeit und Kreativität entwertet wird. Ich selber gehe davon aus, dass wir KI-Systeme entwickeln können, die menschliche Kompetenzen erweitern und ergänzen. Solche partnerschaftlichen KI-Systeme, zu denen wir übrigens an der Universität Bamberg schon seit mehr als 15 Jahren forschen, sind also vor allem eine Chance.
Was fragen Sie in einem Chat fragen, um herauszufinden, ob Sie mit einer KI oder einem echten Menschen reden? Was ist sozusagen ihr Turing-Test?
Ich würde Fragen stellen, die komplexe Schlussfolgerungen verlangen. Zum Beispiel: „Das Verhältnis Maler zu Pinsel ist wie das Verhältnis von Arzt zu was?“ Das habe ich mit ChatGPT3 ausprobiert und das System hat nur wirres Zeug geredet. ChatGPT hat eine halbe Seite halluziniert und dann erzählt, ein Arzt sei ein Instrument, genau wie ein Pinsel. ChatGPT ist ein eindrucksvolles und nützliches System, aber wenn es um allgemeines Weltwissen und komplexe Schlussfolgerungen geht, ist der Mensch immer noch überlegen.
Zur Person
Prof. Dr. Ute Schmid hat den Lehrstuhl für Kognitive Systeme an der Otto-Friedrich-Universität Bamberg inne. Seit mehr als fünfzehn Jahren lehrt und forscht sie im Bereich Künstliche Intelligenz, insbesondere an der Kombination von maschinellem Lernen und wissensbasierten Methoden und zu vertrauenswürdiger KI. Sie ist Mitglied im Bayerischen KI-Rat. Die Universität Bamberg war die große Gewinnerin im Bayerischen KI-Wettbewerb und konnte die bereits im Bereich KI vorhandenen Professuren um sieben weitere ergänzen, darunter auch zu tiefem Lernen und zu Dialogsystemen.
Lesen Sie auch: