Mensch vs. Computer – wie unterschiedlich wir doch denken
Inhalt / Content
Etwas, das du vielleicht noch nicht von mir weißt, ist, dass ich im Nebenfach Wirtschaftspsychologie studiert habe. Nun geht ein sogenanntes Minor-Studium natürlich nicht gerade in die Tiefe und ich würde mich niemals als Psychologin bezeichnen, aber ich habe ein paar Grundkompetenzen mitbekommen, die mir bis heute oft helfen. Zum Beispiel wie man Laborsituationen schafft und Experimente mit seinen Kommilitonen durchführt. Ein großer Spaß! Der Schlüssel dabei ist, dass man so viele Variablen ausschließen muss, wie es nur irgendwie geht. Denn das menschliche Gehirn ist voller, VOLLER Störfaktoren.
Aber warum erzähle ich das alles? Weil ich im Moment häufig an diese Art von Experiment zurückdenke, da in der Arbeit mit dem Computer so häufig klar wird, wie anders wir Menschen denken. Und das führt mich immer wieder an den Punkt, an dem ich denke, dass künstliche Intelligenz nicht möglich ist. Warum das so ist und warum ich glaube, dass das Duell Mensch vs. Computer gar keines ist, erfährst du heute hier.
Mensch vs. Computer oder ist doch alles eitel
Es sind in letzter Zeit ein paar Artikel erschienen, in denen darüber nachgedacht wird, ob Literatur in Zukunft mit dem Computer generiert werde könnte. Dazu gehört zum Beispiel auch dieser Artikel von Ulla Hahn in der FAZ. Darin führt sie auch an, dass es einige Beispiele für computergenerierte und damit “künstliche“ Kunst ja schon gäbe. Im Allgemeinen scheint große Angst zu herrschen. Denn die Qualität der Literatur ist natürlich (wieder einmal) in höchster Gefahr und, was seltener gesagt aber sicher meistens gefürchtet wird, der eh schon nicht wirklich rosig da stehende Künstler könnte überflüssig werden. Ist das so? Ich glaube nicht daran, und ich möchte dir natürlich auch erklären, warum nicht.
Kein Fressen, keine Moral oder: Computer verwirklichen sich nicht selbst
Menschen haben gewisse Bedürfnisse, das hat wahrscheinlich jeder von uns in der Schule mal anhand der Bedürfnispyramide nach Maslow gelernt. Computer haben solche Bedürfnisse nicht. Das fängt schon bei den existenziellen Bedürfnissen an. Computer brauchen ja eigentlich nur Strom und auch das nur, um zu funktionieren. Haben sie keinen, ist ihnen das wohl auch egal. Sie haben auch kein soziales Bedürfnis, brauchen keine Sicherheit und keine Anerkennung. Vor allem haben sie aber keinerlei Bedürfnis nach Selbstverwirklichung, dem höchsten Streben aller Menschen (nach Maslow). Oder, wie Brecht vielleicht sagen würde: Sie brauchen kein Fressen und auch keine Moral. Lange Rede, kurzer Sinn, was ich sagen möchte ist das Folgende. Kein Computer der Welt wird eines Tages von sich aus beginnen, Literatur zu erschaffen.
Und dies ist auch der Punkt, der mich in der Debatte am meisten stört. Dass diejenigen, die den vermeintlichen Kampf Mensch vs. Computer fürchten nicht sehen, dass hinter jedem Computerprogramm mindestens ein Mensch sitzt. Wenn wir heute also bereits Algorithmen haben, die Lyrik schreiben können, dann nur, weil kreative Menschen sich hingesetzt haben, um einen Code zu schreiben, der dem Computer sagt, wie er das machen soll. Die Kreativität vermindert sich also nicht, sie wird nur anders.
Reproduktion, Remix, (unüberwachtes) lernen – damit erreichen wir keine Schöpfungshöhe
Jetzt könnte man ein besorgtes Aber einwerfen. Man könne ja nicht wissen, ob künstliche Intelligenzen nicht irgendwann Bedürfnisse entwickeln würden. Vielleicht würden sie ja irgendwann so schnell lernen, dass sie ihre Entwickler übertrumpfen können. Schließlich hat Hollywood uns so was ja schon einmal gezeigt in dem Film Her. Tatsächlich ist es ziemlich erstaunlich, was lernende Algorithmen heute schon ermöglichen. Wir bekommen für uns optimierte Suchergebnisse bei Google und unsere Surferfahrung bei Pinterest wird auch immer besser, weil wir ständig zeigen, was uns so interessiert und was nicht.
Lernen durch Beispiele
Ich habe ja nun schon eine ganze Weile mit Digital HumanitiesAuch als digitale Geisteswissenschaften bezeichnet. Ein Forschungsfeld, in dem vielfältige digitale Methoden eingesetzt werden, um geisteswissenschaftliche Projekte zu bereichern. Das können z.B. Computerprogramme zur Textanalyse sein oder Software, mit der digitale Editionen zugänglich gemacht werden. Zum Feld der digitalen Geisteswissenschaften kann auch die Beschäftigung mit Phänomenen der Digitalisierung und die digitale Wissenschaftskommunikation gezählt werden. More Methoden experimentiert und auch schon selbst den ein oder anderen Versuch gestartet, machine-learning-Algorithmen für literaturwissenschaftliche Analysen zu trainieren. Und je länger ich mit diesen Tools arbeite, desto klarer wird mir, dass sie nur Dinge verarbeiten können, die zu dem Trainingsmaterial passen, das wir ihnen geben. Ich kann z.B. einen Computer lehren, Figuren-Namen in Fontane-Texten zu erkennen und er kann darin richtig gut werden. Richtig gut heißt in diesem Falle fast so gut wie ich selbst als Mensch. Aber eben nur fast.
Abstraktion = Häufung von Mustern
Wird die Aufgabe komplexer und er soll z.B. nicht nur in Fontane-Texten Figuren erkennen, sondern auch in Texten anderer Autoren wird’s schon schwieriger. Aber es kann auch noch gut klappen. Immer ist aber der Erfolg des Lernens damit verbunden, wie gut und wie passend das Trainingsmaterial ist. Denn der Computer reproduziert aus Beispielen und abstrahiert nur bis zu einem gewissen Grad davon. Dieser heißt statistische Häufigkeit. Ich will hier gar nicht tiefer in die technischen Details gehen, aber fest steht, der Computer reproduziert und rekombiniert lediglich, was ich ihm zeige, er erkennt Ähnlichkeiten und Häufungen. Das ist viel, aber nicht genug, um wirklich schöpferisch zu werden. Da aber für alles, was wir als Kunst bezeichnen eine gewisse „Schöpfungshöhe“ eine Rolle spielt, steht fest, dass der Computer alleine nicht zum Künstler werden kann.
Kunst sucht das Ungewöhnliche, Computer das Gleiche
Ich hab es schon gesagt, Computer lernen stets von dem, was wir ihnen als Beispiele geben. Abstraktion besteht bei ihnen bloß in der Verallgemeinerung besonders häufig auftretender Fälle. Auch lernen Menschen ganz anders, so viel weiß ich noch aus meiner oben schon erwähnten Psychologie-Einführung. Menschen lernen am besten, wenn sie Informationen auf mehreren Ebenen verknüpfen können. Darum arbeiten so viele Lernsysteme mit Eselsbrücken. Und am allerbesten behalten wir Dinge, die mit Emotionen verknüpft sind.
Außerdem beobachte ich vor allem bei Geisteswissenschaftlern, aber ich glaube, dass das durchaus auch auf andere zutrifft, dass Menschen das Besondere, das vielschichtige und unerklärliche besonders mögen. Computer können mit so etwas aber gar nicht umgehen. Wie sollten sie auch lernen, etwas Einzigartiges als solches einzuordnen? Anhand von anderen Beispielen der Einzigartigkeit? Wären die dann noch einzigartig oder doch wieder nur ein Beispiel, das für viele andere steht?Du siehst, worauf ich hinaus möchte: Den Kampf Mensch vs. Computer kann noch lange nicht als einer mit ebenbürtigen Gegnern betrachtet werden.
Menschliche Kategorien sind nicht = technische Kategorien
Jetzt habe ich schon viel über die technische Seite des Duells Mensch vs. Computer gesagt und nur wenig über die menschliche. Aber auch über diese Seite kann man viel lernen, wenn man sich näher mit Digital-Humanities-Verfahren beschäftigt. Gerade neulich ist mir im Gespräch mit einer Studierenden klar geworden, dass viele Aspekte des Vergleichs von menschlichem und künstlichem Denken sich eigentlich darauf zurückführen lassen, dass die Kategorien, in denen Menschen denken ganz anders sind als die, die Computer benötigen, um Lernerfolge zu erzielen. Um es mal ganz platt auszudrücken, ist menschliches Schubladendenken zwar nicht das Schönste, was man sich vorstellen kann, aber menschliche Schubladen ist immer noch viel, VIEL komplexer als technische.
Über Lücken und Dinge, die nicht da sind
Hast du dich schon einmal gefragt, ob es in der fiktiven Welt, in der Sherlock Holmes lebt, eine Stadt gibt, die Reykjavik heißt? Was würdest du antworten, wenn ich dir diese Frage stellen würde? Höchstwahrscheinlich würdest du mir sagen: „Klar gibt es dort auch Reykjavik“ selbst wenn Reykjavik in der kompletten Sherlock-Holmes-Ausgabe nicht ein einziges Mal vorkommt (Ich habe das übrigens nicht überprüft, hoffe aber einfach mal, dass das so ist, denn meine Doyle-Lektüre liegt schon etwas zurück…). Das kommt daher, dass wir beim Lesen Informationen ergänzen. Spielt eine Geschichte mit einem realistischen Setting in einer Stadt namens London, so nehmen wir an, dass die darin dargestellte Welt weitgehend der unseren ähnelt. Anders herum geht das übrigens auch. Bei einem realistischen Setting haben wir eher die Tendenz anzunehmen, dass alle Details realistisch sind. Wir beginnen uns z.B. zu fragen, ob es Baker Street 221b wirklich gibt (beliebte Google-Anfrage – DAS habe ich überprüft).
Aber Leser ergänzen nicht nur solche Lücken in Erzählungen, nein durch Interpretation können wir auch ganze Ereignisse erfassen, die gar nicht erwähnt werden. Wir können so gut zwischen den Zeilen lesen, dass wir z.B. wissen, was Emma Bovary auf einer langen Kutschfahrt machte. Wir kennen das schlimme Schicksal der Marquise von O. obwohl die Szene ihrer Vergewaltigung von Kleist hinter einem Gedankenstrich verborgen wurde. Es ist aber auch möglich, mit einem Erzähler von einer realistischen in eine Traumwelt abzudriften, in der plötzlich andere Gesetze gelten, so wie es in den Texten von Daniel Kehlmann so oft passiert. Also kommen wir eigentlich nicht nur mit Lücken und Dingen klar, die nicht da sind, wir haben auch kein Problem mit ständiger Veränderung.
Über Paradoxe
Da ist aber noch etwas, das uns keinerlei Probleme bereitet, ja, ich glaube sogar, dass wir ein gewisses Faible dafür haben (Geisteswissenschaftler auf jeden Fall): Das Paradoxe. Vor langer, langer Zeit habe ich mal einen Blogartikel über die Pro- und Antagonisten von Kriminalromanen geschrieben und darüber, warum verkorkste Ermittler so beliebt sind. Nehmen wir nochmal Sherlock Holmes und Prof. Moriarty, einfach, weil sie so ein berühmtes Beispiel sind. Beide sind intelligent. Sie sind auch beide irgendwie anders. Und sie beschäftigen sich beide mit Morden. Trotzdem ist einer der Gute und der andere der Böse. Aber ist das wirklich so oder haben wir es hier mit einer Kippfigur zu tun? Kann der Gute jederzeit die Seite wechseln?
Diese Fragen machen einen Teil der Spannung in Krimis mit verkorksten Ermittlern aus, darüber habe ich ja auch schon in oben erwähntem Blogartikel geschrieben. Das ist herrlich spannend, paradox und sicher ein Grund dafür, dass viele Leser Krimis so lieben. Es gibt noch viel, viel mehr Beispiele von Paradoxen und Ambivalenzen in der Literatur, Medea, die ihre eigenen Kinder ermordet z.B. oder Romeo und Julia, die gleichzeitig Feinde und Liebende sind. Vielschichtigkeit ist eine wichtige Basis für Literatur.
Oh so fuzzy
Vielschichtigkeit ist auch etwas, womit der Computer gar nicht klar kommt. Alles, was nicht eindeutig kategorisierbar ist, wird als „fuzzy“ bezeichnet. Gleichzeitig Feinde und Liebende? Zu fuzzy, also bitte für eines entscheiden! Ebenso viele Anlagen zum Guten wie zum Bösen? Unentscheidbar, ob Pro- oder Antagonist! Und was macht der Computer wohl mit einer Geschichte wie der von Herculine Barbin, der hermaphroditischen Person, die ihre Lebensgeschichte aufschrieb, sodass Foucault und andere später darüber nachdenken konnten? Erst ein Mädchen, dann ein Mann, das ist ja noch automatisch erkennbar, aber dass es sich dabei um die gleiche Person handelt? Zumal auch der Name gewechselt wurde – wohl kaum! Schließlich beruht alles informationstechnologische auf einem binär angelegten Code. Und wenn wir wollen, dass unserer technischen Unterstützer etwas für uns erkennen, so müssen wir unsere Kategorien hübsch auf sie abstimmen und zwar möglichst binär.
Mythos KI
Du merkst also, dass Computer Menschen in absehbarer Zeit wohl kaum ersetzen können. Den Kampf Mensch vs. Computer gewinnen also definitiv wir. Sie kommen ja noch nicht einmal nah an das komplexe Denken heran. Und dabei haben wir in diesem Artikel lediglich über die Grundlagen nachdenken können. Zu so feinen menschlichen Ausdrucksmitteln wie Ironie sind wir noch gar nicht gekommen. Eine künstliche Intelligenz ist also ein Mythos. Aber heißt das, dass alle Sorgen bezüglich der neuen Art, Kunst zu betrachten und vielleicht sogar zu erschaffen unbegründet sind? Wie denkst du darüber?
2 Kommentare
Joachim
Hallo Mareike,
Danke es dich gibt.
Auf der Suche nach einer Anleitung für Blogs bin ich auch auf dich gestossen.
Ki hat mich schon immer interessiert:
– Die ersten Schachprogramme in den 70 Jahren…
– Der eigene Versuch ein Programm zu schreiben, das Go spielt
– bis Deep Blue Kasparow schlug
Männer spielen ja ihr ganzes Leben lang, ich jedenfalls, aber heute mehr kooperativ.
Programmieren wurde so zu meiner Passion.
Ich finde es interessant hier mal einen Einblick in die literarische Seite zu bekommen.
Was Filme angeht, habe ich wohl „fast“ alles gesehen.
Hier bekomme ich von dir einen sehr schönen Überblick über die Literatur.
Noch ein paar Anmerkungen von mir:
– Fuzzy logic ist die dreiwertige Logik: ja – vielleicht – nein; das war mal eine Weile in
– Paradoxien faszienieren mich auch immer wieder
– von den Lücken – „das was zwischen den Zeilen steht“ – hatte ich mal in einem Liebesbrief ausführlich Gebrauch gemacht
Also vielen Dank für deinen Artikel!
Joachim
Mareike K Schumacher
Lieber Joachim,
vielen Dank für deinen Kommentar und deine Anmerkungen. Ich komme ja tatsächlich von einer ganz anderen Seite zu dem Thema und finde, dass gerade die beiden Perspektiven Literaturwissenschaft – Informatik sich super ergänzen können, weil die Denkart (zumindest auf den ersten Blick) ja recht unterschiedlich ist. Ich finde das wahnsinnig gewinnbringend!
Herzliche Grüße,
Mareike