Bernd Flessner hat uns einige Fragen zu KI beantwortet 

Foto: Tesloff Verlag

Woher weiß jemand, ob er intelligent ist?

Er weiß es von anderen, denn selbst feststellen kann er das nicht. Doch auch andere haben wiederum nur menschliche, letztendlich anthropozentrische Kriterien, um Intelligenz zu definieren und festzustellen. Wir sind Gefangene unserer menschlichen Perspektive, die niemals objektiv sein kann. Das führt nicht zuletzt dazu, dass es keine verbindliche Definition von Intelligenz gibt. Im Gegenteil, wissenschaftliche Definitionen arbeiten wir sogar mit verschiedenen Modellen menschlicher Intelligenz. Grundsätzlich versteht man unter Intelligenz die geistigen (kognitiver) Fähigkeiten, die benötigt werden, um logische, mathematische und andere Probleme zu lösen.

Wie unterscheidet sich diese Intelligenz grundlegend von künstlicher Intelligenz und was genau ist das?

Da es keine verbindliche Definition von menschlicher Intelligenz gibt, gibt es auch keine von Künstlicher Intelligenz. Als Beginn der KI-Forschung gilt die berühmte Dartmouth Conference im Sommer 1956 am Dartmouth College in Hanover, New Hamshire. Eine Gruppe renommierter Computerexperten und Informatiker, darunter John McCarthy und Marvin Minsky, haben sich damals folgende Aufgabe gestellt: „The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it.“ (Die Studie soll von der Annahme ausgehen, dass jeder Aspekt des Lernens oder jedes andere Merkmal der Intelligenz im Prinzip so genau beschrieben werden kann, dass eine Maschine gebaut werden kann, um es zu simulieren.) Im Prinzip geht es darum, menschliche Intelligenz maschinell zu imitieren oder zu simulieren.

Erinnern Sie sich, wann und wo Sie das erste Mal mit künstlicher Intelligenz zu tun hatten, mit dem Thema? War das eher im Zusammenhang mit Ihrer Begeisterung für Science-Fiction, oder ging es um konkrete technische Entwicklungen?

Das war sehr wahrscheinlich die Star-Trek-Folge „Ich heiße Nomad“, in der Captain Kirk eine automatische Raumsonde an Bord der „Enterprise“ beamt, die sich Nomad nennt und sich als intelligent erweist. Es kommt zu einem Konflikt, bei der sich die Sonde als weit überlegen erweist. Dennoch gelingt es Kirk am Ende, Nomad davon zu überzeugen, unvollkommen zu sein, worauf sich die Sonde selbst vernichtet. Den Stanley-Kubrick-Film „2001 – A Space Odyssey“ habe ich erst später gesehen. An Bord ist der intelligente Computer HAL 9000, der die Macht auf dem Raumschiff übernimmt. Später kamen dann die Romane von Stanislaw Lem und Philip K. Dick, die ebenso autonome wie intelligente Techniksysteme zeigen.

Ich lese jeden Tag neue Schlagzeilen zu KI. Sei es in der Tageszeitung, aber auch die Gewerkschaftszeitschrift, die Mitarbeiterzeitschrift der Telekom, die Fachzeitschrift für Journalisten – überall ist künstliche Intelligenz Thema. Eher positiv beurteilt, wenn davon die Rede ist, dass KI-Werkzeuge die Diagnose und Behandlung von Krankheiten verbessern, so bei Krebs oder Demenz. Eher bedrohlich oder negativ, wenn uns „der Staubsauger-Roboter ausspioniert“ oder gar, wie jüngst gemeldet, KI-gesteuerte Waffensysteme zum Einsatz kommen, die womöglich selbst entscheiden, was zu tun und wer anzugreifen sei. Wie steht Ihrer Ansicht nach die Waage, die Gut und Schlecht austarieren soll?

Technik ist immer ambivalent nutzbar, als sinnvolles Werkzeug oder tödliche Waffe. Mit einer Klinge kann man Essen zubereiten, Kunstwerke erschaffen und Menschen töten. Letztendlich entscheidet der Mensch, wie er Technik einsetzt. Das gilt auch für die KI, selbst dann, wenn sie autonome Waffensystem steuert. Denn über die Entscheidungsfreiheit der KI hat ja der Entwickler beziehungsweise der Anwender bereits im Vorfeld entschieden. Sowie ein anderer Anwender entschieden hat, eine KI einzusetzen, um medizinische Diagnosen oder bessere Klimamodelle zu erstellen. Den entsprechenden ethisch-moralischen Rahmen stellt der Gesetzgeber zur Verfügung. In einer Demokratie entscheidet also die Legislative über den Einsatz von KI. Einen größeren Kontext bieten die UNO oder multilaterale Verträge. Sie waren maßgeblich daran beteiligt, dass seit 1945 kein militärischer Atombombeneinsatz erfolgt ist. Hier hat sich die Staatengemeinschaft für eine Nichtanwendung entschieden. Eine Ewigkeitsgarantie ist das natürlich nicht.

Es ist so oft die Rede davon, dass es bei KI darum gehe, den Menschen die Arbeit abzunehmen, Arbeit zu erleichtern, effizienter zu sein und ihn für komplexere Arbeit freizustellen. Gibt es denn die „komplexen“ Aufgaben für die Menschen, die da freigestellt werden?

Jeder Automatisierungsprozess führt zu weitreichenden Änderungen in der Arbeitswelt. Manche Berufe fallen weg, andere, neue Berufe, kommen hinzu, vor allem Berufe mit Kontrollaufgaben. Andererseits entstehen Konvergenzberufe, die der Konvergenz von Technologien folgen. Während der Automechaniker verschwunden ist, wurde der Mechatroniker zum neuen Ausbildungsberuf. Ein weiteres Beispiel ist der Gebäudesystemintegrator. Mit dieser Entwicklung wachsen natürlich auch die Ansprüche, während weniger anspruchsvolle Berufe wegfallen. Das ist eine große Herausforderung an das Bildungssystem und den Arbeitsmarkt. Dank der permanenten Weiterentwicklung der KI wird dieser Druck auch noch zunehmen. Wer in Zukunft nicht mit einer KI umgehen kann, der wird es schwer haben, denn die KI wird zum allgegenwärtigen Tool werden. In Zukunft bestimmen Mensch-Maschine-Teams (MMT) und Coboting, also die enge Zusammenarbeit mit Robotersystemen, viele Arbeitsprozesse. Die intelligente Maschine wird zu einem ebenso normalen wie alltäglichen Partner. Dem Menschen fallen bei diesem Prozess immer neue Aufgaben zu, die wir heute noch gar nicht benennen können. Wegfallen wird menschliche Arbeitskraft jedoch auf keinen Fall. Sie verlagert sich nur in andere Bereiche.

Halten Sie es für wichtig, dass Menschen darum wissen, wenn sie es, wie bei Chatbots, nicht mit Menschen, sondern mit Technik zu tun haben? Dass sie wenigstens grob wissen, wie KI funktioniert?

Selbstverständlich. Das gilt für jede Technik, die ich zumindest groß verstehen muss, um mit ihr umzugehen. Sonst könnte jeder Umgang mit einem Auto, einer Kettensäge oder einem Toaster tödlich enden. Im Zeitalter der Digitalisierung muss ich halbwegs wissen, wie eine KI funktioniert, wie ich Fake News und Deep Fake erkenne. Das gilt, wie gesagt, für andere Technologien auch. Den Umgang zu erlernen, dauert natürlich eine Weile.

Sie haben sogar ein Kinder- oder Jugendbuch zu Künstlicher Intelligenz verfasst. Darin wird Aristoteles zitiert mit einer Vision, dass Geräte (Webstuhl, Zither) selbstständig funktionieren und keine Gehilfen oder Sklaven mehr nötig wären. Hat aber Technik oder der Fortschritt jemals die Arbeit wirklich verringert?

Die Quantität der Arbeit hat sich sogar extrem gesteigert, da wir heute in einer gänzlich anderen Welt voller Konsumgüter leben. Gleichzeitig versuchen wir, die Produktionsprozesse dieser Welt zu verbilligen, zu automatisieren und effizienter zu gestalten. Es geht also vor allem um die Qualität der Arbeit, die sich permanent ändert. Für sie hat diese Entwicklung wieder ebenso permanente Anpassungen- und Lernprozesse zur Folge.

Im Zusammenhang mit künstlicher Intelligenz kommen viele Begriffe vor, die aber zum Teil synonym gebraucht werden. Im Major Tom Buch haben Sie auch ein Glossar, darin sind 21 Begriffe zu KI genannt, ich zähle sie mal auf:

Algorithmus, Automat, Autonome Autos, Binäres System, Coboting, Dartmouth Conference, Deep Learning, ENIAC, Enigma, Internet of Things, künstliche Intelligenz, Künstliches neuronales Netz, Lochkarte, Neuronen, Rechenmaschine, Robotergesetze, Smart Grid, Smart Home, Smart Speaker und Z3.

Bei den Begriffen und Erklärungen geht es mal um Technikgeschichte und mal um technische Phänomene. Ich habe zudem aus dem Internet Glossare zusammentragen und bin bei über 100 Begriffen. Das hat aber auch damit zu tun, dass sich KI so rasend schnell entwickelt. Was würden Sie ergänzen, was hat sich vor allem getan seit 2020, als die „kleine Major Tom-Spaceschool“ zu KI erschien?

Heute müsste auf jeden Fall ChatGPT genannt werden.

Wir hatten schon im Zusammenhang mit der letzten ARCHIV-Ausgabe zu Fotografie darüber gesprochen, dass man womöglich „echte“ Fotografien bald nicht mehr von denen unterscheiden kann, die eine KI erzeugt hat. Wir unwirklich wird die Wirklichkeit, wenn Texte und Bilder nicht menschgemacht sind? Oder sind sie es irgendwie doch?

Manipulierte Texte, Töne und Bilder sind ja nichts Neues. Neu sind lediglich die Perfektion und die mögliche Allgegenwart derartiger Wirklichkeiten, wobei es sich ja um mediale Wirklichkeiten handelt. Und mediale Wirklichkeiten sind ja ohnehin inszenierte Wirklichkeiten. Diese Inszenierung beginnt schon mit der Auswahl des Bildausschnitts durch den Fotografen oder die Wahl eines Wortes durch den Texter. Ganz zu schweigen von der temporären Behauptung eines Schauspielers, Hamlet, Sherlock Holmes oder James Bond zu sein. Der Unterschied ist lediglich, dass wir es bei den Kreationen einer KI nicht so leicht erkennen, es mit einer medialen, inszenierten Wirklichkeit zu tun zu haben. Hier helfen nur soziale und kulturelle Lernprozesse, um kritischer mit diesen Wirklichkeiten umzugehen. Und natürlich werden sich auch Menschen in den labyrinthischen Wirklichkeitsangeboten verlieren. Diese Gefahr besteht natürlich.

Sie sind Autor, aber auch als Dozent an einer Hochschule tätig. Dürfen Studierende ihre Texte von einer KI verfassen lassen? Und wenn ja, merken Sie den Unterschied?

Ja, das dürfen sie, jedoch nicht heimlich. Im Gegenteil, wir bieten sogar Seminare an, in denen man den Einsatz von ChatGPT und anderer KI lernen kann. Die KI wird als Tool eingesetzt, als Werkzeug, wie ein Rechenprogramm in der Mathematik. Für den Inhalt und das dafür erforderliche Wissen ist nach wie vor der Mensch zuständig. Denn eine KI ist eine Art Inselbegabung, kein Allrounder oder Sinnstifter.

Glauben Sie, dass Politik und gesetzliche Regulierungen hinterher kommen können mit der Entwicklung von KI?

Nein, zwischen der technologischen Innovationsgeschwindigkeit und der Trägheit der Politik und der Legislative liegen Welten.

Ich habe Sie im Heft als denjenigen vorgestellt, der keine Angst hat vor KI, weil immer schon mit Zukunft beschäftigt. Wie geht es Ihnen da beim Einsatz beim Militär? Es wird ja davor gewarnt, dass sich, forciert durch KI, Konflikte verselbstständigen könnten und es ist sogar von „Killerrobotern“ die Rede. Ist das eher Sciencefiction?

Beides, Sciencefiction und Realität. In der Sciencefiction gibt es schon lange autonome Waffensysteme mit KI, etwa bei Stanislaw Lem (Frieden auf Erden) oder Philip K. Dick (Variante Zwei). In den genannten Beispielen verliert der Mensch jegliche Kontrolle über diese Systeme, die nun eigene Entscheidungen treffen. Die Warnung ist unmissverständlich, denn jegliche Technik beinhaltet die Gefahr eines Kontrollverlustes, und sei es in Gestalt eines simplen Defektes.

Sie sind – auch – Zukunftsforscher. Gibt es eigentlich ein „zurück“ in der Zukunft? Gab es je, außer durch Kriege, in der Geschichte der Technik eine Erkenntnis, wir sind zu weit gegangen, wir lassen das ruhen?

Die Atombombe beziehungsweise die Nutzung der Kernenergie hatte ich ja schon genannt. Ein weiteres, aktuelles Beispiel die die Energiegewinnung aus fossilen Energieträgern. Die Ära des Feuers beenden wir derzeit und mit ihr die dazugehörige Technik.

Danke für die Ausführungen!

Wenn Ihnen der Beitrag gefallen hat, teilen Sie ihn: