Artiscovery | Zur Ästhetik des Digitalen
321
page-template-default,page,page-id-321,ajax_fade,page_not_loaded,,qode_grid_1300,footer_responsive_adv,qode-theme-ver-16.4,qode-theme-bridge,disabled_footer_top,wpb-js-composer js-comp-ver-5.4.7,vc_responsive

Zur Ästhetik des Digitalen

Kunst, Wissenschaft und Technik

Claudia Giannetti

Kunst – Wissenschaft – Kunst

Überlegungen zum Zusammenhang von Kunst und Wissenschaft gehen von verschiedenen Gesichtspunkten aus. Die allgemeinsten beschränken sich auf die Annahme einer Parallelentwicklung. Werner Heisenberg, mit Max Planck einer der Gründerväter der Quantentheorie, meint in seinen 1970 publizierten Schriften, die Tendenzen zur Abstraktion in den Wissenschaften seien denen in der Kunst vergleichbar. Nach Heisenberg können sich neue künstlerische wie wissenschaftliche Formen nur aus neuen Inhalten ergeben und nicht etwa umgekehrt. Die Kunst zu erneuern oder die Wissenschaft zu revolutionieren, bedeute, neue Inhalte und Begriffe zu bilden, und nicht allein neue Formen. [1] Eine komplexere Frage als die nach Parallelen zwischen Kunst und Wissenschaft ist, in welchem Maße die Kunst Einfluss auf die Wissenschaften ausübt. Nach Peter Weibel lässt sich diese Frage nur methodologisch beantworten, das heißt durch einen Vergleich, der Kunst und Wissenschaft als Methoden versteht. Wissenschaft zeichne sich zwar durch ihren methodologischen Charakter aus, die Kunst, so Weibel, wird jedoch allgemein hin nicht als Methode betrachtet: »Dies ist unser erstes Ziel: Kunst und Wissenschaft können nur vernünftig verglichen werden, wenn wir akzeptieren, dass beide Methoden sind. Das bedeutet nicht, dass wir erklären, dass beide dieselben Methoden besitzen. Wir wollen nur erklären, dass beide eine methodische Annäherung haben, selbst wenn ihre Methoden verschieden sind oder sein können.« [2]

In methodologischem Sinne dürften Kunst und Wissenschaft demnach als konvergent angesehen werden. Wissenschaft werde nach Weibel von Kunst in methodischer Hinsicht beeinflusst, nicht durch ihre Produkte und Referenzen. »Immer dann wenn Wissenschaft Tendenzen zu einer zu autoritären, zu dogmatischen Methode entwickelt, wendet sie sich der Kunst und ihrer Methodologie zu, dass heißt, der Mannigfaltigkeit der Methoden.« [3] Die objektive Natur existiere weder im Rahmen der Wissenschaften noch in der Kultur unabhängig von sozialer Konstruktion, »Kunst und Wissenschaft konvergieren und treffen sich in der Methode der Sozialkonstruktion«. [4]

Diese Position findet ihren radikalsten Ausdruck in den wissenschaftstheoretischen Beiträgen von Paul Feyerabend. Als Kritiker des wissenschaftlichen Rationalismus entwickelt er neue Interpretationen und Zusammenhänge von Künsten und Wissenschaften. Seiner Ansicht nach folgen sowohl Künstler als auch Wissenschaftler, wenn sie einen Stil oder eine Theorie entwickeln, häufig einer sekundären Intention, nämlich der, zur Darstellung ›der‹ Wahrheit oder ›der‹ Realität. Künstlerische Stile seien jedoch eng mit Stilen des Denkens verbunden. Was eine bestimmte Form des Denkens unter Begriffen wie Wahrheit oder Realität versteht, ist das, was diese Form des Denkens als Wahrheit behauptet. Entscheidet man sich für einen Stil, eine Realität oder eine Form der Wahrheit, dann entscheidet man sich immer für ein von Menschen erschaffenes Konstrukt. Mit anderen Worten, Feyerabend negiert die Möglichkeit absoluter Rationalität und Logik im Blick auf das, was Schöpfung menschlichen Geistes ist. Dieser relativistische und in gewisser Weise irrationale, jeder Wissenschaft inhärente Faktor rücke diese in die Nähe der Kunst. Nach Feyerabend sind die Wissenschaften keine Institutionen objektiver Wahrheit, sondern Künste im Sinne eines progressiven Verständnisses von Kunst. [5]

Feyerabends Argumentation spiegelt jene Skepsis wider, die die Konzepte okzidentaler Kultur und Wissenschaft bis in das 20. Jahrhundert hinein zutiefst geprägt hat. Die bereits erwähnten Fragen nach Wahrheit, Wirklichkeit und Vernunft bilden das Zentrum der Debatte zwischen Rationalismus und Relativismus, die nicht nur die Wissenschaft, sondern auch unmittelbar die Kunst betrifft. Wenn das Wesen der Wissenschaft unter den Prämissen von Realität, Plausibilität und Dialektik als Forschungsmethode stünde, käme man nach dem spanischen Wissenschaftler Jorge Wagensberg beim Versuch, diese drei Prinzipien durch strenges Beobachten der Komplexität der Objekte zu identifizieren, zum Schluss, dass sich das Objekt der Methode widersetze. Es bliebe dann kein anderes Vorgehen übrig, als die »Methode aufzuweichen«, wodurch sich »Wissenschaft in Ideologie verwandelt«. »Ideologie bedeutet im Kern nicht Forschung, sondern Glauben. Aus dieser Überlegung folgt, dass man all jene Löcher, die von der Wissenschaft nicht gestopft worden sind, mit Ideologie füllen muss. […] Wenn das von uns angestrebte Wissen nicht von Gesetzen, sondern von Weltbildern regiert wird, dann scheint es angeraten, sich von wissenschaftlichen Methoden zu verabschieden und vielleicht sogar ihnen radikal entgegengesetzte Prinzipien anzunehmen. Genau dies ist in der Kunst der Fall, einer Art von Wissen, deren Schöpfer nicht das geringste Interesse haben, sich von ihrer Schöpfung zu distanzieren.« [6]

Von besonderer Relevanz für das Verständnis einer neuen, gegenseitigen Durchdringung von Kunst und Wissenschaft ist deren generatives Wesen, das eigene Welten oder Weltbilder hervorbringt. Von daher »sind die Welten von Kunst und Wissenschaft ideologisch keine Gegensätze mehr«, wie Ilya Prigogine feststellt, »die Vielfalt der Signifikate und die grundsätzliche Opazität der Welt spiegeln sich in neuen Sprachen und neuen Formalismen« [7] .

Die Ursprünge der Informationstheorie

Ihren grundlegenden Impuls erhält die technologische Revolution von der ersten industriellen Revolution im 19. Jahrhundert. Diese setzt einen Prozess der Mechanisierung in Gang und löst damit das Phänomen der Regelungskrise aus. [8] Die mit der Mechanisierung zunehmende Produktionssteigerung benötigt Steuerungssysteme zur Beschleunigung des Informationsflusses. So sucht die Forschung Lösungsansätze bei Rückkopplungstechniken, automatischen Steuerungssystemen und der Informationsverarbeitung.

Im Jahre 1868 legt Clerk Maxwell unter dem Titel »On Governors« die erste theoretische Studie zur Analyse von Regelungs- und Rückkopplungsmechanismen vor und gibt damit den Anstoß zu einem tiefgreifenden Wandel im Bereich der Regelungstechnik. So werden gegen Ende des 19. Jahrhunderts eine Reihe von Entwicklungen und technischen Neuerungen auf den Weg gebracht, die dann in den 1940er Jahren als Grundlage einer neuen Theorie, der Kybernetik, dienen sollen. [9]

Die Regelungsrevolution bringt nicht nur Rückkopplungstechniken und eine neue Hierarchisierung der Medien hervor, sondern revolutioniert auch die kulturellen Reproduktionsformen der Gesellschaft. [10] Darin einbegriffen sind Bereiche wie Kommunikation und Kunst, da die Technologien unmittelbaren Einfluss auf die soziokulturellen (Re)produktionsformen ausüben. Dennoch werden bis zu jener Zeit die mit Regelungsmechanismen und Automatisierung verbundenen Themen im Umfeld eines einzigen gemeinsamen Parameters diskutiert: der Energie. Energie ist der Grundbegriff der Newtonschen Mechanik, und sie behauptet diese Stellung in den Naturwissenschaften und in Forschungsfeldern wie Akustik, Elektrik und Optik. Eine zentrale Position hat auf ähnliche Weise die Invariante ›Masse‹ in der Physik inne. Mit zunehmender Weiterentwicklung der Produktionsverfahren beginnt sich jedoch auch das Verhältnis von Mensch und Maschine zu ändern, und damit tauchen Fragen nach neuen Begriffen und Theorien auf, die diesen Kommunikationsprozess zwischen biologischen und technologischen Systemen zum Objekt gezielter Forschung machen können.

Die Konstituierung zweier neuer Disziplinen: Kybernetik und Künstliche Intelligenz

»Dass Gesellschaft nur durch das Studium der Nachrichten und der zugehörigenKommunikationsmöglichkeit verstanden werden kann und dass Nachrichten von Mensch zu Maschine, von Maschine zu Mensch und von Maschine zu Maschine in der zukünftigen Entwicklung der Nachrichten und Kommunikationsmöglichkeiten eine immer größere Rolle zu spielen berufen sind« [11] ist der Leitgedanke des amerikanischen Mathematikers Norbert Wiener (1894—1964), den er nach einer ersten technischen Studie von 1948 »Cybernetic, or Control and Communication in the Animal and in the Machine« in seinem 1950 veröffentlichten Buch »The Human Use of Human Beings. Cybernetics and Society« ausführt. Ebenfalls 1950 wirft der englische Mathematiker Alan Turing (1912—1954) die Frage nach der Möglichkeit logischen Denkens von Maschinen auf. In seinem Essay »Computing Machinery and Intelligence«, veröffentlicht in der philosophischen Zeitschrift »Mind«, Bd. 59, geht Turing von der am Beginn seines Textes formulierten Grundfrage aus: »Können Maschinen denken?« Bis in die Mitte des 20. Jahrhunderts sind es nur wenige, vereinzelte Forscher, die sich mit Themen wie der Kommunikation zwischen verschiedenartigen Systemen (etwa biologischen und technischen Systemen) oder mit der Möglichkeit der technischen Konstruktion von Denkmaschinen befassen. Außer Wiener und Turing zählen zu ihnen Charles Babbage, Claude Shannon, Warren Weaver und Hermann Schmidt. Ab den 1950er Jahren avancierten diese Themen jedoch innerhalb kürzester Zeit zu zwei Feldern von Grundlagenforschung: Kybernetik und Künstliche Intelligenz [12] .

Die beiden oben genannten Texte lösen eine Flut von Veröffentlichungen mit Spekulationen und Analysen zu diesen Themen aus. Allein in den ersten drei Jahren nach 1950 erscheinen über tausend Aufsätze, die sich mit Intelligenz und der Kommunikation mit und zwischen Maschinen befassen. Dabei gab es, als Turing seinen Artikel veröffentlicht, weltweit nicht mehr als vier Digitalrechner (Mark I und EDSAC in England, ENIAC und BINAC in den USA). [13] Obwohl Turings Theorem — alles, was ein Mensch in Form eines Algorithmus tun kann, kann auch von einer universellen Turing-Maschine ausgeführt werden — von Modellen ausgeht, die bisher nur als hypothetisches Experiment untersucht worden sind, motiviert es einige Forscher, das durch den Bau von Maschinen empirisch zubestätigen oder zu widerlegen.

Kommunikation

Der Ansatz der Kybernetik — der sich vom griechischen Terminus ›kybernetes‹ (Steuermann) herleitet — besteht darin, die Regelungs- und Nachrichtentheorie, ob in der Maschine oder bei Lebewesen, auf den Bereich der Kommunikation und der Maschinensteuerung zu übertragen. Ihr Ziel ist es, die Beziehungen zwischen Tier und Maschine und bei der Maschine die spezielle Art ihres Verhaltens als Kennzeichen für die zu erwartende Leistung zu erforschen. [14] Anhand der Beobachtung gewisser Analogien zwischen Maschinen und lebenden Organismen konstatiert der Mathematiker, dass es eigentlich keinen Grund gäbe, Maschinen nicht dem Menschen anzugleichen, da ja die einen wie die anderen Tendenzen zu abnehmender Entropie entwickeln, was bedeutet, dass beide ein Beispiel lokaler antientropischer Phänomene sind. Auch Turing räumt dem Thema Kommunikation Priorität ein. Mit seinem berühmten Experiment — dem Imitationsspiel, wie er es nennt, auch Church- Turing-These oder

 

Turing-Theorem genannt — zur Verifizierung der Intelligenz eines Rechners geht es ihm weniger um die tatsächliche Konstruktion einer derartigen Maschine als vielmehr darum, die menschliche Fähigkeit zur Kommunikation mit Maschinen zu simulieren. Turing folgt hier jener Tradition, die Denkvermögen an der Fähigkeit zu menschlichem Sprachgebrauch messen will. Bereits Descartes hat als Kriterium zur Bestimmung denkender Wesen den logisch semantischen Sprachgebrauch eingeführt. Für lange Zeit soll das Beherrschen der Semantik ein Grundproblem der Künstlichen Intelligenz bleiben.

Information

Im Gegensatz zu dieser Tradition sucht die Kybernetik Wieners operationale Wege für die Entwicklung einer spezifischen Sprache, die die Kommunikation zwischen verschiedenartigen Systemen möglich macht. Dabei sollte Semantik konkreten Zielen angepasst werden. So gesehen, führt Wieners Theorie statt des Begriffs der Energie den der Information als elementaren Kommunikationsparameter ein und postuliert somit die Bestimmung dieser neuen Invariante für die gesamtekybernetische Wissenschaft, die eine Grundvoraussetzung zum Verständnis der Reichweite des kybernetisches Ansatzes ist.

Anders als Newtons mit geschlossenen Systemen operierende Mechanik wird Information auf offene Systeme angewandt. Somit ist Information als Schlüssel zu betrachten, der Kopplung und Kommunikation zwischen verschiedenartigen Systemen und zwischen diesen und der Außenwelt ermöglicht. In den Naturwissenschaften stehen ›Masse‹ und ›Energie‹ in direkter Verbindung zur Materie. ›Information‹ hingegen ist von keiner ›Substanz‹ vermittelt, sondern basiert auf variablen Eigenschaften: Man kann sie reproduzieren (verdoppeln oder kopieren), zerstören (löschen) oder iterieren (wiederholen). »Information ist also ein Name für den Inhalt dessen, was mit der äußeren Welt ausgetauscht wird, wenn wir uns ihr anpassen und sie dies spüren lassen. Der Vorgang des Empfangens und Gebrauchens von Information ist der Vorgang unserer Anpassung an die Außenwelt und unseres tätigen Lebens in dieser.« [15] Entscheidend für die Effektivität von Kommunikation ist insofern nicht die Menge an möglicher zirkulierender Information, sondern das Ausmaß, in welchem sich diese in die Kommunikation integriert. So ist signifikante Information im Sinne der Kybernetik nicht etwa die Gesamtheit aller übermittelten Information, sondern diejenige, die ›Filter‹ passiert.

Rückkopplung

Besondere Aufmerksamkeit widmet Wiener im Bereich der Information und Kommunikationssysteme der Frage nach Automaten und der Entwicklung von Rückkopplungsmodellen. Sein zentrales Interesse gilt der Erforschung von Maschinen, die fähig sind, Inputs zu bewerten und den eingespeisten Erfahrungsablauf in die weiteren Rückkopplungsschleifen zu integrieren. Rückkopplung ist insofern eine Methode zur Selbstregulierung von Systemen, durch die Ergebnisse zurückliegender Aktivitäten in die Ablaufsequenz wieder eingeschaltet und so die permanenten Laufzeitkorrekturen ermöglicht werden. Zu diesem Zweck müssen Maschinen zu Lernprozessen fähig sein. Obwohl seine Ansatzpunkte und Folgerungen von denen Wieners sehr verschieden sind, weist auch Turing in seinem Aufsatz deutlich darauf hin, dass esnotwendig sei, Systeme zu entwickeln, die lernfähig sind. In seinem Aufsatz widmet er sich dem Thema der lernenden Maschinen. Vom Prinzip ausgehend, dass »Erziehung möglich ist, vorausgesetzt, dass wechselseitige Kommunikation zwischen Lehrer und Schüler durch irgendwelche Mittel erfolgen kann« [16] , zielt seine Theorie bereits auf die notwendige Schaffung von Systemen, die eine derartig bidirektionale Kommunikation garantieren. Hierzu bedarf man »nichtemotionaler Kommunikationskanäle«, über die es möglich ist, »einer Maschine durch Bestrafungen und Belohnungen beizubringen, dass sie den in irgendeiner Sprache, zum Beispiel einer symbolischen Sprache, erteilten Befehlen gehorcht« [17] .

Mensch-Maschinen-Kommunikation

Turings Idee zielt auf jenen Begriff, der heute ›Interface‹ oder Mensch-Maschine- Schnittstelle genannt wird. Dieses intermediäre Element ist eine Art ›Übersetzer‹, der die in symbolischer Sprache übermittelte Information in die Sprache des Computers, den binärren Code, umwandelt. Insofern eröffnet die Schnittstelle einen Kommunikationskanal zwischen den beiden Systemen, dem humanen und dem elektronischen.

Turing geht hierbei noch einen Schritt weiter als die Rückkopplungstheorie Wieners. Während dessen Konzept sich auf rekursive Prozesse innerhalb einzelner Systeme beschränkt, konzipiert Turing ein lernfähiges System, das auf Informationsaustausch zwischen Mensch und Maschine aufbaut. Der Unterschied im Ansatz der beiden Mathematiker liegt vor allem in der Möglichkeit, Systeme zu vergleichen.

Norbert Wiener geht von einem Ähnlichkeitsprinzip zwischen lebenden Wesen und Maschinen aus, wobei der Lernprozess sich auf den Erwerb von Informationen und die Fähigkeit, die Ergebnisse vergangener Operationen für ihre zukünftige Nutzung zu speichern, beschränkt.

Alan Turing hingegen besteht auf dem Unterschied zwischen dem Verhalten des menschlichen Nervensystems, in dem »chemische Phänomene mindestens ebenso wichtig wie elektrische« [18] sind, und den Fähigkeiten einer diskreten Maschine. [19] Maschinen, »bei denen der Übergang von einem ganz bestimmten Zustand in einen anderen in plötzlichenSprüngen erfolgt« [20] , gibt es, streng genommen, nicht, da in Wirklichkeit alles stetig verläuft. Dieser Unterschied macht also einerseits eine unmittelbare Verbindung zwischen menschlichen Wesen und Maschinen unmöglich und verlangt andererseits nach der Entwicklung eines ›Kanals‹ (Schnittstelle), der diese Kommunikation in Gang setzt. [21] Insofern ist der Vorschlag Turings ein entscheidender Schritt hin zur Entwicklung elektronischer Schnittstellen für die Mensch-Maschinen- Kommunikation und darüber hinaus für die Entwicklung interaktiver, digitaler Systeme.

Dieser Kommunikationskanal erlaubt den bidirektionalen Informationsaustausch und insofern auch Lernprozesse. Auf der Grundlage dieser Methode weist Turing die 1842 von Ada Lovelace [22] aufgestellte These zurück. Lady Lovelace hatte anhand von Untersuchungen mit der ›Analytischen Maschine‹ von Charles Babbage behauptet, dass die Maschine nur das tun kann, was man ihr zu tun befiehlt, und von daher nie etwas wirklich Neues hervorbringen kann. [23] Turing widerspricht dieser These mit der Frage, »wer kann sicher sein, dass eine ›schöpferische Arbeit‹, die er geleistet hat, nicht nur die Frucht des Samens war, der ihm durch Unterricht eingepflanzt wurde, oder das Ergebnis eines Nachvollzugs wohlbekannter allgemeiner Prinzipien?« [24] Ferner weist er darauf hin, dass die Maschine bis zu einem gewissen Grad ›undiszipliniert‹ oder vom Zufall gesteuert sein müsse, damit ihr Verhalten als intelligent gelten könne. [25] Gerade dieses Element des Zufalls sei es, dass ihr ›kreatives‹ Vermögen verleihe: das Vermögen, Probleme zu lösen.

Obwohl diskrete Maschinen, die den Turing-Test bestehen könnten, möglich sind, würden sie dies nicht etwa schaffen, weil sie Repliken des menschlichen Gehirns, sondern weil sie entsprechend programmiert worden wären. Das Grundproblem liege also, wie Turing selbst feststellte, im Bereich der Programmierung. Tatsächlich brauchte man nicht die von Turing angenommenen fünfzig Jahre abzuwarten, um »Rechenmaschinen mit einer Speicherkapazität von ungefähr 109 zu programmieren, die in der Lage sind, das Imitationsspiel« [26] erfolgreich zu spielen. Die Programme sind bereits erstellt worden und haben den Turing-Test mit einem hohen Grad an Interaktivität bestanden. Man könnte also zu dem Schluss kommen, dass das Problem sich nicht allein darauf beschränkt, die Möglichkeiten der Künstlichen Intelligenz zu erforschen. [27] Aus heutiger Sicht betrachtet, lassen sich Kybernetik und KI nicht allein auf ein wissenschaftliches, ökonomisches oder technisches Interesse reduzieren. Da diese Theorien einem soziotechnischen Bereich angehören, in dem Kommunikationsstrukturen, Welt- und Menschenbilder sowie Wertvorstellungen gebildet und gewandelt werden, befassen sie sich mit philosophischen Fragen zur Wahrnehmung, Kognition, Sprache, Ethik und Ästhetik. Wenn die Informationstechnologie im Grunde darauf hinarbeitet, mentale Prozesse zu automatisieren, dann reicht sie direkt oder indirekt in Disziplinen hinein, die mit menschlicher Kognition oder Kreativität befasst sind.

[1] Siehe Werner Heisenberg, Physik und Erkenntnis, Gesammelte Werke, Bd. 3, München 1985.