Skip to main content

Selbstoptimierung

Ernst-Dieter Lantermann: Die radikalisierte Gesellschaft. Von der Logik des Fanatismus

::cck::103::/cck::
::fulltext::

„Wenn alles ungewiss wird, woher sollen wir dann noch wissen, wer wir sind, was uns im Kern ausmacht und was sich verflüchtigt?" (10) Angst und Unsicherheit sind die Auslöser für Radikalismus – so banal diese Aussage klingen mag, so tiefgehend ist Ernst-Dieter Lantermanns Analyse des Phänomens, die von diesem Startpunkt ausgeht.

Gemeinsam sei allen Radikalen der Mangel beziehungsweise Verlust des Selbstwertgefühls, die Unfähigkeit, sich auf Ungewissheit einzulassen sowie mangelndes Lerninteresse. Daraus bildeten sich mehrere Gruppen, die sich etwa unter der Überschrift „fremdenfeindlich“ subsumieren ließen: „verhärtete Selbstgerechte“, „Beleidigte, „Verbitterte“, „grollende Elite“ (66 ff.) Während sich unterschiedliche Grade an Bildung, Einkommen und sozialer Schicht ausmachen lassen, so die Aussage des Autors, finden diese Strömungen alle in der Xenophobie (häufig mit einer diffusen Ablehnung des Islams) ein neues Gefühl von Sicherheit in einem neuen Wir-Gefühl. Die Gruppe, die dem Einzelnen Halt gebe und klare Orientierungen verspreche, rechtfertige in der Folge aber auch Verhaltensweisen, die eigentlich mit den eigenen Werten der Betroffenen gar nicht zu vereinbaren seien. Dabei konzentriert sich Lantermann aber nicht auf die medial präsentesten Phänomene wie Salafismus, Pegida und AfD, sondern fragt nach den zugrunde liegenden Ursache dieser Phänomene, die er als Symptome versteht. Seine Beispiele klingen dabei zunächst eigenartig und umfassen eine Bandbreite von Fremdenhassern, Abtreibungsgegnern und Wutbürgern bis hin zu Fitnessfanatikern und Veganern.

Was verbindet aber eine Fremdenhasserin, einen Fitnessfanatiker und einen Hardcore-Veganer? Lantermanns Antwort lautet: Die Radikalität, mit der sie ihre jeweilige Weltsicht aufbauen, behaupten und zur Reduktion von Komplexität nutzen. Fremdenhasser teilen die Welt in Freund und Feind ein, Fitnessfanatiker bekommen mithilfe von Self-Trackern und Apps Werkzeuge an die Hand, um ihre Körperfunktionen messen, bewerten und mit anderen vergleichen zu können – mithin Kontrolle über sich selbst auszuüben. Diese Selbstoptimierung gibt Halt, da sich der Fitnessfanatiker Ziele setzen und erreichen kann. Veganismus ist, so der Autor, mehr als ein Ernährungsstil, er stiftet Sinn und gibt ebenfalls Halt. Der vegane Alltag wird geprägt durch die vermeintlich einzig richtige Art zu essen und zu leben. Das Tierwohl steht über allen anderen Interessen und der Veganer fühlt sich seinen Mitmenschen moralisch überlegen.

Um das physisch greifbare Schutzbedürfnis, das sich in gated communities manifestiert, geht es im sechsten Kapitel. Während es in Deutschland bisher eher ein Randphänomen gewesen ist, führt die neue Unsicherheit auch hierzulande zu einer zunehmenden Nachfrage nach entsprechenden Angeboten. Die im siebten Kapitel erörterten Körperoptimierer hingegen beschreiben einen Trend, der aus den USA kommend Deutschland längst erreicht hat – nach dem Motto: Wenn schon die Welt im Chaos versinkt, dann will ich zumindest meinen Körper kontrollieren und stählen. Allerdings versäumt es Lantermann, auf die Widersprüchlichkeit des Umstandes hinzuweisen, dass aus dem Wunsch, Kontrolle über das eigene Leben und den Körper zu erlangen, eine massive Datenflut entsteht, die sich Internetkonzerne und Versicherungen wieder zu eigen machen, um eben diese Kontrolle zu konterkarieren. Hier hätte sich ein schönes Beispiel anführen lassen, um die nichtintendierten Handlungsfolgen radikalen Denkens zu beleuchten.

Ein Lieblingsgebiet des Autors scheint das Thema Ernährung zu sein, das seiner Meinung nach zum Ausdruck eines Lebensstils geworden ist. In den vergangenen fünfzehn Jahren habe dieser Trend erheblich zugenommen. Dies gehe so weit, dass ganze Gruppen „vom gesunden Essen besessen“ (156) seien. Unbehagen bereiten ihm die pseudoreligiösen Bekehrungserlebnisse, beinahe eine Art Zutrittsvoraussetzung zu einem Zirkel, der wie die zuvor Beschriebenen die Verbindung zu Andersdenkenden radikal kappt – diskutiert wird nicht mehr. Fanatische Veganer führen, so Lantermanns Befund, letztlich sämtliche Übel der Welt „auf die Folgen der weltweiten Tiernutzung“ (159) zurück.

Gemeinsam ist allen dabei das Gefühl der Überlegenheit gegenüber der Mehrheitsgesellschaft. Radikalisierung entsteht also aus einem Bedürfnis nach Sicherheit. Wer durch plötzliche Veränderungen und durch Unwägbarkeiten verunsichert wird, sucht sich kleine Lebensbereiche, in denen er die Gewissheit zurückgewinnt.

Einen Ausweg sieht Lantermann, Professor für Persönlichkeits- und Sozialpsychologie an der Universität Kassel, im Verstehen der Unwägbarkeiten des Lebens als Chance, ein Glaube an die Bedeutung der Aktion vor dem Zustand der Sicherheit und eine beständige „Neugier“ (185) auf neue Erfahrungen. Er fordert ein „nachsichtig tolerantes, aber entschiedenes“ (187) Eintreten gegen Verabsolutierungen und einfache Lösungen.

Gerade wegen des breiten Fokus auf Phänomene des Radikalismus ist das Buch wichtig, die zentralen Mechanismen von Radikalisierungen werden freigelegt und ein Leitfaden zum Gegensteuern geboten – auch wenn dieser zu theoretisch ist, um einen direkten Praxisbezug zu haben. Insgesamt ist Lantermann mit Zahlen und Fakten recht sparsam und sein Werk hat daher eher den Charakter einer philosophischen Überlegung – gerade in der heutigen Zeit ist dies aber umso wichtiger.

 

::/fulltext::

„Computer! Schreibe eine Policy-Analyse." Der Einsatz von ChatGPT in der Politikwissenschaft

::cck::3822::/cck::
::fulltext::

Kaum jemand bestreitet, dass ChatGPT den Umgang mit Wissen stark verändern wird. Doch was bedeutet der Einsatz von Künstlicher Intelligenz (KI) in der Politikwissenschaft konkret für den Hochschulalltag? Professor Rainer Lisowski von der Hochschule Bremen erprobt das Potenzial von ChatGPT bereits in der Lehre und berichtet von seinen Erfahrungen. Statt Abwehrkämpfe zu führen, plädiert er dafür, dass Hochschulen KI als neue Normalität anerkennen. Das bedeute, neue Bewertungsmaßstäbe zu entwickeln und den Studierenden einen aufgeklärten Umgang mit KI zu vermitteln. (dk)


Ein Essay von Rainer Lisowski

Erinnern Sie sich noch an Jean-Luc Picard? Der fiktive Charakter Picard war die Hauptfigur der Serie Star Trek - The Next Generation, die in den 1990er-Jahren lief und mich während der gymnasialen Oberstufe begleitete. Niemals hätte ich geglaubt, einige der technischen Geräte dieses fiktiven Universums zu meinen Lebzeiten einmal selbst zu besitzen. Und doch, es ist so gekommen. Heute haben wir die Tricoder alle als Smartphones in der Tasche. Touchscreens und Interfaces? Liegen als Pad auf dem Sofa. Nun also das nächste Schlüsselelement: Sprechen mit einem Computer, der auf meine Anforderung hin Aufgaben löst. Ich spreche von ChatGPT. Seit einigen Wochen experimentiere ich mit dieser künstlichen Intelligenz gezielt im Hinblick auf meine Arbeit als Hochschullehrer. Denn mir scheint, diese künstliche Intelligenz wird sich rasch, tiefgreifend und umfänglich auf unsere Arbeit als Politikwissenschaftlerinnen und Politikwissenschaftler auswirken.

Die Thesen, die ich hier vertrete, lauten: Erstens, ChatGPT wird unsere eigene Arbeit verändern; zweitens wird es die Art verändern, wie unsere Studierenden studieren und drittens wird es unser Prüfungswesen verändern.[1] Und hierin liegen neben allen erkennbaren Problemen auch gewaltige Chancen. Ich meine, wir sollten uns in dieser Diskussion erlauben, ein klein wenig weniger „deutsch“ zu sein und nicht gleich das Ende der westlichen Zivilisation an die Wand zu malen, sondern erst einmal abwarten und ausprobieren.  

Chat wird unsere Arbeit verändern: Wir können produktiver werden

Im Seminar eines Masterkurses stellte eine Studentin vor wenigen Tagen die These in den Raum, dass ChatGPT auf Dauer die Hochschule und akademische Weiterbildung selbst überflüssig machen könnte. Ein interessanter Gedanke und auch eine schlüssige Vorstellung. Allein seit meinem Studium hat die IT immer mehr Aufgaben wahrgenommen. Im Jahr 1995 bibliografierten wir teilweise noch mit Zettelkästen in den Bibliotheken, weil längst nicht alle Buchbestände digital erfasst waren. Heute recherchiere und lese ich die meisten Journal-Beiträge online. Über das VPN-Netzwerk kann ich jederzeit von zu Hause aus auf die digitalen Bestände der Staats- und Universitätsbibliothek Bremen zugreifen. Ich war seit langem nicht mehr in der Bibliothek, denn die steht nun bei mir zu Hause.[2] Zudem erfasse ich entscheidende Passagen gleich mit einer Zitationssoftware. Früher musste alles umständlich herausgeschrieben und dann irgendwie im Zettelwust wiedergefunden werden. Und bei den von mir in der Forschung bevorzugten qualitativen Experteninterviews greife ich seit 2005 auf hochentwickelte Codierungssoftware zurück.

Hat die Studentin also Recht? Wird Dr. Chat mich eines Tages ersetzen? Nein. Ich bleibe da sehr gelassen. Die Arbeit mit Künstlicher Intelligenz (KI) in den letzten Wochen hat mir verdeutlicht, was sie kann und was sie nicht kann. Apropos können: Zunächst habe ich für diesen Essay ChatGPT selbst befragt, wo es seine Leistung für Studium und Lehre in der Politikwissenschaft sieht. Die Antwort der KI lässt sich folgendermaßen zusammenfassen: Inhalte wie Definitionen und Konzepte schnell nachzuschlagen und eine Übersicht zu generieren, Zusammenhänge zwischen politischen Themenfeldern aufzubereiten, themenbezogene Übersichten zu erstellen, aktuelle Ereignisse in den Kontext politischer Theorien zu stellen und schließlich Informationen für Vorlesungen und Prüfungen zu beschaffen. Soweit die am 29. Januar 2023 abgefragte Selbsteinschätzung des Systems.

Dies erscheint mir eine zutreffende Beschreibung zu sein. Um diese Aussagen zu überprüfen, habe ich sie einem Praxistest unterzogen. Fragt man Chat zum Beispiel nach einer Zusammenfassung der programmatischen Aussagen der CDU für die Bundestagswahl 2021, erhält man auf einer halben DIN A4 Seite einschlägige Stichworte. Im ersten Schritt gehen diese noch nicht weit über Kapitelüberschriften hinaus. Aber hier muss eben auch noch nicht Schluss sein. Bittet man dann zum Beispiel um eine Vertiefung für das Feld der Außenpolitik, werden konkretere Aussagen vom Computer herausgearbeitet. Typisch Volkspartei klingen aber auch die noch eher vage. Also generiert man einen weiteren Auftrag für Chat: „Vergleiche bitte die Aussagen der SPD und der CDU an dieser Stelle und arbeite Unterschiede für mich heraus.“ Genau das leistet die KI dann auch, indem es etwa darauf hinweist, dass sich die CDU in ihrem außenpolitischen Programm stärker für eine enge Abstimmung mit den USA ausspricht und ferner in der europäischen Zusammenarbeit die militärische Komponente einer europäischen Außenpolitik stärker betont. Aber kann Chat auch einen Bezug zur politischen Theorie herstellen? Es kann. Chat spürt auf Befehl Policy-Aussagen aus dem Parteiprogramm auf, die der realistischen Schule der Internationalen Beziehungen entsprechen, grenzt diese dann auf Wunsch auch von liberalen oder idealistischen Ansätzen im besagten Programm ab. Und wenn man abschließend kritisch nachfragt, ob das alles nicht auch so im Wahlprogramm der Grünen stünde, verdeutlich ChatGPT noch einmal die Unterschiede zwischen den Parteien auf Policy-Ebene anhand von Beispielen aus den Texten.

Verdeutlichen wir uns anhand dieses Beispiels also zuallererst einmal: Wir haben es hier mit etwas ganz anderem zu tun als mit statischen Wikipedia-Einträgen, bei denen ich mich mit dem begnügen muss, was andere als Frage- und Themenstellung entwickelt und mir vorgesetzt haben. Bei ChatGPT kann ich den Computer beauftragen, verschiedenste Quellen unter der individuellen Perspektive und Fragestellung zu durchforsten, die mich persönlich interessiert. Und dies kann der PC viel umfangreicher und viel schneller als ich selbst.

Aus dieser kurzen Beschreibung ergeben sich für mich bereits drei markante Vorteile, die Chat uns innerhalb der politikwissenschaftlichen Lehre bietet:

  • Schnelles und effizientes Ausleuchten von Randgebieten. Die politikwissenschaftliche Materie ist komplex und hochvernetzt. Die KI kann solche Verwebungen und Verästelungen schneller als wir erkennen und durchleuchten. Davon kann gerade die Politikwissenschaft profitieren. Wer von uns hätte ehrlich gesagt Lust, für einen eigentlich nur marginalen Seitenaspekt massenweise Material zu durchsuchen? (Sagen wir, Sie benötigten auf die Schnelle die Kernaussagen des grünen Landtagswahlprogramms 2017 im Saarland.) Lange Texte auf wesentliche Inhalte zu reduzieren, das kann die künstliche Intelligenz einfach schneller als wir, auch wenn exakte Verweise oder das Arbeiten mit Zitaten noch nicht funktionieren. Und die KI kann viel schneller Material zusammentragen, was uns zum zweiten Vorteil führt.

  • Schnelles Zusammentragen und Entwickeln von Material. Hierin liegt eine echte Stärke, insbesondere wenn wir Lehrmaterialien erstellen wollen. Aktuell habe ich für eine Lehrveranstaltung im Sommersemester 2023 innerhalb von drei Wochen einen solide geschriebenen, wenngleich nicht brillanten 130-seitigen Reader auf Englisch erstellen lassen. Hätte ich alles allein schreiben müssen, hätte mich dies vermutlich ein halbes Jahr gekostet. Diese Materialien zu erstellen, geht nicht nur deshalb so schnell, weil das Programm rascher schreiben kann als ein Mensch, sondern auch, weil es mir während des Schreibprozesses schon die nächsten Stichworte anbietet. Damit wären wir beim dritten Vorteil.

  • Schnelle Stichwortlieferung. Wenn es um die Vorbereitung einer Lehreinheit geht, suche ich zuerst oft nach einschlägigen Stichworten. Dafür stehe ich mitunter lange vor meiner Bibliothek zu Hause und wälze Bücher. Nun habe ich festgestellt: Auch der Computer kann mir passende Stichworte liefern. Dahinter steht letztlich die Arbeitsheuristik der KI. Sie arbeitet mit Häufigkeiten in großen Textmengen. Der Computer erkennt diese Häufigkeiten in viel umfangreicherem Material viel schneller, als ich dazu überhaupt jemals in der Lage wäre.

Durch die Nutzung dieser Stärken kann KI unsere eigene Arbeit an bestimmten Stellen schneller und besser machen. Damit umzugehen, wird Lernzeit in Anspruch nehmen, denn oft zeigen sich die wirklichen Stärken bestimmter Technologien erst durch Versuch und Irrtum.

Durch solches Ausprobieren ist mir im Selbstexperiment auch aufgefallen, was die KI nicht kann. Sie kann nicht aus sich selbst heraus, eigenständig und ohne meine Begleitung, Material erstellen. Sie braucht die Programmierung und gekonnte Formulierung von Arbeitsaufträgen. Mit anderen Worten: Sie braucht mein Wissen, meinen mühsam erarbeiteten Überblick über das Fach, um auf dieser Grundlage suchen und schreiben zu können. 

Ich glaube, das bietet eine Chance zu Besinnung und grundsätzlicher Bestimmung: Was wollen wir in einer politikwissenschaftlichen Ausbildung künftig unbedingt vermitteln? Ich war schon immer der Auffassung, dass wir der zeitgenössischen Pädagogik in ihrer Begeisterung für Kompetenzen[3] und der teilweise vorherrschenden Geringschätzung für Wissen nicht folgen sollten.[4] Die Arbeit mit ChatGPT hat mich in dieser Überzeugung einmal mehr bestärkt. Denn mit jedem Tag, an dem ich die Aufgaben programmierte, wurde mir klarer: Wenn ich selbst nicht viel weiß, wenn ich diese vielen kleinen disparaten Wissensinseln nicht aus eigener Kraft gut miteinander verknüpfen kann, wenn ich nicht hart daran arbeite, mir einen Überblick über das Fach zu verschaffen – dann kann ich das Instrument ChatGPT nur sehr oberflächlich nutzen.

Was also ist uns in der Lehre wirklich wichtig? Den meisten Kolleginnen und Kollegen geht es in der Lehre wohl vor allem darum, politische Prozesse zu analysieren und kritisch zu beurteilen. Peter Nitschke arbeitet zum Beispiel als zentrale Stichworte heraus: Die Vermittlung von Demokratie und das Denken in pluralistischen Perspektiven sowie eine kritische Analyse und die Ausarbeitung von Handlungsalternativen.[5] Mir selbst wäre zusätzlich noch wichtig, dass Studierende in der Lage sind, die beiden Grundkonstanten von Politik zu erfassen: Konflikt[6] und Konsens. Übersetzt man diese Aspekte in Operatoren, um ChatGPT zielgerichtet mit politikwissenschaftlichen Fragestellungen zu programmieren, wird dies die Arbeit unserer Studierenden verändern.

Chat wird die Arbeit unserer Studierenden verändern

Wenn wir uns ungeschickt anstellen und uns nicht mit dieser Technik vertraut machen, dann werden die Studierenden sie künftig unkontrolliert einsetzen. Mit oftmals enttäuschenden Ergebnissen für uns und sie selbst. Gehen wir geschickt vor, vermitteln wir den Studierenden:

  • dass sie die KI umso besser einsetzen können, je größer ihr eigenes Grundlagenwissen ist („Lesen! Lesen! Lesen!“). In Lehrveranstaltungen kann man live demonstrieren, wie weit man bei Chat mit viel und mit wenig Wissen kommt;

  • dass sie Antworten von ChatGPT wie in einem Dialog hinterfragen müssen, um der Wahrheit näher zu kommen und Fehler im System zu entdecken. Denn manchmal wirkt es, als wolle der Computer einem „nach dem Mund reden“. Durch beharrliches, kritisches Nachfragen kommt man aber rasch dahinter. Derlei Umgangstechniken sollten aber gemeinsam eingeübt werden;

  • wie sie das System einsetzen können, um selbstständig weiter zu lernen. Etwa indem sie sich Stichworte aus Vorlesungen von ChatGPT noch einmal erklären und mit aktuellen Beispielen untermauern lassen.

Wir sollten lernen, mit Chat umzugehen. Denn wenn wir nicht begleitend eingreifen, wird das passieren, was schon beim Internet selbst zu beobachten war: Wer bereits lernstark ist, wird von ChatGPT sehr umfassend profitieren. Wer (noch) nicht lernstark ist, kann mit der KI wenig anfangen und fällt noch weiter zurück.

Gleichzeitig sollten wir nicht naiv die Augen davor verschließen, dass bei dieser Technik vor allem auf Prüfungsleistungen geschielt werden wird.

Chat wird unser Prüfungswesen verändern

Um es klar zu schreiben: Ich werde ab dem Sommersemester 2023 immer davon ausgehen, dass Texte im Zweifelsfall von Chat formuliert oder zumindest mitformuliert wurden. Die einzigen beiden Prüfungsformen, die künftig unabhängig von Chat funktionieren werden, sind mündliche Prüfungen und handschriftliche Klausuren in Präsenz. Alles andere – Referate, Präsentationen, Portfolios, Hausarbeiten, Abschlussarbeiten – kann von Chat mitgestaltet werden. Somit stellt sich die Frage des eigenständigen Arbeitens. Die Fakultäten sind derzeit daher in Unruhe. „Wie halten wir das auf? Wie gestalten wir Prüfungen chatGPT-sicher?“ fragen sich viele Prüfungsausschüsse. Meine Antwort: Gar nicht, denn ein Verhindern wird nicht gelingen.

Und darum werden wir vor allem in der Politikwissenschaft umdenken müssen.  Denn die Politologie greift erfahrungsgemäß ungern auf die Prüfungsform der Klausur zurück. Stärker bevorzugt werden Hausarbeiten und Referate. Auch Abschlussarbeiten werden weiterhin hochgeschätzt. Überall ist ChatGPT ab sofort Co-Autor, ohne dass eine Plagiatssoftware dies (derzeit) erkennen kann. Anstatt aber immer weiter aufzurüsten und so die eigene Zeit unökonomisch zu vergeuden, schlage ich eine andere Vorgehensweise vor: Gehen wir künftig einfach immer davon aus, dass Studierende ChatGPT genutzt haben. Und ermutigen wir sie dazu. Zeigen wir ihnen, wie es geht. Und ändern wir die Bewertungsmaßstäbe. Bewerten wir weniger den Text, das Referat, das Produkt, sondern stärker, wie die Studierenden mit der KI umgegangen sind: Wie gut sie mit den genannten Operatoren gearbeitet haben. Wie gehaltvoll und kritisch ihre Fragen waren, die sie an die KI gestellt haben. Wie gekonnt sie Themen miteinander verknüpft haben. Wie gut sie auf der Grundlage der künstlichen Texte Einschübe, Quer- und Literaturhinweise sowie Zitate eingebaut haben. Wie gekonnt sie die gelieferten Ergebnisse der KI reflektiert und mit Diskussionen und Lehrinhalten der Seminare abgeglichen haben. Genau das werde ich im kommenden Sommersemester experimentell versuchen. Stärker als das Referat selbst werde ich das Logfile, also das Befehlsprotokoll der Eingabe bewerten, das die Studierenden produzieren sollen. Solche neuen Prüfungsansätze zu entwickeln, wird Zeit kosten. Es ist aus meiner Sicht aber besser investierte Zeit als die vergebliche Plagiatssuche.
 
Kleine und große Gefahren

Trotz meines eindeutig positiven Plädoyers möchte ich abschließend auch die Position derjenigen anerkennen, die Gefahren aufziehen sehen. Es besteht die Gefahr, dass wir Kohorten heranziehen, die sich blind auf die KI verlassen. Es besteht die Gefahr, dass schönes, elegantes, eigenständiges Schreiben als Kulturtechnik verlernt wird. Und schließlich: Es besteht die ultimative Gefahr, dass eine künstliche Intelligenz uns in nicht allzu ferner Zukunft in vielen Bereichen von Intelligenz ausstechen wird. Hier ist entscheidend, dass wir stets in der Lage sein werden, im Notfall „den Stecker zu ziehen“. Nicht umsonst sieht die britische Regierung in künstlicher Intelligenz eine der größten Gefahren für unsere organisch-menschliche Zivilisation.[7]

Doch so weit sind wir bei weitem noch nicht. ChatGPT ist technische Evolution, keine technische Revolution. Es kann nicht eigenständig wissenschaftlich arbeiten. Es denkt nicht, schon gar nicht kreativ. Es simuliert solches Denken durch statistische Annäherungen. Und genau das ist gut und beruhigend. Denn nach wie vor möchte ich als Mensch forschen und lehren. ChatGPT wird dabei auf absehbare Zeit meine Assistenz werden. Und so ist es übrigens auch auf der Enterprise: Der Computer liefert Stichworte, rechnet aus und schlägt Optionen vor. Doch die Entscheidung trifft am Ende der Mensch Jean-Luc Picard.



[1] Ich gehe natürlich auch davon aus, dass Chat die Art verändern wird, wie wir forschen. Diesen Aspekt werde ich in meinem Essay jedoch ausklammern, um den Rahmen dieses Essays nicht zu sprengen.
[2] Bei meinen eigenen Büchern bin ich aber sehr altmodisch: Längere Texte muss ich nach wie vor in gedruckter Form lesen. Meine Augen spielen bei langen E-Texten nicht mit.
[3] Markus Gloe fasst mit Blick auf die Handreichungen der beiden Fachgesellschaften (DVPW und DGfP) und nach Recherche in Modulbeschreibungen politikwissenschaftlicher Studiengänge übrigens zusammen, dass es gar keine einheitlichen 
Kompetenzbeschreibungen für das Fach gibt. Vgl. Gloe 2018: S. 21.
[4] Der Kollege Sander spricht von einer „überdrehten Kompetenzorientierung“ und schlägt stattdessen eine Rückbesinnung auf die persönliche Anstrengung, die Wirklichkeit verstehen zu wollen, als Bildungsideal vor. Vgl. Sander 2018: S. 6 f.
[5] Vgl. Nitschke 2020: S. 13-16.
[6] Ich fürchte leider, dass Carl Schmitt Recht hatte: Konflikt ist die Essenz des Politischen. Ich würde dem nur gerne die Möglichkeit des friedlichen Konsenses als zweites Grundelement zur Seite stellen.
[7] Man denke etwa nur daran, eine künstliche Intelligenz bemächtigte sich der Atlas-Roboter von Boston Dynamics. Arnold Schwarzenegger und der Terminator ließen grüßen.



Literatur

Gloe, Markus: Kompetenzorientierung in der politikwissenschaftlichen Hochschullehre, Wochenschau Verlag, Frankfurt am Main, 2018.

Nitschke, Peter: Einführung in die Politikwissenschaft, Wissenschaftliche Buchgesellschaft, 2. Aufl., Darmstadt 2020.

Sander, Wolfgang: Bildung - ein kulturelles Erbe für die Weltgesellschaft,  Wochenschau Verlag, Frankfurt am Main, 2018.

 

::/fulltext::

Arjun Appadurai, Neta Alexander: Versagen. Scheitern im Neoliberalismus

::cck::3954::/cck::
::fulltext::

Arjun Appadurai und Neta Alexander versuchen eine Kritik der neoliberalen Individualisierung ökonomischen Scheiterns im Begriff des „Versagens“ auf den Punkt zu bringen und im Kontext der neuesten Entwicklungen in der digitalisierten Wirtschaftswelt zu analysieren – von der Wall Street bis zum Silicon Valley. Unser Rezensent Thomas Mirbach ist von ihrer Diagnose nicht vollends überzeugt, spricht den Autor*innen aber zu, mit der „Veralltäglichung des verdeckten und systemimmanenten Versagens“ ein zentrales Problem identifiziert zu haben. (jm)


Eine Rezension von Thomas Mirbach

Im Bereich der Managementliteratur scheint weithin eine Semantik der Selbstoptimierung zu gelten, die – durch Verquickung von Sozialtechnik und moralischem Appell – Erfolge als Ergebnis gelingender Eigenmotivierung und situationsangemessener Strategiewahl ausgibt (Bröckling 2017). Von dieser individualisierenden Sicht, die Erfolg (und das Komplementärereignis Versagen) als Eigenschaften menschlichen Handelns behauptet, sind Arjun Appadurai (Professor für Medien, Kultur und Kommunikation an der New York University) und Neta Alexander (Assistenzprofessorin für Film und Medien an der Colgate University, New York.) in ihrer Studie über das Scheitern im Neoliberalismus weit entfernt. Ähnlich wie die jüngere Soziologie der Bewertung (Meier/Peetz/Waibel 2016) gehen Appadurai und Alexander davon aus, dass die Zuschreibung von Versagen einen Beurteilungsprozess voraussetzt, der von Akteuren, Technologien und Macht getragen wird. Dabei verfolgen sie eine feldspezifische Intention – bezogen auf die beiden Kulturen der nordamerikanischen Finanz- („Wall Street“) und Technologiebranche („Silicon Valley“) wollen sie das „Versagen in unserer digitalisierten Welt“ untersuchen (10). Diesem Ansatz liegt eine dezidiert politische Prämisse zugrunde: Die Auseinandersetzung mit dem Regime des Versagens soll einen neuen Zugang „zu einer immanenten Kritik unserer zunehmenden Abhängigkeit von digitalen Netzwerken und mobilen Technologien“ eröffnen (10).

Appadurai und Alexander entwerfen eingangs ein Konzept des Versagens, das die „symbiotische Beziehung zwischen Wall Street und Silicon Valley“ als wesentliches Merkmal des modernen digitalen Kapitalismus verdeutlichen soll (18). Beide Kulturen, so die These, arbeiten mit Versprechen – uneingeschränkter und unbegrenzter Zugang zu Informationen im Fall des Silicon Valley, steigender Wohlstand im Fall der Wallstreet – deren Einlösung jedoch aus Sicht von Nutzerinnen und Nutzern ebenso wie aus Sicht der Kundinnen und Kunden (sofern sie nicht zu den Investoren und Banken gehören) systematisch aufgeschoben und letztlich enttäuscht werde (47). Zu den typischen Erscheinungsformen im Bereich der Ökonomie zählen Appadurai und Alexander, dass die Schaffung von Wert zunehmend durch spekulative finanzielle Interessen, kurzfristiges Profitstreben und den schnellen Verkauf potentiell profitabler Unternehmen gesucht werde (13 f.). Im Bereich der Informationstechnologien beobachten sie eine Tendenz der geplanten Obsoleszenz in Form der schon in der Herstellung angelegten Produktveralterung, die zu regelmäßigen Upgrades und Ersatzbeschaffungen nötige und Möglichkeiten der Reparatur gezielt behindere (16). Die in den Kulturen von Wall Street und Silicon Valley herrschende Praxis des permanent aufgeschobenen Versprechens ermögliche, das dem zugrundeliegende kollektive Versagen wirkungsvoll zu verleugnen. In Abwandlung der bekannten Definition Gregory Batesons von „Information“ (als „Unterschied, der einen Unterschied macht“) bezeichnen Appadurai und Alexander diese Praxis als „habituelles Versagen“: als Versagen, das keinen Unterschied macht und folgenlos bleibe (17). Zur Triebkraft des digitalen Kapitalismus werde das habituelle Versagen, weil es das Vergessen des Versagens begünstige und damit seine beständige Wiederholung erlaube (23). In vier Kapiteln – drei behandeln die Informationstechnologie, eines die Finanzwirtschaft – versuchen Appadurai und Alexander, das Konzept des habituellen Versagens empirisch zu unterfüttern. Vor allem mit Blick auf die Kultur des Silicon Valley gelingen ihnen anregende Analysen zur technologisch erzeugten Intransparenz und zur Vermarktung von Gesellschaftsbezügen im Rahmen der sogenannten Gig Economy: Bei dieser betreiben Online-Plattformen auf Ratings beruhende Märkte und bedienen sich dabei App-interner Bezahlsysteme – der Arbeitsmarkt wird so über individualisierte Einzelaufträge („Gigs“) anstelle von Anstellungsverhältnissen organisiert.

Im Feld der Informationstechnologie – die wesentlich als Prozess und nicht als Objekt zu verstehen sei – nehme das habituelle Versagen nahezu Warencharakter an. Alltägliche Phänomene wie begrenzte Akkulebensdauer, digitale Verzögerungen oder eingefrorene Bildschirme seien eine wirkungsvolle Stütze für das „Geschäftsmodell des Upgradens und der geplanten Obsoleszenz“ und schaffe einen Markt, der ständig nach neuen Modellen verlange (30 f.). Typisch für derartige Ereignisse sei deren Intransparenz, die in der Regel den Nutzerinnen und Nutzern ein Lernen verwehre. Aufgrund zunehmender Komplexität von Netzwerken und algorithmischen Systemen blieben Logik und Funktionsweise von Programmen und Geräten als Black Box „hinter dem Rauchvorhang geistigen Eigentums und spezialisierten Wissens“ verborgen (35). Symptomatisch für diese Prozesse seien Spaltungen des Arbeitsmarktes: Einerseits liege die Konstruktion der elektronischen Geräte zumeist in Händen hochbezahlter Fachleute in westlichen Ländern und Küstenstädten Nordamerikas, während der Zusammenbau in Länder des globalen Südens ausgelagert sei. Andererseits habe sich, hauptsächlich von Arbeitskräften des globalen Südens getragen, eine wachsende Branche von Callcentern herausgebildet, die Nutzerinnen und Nutzer, zumeist im Westen ansässig, bei dem Versagen der Computersysteme unterstützen sollten (35).

An der Gig Economy heben Appadurai und Alexander mit dem „Scheitern, stabile, dauerhafte soziale Strukturen aufzubauen“, einen weiteren Aspekt des Versagens hervor (54 f.). Als Beispiel beziehen sie sich auf das Unternehmen Uber, das plattformvermittelte Fahrdienstleistungen anbietet. Charakteristisch sei hier der Einsatz mobiler Apps, mit denen eine „endlose Kommunikationsschleife zwischen Endnutzern und Produktdesignern“ etabliert werde (61). Die auf Basis permanenter Quantifizierung erfolgende Einbindung von Nutzerinnen und Nutzern als Testpersonen und Quelle von Feedback in den Leistungsprozess drohe personengebundene Interaktionen zu ersetzen (62 f.). Im Effekt erzeuge die App-Ökonomie die Illusion unbegrenzter und personalisierter Wahlmöglichkeiten, die paradoxerweise – da die Kontrolle des Systems bei dem Unternehmen liege –die Wahlmöglichkeiten faktisch einenge und Menschen voneinander abkoppele (64) (vgl. Dolata/Schrape 2022). An Beispielen wie diesen verschärfen Appadurai und Alexander ihre generelle Kritik der Konnektivität als neuer Ideologie der Gesellschaftlichkeit. Die neuen Medien würden nicht allein ältere Formen des Verbundenseins ablösen, die auf räumlicher und sozialer Zugehörigkeit, auf Nähe und persönlichen Eigenarten beruhen. In der Tendenz führen sie – so die explizite These – zu einer Entgrenzung, bei der im Namen unbegrenzter Konnektivität Unterschiede zwischen Menschen, Maschinen und automatisierten Bots verwischten (65 ff.).

Verglichen mit diesen Detailanalysen bleibt der Blick auf die Kultur der Wallstreet eher abstrakt. Ausgehend von der Annahme, dass Derivate die zentrale technische Innovation des heutigen Finanzwesens darstellen, sehen Appadurai und Alexander eine Analogie zur Kultur des Silicon Valley, weil auch der Derivatemarkt strukturell auf nicht eingelösten Versprechen beruhe (104 f.). Der Handel mit Derivaten operiere wie ein Nullsummenspiel, bei dem Risiken auf Risiken aufgenommen werden, die – abgelöst von der Realwirtschaft – dazu dienen, einen Vermögenstransfer „vom uninformierten, arglosen Investor, Sparer oder Rentner zu den informierten Marktinsidern“ zu ermöglichen (119). Die dabei anfallende Vervielfältigung von Schulden sei zwingend ungleich verteilt: Während Schulden lokal und damit verbindlich für die Vielen blieben, operierten Schuldenmärkte global und schienen ab einer bestimmten Größenordnung immun für ein Scheitern (116).

Fazit
Auch wenn die von Appadurai und Alexander dargestellten funktionalen Gemeinsamkeiten von Informations- und Finanzwirtschaft nicht vollständig zu überzeugen vermögen, so trifft doch ihre Deutung der Veralltäglichung des verdeckten und systemimmanenten Versagens in beiden Bereichen ein relevantes Problem. Wie bei den Innovationen im Mediensektor ist auch in der Finanzwirtschaft die Informationsasymmetrie zwischen den Vielen und den Wenigen Voraussetzung des profitablen Arbeitens der Systeme – und unserer Abhängigkeit von ihnen. Im Rahmen einer weithin verbreiteten konsumistischen On-Demand-Kultur wird diese Abhängigkeit noch durch die Illusion unendlicher Optionen verstärkt. Deshalb sollte – so lautet eine der Kernbotschaften des Buches – ein Denken gefördert werden, „das sich dem Horizont unbeschränkter Wahlmöglichkeiten widersetzt und eine Kultur des Reparierens, des langsamen Wachstums und der Schuldenvermeidung unterstützt“ (129).


Literatur

  • Appadurai, Arjun /Neta Alexander (2023): Versagen. Scheitern im Neoliberalismus. Berlin: Verlag Klaus Wagenbach.
  • Bröckling, Ulrich (2017): Gute Hirten führen sanft. Über Menschenregierungskünste. Frankfurt am Main: Suhrkamp.
  • Dolata, Ulrich / Jan-Felix Schrape (2022): Plattform-Architekturen. Strukturation und Koordination von Plattformunternehmen im Internet. In: Kölner Zeitschrift für Soziologie und Sozialpsychologie 74 Jg., Sonderband 1, S. 11–34.
  • Meier, Frank / Thorsten Peetz / Désirée Waibel (2016): Bewertungskonstellationen. Theoretische Überlegungen zur Soziologie der Bewertung. In: Berliner Journal für Soziologie 26. Jg., Heft 3-4, S. 307-328.

 

::/fulltext::