Forschungsprogramm
Zentrale Forschungsidee
Automatismen
Im Mittelpunkt des Projekts stehen nach wie vor die Automatismen. Ausgangsthese des Kollegs war, dass immer mehr der gesellschaftlich relevanten Strukturen jenseits bewusster Planung entstehen. Diese These hat sich als au?erordentlich fruchtbar erwiesen und eine Vielzahl neuer Fragestellungen m?glich gemacht. So konnte in den unterschiedlichsten Beispielfeldern gezeigt werden, dass Entwicklungsprozesse, auch wenn sie nicht zentral, intentional, von ?oben‘ geregelt werden, ein hohes Ma? an Ordnung hervorbringen, und dass es m?glich ist, auf dieser Basis neue Entwicklungslogiken, neue Arten von Kausalit?t und Gesetzm??igkeiten in Wirkung zu zeigen (Bublitz et al. 2010, Bierwirth et al 2010). ?Unsichtbare H?nde‘ sind, so scheint es, in vielen Bereichen an die Stelle sichtbar ordnender Instanzen getreten (Bublitz et al. 2011). Und es bedarf einer besonderen wissenschaftlichen Aufmerksamkeit, ?bottom up‘-Prozesse als Beobachtung überhaupt ernst zu nehmen und eine Sprache zu ihrer Beschreibung zu entwickeln.
?Automatismen‘ haben hier einen systematischen Stellenwert. ?berall dort, wo Akteure in relativer Unabh?ngigkeit, dezentral oder verteilt handeln, wo Technik nicht durch ?Erfindung‘, sondern in enger Wechselbeziehung zu Nutzungsprozessen entsteht, wo sich Gewohnheiten, Schemata, Codes, Habitus oder implizite Regeln herausbilden ? überall dort kann man ?Automatismen‘ in Arbeit zeigen, in dem Sinne, dass es zwar Regeln gibt, nicht aber Regulierung, zwar Wiederholung, nicht aber ein vorab definiertes Muster, und Anteile intentionalen Handelns, nicht aber eine Intention, die das Handeln aussch?pfen würde. Beispiel w?re die unsichtbare Hand, die ein Meta-Ph?nomen über einer gro?en Anzahl intentional-zweckrational-egoistischer Einzelakte bildet.
Typisch für Automatismen ist, dass sie weder dem Bewusstsein noch dem (gesellschaftlich) Unbewussten zugerechnet werden k?nnen, sondern auf der Grenze zwischen beiden Sph?ren operieren. W?ren sie vollst?ndig bewusst, würde man nicht von Automatismen sprechen; Automatismen sind auf spezifische Weise ?blind‘; und sie funktionieren dann besonders reibungslos, wenn das Bewusstsein nicht interveniert.
Automatismen scheinen auf eine spezifische Weise ?konomisch zu sein. Ihre besondere Kraft liegt darin, dass sie Aufwand ersparen; den Aufwand, der zu einer bewussten Steuerung der Vorg?nge notwendig w?re, und denjenigen, den eine Intervention des Bewusstseins in die aktuelle Situation jeweils bedeutet. Indem die Wiederholung selbst zur Basis der Musterbildung wird, muss das Muster weder installiert noch mit Kraftaufwand durchgesetzt werden; ihre spezifische ?konomie scheint der entscheidende Motor ihres Erfolges zu sein.
All dies wurde in den Ver?ffentlichungen des Kollegs und in den Dissertationen, die in seinem Kontext entstanden sind, an einer breiten Palette konkreter Beispiele untersucht und begrifflichtheoretisch ausgearbeitet; einige der Ergebnisse sind im Arbeitsbericht dargestellt (EB 3, S. 7ff.).
Wichtig ist der Konnex zu der Fragestellung, mit der das Kolleg nun fortgesetzt werden soll: Bewusste Planung scheint umso klarer an Grenzen zu sto?en, je weiter sich die gesellschaftliche Komplexit?t steigert. Komplexit?t wirft Probleme der Steuerung auf (Beniger 1986) und droht Individuen wie Institutionen, Gesellschaft, Psyche, Technik, Codes und Medien strukturell zu überfordern. Exakt an dieser Stelle, dies ist eines der Ergebnisse des Kollegs, scheinen Automatismen einzutreten. 365体育_足球比分网¥投注直播官网 sind Ausdruck und Manifestation komplexer Situationen und zugleich Formen ihres Managements, mit dem sie ? dies w?re eine erste Hypothese ? Formen bereitstellen, die Komplexit?t reduzieren, und zwar gerade dort, wo eine bewusste Reduktion von Komplexit?t scheitern würde. Auf der Ebene des Vollzugs k?nnen Automatismen selbst durchaus komplexe/komplizierte Handlungssequenzen bilden.
Automatismen hat man h?ufig vorgeworfen, dass sie entdifferenzieren; Schemata, Gewohnheiten, Typisierungen und Stereotypisierung erscheinen als mehr oder minder gewaltf?rmige Vereinfachung (Ewen/Ewen 2006). Das Kolleg will hier Neuland betreten und eine drastische Umwertung versuchen, die Komplexit?tsreduktion nicht mehr negativ konnotiert, sondern als ein notwendiges Komplement und eine Erm?glichungsbedingung von Differenzierung und damit von gesellschaftlichen Austauschbeziehungen beschreibt.
Strukturentstehung
"Strukturentstehung jenseits geplanter Prozesse in Informationstechnik, Medien und Kultur" war der Untertitel des Projekts in der ersten Phase, und auch die Hypothese der Strukturentstehung soll in der Verl?ngerung weiterverfolgt werden. Dass Automatismen Strukturen generieren, ist die vielleicht ambitionierteste These des Kollegs; wird doch h?ufig angenommen, Automatismen rotierten auf der Stelle, stünden also eher für ein ?konservatives‘ Moment der Beharrung als ausgerechnet für die Entstehung eines Neuen.
Gerade diese These aber hat der Forschung des Kollegs neue Wege er?ffnet. Wiederholung wird nicht mehr als mechanische Repetition gefasst und ebenfalls nicht allein als Verschiebung, sondern darüber hinaus als eine generative Kraft, die hervorbringt, was sie gleichzeitig immer schon ist; Infrastruktur etwa wird nicht mehr als Voraussetzung, sondern als im Prozess der Nutzung hergestellt modelliert. Ein im Kolleg viel diskutiertes Beispiel ist der Trampelpfad; Bahn und Bahnung, Nutzung und Hervorbringung, Wiederholung und zwanglose Bündelung der Nutzungsprozesse fallen hier zusammen.
Die Frage nach den Automatismen wird auf diese Weise zu einem Entwicklungsmodell, das mit anderen Entwicklungsmodellen konkurriert. Dass es gerade Entwicklungen, Ver?nderungen sind, die sich ?automatisch‘ vollziehen, ?blind‘ oder blind gegen die Intention der Beteiligten, würde niemand bestreiten. Zu zeigen, dass dies in bestimmten F?llen auf Automatismen zurückgeht, ist die Perspektive, die das Projekt vorschl?gt.
Zum Zweiten erlaubt die These der Strukturentstehung einen Anschluss an Theorien zur Emergenz. ?Emergenz‘ meint die Entstehung einer Struktur, die aus den Eigenschaften ihrer Elemente nicht erkl?rt werden kann (Stephan 2007, Greve/Schnabel 2011). Emergenztheorien sind insofern immer mit einem R?tsel befasst: l?gen die Ursachen klar zu Tage, würde man nicht von Emergenz sprechen. Automatismen teilen diese Eigenschaft der Opazit?t. Und die Grundintuition w?re, dass das Automatismenkonzept m?glicherweise zug?nglicher als die relativ abstrakten Emergenzvorstellungen ist. Zumindest einige Typen von Emergenz w?ren konkret zu beschreiben, wenn es gel?nge zu zeigen, dass die Strukturentstehung auf Automatismen zurückgeht. Das Kolleg hat sich im Sommersemester 2009 mit Emergenzmodellen befasst (EB, S. 18, 20.), gleichzeitig hat sich erwiesen, dass hier weiterer Forschungsbedarf besteht.
Komplexit?t
Wer Komplexit?t und die Reduzierung von Komplexit?t in den Mittelpunkt stellt, um die Automatismen auf neue Weise zu fassen, betritt ein Terrain, in dem sich heterogene Theoriestr?nge schneiden. Geht die erste Assoziation m?glicherweise zur Systemtheorie, ist die tats?chliche Palette wesentlich breiter: ?bersichtsb?nde wie Mitchell (2009) oder Mainzer (2008) setzen nicht nur wesentlich früher an, etwa mit der Philosophie und einer Problematisierung des Descartes‘schen Reduktionismus (Mitchell, ixff., 16ff.), sondern versuchen gleichzeitig, eine Brücke von den Geistes-und Kulturwissenschaften hin zu den Naturwissenschaften zu schlagen.
Die erste wichtige Eingrenzung ist, dass das Kolleg seine Frage auf kulturelle und gesellschaftliche Komplexit?t einschr?nken wird. Auch diese allerdings erscheint mehr als komplex, gerade wenn die Technik als ein Mischph?nomen, das immer Natur und Kultur/Gesellschaft betrifft, prominent einbezogen werden soll.
Ausgangspunkt w?re die in Sozial-und Kulturwissenschaften weitgehend unbestrittene These, dass die Moderne durch eine rapide Zunahme von Komplexit?t gekennzeichnet ist. Innerhalb der Soziologie ? auch au?erhalb systemtheoretischer Ans?tze ? werden die Steigerung und Begrenzung von Komplexit?t und die Formen gesellschaftlicher Differenzierung in enger Verbindung zueinander gesehen.
Dies gilt für das historische Konzept der Teilung der Arbeit (Marx 1867/1972, Durkheim 1893/ 1988) und für Theorien, die Gesellschaft als Ganzes im Verh?ltnis zu seinen Teilen betrachten, als Einheit, deren Teile durch Sozialintegration zusammengehalten werden (vgl. Durkheim 1988, 118ff.). Vor allem aber für die Ans?tze, die im ?bergang zu einer funktionalen Differenzierung das Kennzeichen spezifisch moderner Gesellschaften sehen. So hat Talcott Parsons (1951/1972) Differenzierung als einen Prozess der Dekomposition konzipiert, der ein Ganzes in funktional spezifizierte Teilbereiche zerlegt, wobei er an der Vorstellung einer gesamtgesellschaftlichen Integration durch einen übergreifenden Wertekonsens festh?lt. Integration ist einer der Zentralbegriffe der strukturfunktionalistischen Theorie von Parsons, die hier, wie bei Durkheim, normativ bewertet wird. Weniger normative Ans?tze gehen davon aus, dass System- und Sozialintegration nicht per se positiv zu bewerten sind (vgl. Lockwood 1979; Habermas 1981).
Theorien der Moderne und der Modernisierung heben explizit auf Prozesse der Differenzierung ab (Lockwood 1979, Habermas 1981, Münch 1988, Degele/Dries 2005). Differenzierung ist in all diesen F?llen mit einer Zunahme von Komplexit?t und spezifischen Steuerungsleistungen zur Reduktion von Komplexit?t assoziiert. Ebenso w?re auf Elias zu verweisen, der beschreibt, dass mit der zunehmenden Komplexit?t der modernen Gesellschaft die L?nge der Interdependenzketten zunimmt; worauf die Individuen mit eigenen Mechanismen der Komplexit?tsreduktion, einer quasi automatisierten Affekt-/Distanzregulierung und der Ausbildung von Selbstzw?ngen, reagieren (Elias 1976). Und letztlich gehen auch Horkheimer/Adorno, wenn auch mit ganz anderer Konnotation, vom Komplexit?tsproblem moderner Gesellschaften aus, nicht zuletzt wenn sie die Kulturindustrie über eine ?Reproduktion des Immergleichen‘ fassen. Hier ist es die Kulturindustrie, die die Funktion der Komplexit?tsreduzierung übernimmt und die Individuen auf diese Weise entlastet.
Die Systemtheorie hat diese Frage generalisiert und gezeigt, dass sie in enger Wechselbeziehung zum Systembegriff und zur Frage steht, wie Gesellschaften insgesamt sich konstituieren. Dies gilt zun?chst historisch: Die jeweils gegebene Form der gesellschaftlichen Differenzierung bildet die Struktur und die Ordnung der Gesellschaft, die steigende Komplexit?t nur bis zu einem bestimmten Grad zul?sst. Ger?t die Gesellschaft durch weitere Komplexit?t unter Druck, ?ndert sich die Form ihrer Differenzierung. Auf diese Weise haben sich Formen der segment?ren, der stratifikatorischen und der funktionalen Differenzierung ausgebildet: Segment?r werden gleiche Einheiten differenziert, stratifikatorische Differenzierungsformen sind hierarchisch oder nach Zentrum und Peripherie geordnet, die funktionale Differenzierung bezieht gleichrangige Teilsysteme aufeinander (vgl. Luhmann 1997, S. 609ff.).
Funktionale Differenzierung bedeutet, dass sich gesellschaftliche Teilsysteme herausbilden, die eine bestimmte Funktion erfüllen und sich mit teilsystemspezifisch codierten Kommunikationen abschlie?en; als Beispiele hat Luhmann Recht, Politik, Wirtschaft, Wissenschaft usf. untersucht. "Durch Systemdifferenzierung multipliziert sich gewisserma?en das System in sich selbst durch immer neue Unterscheidungen von Systemen und Umwelten im System." (Luhmann 1997, S. 598.) Die funktional differenzierte Gesellschaft vervielf?ltigt sich intern, indem innerhalb der Gesellschaft teilsystemspezifische Beschreibungen der Gesellschaft angefertigt werden: eine Gesellschaft des Rechts, eine Gesellschaft der Politik, eine Gesellschaft der Wissenschaft usw. Die moderne Gesellschaft ist in diesem Sinne eine polykontexturale Gesellschaft. Gerade in der systemtheoretischen Gesellschaftsanalyse stellt die Zunahme und Verarbeitung von Komplexit?t deshalb eines der zentralen Bezugsprobleme dar.
Unter Bedingungen funktionaler Ausdifferenzierung ist die (prinzipiell unfassbare) Komplexit?t der gesellschaftsinternen Umwelt nur durch die Funktionssysteme selbst zu bew?ltigen. Es geht darum, welche Beobachtungs-, Resonanz- und Verarbeitungsm?glichkeiten den Funktionssystemen (etwa in ?kologischen Fragen) zur Verfügung stehen (vgl. Luhmann 1986). Diese Konstellation wird zus?tzlich dadurch komplex, dass es keine dominanten Funktionssysteme (Wirtschaft, Politik oder Massenmedien) gibt, die gewisserma?en in Führung gehen und für eine überschaubare Ordnung sorgen k?nnten.
(Funktionale) Differenzierung ist auf Komplexit?tssteigerung abgestellt – und zugleich auf Komplexit?tsreduktion (vgl. Luhmann 1984, S. 261f.). Die Systemtheorie hat ihre Theorie gesellschaftlicher Differenzierung im Rahmen einer allgemeinen Theorie der Bildung von System-Umwelt-Differenzen formuliert. Man kann den Prozess der Systembildung auf das Problem der Komplexit?t beziehen (vgl. ebd., S. 45ff.). Systeme übernehmen die Funktion, Komplexit?t zu erfassen und zu reduzieren; dies gilt systemtheoretisch (im Anschluss an Parsons) als allgemeines Funktionsprinzip sozialer Systeme. 365体育_足球比分网¥投注直播官网 bilden sich durch Abgrenzung von einer komplexen Umwelt. Die Komplexit?t der Umwelt ist für das System prinzipiell unfassbar, so dass mit der Systembildung ein Prozess der Reduktion von Komplexit?t einhergeht. Es wird ein Komplexit?tsgef?lle zwischen System und Umwelt aufgebaut und erhalten. Dabei werden systemintern Elemente auf einem Komplexit?tsnivau gebildet, das deshalb notwendig hergestellt werden muss, weil nicht alle Elemente zugleich miteinander verknüpft werden k?nnen. Komplexit?t bestimmt die systeminterne "Verknüpfungskapazit?t der Elemente" (ebd., S. 46.; vgl. auch Kneer/Nassehi 1994).
Im Kollegzusammenhang ist nun interessant, dass gesellschaftliche Differenzierung hiermit als eine Art Automatismus gefasst wird; da Luhmann das Handlungskonzept als eine Grundlage der Soziologie verwirft, kann der Prozess gesellschaftlicher Differenzierung auf Subjekte und deren Intentionen nicht zugerechnet werden; in der Folge sind es die gesellschaftlichen Vollzüge selbst, konkret die Zyklen der Kommunikation und der Anschlusskommunikation, die die Systembildung vorantreiben; funktionale Differenzierung erscheint als ein weitgehend selbstt?tiger, von einer Eigenlogik bestimmter Prozess; Differenzierung scheint einsinnig, unumkehrbar, auch wenn konkrete Systeme sich im Verlauf der gesellschaftlichen Entwicklung ? selbstverst?ndlich ? aufl?sen und restrukturieren k?nnen.
Soziologen au?erhalb der Systemtheorie argumentieren zumindest in diesem Punkt ?hnlich, wenn sie das traditionelle Handlungskonzept modifizieren und neben intentionalen Handlungen auch die spezifische Blindheit des Handelns hervorheben (Giddens 1984/1995, 57ff.; Esser 1996, 19ff.; vgl. Bublitz et. al. 2010, 110-113.).
Wenn gesellschaftliche Differenzierung Komplexit?t produziert und in der Bildung von Systemen gleichzeitig ein Mittel zu ihrer Bew?ltigung findet, wird interessant, welchen Status Entdifferenzierungsprozesse haben. Der Aussage Links "entdifferenzierende Tatsachen liebt die Systemtheorie nicht" (Link 1997, 180f.) w?re zu widersprechen, wenn die Systembildung selbst, zumindest nach einer ihrer Seiten hin, eine Entdifferenzierung bedeutet. Dies allerdings w?re zu kl?ren und k?nnte Gegenstand einer eigenen ?berlegung im Kolleg sein.
Ein v?llig anderer Ansatz ergibt sich, wenn man die Akteur-Netzwerk-Ans?tze hinzuzieht, die derzeit in der Techniksoziologie wie in der Medienwissenschaft viel diskutiert werden. Auch die ANT hat Theorien entwickelt, wie Gesellschaft mit Komplexit?t umgeht, und sie erscheint insbesondere deshalb interessant, weil sie speziell auf die Technik abhebt, und die Technik insgesamt als eine M?glichkeit des Komplexit?tsmanagements fasst. Zentral ist hier vor allem der Begriff des Blackboxing; dieser Zusammenhang wird insbesondere im Teilbereich 2: ?Automatismen der Technik‘ reflektiert werden (s.u.).
Theorien zur mathematischen Komplexit?t k?nnen allenfalls Grenzfl?che der ?berlegung sein. Einer der beteiligten Informatiker (Meyer auf der Heide) arbeitet in diesem Feld; und in der Literatur wird verschiedentlich auf mathematische Vorstellungen verwiesen; im Fokus des Projekts steht dieser Bezug nicht.
Kulturtechniken
Und schlie?lich greift der neue Untertitel den Begriff der Kulturtechniken auf. Die Forschung zur Kulturtechnik, wie sie von Kr?mer/Bredekamp (2003), Macho (2003), 365体育_足球比分网¥投注直播官网gert (o.J., 2006, 2011), Nanz/365体育_足球比分网¥投注直播官网gert (2006), Engell/365体育_足球比分网¥投注直播官网gert (2010) und Maye (2010) entwickelt und ausgearbeitet wurde, stellt innerhalb der deutschen Medien- und Kulturwissenschaft einen Durchbruch dar. Zum einen, insofern sie den Technikbegriff, der auf Ger?te und Hardware zentriert schien, von diesen l?st und den Blick auf die technischen Praktiken lenkt. Hier sieht Schüttpelz (2006, 87) eine praxeologische Wende, eine Tendenz, der man sicherlich auch die Forschung zu den Automatismen zurechnen kann. Zum Zweiten, insofern das Konzept der Kulturtechniken an den antiken Begriff der Techne anschlie?t, was vielf?ltige neue Konnotationen liefert und erlaubt, eine Brücke hin zu künstlerischen Praxen zu schlagen; etwa zum Begriff einer künstlerischen Technik, wie ihn Adorno in seiner ?sthetischen Theorie formuliert (1970, 92, 316). Und schlie?lich, insofern die Kulturtechnikforschung an die Tradition ethnologischer und anthropologischer Forschung zu Kulturpraktiken anschlie?t (Schüttpelz 2006), was für die Frage nach den Automatismen ebenfalls neue Referenzen bereith?lt.
Gleichzeitig k?nnte auch der Begriff der Kulturtechniken von der Frage des Kollegs profitieren; dann n?mlich, wenn es gel?nge zu zeigen, dass Kulturtechniken sich nicht grunds?tzlich im Hellen, unter aller Augen, vollziehen. Die These des Kollegs w?re, dass zumindest bestimmte Kulturtechniken in ihrer Funktionsweise auf das Halbdunkel einer reduzierten Bewusstheit angewiesen sind; dass es sich bei Prozessen der ?Automatisierung‘ um einen ?bergang, um ein Absinken in diesen Raum handelt. In bestimmten F?llen scheint eine reduzierte Bewusstheit gesellschaftlich produktiv zu sein, z. B. indem sie Ressourcen erspart. Wissenschaftsgeschichtlich sind die Relationen zwischen Ethnologie und Psychoanalyse ohnehin eng. Dem Begriff der Kulturtechniken würde der Aufweis solch halb-bewusster Prozesse bis dahin wenig beachtete Perspektiven hinzufügen.
Forschungsschwerpunkte und Teilbereiche
Aus der Neuakzentuierung des Themas ergeben sich vier neue Teilbereiche, die das Thema gliedern und den Rahmen für die Promotionsprojekte der Kollegiat/innen bilden:
1. Automatismen und Komplexit?tsreduktion in den Medien
2. Automatismen der Technik, Technik und Formalisierung als Komplexit?tsmanagement
3. Selbstorganisation als gesellschaftliches Ordnungsprinzip
4. Automatismen und Komplexit?t in den Künsten
Mediale Prozesse haben für die Arbeit des Kollegs eine gro?e Rolle gespielt, als Beispielsph?re, als Denkanreiz für die Begriffsbildung und als Forschungsgegenstand. Die überwiegende Anzahl der Promotionsprojekte behandelte medienwissenschaftliche Themen und auch der Dialog mit der Informatik war h?ufig über Medienfragen vermittelt.
Die Medien sind diejenige Sph?re, wo Automatismen besonders ins Auge fallen. Eine unübersehbare Neigung zur Wiederholung, rigide Konventionen und Schemata treten in den Produkten hervor; und Typisierung/Stereotypien würde zumindest der Alltagsverstand mit dem Popul?ren fast gleichsetzen. Dies aber hei?t nicht, dass die Medienwissenschaft ein klares Bild davon h?tte, worum es sich bei Prozessen der Konventionalisierung eigentlich handelt, dass diese in ihrem Vollzug, als Mechanismen und als Gesetzm??igkeiten aufgearbeitet und ausreichend untersucht w?ren. Dies gezielt anzugehen war ein Fokus in der ersten Bewilligungsphase. Und der methodische Vorschlag war, dies über den Begriff der Automatismen zu tun. Die Herausbildung von Konventionen erscheint als ein automatisch ablaufender Prozess, der nicht intendiert ist und als ein Summenph?nomen über einer unübersehbar gro?en Zahl medialer ?u?erungsakte sich vollzieht. Schemata, Konventionen erscheinen als ?Parasiten‘, die sich an den Diskursen n?hren und jenseits von ihnen ? als System ? eine Eigenlogik entfalten; etablierte Schemata wiederum wirken automatisiert/performativ auf die Folgediskurse zurück. In der Vorstellung eines quasi technischen Funktionierens, das zu einer mechanistischen Determination gleichzeitig Abstand h?lt, als ein offenes Konzept, das kulturelle Praxen ernst nimmt, ohne diese auf ?den Menschen‘ zurückrechnen zu müssen, und Technik als Korrelat, Produkt und Gegenüber, in Wechselbeziehung zu diesen Praxen neu beschreibt, erweist sich der Begriff der Automatismen als produktiv.
?Praktiken‘ waren Thema des Kollegs im Sommersemester 2010; ?Schemabildung: Konvention, Stereotypie, Normalit?t‘ im Wintersemester davor; zwei Sammelb?nde fassen die Ergebnisse zusammen (Bublitz et al. 2010, Conradi et al. 2012).
Und gleichzeitig tritt in Medienprozessen auch die produktive Seite der Automatismen hervor. Konventionen erleichtern das Verstehen medialer Produkte, Medienverstehen scheint an Konventionen gebunden, Medienkompetenz als eine F?higkeit, die sich im Umgang mit Medienprodukten langsam und akkumulativ erst herausbildet; die souver?ne Beherrschung der Mediencodes ? paradox ? als das Resultat automatisierter Habitualisierungsprozesse (Bublitz et al. 2010, 23ff.). Und dies verl?ngert sich in die Sph?re der Produktion: Wer in den Medien arbeiten und Medienprodukte selbst hervorbringen will, muss mit den g?ngigen Stereotypens?tzen vertraut sein; und dies umso mehr wenn es darum geht, diese neu zu fassen, zu reinterpretieren oder zu überschreiten; und auch in den Medien ist Automatisierung Voraussetzung für Ver?nderung und neuerliche Differenzierung.
Die Neuausrichtung des Kollegs soll an das Erreichte anschlie?en und die Automatismen der Medien nun systematisch unter dem Aspekt einer Reduzierung von Komplexit?t fassen. Die Neuausrichtung erlaubt es, das Problem zu benennen, das hinter Automatisierungs- und Habitualisierungsprozessen steht: Ungeregelte Komplexit?t würde unmittelbar in Strukturkrisen münden; ihr einsinniger Anstieg w?re angesichts begrenzter Ressourcen nicht denkbar.
Komplexit?t also bedarf, gerade wenn sie die Tendenz hat, ?naturwüchsig‘ zu wachsen, eines Komplements, das sie konterkariert, ausbalanciert und dadurch erm?glicht. Reduktion von Komplexit?t und Anstieg von Komplexit?t erscheinen verschr?nkt; Diskurse erscheinen als Austragungsort dieser Spannung; Medien, Codes und Konventionen als eine Maschinerie, die beide Momente relationiert.
Auch diese Vorstellung knüpft an Luhmann an, der sie für den Begriff des Codes, am Beispiel der Sprache, entwickelt (1984, 143ff, 208ff.), in sein Medienverst?ndnis überraschender Weise aber kaum integriert (1995). Zudem muss die Medienwissenschaft anders fragen: 365体育_足球比分网¥投注直播官网 steht vor der Aufgabe, die Ebene des einzelnen Medienprodukts (des Contents) mit der der Codes, der des Technischen, der des Sozialen usf. zu verbinden. Hierfür sind Begriffe n?tig, die eine mittlere Abstraktionsh?he haben; der Begriff der ?Automatismen‘ k?nnte ein solcher Begriff sein.
Ziel des Teilbereiches ist es, die Rolle von Automatismen innerhalb von Medien und Medienpraxen zu untersuchen. Besonderes Augenmerk gilt den Mechanismen, mit denen Medien zum Management von Komplexit?t beitragen. Modelle der Stereotypentheorie und der Konventionalisierung sollen in den Rahmen dieser Fragestellung eingebracht und mit semiotischen und techniktheoretischen Modellen verbunden werden, um auf dieser Basis ein neues Verst?ndnis medialer Entwicklungsprozesse zu finden. Konkrete medienhistorische F?lle werden auf eine neue Weise theoretisch gefasst.
Methode: Theoriearbeit, historische Untersuchungen und Fallstudien.
Stand der Forschung: Ausgehend von den klassischen Texten Lippmanns (1922) und Meads (1934/1968) hat sich die Stereotypenforschung stark ausdifferenziert: Untersuchungen zu National-, Race-? oder Geschlechterstereotypen beschreiben, ausgehend meist von empirischem Material, Mechanismen, die Stereotypen hervorbringen, stabilisieren oder auch abtragen k?nnen (u.v.a. Gilman 1985). Jüngere, st?rker theoretisch ausgerichtete Ans?tze sind bemüht, den Stereotypenbegriff von seinen pejorativen Konnotationen zu l?sen; dies beginnt bereits bei Manz (1968) und Stephan (1989) und wird bei Hinton (2000), McGarty/Yzerbyt/Spears (2002) und Ewen/Ewen (2006) zentral.
Modelle der Konventionalisierung finden sich in den unterschiedlichsten Feldern: Innerhalb der Sozialwissenschaften w?ren Bourdieu (1979/1984) oder Stemmer (2008, 199ff., 202ff.) zu nennen, im Feld der Semiotik geht man von Fragen des Codes zu einer prozessualen Sicht, zur Semiosis, über (Marell 1996, Bains 2006). Wichtige Ans?tze zu Medien und Komplexit?t finden sich bei Luhmann (1984, 46ff.) und bei Thiedecke (1997). Methodenprobleme der Mediengeschichtsschreibung werden in den Ver?ffentlichungen des Graduiertenkollegs ?Mediale Historiographien‘ (Weimar/Erfurt/Jena) und des Forschungskollegs ?Medienumbrüche‘ (365体育_足球比分网¥投注直播官网gen) verst?rkt reflektiert.
Betreuung: Adelmann, Bartz, Brauerhoch, Bublitz, Keil, Lemke, Ribbat, Weber, Winkler
Querbezüge: Ein enger Konnex besteht zu den Teilbereichen 2, ?Technik‘ und 4, ?Kunst‘; sowie zum Teilbereich 3, ?Selbstorganisation‘, wo dieser Wechselverh?ltnisse zwischen Subjektkonstitution und Kulturtechniken/Medien thematisiert.
Technology Studies und Techniksoziologie untersuchen die Entwicklung neuer Technologien ? wenn man grob unterteilt ? auf zwei Ebenen: Auf einer Makroebene geht es um Technologie insgesamt, um ihre gesellschaftliche Funktion, ihre Entwicklungstendenzen und die Frage, was Prozesse der Technologisierung vorantreibt. Eine zweite, Mikro-Ebene würde nach den Besonderheiten einzelner Techniken fragen. Auf beiden Ebenen spielen sowohl Automatismen als auch die Reduktion von Komplexit?t eine wichtige Rolle.
Das Kolleg hat vorgeschlagen, Automatismen selbst als eine ?Technologie‘ zu begreifen (Bublitz 2010: 9ff., 113ff.). Dass es sich um Praktiken handelt, die spezifische Funktion übernehmen, dürfte unstrittig sein; dies bedeutet, dass ihnen, auch wenn keine Intention zugrunde liegt, eine gewisse Finalit?t eingeschrieben ist, die ? z. B. in der Annahme von Zweck-Mittel-Relationen ? ein zentrales Kennzeichen des ?Werkzeugs‘ und des Technischen ist.
Doch die These des Technischen geht wesentlich weiter: So sind Automatismen an Wiederholung gebunden (Dolar 2010) und sie haben quasi-institutionellen Charakter (Winkler 2010: 113). Innerhalb des Felds fluider Praktiken stellen sie damit Verh?rtungen dar (ebd.: 116). Dies führt auf die These, dass Automatismen eine mittlere, vermittelnde Ebene einnehmen; zwischen der Ebene fluider, spontan ?nderbarer Praktiken einerseits, und der ganz anders gearteten, auf der Technik Hardware ist, also eine dauerhaft materielle Form findet.
Ein komplexer Technologiebegriff, der beide Ebenen ? Praktiken und Reifizierung/Hardware ? umfasst, steht immer vor der Frage, wie beide verschr?nkt sind, an welchen Punkten sie ineinander übergehen und welche Typen von Kausalit?t sie verbinden. Diese Frage hat historisch in die Konfrontation technologisch deterministischer und sozialkonstruktivistischer Techniktheorien geführt (Degele 2002; Williams 1974/1990); wenn Automatismen ihren Ort tats?chlich zwischen Praktiken und Hardware haben, k?nnte dieser Gegensatz m?glicherweise zu verflüssigen sein.
Technologie wird in unterschiedlichen Techniktheorien mit der Frage der Komplexit?t und der Komplexit?tsreduktion verbunden. Augenf?llig ist zun?chst, dass die Technologieentwicklung selbst einer Logik der Steigerung und der Differenzierung folgt, was zun?chst eine einsinnige Zunahme von Komplexit?t suggeriert (Degele 202: 13ff. 57ff.). Gleichzeitig geht Technisierung h?ufig mit drastischen Vereinfachungen ? insbesondere auf der Seite der Nutzung ? einher. Ein Beispiel ist die Fotografie, die als ein aufw?ndiges chemisch-mechanisches Verfahren, gebunden an Spezialisten, beginnt und dann schrittweise vereinfacht wird, bis sie ? one click only ? nahezu jeden in die Rolle eines aktiven Bildproduzenten bringt. Technologie also stellt drastische Mittel auch für die Reduzierung von Komplexit?t bereit; diese Seite wurde früh gesehen (Benjamin 1936/1980) und hat kürzlich unter dem Stichwort der ?Trivialisierung‘ Medien- und Kulturwissenschaftler, Künstler und Informatiker zu einer interdisziplin?ren Tagung zusammengeführt (Lüneburg 2011).
Das Kolleg will diese Frage aufnehmen und gestützt auf etablierte Ans?tze der Technikforschung als einen neuen Rahmen für die Frage nach den Automatismen nutzen. Hier sind zumindest drei Ans?tze relevant: die eher ?klassischen‘ Ans?tze Rammerts, Ropohls und Joerges'; die Akteur-Netzwerk-Theorie und die techniktheoretischen Modelle innerhalb der Systemtheorie.
Beispielhaft sei hier zun?chst nur der Ansatz der ANT kurz umrissen, und innerhalb der ANT der Begriff des Blackboxing, wie Latour und andere ihn konzipiert haben (Couldry 2006). Akteursnetzwerke werden, der praxeologischen Grundlegung der Theorie entsprechend, als zun?chst in actu, als fluide betrachtet. Gleichzeitig aber streben Akteure eine Stabilisierung ihrer Netzwerke an. Wenn dies gelingt, gewinnt das Netzwerk den Charakter einer stabilen Entit?t, mit der Folge, dass das Netzwerk in einer Art Blackbox verschwindet und sein Charakter als Netzwerk damit unkenntlich wird.
Blackboxing also impliziert eine drastische Reduzierung von Komplexit?t: Sobald es gelingt, ein Netzwerk in eine Blackbox zu bannen, kann von seiner inneren Komplexit?t abstrahiert werden. Und mehr noch: Blackboxing steht für exakt denjenigen Unterschied, der für Technik so typisch ist, und der die Perspektive eines Nutzers von der des Technikers trennt. Die Einschreibung in Technik erscheint als eine M?glichkeit, den Nutzer zu entlasten (Degele 2002); allerdings um den Preis, dass das innere Funktionieren der Technik für den Nutzer unkenntlich wird.
Interessanter noch ist die Tatsache, dass die ANT diese Perspektive umkehrt und radikalisiert, indem sie alle stabilisierten Entit?ten auf diese neue Weise betrachtet. Was ? Beispiel ist wieder die Technik, die Hardware ? als dinghaft, stabil reifiziert erscheint, ist tats?chlich eine Blackbox, in der sich jeweils ein Netzwerk verbirgt (Couldry 2006). Erst wenn eine St?rung oder andere destabilisierende Faktoren auftreten, wird das Netzwerk als Netzwerk wieder sichtbar, wieder verflüssigt oder bildet sich in andere Netzwerke um. Dies er?ffnet Perspektiven für eine allgemeinere Techniksoziologie (Degele 2002); wirft aber, wie das Problem der vielfach ineinander geschachtelten Puppen, gleichzeitig auch spezifische Probleme der Beobachtung auf.
Die skizzierte Vorstellung ist für das Kolleg in besonderer Weise brauchbar; dies hat u. a. ein 365体育_足球比分网¥投注直播官网 gezeigt, den die Kollegiat/innen im Sommersemester 2010 zu diesem Thema veranstaltet und in einem Sammelband dokumentiert haben (Conradi et al. 2011). Die Tatsache, dass die Blackbox Praktiken fixiert und das zugrundeliegende Akteursnetzwerk gleichzeitig verbirgt, hat seine Entsprechung in der spezifischen Opazit?t der Automatismen. Prozesse der Verkapselung, Verdichtung und Speicherung komplizierter Handlungssequenzen in schnell abrufbare Module lassen sich als Automatismen begreifen. Diese Prozesse bleiben weitgehend unsichtbar; die Beobachtung des Outputs – der Performanz von Automatismen ? erm?glicht keine Rückschlüsse auf deren Entstehung; ihre Genese bleibt vielmehr verborgen (black box), was sie zus?tzlich stabilisiert. Training, Schemabildung und die Ausbildung des K?rperged?chtnisses w?ren als Sonderf?lle des Blackboxing zu analysieren. Dass es Praktiken sind, auf die die ANT abhebt, und dass es um Prozesse der Verfestigung geht, w?ren weitere parallele Motive.
Das Modell erweist sich als anschlussf?hig an jene Theorien der Normalisierung (Link 1997) und der Naturalisierung, wie sie im Umfeld der Cultural Studies vertreten wurden. Normalisierung und Naturalisierung waren in der ersten Phase des Kollegs Gegenstand des achten Teilbereichs; die neue Ausrichtung auf die Reduzierung von Komplexit?t verspricht auch hier viel; Technologie und soziale Prozesse, Blackboxing, Normalisierung und Naturalisierung k?nnten in einem neuen Rahmen für die Beschreibung von Automatismen zusammengeführt werden.
Sobald man die Makro-Ebene generellerer Techniktheorien verl?sst, werden Fragen im Feld einzelner Techniken m?glich, und damit jene Konkretisierung, die den Anschluss an konkrete Promotionsprojekte erlaubt.
These der ersten Bewilligungsphase war, dass Automatismen vor allem im Fall verteilter Systeme wirksam sind; Verteilte Systeme waren Semesterthema im Sommersemester 2011, und mehrere Dissertationsprojekte sind diesem Thema gewidmet (EB). Im Mai 2011 hat das Kolleg das Verh?ltnis verteilter Systeme und sozialer Netze zum Thema eines kleineren 365体育_足球比分网¥投注直播官网s gemacht (EB, S. 10).
Verteilte Systeme stellen auch in der Fortsetzungsphase einen Schwerpunkt dar. Auch hier würde man denken, dass sich in verteilten Systemen Komplexit?t naturwüchsig steigert; gleichzeitig aber ist auff?llig, dass sie historisch bereits eine Antwort auf Probleme der Komplexit?t sind. So entstehen Netzwerke h?ufig dort, wo traditionelle Organisationsmittel – Planung, Ordnung und Hierarchie – an ihre Grenze sto?en. Und gleichzeitig bringen Netzwerke neue Komplexit?ten hervor. Wer mit Netzwerken arbeitet, hat es h?ufig mit Komplexit?tsproblemen zu tun.
Die zweite Einzeltechnologie, die mit Blick auf Automatismen und Komplexit?t untersucht werden soll, ist die Formalisierung. Wenn es dem Kolleg ? auf der Schnittstelle zwischen Medien- und Kulturwissenschaften und Informatik ? vor allem um die Informationstechnik geht, ist eine der entscheidenden Fragen, welchen Stellenwert und welche Position die Informationstechnik relativ zu anderen Medien- und Kulturtechniken hat.
Formalisierung stellt ? so komplex sie in sich ist ? sicherlich eine drastische Reduzierung von Komplexit?t dar. ?berall dort, wo es ge