Smarte grüne Welt? - Digitalisierung zwischen Überwachung, Konsum und Nachhaltigkeit

Smarte grüne Welt? - Digitalisierung zwischen Überwachung, Konsum und Nachhaltigkeit

von: Tilman Santarius, Steffen Lange

oekom Verlag, 2018

ISBN: 9783962384531

Sprache: Deutsch

268 Seiten, Download: 3055 KB

 
Format:  EPUB, auch als Online-Lesen

geeignet für: geeignet für alle DRM-fähigen eReader geeignet für alle DRM-fähigen eReader Apple iPad, Android Tablet PC's Apple iPod touch, iPhone und Android Smartphones Online-Lesen


 

eBook anfordern

Mehr zum Inhalt

Smarte grüne Welt? - Digitalisierung zwischen Überwachung, Konsum und Nachhaltigkeit



Kapitel 2
Triebkräfte der Digitalisierung


Einer der abgedroschensten Allgemeinplätze in Gesprächen über Digitalisierung ist der, dass Technik ›neutral‹ sei. Technik, so wird dann behauptet, sei weder gut noch schlecht, sondern ein rein sachliches ›Werkzeug‹, mit dem die allerunterschiedlichsten Ziele verfolgt werden könnten. Eine Technik sage nichts über die Zwecke aus, für die sie eingesetzt werde. Frei nach dem Beispiel: Ein Auto kann Verletzte ins Krankenhaus transportieren, als Panzerwagen im Krieg dienen oder aber für vergnügliche Spritztouren am Wochenende bereitstehen. Doch diese Sichtweise gilt höchstens für die abstrakte Erfindung von Technik, also für die rein theoretische Idee eines ›Automobils‹ oder ›der Digitalisierung‹. In der konkreten Ausgestaltung hingegen verkörpern technische Geräte immer auch die Interessen und Zwecke derer, die sie machen. Welche konkreten Formen Technik annimmt, wird von denen bestimmt, die sie designen, herstellen, verkaufen und ihre Rahmenbedingungen regulieren. Wie sähen Autos denn aus – ja, gäbe es sie überhaupt als Privatwagen oder nur als öffentliche Transportmittel? –, wenn sie nicht gemäß den Interessen der Automobilindustrie, Ölkonzerne, Tankstellenbetreiber, Straßenbaufirmen, Verkehrspolitiker*innen und natürlich der Lobby der Autofahrer*innen gestaltet worden wären?
So ist es auch mit der Digitalisierung, sprich: dem Einzug unzähliger Geräte und Anwendungen der Informations- und Kommunikationstechnologien (Hard- und Software) in unterschiedliche Lebens- und Wirtschaftsbereiche. Wie und wofür können sie genutzt werden? Und wofür nicht? Welche Bedürfnisse werden befriedigt, welche verletzt? Die Art, wie jedes einzelne digitale Gerät gestaltet und jede Anwendung programmiert ist, wie Suchmaschinen Auskunft geben oder wie das Internet als Ganzes geregelt ist, wird niemals ›neutral‹ sein. Daher entscheiden die Nutzer*innen auch keineswegs alleine, wem die Digitalisierung dient und nützlich ist. Die Gestaltung von Technik ist das Ergebnis eines andauernden Prozesses gesellschaftlicher Auseinandersetzungen. Und in diesem Prozess schlägt sich auch die unterschiedlich große Macht der beteiligten Akteure nieder.
Um zu verstehen, welche Anliegen die Digitalisierung besonders prägen, erweist sich ein Blick in ihre Geschichte als äußerst aufschlussreich. Er zeigt: Wer die Entwicklung von Computern und des Internets aus der Taufe gehoben hat, dessen Anliegen prägen bis heute die Gestaltung, Regulierung und Nutzung verschiedenster Formen der Digitalisierung. Unzählige Wissenschaftler*innen, Ingenieur*innen und Praktiker*innen haben über Jahrzehnte daran mitgewirkt, dass Informations- und Kommunikationstechnologien und das Internet so geworden sind, wie wir sie kennen. Doch blickt man auf die Anfänge zurück, dann können insbesondere drei Interessengruppen die Patenschaft der Digitalisierung für sich beanspruchen: Militär, Wirtschaft und Weltverbesserer.
Die Anfänge der Entwicklung und Vernetzung digitaler Informations- und Kommunikationstechnologien gehen auf das US-amerikanische Militär zurück. Fernmeldedienste sind nicht nur in der akuten Kriegführung, sondern auch zur Spionage gegen potenzielle Feinde oder zur Entwicklung automatisierter Waffensysteme von großer Bedeutung. Unmittelbar nach dem ›Sputnik-Schock‹ von 1957, als die Sowjetunion als erste Nation ins Weltall geflogen war und damit den ›Westen‹ das Fürchten gelehrt hatte, gründete das US-amerikanische Verteidigungsministerium die ›Advanced Research Projects Agency‹ (ARPA) und beauftragte sie, ein flexibles, möglichst autonom funktionierendes Informationsnetzwerk zu entwickeln. Es sollte ohne zentrale Kommandostelle auskommen, um im Falle eines Atomkriegs möglichst robust zu sein. Gut zehn Jahre später, 1969, wurde das ›Arpanet‹ als einer der wichtigsten Vorläufer des Internets in Betrieb genommen und ab 1975 auch in Militäroperationen eingesetzt.1 An der Entstehung wie auch Weiterentwicklung des Arpanets während der darauffolgenden Jahre waren zwar auch etliche Wissenschaftler*innen beteiligt, die nicht direkt dem Verteidigungsministerium unterstanden, aber der Großteil der Finanzierung für die Computerwissenschaften in den 1950er- bis 1970er-Jahren stammte aus dem Militärhaushalt.2 Auch die Forscher*innen und Techniker*innen, die lediglich aus Erkenntnisinteresse gearbeitet haben mögen oder für den hehren Traum, mittels Computerkommunikation die Welt zu verändern, verdankten ihre Aufträge und Ressourcen letztlich dem Kalten Krieg, der jahrzehntelang auf ein Wettrüsten und Wettauspionieren der amerikanisch dominierten NATO-Staaten gegen die Sowjetunion und ihre Verbündeten zielte.3
Wirtschaftliche Akteure begannen etwas später, Informations- und Kommunikationstechnologien für ihre Zwecke zu nutzen – und zu prägen. Während noch in den 1950er-Jahren der überwiegende Teil der Computer von militärischen und wissenschaftlichen Einrichtungen betrieben wurde, übernahm ab Mitte der 1960er-Jahre die Wirtschaft. Nun waren es vor allem Banken, Versicherungen und zunehmend auch große Industrien, die über die meiste Rechenkapazität verfügten.4 Bereits 1969 wurde die sogenannte ›speicherprogrammierbare Steuerung‹ erfunden, mit der Maschinen digital programmiert und betrieben werden konnten. Die industriellen Automatisierungsschübe in den folgenden Jahrzehnten erlaubten es den Unternehmen, in hohem Maße Arbeitskräfte durch Maschinen zu ersetzen und so ihre Produktion auszuweiten und Profite zu erhöhen. Spätestens seit den 1970er-Jahren wurde die Privatwirtschaft daher ein wichtiger Motor der Digitalisierung. Die zentralen Triebkräfte waren einerseits Telekommunikationsunternehmen wie etwa der nordamerikanische Konzern AT&T, die mit politischem Druck eine weitreichende Deregulierung des Telekommunikationsmarkts erwirkten und dafür sorgten, dass Computerdaten zwar dieselben Netze wie Telefondaten verwenden können, dabei aber kaum politisch reguliert werden. Andererseits trieben Hard- und Softwarefirmen wie IBM, Intel, Microsoft oder Oracle diese Entwicklung an. Diese stiegen bald in die Riege der kapitalstärksten Weltkonzerne auf und Firmenchefs wie Bill Gates oder Larry Ellison zählen bereits lange zu den reichsten Milliardären der Welt.5 In diesen großen transnationalen Unternehmen legten Systementwickler*innen die Grundlagen für die Ausbreitung von PCs und anderen digitalen Technologien sowie deren Vernetzung im Internet – deutlich bevor Tim Berners-Lee 1991 das World Wide Web erfand. Viele Unternehmen betrieben zudem Intranets. Beispielsweise verfügte Ende der 1980er-Jahre die Bank Citicorp über das damals größte private Intranet der Welt, um zwischen ihren 94 nationalen Standorten Währungsgeschäfte in Höhe von rund 200 Milliarden US-Dollar täglich abzuwickeln.6 Digitalisierung lieferte somit die Basis dafür, dass transnationale Konzerne ihre Produktions- und Wertschöpfungsketten quer über alle Kontinente aufspannen konnten. Die industriellen Automatisierungsschübe erlaubten es, Arbeitskräfte durch Maschinen zu ersetzen, um Profite zu erhöhen und die Produktion auszuweiten. Und dank Digitalisierung konnten Wissen und Informationen systematisch in Wert gesetzt und schrittweise zum lukrativsten Geschäftsfeld des 21. Jahrhunderts ausgebaut werden.7
Scheinbar konträr zum Kontroll- und Abhörinteresse des Militärs und zum Profitinteresse der Wirtschaft wurde die Digitalisierung von früh auf auch durch die ›alternative Szene‹ der 1960er- und 1970er-Jahre, insbesondere der amerikanischen Hippie- und Gegenkultur (counterculture), geprägt und gestaltet.8 Als Vorläufer der Studentenrevolution hat bereits das Free Speech Movement von 1964 für Meinungsfreiheit, Gerechtigkeit und gegen den ›militärisch-industriellen Komplex‹ demonstriert. Es kämpfte für eine Gesellschaft, in der die Technik zurück in die Hände der Menschen gelegt wird, anstatt den Menschen zu einem Rädchen in der industriellen Maschine zu machen.9 Ende der 1960er- und Anfang der 1970er-Jahre suchte dann eine ganze Bewegung in den USA und weltweit nach alternativen Lebensformen, die im Einklang mit der Natur stehen sollten und sich gegen den freiheitsberaubenden Kapitalismus wandten. Diese Bewegung war nicht unbedingt technikfeindlich: Kleinmaßstäbliche, ›konviviale Technologien‹10 aller Art – auch zur Informationsbeschaffung – wurden als wichtige Werkzeuge für die Emanzipation und Unabhängigkeit vom Industriekapitalismus eingesetzt. Der Whole Earth Catalogue von 1968 etwa, der Kommunard*innen Informationen und Instrumente zur Selbstversorgung an die Hand gab, gilt als wichtiger analoger Vorläufer des Internets.11 Die Werte und Ideale der ›Alternativ-Szene‹ prägten die ›Computer-Szene‹ von Anfang an mit: Etliche IT-Firmen wurden von langhaarigen Hippies in Hinterhöfen hochgezogen. Steve Jobs gründete Apple als ›countercultural computer company‹. Und es wuchs eine ganze Generation von Hacker*innen heran, die einer strengen normativen Ethik folgten.12 Auch wenn manche von ihnen eher individualistische oder libertäre Ziele verfolgten, sahen und sehen viele Hacker in der Digitalisierung die Chance, unterdrückende Hierarchien abzubauen, ausbeuterische Konzerne lahmzulegen und den destruktiven Kapitalismus durch eine umweltfreundliche und gerechte Ökonomie zu ersetzen.13 Es nimmt nicht wunder, dass sowohl Spionageversuche von Militär und Geheimdiensten als auch die digitalen Giganten – allen voran der Konzern...

Kategorien

Service

Info/Kontakt