Deutsch Français English Italiano
Anmeldestatus: nicht angemeldet


Diskussion «"Daten sind das neue Erdöl" und andere gefährliche Metaphern»
Artikel 1-4 von 4



Fredy Spring
27. Januar 20 (11:00 Uhr)
Beitragsnummer: 4241
Lieber Stefan,

Du nudgest mich für einen weiteren «gefährliche Metaphern-Liste»-Vorschlag: Energie- und Ressourceneffizienz. :-)

Der Energieeffizienz-Diskurs ist nicht Widerpart zum Wachstumskarussell, sondern die legitimatorische Grundlage seiner rhetorischen Erneuerung. Durch Rebound-Effekte geht Energie- und Ressourceneffizienz in aktuellen, Wachstum erzwingenden Strukturen oft nach hinten los. Dies zeigt sich bei vielen sogenannten technischen Innovationen, wird aber ungern berücksichtigt. Aus Marketinglogiken betrifft diese Dethematisierung von Rebound-Effekten den Energie- und Ressourceneffizienz-Diskurs im Besonderen. Das Elektroauto ist ein hervorstechendes Beispiel für dieses Phänomen. Zudem lösen, nebst der – nicht nur durch Rebound-Effekte – zweifelhaften Ökobilanz von Elektroautos für sich genommen, Elektroautos kein einziges Problem des «System Auto».

Der aktuelle Energie- und Ressourceneffizienz-Diskurs ist ebenso technikdeterministisch wie andere Technikgläubigkeit. Und ausserdem zumindest unterschwellig teleologisch, was er sich mit Wachstumsdenken teilt.
Es geht nicht um «gegen oder für Technik», es geht überhaupt nicht um Technik. Wir werden auch in Zukunft Technik nutzen und wir werden Geräte und Systeme Energie und Ressourcen effizienter gestalten (müssen). Was wir der Steuerung durch Maschinen überlassen und was nicht, und wie stark oder wie wenig wir uns von Maschinen überwachen lassen wollen, ist im Rahmen der gesellschaftlichen Produktivkräfte keine technische Frage. Ob wir SUV-Fahren für ein unverbrüchliches Menschenrecht halten, hat nichts mit Technik zu tun. Welche Technik wir weiterentwickeln und welche nicht ist eine gesellschaftspolitische Auseinandersetzung. Es geht um gesellschaftliche Definitionsmacht, Verfügung über und Zugangsverwehrung zu materiellen und ideellen Ressourcen, um Formen und Inhalte von Anerkennungsprozessen.

In technikdeterministischen Positionen versteckt sich die normative Position hinter einer technischen Argumentation und hat die Tendenz eine Diskursform der Sachzwang-Logik zu induzieren. Unterschwellig geht damit ein Anspruch auf gesellschaftliche Definitionsmacht einher, der demokratisch schwer zu rechtfertigen sein dürfte. Wer schon etwas länger «im Geschäft» ist, weiss inzwischen, wie überzogen die mit Hypes einhergehenden Prognosen jedes Mal sind. Die Dynamik von Hypes verspricht den Hyper*innen Definitionsmacht, die sich nach dem Hype in der Sache kaum je als gerechtfertigt erweist. [1]

An Technikgläubigkeit ist nicht der Teil «Technik» fragwürdig, sondern dass Technik in spezifisch einseitiger Weise mit einer Lebensweise und einem Weltbild verknüpft wird. Der Energie- und Ressourceneffizienz-Diskurs ist tief in diese Logik verstrickt. Ein erster Schritt wäre ein weniger identitätsstiftender Umgang mit Technik.

So, muss weiter, meinen Interlis-Import überprüfen.
Nein, Interlis ist nichts für die Liste. ;-)

[1] Ein «gutes» Beispiel ist Chris Anderson: Seine erkenntnistheoretisch geradezu lächerlich verkürzten Vorstellungen ([www.wired.com/2008/06/pb-theory]) konnten innerhalb des KI- und Big Data-Hypes erhebliche Strahlkraft entfalten. Kaum ein Artikel über KI und Big Data aus den Medienwissenschaften in den letzten zehn Jahren, der Andersons Aufsatz – wenn auch oft widersprechend – nicht zitiert.
Der letzte Satz in Andersons Aufsatz lautet: «Es ist höchste Zeit zu fragen, was wir von Google lernen können.» Wenn das kein Wasserträger unverhohlener Ansprüche auf Definitionsmacht ist, wie die Welt besser werde, komme ich in Kaisers neuen Kleidern ans nächste Spirgarten-Treffen.

Stefan Keller
13. Januar 20 (02:19 Uhr)
Beitragsnummer: 4238
Lieber Fredy: Herzlichen Dank im Nachhinein für deine interessanten Ausführungen mit denen ich auf weiten Strecken einig bin!

Bei der folgenden Aussage möchte ich mich aber "outen". Du hast geschrieben: Bei einigen Zeitgenoss*innen ist ein unerschütterlicher Glaube anzutreffen, es gebe für jedes Problem eine technische Lösung. U.a. feiert dies in der Klimadebatte vom Elektroauto bis zu den Allmachtsfantasien des Geoengineerings (un-)fröhliche Urstände". Ich bin mit dir einig, dass wir oft zu technikgläubig sind, noch zuwenig unsere Ansprüche hinterfragen und unser Konsum zuwenig reduzieren. Wir sind "halt" Geiseln des Wirtschaftswachstums. Und ich als Techie kann halt schon im Bereich der effizienteren Energie- und Ressourcen-Nutzung am meisten beitragen... Ich überlege mir zurzeit sogar, ob und wie Wissenschaftler - u.a. Geografen, die das Klima schon vor 30 Jahren diskutiert haben - nicht eine Art "Reclaim the Climate Change Debate" lancieren sollten!

Dann noch etwas ganz anderes: Derzeit ist OpenStreetMap ein recht populäres Thema im Bereich der Sozialwissenschaften und der Geoinformatik. Da kommt oft der Begriff VGI (Volunteered Ggeographic Information) vor. Dazu habe ich einen lesenswerten kurzen Blogbeitrag gefunden, der erklärt warum man es nicht VGI nennen sollte, sondern Crowdsourcing [1].

"Citizen Science" ist eine Erweiterung des Crowdsourcings. Der Geograf Muki Haklay hat eine Übersicht der Formen von bürgerlicher Beteiligung in Citizen Science geschrieben [2]. OpenStreetMap und Wikimedia sind typische Formen des Crowdsourcings bei denen reine Fakten festgehalten werden - also keine Forschung im Spiel ist bei der Datenerfassung.

Wobei ich auch da bei den Definitionen von "Crowdsourcing" manchmal die Stirne runzeln muss: Beispielsweise wenn es heisst, Crowdsourcing sei die "Auslagerung traditionell interner Teilaufgaben an eine Gruppe freiwilliger User, z.B. über das Internet.". Niemand bei Wikimedia und OpenStreetMap wurde und fühlt sich "ausgelagert". Oder wenn Bürger als "Sensoren" bezeichnet werden - ausser man will damit auf die Tatsache hinweisen, dass wir von US-Grosskonzernen und bald vielleicht auch von aussereuropäischen Staaten unfreiwillig als Sensoren missbraucht werden.

[1] [blog.imagico.de/wissenschaft-und-openstreetmap-und-warum-man-es-nicht-vgi-nennen-sollte/]
[2] Muki Haklay: Citizen Science and Volunteered Geographic Information: Overview and Typology of Participation. In: Crowdsourcing Geographic Knowledge. 2013, ISBN 978-94-007-4586-5, S. 105–122.

Fredy Spring
20. Oktober 19 (19:15 Uhr)
Beitragsnummer: 4182
Naja, die Daten-Öl-Metapher zielt wohl nicht auf die technisch-materielle Ebene. Insofern verfängt die Kritik des Netzwoche-Autors nicht wirklich. In dieser Metapher ist Öl als Haupttreiber des ökonomischen Entwicklungsmodells gemeint, worin die Metapher vielleicht nicht ganz falsch liegt – über Details liesse sich streiten …

Ironischerweise kolportiert und wiederholt der Netzwoche-Autor mit der Mär von der Immaterialität von Daten in seiner Kritik selbst eine «gefährliche Metapher» (genau genommen ist es ein falscher Begriff keine Metapher). Die technische Sachlage scheint einfach: ohne Hardware keine Daten. Gesellschaftlich gewichtiger dürfte aber sein, dass mit dem so verwendeten Begriff des «Immateriellen» verschiedene Facetten einer ziemlich brutalen Realität «hinter» der Immaterialität ausgeblendet bleiben. Die Rohstoffgewinnung für heutige Hardware (Stichwort seltene Erden etc.) verursacht inzwischen lokale Konflikte und Kriege. Von den in den Minen vielfach anzutreffenden Arbeitsbedingungen, die «wir hier» kaum ein paar Stunden ertragen noch akzeptieren würden, ganz zu schweigen. Eine weitere ausgeblendete Facette darin ist die Elektroschrott-Problematik, die aktuell nach Afrika, China und anderswoausdenaugenausdemsinn nicht nur sprichwörtlich exportiert wird.

Der Kern der Daten-Öl-Metapher, Öl als wirtschaftliches Schlüsselelement, kann in diesem Sinne ergänzt werden: Daten haben mit dem Öl gemeinsam, dass sie zunehmend vom Segen – falls sie das jemals waren (Stichwort Rosa Listen, IBM-Lochkarten u.a.) – zum Fluch werden.

Kritischen Beobachter*innen dürfte die grassierende Technikgläubigkeit in der Tech-Branche kein Geheimnis sein. Die Ursache für «das Gefährliche» an den «gefährlichen Metaphern» dürfte nicht zuletzt deren Aufladung mit und der Transport solcher Technikgläubigkeit sein, was ja in den Kritiken durchscheint. Der mit Technikgläubigkeit einhergehende Technokratensprech vernachlässigt soziale Prozesse oder artikuliert diese in technizistisch verkürzter Weise. Bei einigen Zeitgenoss*innen ist ein unerschütterlicher Glaube anzutreffen, es gebe für jedes Problem eine technische Lösung. U.a. feiert dies in der Klimadebatte vom Elektroauto bis zu den Allmachtsfantasien des Geoengineerings (un-)fröhliche Urstände.

Der Begriff Nudging, der verniedlichend oft mit «Anstupsen» o.ä. eingedeutscht wird, darf wohl der Liste der «gefährlichen Metaphern» hinzugefügt werden. Unverblümter formuliert geht es dabei um eine soziotechnokratische Praxis der Menschen- und Massenmanipulation. In der spezifischen Form der Gamifizierung ist Nudging inzwischen wohl mindestens in jede zweite App eingebaut. Dass in diesem Zusammenhang getrost, wenn auch wenig tröstlich, von totalitären Fantasien gesprochen werden kann, dürfte spätestens seit der Cambridge Analytica-«Affäre» deutlich geworden sein.

Als ein bzw. zwei weitere Kandidatinnen für die «gefährliche Metaphern»-Liste schlage ich die Begriffe Intelligenz und (maschinelles) Lernen im Zusammenhang mit Künstlicher Intelligenz (KI) vor. Bei KI in ihrer aktuell dominierenden Form des Deep Learnings mit neuronalen Netzen u.ä. handelt es sich im Grundprinzip um so etwas, wie das Erzeugen eines stochastischen Musters aus den Lerndaten, um daraus eine Prognose zu erstellen. Also im Grundkonzept nicht viel anderes als eine Mittelwert- und Varianzberechnung o.ä. als Grundlage einer Prognose. Demgegenüber vermitteln die mit der Entwicklung dieser Technologien einhergehenden Heilsversprechen manchmal doch den Eindruck, es handle sich um ein Wahrheit sprechendes Orakel, dessen Glaubwürdigkeit in umgekehrt proportionalem Verhältnis zur Durchschaubarkeit seiner Wirkungsweise steht. Im technischen Bereich sind deren Resultate vielleicht öfters noch auf relativ einfache Weise plausibilisierbar, bei sozialen, gesellschaftlichen Phänomenen wird das meist schwieriger. Die beiden Begriffe sind ein Paradebeispiel für Anthropologisierung, also der Projizierung menschlicher Eigenschaften und Verhaltensweisen auf technische Apparaturen und Technologien.

Turings Frage, was Intelligenz bzw. Denken ist, ist bis heute unbeantwortet. Die KI hat das Problem in der Weise «gelöst», dass sie sich die Frage so nicht mehr stellt, sondern den Begriff einfach zum Namen des Fachgebiets umfunktioniert. Soweit in gewisser Weise legitim, wenn nicht immer wieder auch von führenden KIler*innen als unseriös zurückgewiesene Vergleiche mit dem menschlichen Gehirn oder ähnlich anthropologisierende Vergleiche die Runde machen würden. Für einen solchen Vergleich ist einerseits immer noch viel zu unklar, wie menschliches Denken funktioniert. Andererseits fallen mit einer solchen Metapher soziale und gesellschaftliche, also auch intersubjektive Faktoren für Intelligenz und Lernen unter den Tisch und es wird implizit ein mechanistisch reduktionistisches Menschenbild bedient.

Das alles spricht nicht in erster Linie gegen diese technischen Verfahren. Aber, um auf «gefährliche Metaphern» zurückzukommen, den gesellschaftlichen Umgang damit, also die Popularisierung – oder vielleicht wäre der Begriff Populismus treffender … –, auf die solche Metaphern bewusst oder unbewusst abheben.

Die «gefährliche Metapher»-Liste könnte auch mit Sprechformeln wie «den Markt spielen lassen» ergänzt werden, die reduktionistische Menschenbilder à la homo oeconomicus feilbieten. Im engeren Sinne gehört dies zwar nicht zu Technikmetaphern, schwirrt aber immer wieder auch in technischen Diskussionen umher, wenn es um die Markteinführung von technischen Produkten geht.

Soweit ein kleiner Kommentar und ein paar Vorschläge für Deine Liste. :-)

Stefan Keller
14. Oktober 19 (01:44 Uhr)
Beitragsnummer: 4176
"Sind Daten das neue Erdöl?" Daten sind eben nicht das Öl des 21. Jahrhunderts, denn Daten können beliebig und günstig vervielfältigt werden.

Und "Die Cloud" ist kein Sachbegriff. Es ist eine weitere gefähriche Metapher, denn hinter jeder "Cloud-Infrastruktur" stecken nicht nur "Sachen" sondern Menschen, was mit dem Begriff "Cloud" ausgeblendet wird.

Oder, was hat "Digitaler Zwilling" mit einem 3D-Stadtmodell zu tun? Die Metapher mag bei der Maschinentechnik noch stimmig sein, wo beispielsweise eine Armbanduhr vollständig digital geplant und abgebildet wird. Aber bei Städten von "Digitalem Zwilling" zu sprechen und darunter ein simples Oberflächenmodell zu verstehen, ist irreführend bis falsch. Das ist wie wenn man eine Go-Kart-Anlage mit einem Stadtteil gleichsetzen würde.

Wer weitere solche gefährlichen (bis falschen) Metaphern kennt, bitte melden!

Hier einige (Inspirations-)Quellen:
* "Daten sind kein Erdöl!" von André Golliez, 2019-05-16:
[www.netzwoche.ch/news/2019-05-16/daten-sind-kein-erdoel]
* "'The Cloud' and Other Dangerous Metaphors" von Tim Hwang & Karen Levy, 20, 2015-01-20.
[www.theatlantic.com/technology/archive/2015/01/the-cloud-and-other-dangerous-metaphors/384518/]
* "Data Is the New What? Popular Metaphors & Professional Ethics in Emerging Data Culture" von Luke Stark & Anna Lauren Hoffmann, 2019-02-05.
[culturalanalytics.org/2019/05/data-is-the-new-what-popular-metaphors-professional-ethics-in-emerging-data-culture-2/]



  1