Standpunkte

Wieso KI-Forschung und Politik nachlegen müssen

Schreibe einen Kommentar

Dieser Artikel ist Teil der Reihe Künstliche Intelligenz und Postwachstum.

Die unbegrenzten Chancen künstlicher Intelligenz für die Nachhaltigkeit sind: ein Märchen. Frieder Schmelzle mahnt in diesem Artikel, dass gesellschaftlicher Nutzen von KI umsichtig abgeschätzt und eingeordnet werden muss. Welche Anwendungen wollen wir uns leisten, welche fördern, welche tolerieren und welche vermeiden? Eine angemessene Betrachtung berücksichtigt auch sozial-ökologische Risiken.

Blickwinkel der KI-Forschung

Künstliche Intelligenz (KI) ist ein Begriff, für den keine breit akzeptierte Definition existiert. Anstatt eine klar abgrenzbare Technologie zu bezeichnen, bildet er meist die emotions- oder vermarktungsorientierte Wahrnehmung einer Produkteigenschaft ab. Dass verschiedenste Assoziationen und Narrative mit KI verbunden werden ist nachvollziehbar, erschwert jedoch die konstruktive Auseinandersetzung damit (Rehak 2023). Bisweilen scheint es so als wären 40 % der Gesellschaft restlos begeistert, 40 % hoffnungslos verängstigt und 20 % desinteressiert. Und dazwischen gibt es nichts?

In der Wissenschaft bestehen sehr unterschiedliche Zugänge. Aus einer technischen Perspektive der KI-Entwicklung sind Modelle interessant, die aus digitalem Input über weit verzweigte Rechenoperationen plausiblen Output generieren (Burrell 2016). Die Verbreitung und Verfeinerung solcher Modelle hat zuletzt durch wachsende Trainingsdatensätze und Rechenkapazitäten nahezu unglaubliche Ergebnisse produziert, beispielsweise im Bereich der Sprachmodelle (Barton et al. 2024). Der Wettlauf um möglichst präzise Ergebnisse in möglichst universellen Kontexten hält an.

Sozial- und geisteswissenschaftliche Fragestellungen interessieren sich oft für Wechselwirkungen der technischen Entwicklungen mit Gesellschaften und individuellen Lebenswelten. Wie beeinflussen KI-Anwendungen unser Denken, Fühlen und Handeln? Wie wirken sich menschliche Perspektiven und institutionelle Rahmungen auf die KI-Entwicklung aus? In ökonomisch geprägten Diskursen spielen Effizienzsteigerungen und Automatisierung eine große Rolle, aber auch unsichere Arbeitsplätze, Fachkräftemangel und Sicherheitsrisiken (PwC 2024). Dass zugleich hohe Wachstumsraten durch KI propagiert werden, stimmt nachdenklich. Was kann ihre mögliche Rolle für die Nachhaltigkeit sein?

Debatten zu sozio-ökonomischen Ungleichheiten, die durch die KI-Wirtschaft entstehen oder wachsen, scheinen deutlich weniger stark repräsentiert zu sein. Dabei stammen populäre KI-Produkte aus Konzernen, die zu den historisch größten und einflussreichsten überhaupt gehören (Bank & Duffy 2023, Forbes 2024). Können sie trotzdem oder gerade deshalb den Planeten retten? Sorgt KI für mehr Fairness? Benötigt sie viel Energie? Erzeugt sie Abfälle? Welche Rolle spielen Rohstoff- und Flächenverbräuche durch digitale Infrastrukturen? Allein die hier beispielhaft genannten Forschungsperspektiven bieten zahlreiche Beantwortungsansätze.

Im Folgenden werden unter KI jene Systeme verstanden, die durch maschinelles Lernen einer Zielsetzung entsprechend Inhalte, Empfehlungen oder Vorhersagen generieren (Grobelnik et al. 2024). Sie können enorm hilfreich sein – sowohl für Einzelpersonen als auch durch Beiträge zu denjenigen nachhaltigen Lebensweisen, von denen wir so weit entfernt sind. Hier soll der Fokus jedoch auf unterschätzten sozial-ökologischen Risiken des KI-Booms liegen.

Es geht um (viel) mehr als Strom

Dass Betrieb und Entwicklung von KI-Systemen enorme Mengen an elektrischer Energie benötigen, ist bekannt (Kolbert 2024). Allein ChatGPT benötigt in etwa so viel Strom wie eine deutsche Stadt mit 30.000 Einwohner*innen (de Vries 2023, Statista 2024). In Irland, wo die Digitalwirtschaft teils verschwindend geringe Steuersätze genießt (Sinha 2024), sind Rechenzentren für etwa 18 % des landesweiten Stromverbrauchs verantwortlich (CSO 2023). Auch wenn der verbrauchte Strom erneuerbar erzeugt würde (was längst nicht der Fall ist), kann keineswegs von nachhaltiger Technologie die Rede sein, denn global bleibt grüner Strom absehbar knapp. Microsoft und Google setzen wegen des Energiehungers ihrer KI-Systeme (wieder) auf Atomstrom (ZDF 2024).

Zudem ist KI abhängig von begrenzt verfügbaren Rohstoffen für Halbleitertechnik und andere Hardware. Um ein Bewusstsein dafür zu entwickeln, dass digital keineswegs immateriell bedeutet, hilft zu verstehen, dass KI-Systeme einen Lebenszyklus durchlaufen. Hierzu gehören Rohstoffgewinnung, Produktion von Materialien und Komponenten, Trainings- und Nutzungsphasen sowie Entsorgung (Luccioni et al. 2022). Hinter jeder KI steckt ein materieller Fußabdruck. So nimmt die weltweite Erzeugung von Elektroschrott laut Global E-Waste Monitor ungebrochen zu – an der Spitze steht Europa (Baldé et al. 2024). Weltweit wurden 2022 ca. 12.000 Tonnen kritische Rohstoffe wie seltene Erden entsorgt, die größtenteils nicht oder kaum recycelbar sind. Da KI-Systeme darauf angewiesen sind, ist hier nachhaltige Kreislaufwirtschaft schlicht nicht möglich.

Den meisten Nutzer*innen dürfte kaum bekannt sein, dass die KI-Entwicklung Unmengen an Trinkwasser verschlingt. Dieses wird etwa zur Kühlung von Rechenzentren benötigt oder für die Fertigung elementarer Hardware. Da verantwortliche Unternehmen die durch ihre KI-Entwicklungen anfallenden Wasserverbräuche nicht vollumfänglich offenlegen, kursieren oft nur Schätzungen (Li et al. 2023). Sie belaufen sich mitunter auf mehrere Billionen Liter Wasser pro Jahr weltweit. Zur Einordnung: mit einer Billion Liter könnte das oben erwähnte deutsche Städtchen mehr als 2.000 Jahre lang baden und duschen (UBA 2024). Die problematischsten Wasserentnahmen erfolgen jedoch nicht in Deutschland. Menschen wehren sich in Arizona gegen Apple (Solon 2021), in Chile gegen Amazon (Urquieta & Dib 2024), in Spanien gegen Meta (Hernanz Lizarraga & Solon 2023), in Uruguay gegen Google und Microsoft (McGovern & Branford 2023). Proteste in der Gemeinde Cerrillos verhinderten ein Rechenzentrum, das doppelt so viel Wasser verbraucht hätte wie die rund 80.000 Einwohner*innen (Ramírez Martínez 2023). Gleichzeitig preisen Investmentberatungsfirmen Projekte für Rechenzentren in wasserarmen Regionen von Nigeria bis Kuwait an (Knight Frank 2023).

In sozialen Zusammenhängen reproduziert KI-Nutzung Ungleichheiten und Diskriminierung (Rohde et al. 2021), was besonders in weit gefassten Anwendungskontexten kaum vermeidbar ist. Oft steht die Begrenzung dieses Problems sogar in Konflikt mit der Performanz einzelner Systeme (Caton & Haas 2024), denn die Funktionsweise von KI beruht auf Schlussfolgerungen aus Musterhaftigkeiten in Daten. Dies führt in vielen sozialen Kontexten geradezu immanent zu Stereotypisierung. KI unterscheidet, kategorisiert und klassifiziert digitale Objekte. Wo erlernte Muster oder die Objekte selbst auf Menschen bezogen sind, entstehen sensible Anwendungsbereiche, die menschliche Mitsprache nahelegen. Doch viele Systeme sind so komplex, dass die Einbindung aller Beteiligten oder Betroffenen praktisch unmöglich wird (Kunkel et al. 2023).

Wie und worauf sich welche personenbezogenen Trainingsdaten in der KI-Nutzung auswirken, ist allein aus technischen Gründen kaum nachvollziehbar (Rehak 2023). Gleichzeitig können wir uns vielen Auswirkungen nicht entziehen, denn KI-Systeme sind tief in unseren Alltag eingebettet. Sie steuern Wahrnehmungen, vermessen bewusstes Handeln und unbewusste Regungen, geben Empfehlungen und Instruktionen (Marken et al. 2024). Neben Intransparenz und latenten Effekten und unklaren Verantwortlichkeiten ist besonders das Problem der Diskriminierung auch im internationalen Maßstab gravierend. Arbeiten zu digitalem Kolonialismus zeigen, dass KI-Unternehmen globale Ungerechtigkeiten befeuern; etwa durch algorithmische Unterdrückung und Ausbeutung, fragwürdige Softwaretests in Niedriglohnländern oder die Auslagerung stumpfer Klickarbeit an Orte mit marginalem Arbeitsschutz (Salami 2024).

Was tut die Politik?

Im digitalen Raum sind Hochgeschwindigkeit und Kurzlebigkeit prägend für technologische Entwicklung, Vermarktungs- und Konsumdrang sowie politische und gesamtgesellschaftliche Debatten. Demokratische Systeme scheinen an Grenzen zu stoßen, wenn Aushandlungsprozesse zur gemeinwohlorientierten Lenkung von KI kaum Schritt halten. Eine Reaktion äußert sich in bedenklichen Förderstrukturen. Das Etikett KI wirkt als Magnet für Subventions-, Investitions- und Fördermittel, die mitunter an andere Stelle fehlen. Leuchttürme und Exzellenzprogramme werden politisch unterstützt und gestärkt, ohne den gesellschaftlichen Nutzen betreffender KI-Entwicklungen klar darlegen zu können. Obendrein scheinen stark konzentrierte KI-Märkte die Sorge zu nähren, in Deutschland und Europa durch Big Tech abgehängt zu werden/bleiben. So ungleich wie die Ressourcen und Handlungsspielräume in der KI-Wirtschaft verteilt sind, so ungleich verbreiten sich auch entsprechende Narrative um KI. Anstatt sie als mächtiges Werkzeug für sinnvolle Zwecke aufzugreifen, sitzen viele politisch Verantwortliche dem Mythos einer Universaltechnologie auf, welche sich mehr auf sich selbst bezieht als auf gesellschaftlich relevante Zielstellungen.

Politische Regulierung kann im Bereich der Digitalwirtschaft kann besonders herausfordernd sein. Auf nationaler Ebene ist keine angemessene Steuerung von KI denkbar, doch die Europäische Union (EU) geht voran. Mit der 2024 in Kraft getretenen KI-Verordnung erregte sie international Aufmerksamkeit. Einige Staaten orientieren sich bereits an dem Gesetzestext, welcher als weltweit erstes KI-Gesetz gilt. Auch wenn KI zuvor keineswegs unreguliert war, schafft die KI-Verordnung an einigen Stellen Klarheit und schenkt denjenigen Unternehmen, die KI entwickeln oder einsetzen, Investitions- und Rechtssicherheit. Somit sind selbst Tech-Giganten dankbar für den Vorstoß der EU. Sie können nun Produkte entwickeln, die sie in der EU sicher vermarkten dürfen, denn die Gesetzgebung verfolgt einen produktorientierten und risikobasierten Ansatz. KI-Systeme werden in vier Risikostufen eingeteilt: die riskantesten sind grundsätzlich verboten (etwa biometrische Gesichtserkennung in Echtzeit), die harmlosesten bleiben unberührt. Dazwischen bestehen zwei Kategorien für hoch- und begrenzt riskante Systeme, welche mit diversen Anforderungen und Transparenzpflichten belegt sind. Somit hat KI durch ein legislatives Update ein gewisses Maß an Produktsicherheit erlangt – ein Fortschritt.

Trotz allem werden die oben erläuterten ökologischen Aspekte kaum adressiert. Wieso ist das so? Aus dem Europäischen Parlament heraus waren durchaus Ideen und konkrete Ansätze vorgeschlagen worden, den Verordnungsentwurf der Kommission dahingehend anzupassen; etwa durch die Vorgabe, KI-Systeme nur mit einer Dokumentation ihrer Energie- und Ressourcenverbräuche über den Lebenszyklus hinweg anbieten zu dürfen (EP 2023). Im Trilog der Europäischen Institutionen wurden die Vorschläge jedoch fast vollständig herausverhandelt (Laranjeira de Pereira 2024). Übrig geblieben ist die Pflicht, Energieverbräuche eines KI-Modells zu dokumentieren, falls dieses in den Bereich der Hochrisiko-Systeme oder der „KI-Modelle mit allgemeinem Verwendungszweck“ fällt (Art. 40 KI-VO). Das gilt auch für den Verbrauch von „Ressourcen“, wobei bislang nicht definiert ist, ob damit Rechenressourcen, natürliche Ressourcen oder etwas anderes gemeint ist. Klarheit sollen technische Normen bringen. Ihre Entwicklung entzieht sich der gewählten Volksvertretung in Brüssel, wird jedoch von globalen Konzernen stark beeinflusst (CEO 2025). Der Zweck der KI-Verordnung, „ein hohes Schutzniveau in Bezug auf Gesundheit, Sicherheit und die in der [EU-]Charta verankerten Grundrechte, einschließlich Demokratie, Rechtsstaatlichkeit und Umweltschutz“ (Art. 1 KI-VO) zu gewährleisten, manifestiert sich im weiteren Gesetzestext nicht.

Auch im Bereich der sozialen Risiken wurden streitbare Kompromisse eingegangen. Unter den wenigen Staaten, die sich im Rat besonders vehement gegen Vorgaben für große KI-Systeme und entsprechende Sanktionen stark machten, war auch Deutschland (Köver 2023). Das Europäische Parlament hatte sich für zielgerichtete Regeln eingesetzt, um etwa die besonders intensiv debattierten großen Sprachmodelle so zu steuern, dass Schäden begrenzt und Risiken besser abschätzbar werden. Einigen KI-Unternehmen in wirtschaftsstarken Mitgliedstaaten war es jedoch offenbar gelungen, ihr Interesse an schwacher Regulierung eindrücklich darzulegen. Die Verordnung ist das Ergebnis eines intensiven Verhandlungsprozesses mit reichlich „Drama und Gezerre auf den letzten Metern“ (Köver 2024).

Offene Baustellen

KI ist keineswegs per se schädlich. Sie bietet zahlreiche Möglichkeiten uns das Leben zu erleichtern, Herstellungskosten zu senken, dröge Tätigkeiten zu automatisieren und natürliche Ökosysteme zu schützen. Woran es jedoch mangelt, ist eine bewusste Lenkung der Entwicklung und Anwendung von KI in Bahnen, die eine grundsätzlich sozial-ökologische Ausrichtung gezielt befördern. Die Europäische Kommission betreibt neuerdings ein KI-Büro (COM 2024a) zur Unterstützung der Durchsetzung der KI-Verordnung. Inwiefern sich jedoch das dortige Referat „KI für das Gemeinwohl“ in Bereichen wie Wettermodellierung oder Krebsdiagnosen (COM 2024b) mit Blick auf die oben beschriebenen Großbaustellen einbringen kann, bleibt abzuwarten. Währenddessen werden weiterhin umfassende KI-Systeme entworfen und weiterentwickelt, ohne dass in angemessenem Maße Rechenschaft über Extraktion, Verbrauch, Entsorgung oder Recycling wertvoller Ressourcen abgelegt werden müsste. Es ist fraglich, wann und wie die versäumten politischen Schritte (Rohde et al. 2024) in Richtung einer menschen- und umweltfreundlicheren KI-Wirtschaft aufgeholt werden können.

Es ist nicht ausreichend, sinnvolle Leuchtturmprojekte zu fördern, die die lokale Biodiversität erfassen oder Waldbrände erkennen können, wenn parallel dazu gigantische Systeme aufgebaut werden, deren generative Fähigkeiten so aufwändig herzustellen sind, dass sie andernorts Natur und Umwelt zerstören, Menschen in unwürdige Arbeit drängen oder ungebremst Treibhausgasemissionen verursachen. Um ökologische Schäden zu minimieren, sind insbesondere belastbare Daten zum Verbrauch von Rohstoffen, Energie und natürlichen Ressourcen essenziell. Wer besonders viel verbraucht oder beschädigt, sollte dafür bezahlen. In anderen Bereichen setzen umweltpolitische Instrumente dies seit langem erfolgreich durch.

Um handlungsfähig zu bleiben, dürfen demokratische Gesellschaften sich nicht den Interessen weniger Privatunternehmen unterwerfen. Die Machtpositionen dominierender Technologiekonzerne, welche große Teile der Digitalwirtschaft sowie Wettbewerb, Forschung, Entwicklung, Vertrieb und Nutzung von KI unter sich aufteilen, sind zu groß geworden. Oligopolistische Strukturen sind weder mit gesunden Märkten vereinbar, auf denen sich die besten Lösungen durchsetzen, noch mit funktionierenden demokratischen Gesellschaften, in denen Personen und Gruppen einen fairen Diskurs darüber führen können, wie Technik zu gestalten ist und wofür sie eingesetzt werden soll. Um dies zu befördern, scheint die Durchsetzung kartellrechtlicher Regelungen sinnvoller zu sein als technologiepolitische Instrumente. Denn das Handeln von Big Tech führt regelmäßig vor, dass sich große Technologiekonzerne dem Gemeinwohl oft auf ganz eigene Weise verpflichten.

Nicht leicht zu fassen und gleichzeitig besonders relevant ist die systemische Ebene von KI und Nachhaltigkeit. Eine zukunftsfähige Politik muss sich an gesamtgesellschaftlichen Zielen ausrichten (und nicht nur an Risiken). Damit sich politisches Handeln nicht in der kleinteiligen Beobachtung von Parametern in einzelnen Systemen verliert, sollte es verstärkt Gestaltungsprinzipien anwenden, welche die Auswirkungen ganzer Industrien und Gesellschaften in den Blick nehmen. Wenn kurzlebige Entwicklungszyklen ein ständiges Reagieren zu erzwingen scheinen, kann die Vorstellung lebenswerter Zukünfte helfen, um die richtigen Entscheidungen zu treffen. Wie auch immer sie individuell aussehen mögen: ein intakter Planet wäre sicherlich hilfreich. Dazu müssen wir keine KI befragen.

 

Literatur

Baldé, Cornelis P., Kühr, R., Yamamoto, T., McDonald, R., D’Angelo, E. und andere (2024). The Global E-Waste Monitor 2024. International Telecommunication Union & United Nations Institute for Training and Research. https://www.itu.int/hub/publication/d-gen-e_waste-01-2024/

Bank, M., Duffy, F. (2023). Wie Künstliche Intelligenz die Macht von Google und Co. weiter wachsen lässt. LobbyControl. https://www.lobbycontrol.de/macht-der-digitalkonzerne/wie-ki-die-macht-von-google-co-steigert-113040/

Burrell, J. (2016). How the machine ‘thinks’: Understanding opacity in machine learning algorithms. Big Data & Society. https://doi.org/10.1177/205395171562251

Caton, S., Haas, C. (2024). Fairness in Machine Learning: A Survey. ACM Computing Surveys, 56(7), S. 1-38. https://doi.org/10.1145/3616865

CEO (2025). Bias baked in – How Big Tech sets its own AI standards. Corporate Europe Observatory. https://corporateeurope.org/en/2025/01/bias-baked

COM (2024a). European AI Office. European Commission. https://digital-strategy.ec.europa.eu/en/policies/ai-office

COM (2024b). Kommission richtet Amt für künstliche Intelligenz ein, um die Führungsrolle der EU bei sicherer und vertrauenswürdiger künstlicher Intelligenz zu stärken. Europäische Kommission. https://digital-strategy.ec.europa.eu/de/news/commission-establishes-ai-office-strengthen-eu-leadership-safe-and-trustworthy-artificial

CSO (2023). Data Centres Metered Electricity Consumption 2022. Central Statistics Office. https://www.cso.ie/en/releasesandpublications/ep/p-dcmec/datacentresmeteredelectricityconsumption2022/

de Vries, A. (2023). The growing energy footprint of artificial intelligence. Joule, 7(10), 2191-2194. https://www.cell.com/joule/fulltext/S2542-4351(23)00365-3

EP (2023). Abänderungen des Europäischen Parlaments vom 14. Juni 2023 zu dem Vorschlag für eine Verordnung des Europäischen Parlaments und des Rates zur Festlegung harmonisierter Vorschriften für künstliche Intelligenz. Europäisches Parlament. https://www.europarl.europa.eu/doceo/document/TA-9-2023-0236_DE.html

Forbes (2024). Forbes 2024 Global 2000 List. https://www.forbes.com/lists/global2000/

Grobelnik, M., Perset, K., Russel, S. (2024). What is AI? Can you make a clear distinction between AI and non-AI systems?, OECD.ai. https://oecd.ai/en/wonk/definition

Hernanz Lizarraga, C., Solon, O. (2023). Thirsty Data Centers Are Making Hot Summers Even Scarier. Bloomberg. https://www.bloomberg.com/news/articles/2023-07-26/extreme-heat-drought-drive-opposition-to-ai-data-centers

Knight Frank (2023). Africa Horizons – The continent’s unique guide to real estate investment trends and opportunities – 2023/24. https://www.knightfrank.com/publications/africa-horizons-202324-10427.aspx

Kolbert, E. (2024). The Obscene Energy Demands of A.I. – How can the world reach net zero if it keeps inventing new ways to consume energy?, New York Times. https://www.newyorker.com/news/daily-comment/the-obscene-energy-demands-of-ai

Köver, C. (2023). Deutschland will Basis-Modelle wie ChatGPT nicht regulieren. Netzpolitik.org. https://netzpolitik.org/2023/ai-act-deutschland-will-basis-modelle-wie-chatgpt-nicht-regulieren/

Köver, C. (2024). Die Woche, in der wir uns durch 892 widerspenstige Seiten wühlten. Netzpolitik.org. https://netzpolitik.org/2024/kw-4-die-woche-in-der-wir-uns-durch-892-widerspenstige-seiten-wuehlten/

Kunkel, S., Schmelzle, F., Niehoff, S. and Beier, G. (2023). More sustainable artificial intelligence systems through stakeholder involvement?, GAIA – Ecological Perspectives for Science and Society, 32(1), pp. 64–70. https://doi.org/10.14512/gaia.32.S1.10

Laranjeira de Pereira, J. R. (2024). The EU AI Act and environmental protection: the case for a missed opportunity. Heinrich-Böll-Stiftung European Union. https://eu.boell.org/en/2024/04/08/eu-ai-act-missed-opportunity

Li, P., Yang, J., Islam, M. A., Ren, S. (2023). Making AI Less „Thirsty“: Uncovering and Addressing the Secret Water Footprint of AI Models. https://doi.org/10.48550/arXiv.2304.03271

Luccioni, A. S., Viguier, S. Ligozat, A.-L. (2022). Estimating the Carbon Footprint of BLOOM, a 176B Parameter Language Model. https://doi.org/10.48550/arXiv.2211.02001

Marken, G., Frick, V., Schmelzle, F., Meyer, A. (2024). The (Un-)Sustainability of Artificial Intelligence in Online Marketing. Institut für ökologische Wirtschaftsforschung & DAI-Labor. https://www.ioew.de/en/publication/the_un_sustainability_of_artificial_intelligence_in_online_marketing

McCandless, D., Evans, T., Barton, P. (2024). Major Large Language Models (LLMs) ranked by capabilities, sized by billion parameters used for training. Informationisbeautiful. arXiv. https://informationisbeautiful.net/visualizations/the-rise-of-generative-ai-large-language-models-llms-like-chatgpt/

McGovern, G., Branford, S. (2023). The Cloud vs. drought: Water hog data centers threaten Latin America, critics say. Mongabay. https://news.mongabay.com/2023/11/the-cloud-vs-drought-water-hog-data-centers-threaten-latin-america-critics-say/

PwC (2024). Thriving in an age of continuous reinvention – PwC’s 27th Annual Global CEO Survey. https://www.pwc.com/gx/en/ceo-survey/2024/download/27th-ceo-survey.pdf

Ramírez Martínez, P. (2023). No to the Data Center! Resistance and Artivism Against Google in Cerrillos. S. 56-61 in: Resisting Data Colonialism – A Practical Intervention. The Tierra Commún Network. https://networkcultures.org/blog/publication/tod-50-resisting-data-colonialism-a-practical-intervention/

Rehak, R. (2023). Zwischen Macht und Mythos: Eine kritische Einordnung aktueller KI-Narrative. Soziopolis: Gesellschaft beobachten. https://www.soziopolis.de/zwischen-macht-und-mythos.html

Rohde, F., Wagner, J., Reinhard, P., Petschow, U., Meyer, A., Voss, M., Mollen, A. (2021). Nachhaltigkeitskriterien für künstliche Intelligenz – Entwicklung eines Kriterien- und Indikatorensets für die Nachhaltigkeitsbewertung von KI-Systemen entlang des Lebenszyklus. Institut für ökologische Wirtschaftsforschung, DAI-Labor & AlgorithmWatch. https://www.ioew.de/publikation/nachhaltigkeitskriterien_fuer_kuenstliche_intelligenz

Rohde, F., Mollen, A., Meyer, A., Wagner, J., Marken, G., Frick, V., Schmelzle, F., Engel, L. (2024). Taking (policy) action to enhance the sustainability of AI systems. Institut für ökologische Wirtschaftsforschung, AlgorithmWatch & DAI-Labor.  https://www.ioew.de/en/publication/taking_policy_action_to_enhance_the_sustainability_of_ai_systems

Salami A. O. (2024). Artificial intelligence, digital colonialism, and the implications for Africa’s future development. Data & Policy, 6: e67. https://doi.org/10.1017/dap.2024.75

Sinha, S. (2024). US Big Tech Companies’ Complicated Role in Ireland’s Booming Economy. Observer. https://observer.com/2024/07/us-big-tech-companiess-complicated-role-in-irelands-booming-economy/

Solon, O. (2021). Drought-stricken communities push back against data centers. NBC News. https://www.nbcnews.com/tech/internet/drought-stricken-communities-push-back-against-data-centers-n1271344

Statista (2024). Pro-Kopf-Stromverbrauch in Deutschland in den Jahren 1995 bis 2023. https://de.statista.com/statistik/daten/studie/240696/umfrage/pro-kopf-stromverbrauch-in-deutschland/

UBA (2024). Wassernutzung privater Haushalte. Umweltbundesamt. https://www.umweltbundesamt.de/daten/private-haushalte-konsum/wohnen/wassernutzung-privater-haushalte#direkte-und-indirekte-wassernutzung

Urquieta, C., Dib, D. (2024). U.S tech giants are building dozens of data centers in Chile. Locals are fighting back. Restofworld. https://restofworld.org/2024/data-centers-environmental-issues/

ZDF (2024). Google: Rechenzentren mit Atomstrom betreiben. ZDF heute. https://www.zdf.de/nachrichten/wirtschaft/unternehmen/google-atomstrom-rechenzentren-100.html

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert