Betrachten wir die gesellschaftspolitischen Entwicklungen der letzten Jahre scheint sich das grundlegend demokratiefördernde Potenzial neuer Technologien ins Gegenteil verkehrt zu haben. Desinformation, Wahlbeeinflussung, Überwachung, Entmündigung, Grundrechtsverletzungen und gezielte Manipulation sprechen eher für eine Erosion demokratischer Werte und Prozesse mithilfe KI-basierter Tools. Der vorliegende Beitrag stellt einen Versuch dar, die Hintergründe der genannten Entwicklungen sowie deren Bedeutung für uns als Individuen und Gesellschaft genauer zu beleuchten.
Zu Beginn der Digitalisierung war die Hoffnung groß, dass mit dem technologischen Fortschritt auch eine Stärkung demokratischer Ideen und Prozesse einhergehen würde.[1] Immerhin ermöglichte das Internet nicht nur einen niederschwelligen Zugang zu großen Mengen an Informationen, quasi eine „Demokratisierung des Wissens“, sondern ebenso die Interaktion diverser Personen über räumliche Grenzen hinweg. Das Aufkommen von künstlicher Intelligenz (KI) hat die Hoffnung, mithilfe digitaler Tools politische Teilhabe zu fördern, beispielsweise durch den vereinfachten Zugang zu Online-Konsultationsprozessen, weiter befeuert.[2] In der Idealvorstellung kann sich somit ein umfassend informierter und vernetzter Demos in der digitalen Agora austauschen und mit direkt-demokratischen Instrumenten aktiv an politischen Prozessen beteiligen.
Betrachten wir die gesellschaftspolitischen Entwicklungen der letzten Jahre scheint sich das grundlegend demokratiefördernde Potenzial neuer Technologien ins Gegenteil verkehrt zu haben. Desinformation, Wahlbeeinflussung, Überwachung, Entmündigung, Grundrechtsverletzungen und gezielte Manipulation sprechen eher für eine Erosion demokratischer Werte und Prozesse mithilfe KI-basierter Tools. Der vorliegende Beitrag stellt einen Versuch dar, die Hintergründe der genannten Entwicklungen sowie deren Bedeutung für uns als Individuen und Gesellschaft genauer zu beleuchten.
Eine zentrale Fehlannahme in der Vision des Internets als idealtypisches direkt-demokratisches Forum stellt ein Verständnis von Technologie als neutrales und beliebig einsetzbares Werkzeug dar. Damit wird der sozio-politische Kontext, in dem diese Technologien entwickelt und angeboten werden, ausgeblendet. Tatsächlich sind weder Online-Plattformen noch KI-basierte Tools reine technische Mechanismen oder Infrastruktur, sondern Ergebnis und Ausdruck der politischen und wirtschaftlichen Interessen Einzelner. Auch wenn das Internet und insbesondere soziale Medien gerne den Eindruck erwecken, ein demokratischer Raum zu sein, in dem sich Meinungen und Ideen frei entfalten können, besteht, ganz im Gegenteil, ein starkes Machtgefälle zwischen den beteiligten Akteur*innen.
Dabei stehen an oberster Stelle jene Personen, welche über die Rahmenbedingungen der digitalen Sphäre entscheiden. Aufgrund mangelnder staatlicher Kontrolle und der Logik des freien Marktes sind dies mittlerweile einige wenige private Konzerne.[3] Deren Geschäftsmodell scheint weniger auf das Ermöglichen eines deliberativ-demokratischen Austausch der Nutzenden, in welchem divergierende Standpunkte argumentativ verhandelt werden, abzuzielen. Vielmehr sind soziale Medien bewusst so gestaltet, die Aufmerksamkeit der Nutzenden möglichst lange zu binden und gewinnbringend zu vermarkten. Dazu werden den User*innen gezielt Inhalte präsentiert, die starke Emotionen wie Schock oder Angst hervorrufen und solche, die sie in ihrer Weltsicht bestätigen. Mit der zunehmenden Verlagerung des öffentlichen Diskurses in den digitalen Raum, fungieren diese Plattformen mittlerweile als zentrales Zugangstor zu politischen Debatten, Meinungsäußerung und Vernetzungsmöglichkeiten und können als “Torwächter der Demokratieausübung”[4] begriffen werden. Setzen diese großen Plattformanbieter[5] nun auch KI ein, um beispielsweise ihre Empfehlungssysteme und Algorithmen zu automatisieren, verschärft sich das Machtgefälle weiter.
Zudem hat sich in den letzten Jahrzehnten im Silicon Valley eine eigene intellektuelle Subkultur gebildet, die von einer Welt träumt, in der große Tech-Unternehmen, ungehindert von Staat oder Demokratie, über die Geschicke der Welt bestimmen. Der vermutlich einflussreichste Technokrat, Peter Thiel, verfolgt nach eigenen Angaben bereits seit den späten 90ern das Ziel, sich mithilfe von Technologie von der seiner Ansicht nach freiheitsbeschränkenden Demokratie und Politik zu befreien. Dabei stellte für Thiel seit jeher der Cyberspace eine vielversprechende Möglichkeit dar, der vermeintlich dysfunktionalen Realität zu entfliehen. Der Aufbau einer alternativen, virtuellen Realität sollte ermöglichen, Veränderungen der bestehenden sozialen und politischen Ordnung anzuregen und teilweise auch zu erzwingen, „ohne ständig die Menschen überreden oder überzeugen zu müssen“.
Dabei machten er und sein Umfeld sich bewusst das Versäumnis der Politik, das Potenzial neuer Technologien, unsere Gesellschaften grundlegend zu verändern, zu erkennen und dementsprechend zu handeln, zunutze. Somit stehen wir nun vor einer Realität, in der die staatliche Handlungsmacht gegenüber Tech-Unternehmen schmerzlich gering ist. Weder in ihren finanziellen noch in ihren technologischen Mitteln kommen Nationalstaaten an Tech-Milliardäre wie Thiel oder Elon Musk heran. Ganz im Gegenteil begeben sich Regierungen oftmals in ein Abhängigkeitsverhältnis zu teilweise anti-demokratischen Tech-Unternehmen, in dem sie sich deren (digitaler) Dienste für die Erfüllung zentraler staatlicher Aufgaben bedienen - sei es durch die Verwendung von Cloud-Diensten in der öffentlichen Verwaltung oder den Einsatz KI-basierter Datenanalysesoftware in der Strafverfolgung. Umgekehrt dringt die “Tech-Elite” zunehmend in die politische Sphäre vor, wie beispielsweise die vorübergehende Rolle von Musk als de-facto Regierungsmitglied in den USA veranschaulicht. Die Grenze zwischen Wirtschaftstreibenden und politischen Amtsträger*innen scheint somit immer mehr zu verschwimmen. Im Kern werden damit Macht und Einfluss gewissermaßen privatisiert, während Demokratie nicht nur unterminiert, sondern systematisch durch technokratische Kontrolle ersetzt wird.
Gegenüber diesem privatwirtschaftlich-staatlichen Machtgefüge, das beinahe jedes Stadium von der Entwicklung bis zum Einsatz neuer Technologien kontrolliert, findet sich eine Allgemeinbevölkerung, welche mehrheitlich durch mangelndes Wissen um die Funktionsweise digitaler und KI-basierter Prozesse geprägt ist (wie auch eine rezente Erhebung der Statistik Austria belegt). Im Gegensatz zur zunehmenden Bedeutung neuer Technologien wie des Internets und KI ist das kollektive Verständnis für die dahinterstehenden Prozesse nicht entsprechend gewachsen, sondern eher geringer geworden.[6] Die fehlende Einsicht hat zur Folge, dass die allgemeine Öffentlichkeit die Aufsicht und Kontrolle über neue Technologien nicht mehr verlässlich wahrnehmen kann.[7] Stattdessen werden die Bürger*innen zunehmend in eine digitale Unmündigkeit gedrängt, welche uns als Gesamtgesellschaft in eine Position “universeller Vulnerabilität" bringt.[8] Gleichzeitig stehen wir wohl mit der Entwicklung fortschrittlicher KI kurz vor einem evolutionären Sprung von beispielloser Reichweite. So sprechen manche Meinungsführende davon, dass wir bereits in den nächsten Jahren “Artificial General Intelligence” erreichen, also eine Entwicklungsstufe des maschinellen Lernens, in der ein KI-System die kognitiven Fähigkeiten des Menschen bei jeder Aufgabe erreichen oder übertreffen kann.
Aufgrund der Kumulation dieser “Vulnerabilitätsfaktoren”, kombiniert mit der zunehmenden Durchdringung all unserer Lebensbereiche durch KI, lässt sich längst nicht mehr allein von einem Demokratiedefizit oder der graduellen Erosion demokratischer Werte sprechen. Vielmehr zeichnet sich eine tiefgreifende Destabilisierung ab, die den Charakter einer “demokratischen Implosion” trägt.
Sind die Weichen bereits so gestellt, dass sich diese dystopischen Entwicklungen nicht mehr umkehren lassen und sprechen wir hier zurecht von einem Notfall für die Demokratie?
Die Einen blicken hoffnungsvoll auf die Rechtswissenschaften und setzen auf die Schaffung klarer rechtlicher Rahmenbedingungen. So wurden in den letzten Jahren insbesondere auf EU-Ebene zentrale normative Instrumente zur Regulierung des digitalen Raums und künstlicher Intelligenz erarbeitet. Während etwa der Digital Markets Act (DMA) die eingangs problematisierte Monopolbildung digitaler Märkte unterbinden möchte, zieht der Digital Services Act (DSA) die Betreiber großer Online-Plattformen zumindest unter bestimmten Voraussetzungen für illegale Inhalte zur Verantwortung. Hinzu kommt der sogenannte “AI Act”, welcher den Einsatz KI-basierter Systeme regelt.[9] Gerade letzterer wird als vielversprechendes Instrument für den Schutz der Rechte und Freiheiten von Betroffenen gesehen, zielt er doch laut Art 1 unter anderem auf den Schutz der Demokratie vor schädlichen Auswirkungen von KI ab. Auch enthält der AI Act gewisse, taxativ aufgezählte, “verbotene Praktiken”, die laut Ansicht des EU-Gesetzgebers den Werten der Union - wie eben Demokratie - entgegenstehen, beispielsweise KI-Systeme zur gezielten Manipulation. Das zeugt zwar von einem vorhandenen Problembewusstsein des EU-Gesetzgebers, ist jedoch bei Weitem nicht ausreichend, um die “demokratische Implosion” aufzuhalten. Denn beim AI Act in seiner ursprünglichen Konzeption handelt es sich um ein produktsicherheitsrechtliches Regelwerk. Daher schützt er nur sehr beschränkt gegen gezielte Angriffe auf die Demokratie oder gar Umwälzungsversuche durch Tech-Konzerne; ähnliches gilt auch für DMA und DSA. Hinzu kommt, dass das Recht grundsätzlich meist “reaktiv” agiert und dem technologischen Fortschritt seit jeher hinterherhinkt.
Wenngleich von großer Bedeutung, greift die rechtliche Regulierung von KI und des digitalen Raums somit als alleiniger Problemlösungsansatz deutlich zu kurz. Vielmehr bedarf es einer grundsätzlichen Änderung der gesellschaftlichen und individuellen Haltung technologischen Entwicklungen gegenüber, wobei digitale Souveränität und Prävention statt Reaktion im Vordergrund stehen müssen. Dies beinhaltet einerseits die gezielte Förderung digitaler Kompetenz in der Allgemeinbevölkerung, damit diese besser Verantwortung für das eigene Handeln im digitalen Raum übernehmen kann, und Individuen in ihrer Entscheidungsfähigkeit und Selbstbestimmtheit gestärkt werden. Andererseits bedarf es auch von staatlicher Seite verstärkt Bemühungen, eine eigene, sichere digitale Infrastruktur, inklusive leistungsstarker KI-basierter Tools, aufzubauen. Zuletzt ist es von zentraler Bedeutung, dass wir als Gesellschaft, und insbesondere politische Entscheidungsträger*innen, es wagen, grundlegende Fragen zu stellen. Zum Beispiel: In welcher Gesellschaft möchten wir leben und inwiefern wirkt KI sich darauf hinderlich/förderlich aus? Sind uns die steigende Menge an Informationen und die zunehmende Verarbeitungsgeschwindigkeit als Gesellschaft dienlich? Kann unser derzeitiges demokratisches System im Angesicht der gesellschaftlichen Veränderungen durch die digitale Transformation überhaupt funktionieren? Nur wenn wir Zeit und Raum schaffen, um uns ernsthaft mit diesen Fragen auseinanderzusetzen, können wir die Demokratie rehabilitieren.
[1] Vgl. Borucki/Oswald, Die Vision der Digitaldemokratie und die Realität - Versuch über einen Dialog, in Oswald/Borucki, Demokratietheorie im Zeitalter der Frühdigitalisierung, Springer VS (2020).
[2] MwN Novelli/Sandri, Digital Democracy in the Age of Artificial Intelligence, 2025 arXiv:2412.07791 (Letzter Zugriff: 07.08.2025); Arana-Catania/Van Lier/Procter/Tkachenko/He/Zubiaga/Liakata, Citizen Participation and Machine Learning for a Better Democracy, Digital Government Research and Practice 2021, 1.
[3] Als “Big Five” gelten die US-Unternehmen Apple, Meta, Amazon, Microsoft und die Google-Mutter Alphabet.
[4] Der Torwächter-Begriff ist dem Gesetz über digitale Märkte ((EU) 2022/1925) entlehnt, wonach jene Unternehmen als “Torwächter” gelten, die zentrale Plattformdienste bereitstellen und erheblichen Einfluss auf den Binnenmarkt haben, da sie gewerblichen Nutzern als wichtiges Zugangstor dienen, um ihre Dienste und Produkte an Verbraucher*innen anzubieten.
[5] Legaldefinierte Begriffe, wie “Betreiber” oder “Anbieter”, werden bewusst im generischen Maskulinum der jeweiligen Gesetzestexte belassen.
[6] Vgl Mühlhoff, Digitale Entmündigung und “User Experience Design”, Leviathan 2018, 551.
[7] Vgl Panagopoulou, Artificial intelligence and democracy: Towards a digital authoritarianism or a democratic upgrade? 2025 https://arxiv.org/abs/2504.01034 (Letzer Zugriff: 11.08.2025).
[8] Zum Begriff der “universal vulnerability” vgl Malgieri, Vulnerability and Data Protection Law (2023), 73.
[9] Für weiterführende Informationen zu den relevanten EU-Rechtsakten siehe https://wiki.atlaws.eu.
Elisabeth Mayer ist Researcher und Consultant am Research Institute – Digital Human Rights Center. Sie hat an der Universität Wien Politikwissenschaft (BA), Psychologie (BSc) und Menschenrechte (MA) studiert. Ihr Forschungsschwerpunkt liegt neben Datenschutz im Allgemeinen vor allem auf sozialwissenschaftlichen und menschenrechtlichen Aspekten des Einsatzes von KI, insbesondere im Justizbereich, sowie auf Anti-Diskriminierung.
Dr. Madeleine Müller, BA, MU ist Senior Researcher und Consultant am Research Institute – Digital Human Rights Center. Sie hat an der Universität Wien, Université Paris 1 Panthéon-Sorbonne und Universitat Pompeu Fabra Barcelona Rechtswissenschaften und Philosophie studiert. Ihr Forschungsschwerpunkt liegt auf digitalen Menschenrechten und Ethik, mit besonderem Fokus auf Datenschutz, Künstliche Intelligenz, Plattformregulierung und Betroffenenrechte.
Kategorien