Tom Tugendhat Er blickt von seinen Notizen auf. Er ist ein britischer konservativer Abgeordneter und hat gerade erfahren, dass einige seiner Kollegen ihre Reden von ChatGPT schreiben lassen. Er ist nicht wütend, sondern besorgt. „Wir können unser Urteilsvermögen nicht an Maschinen delegieren“, sagt er. Dieses Szenario wiederholt sich in Parlamentsbüros in ganz Europa. Künstliche Intelligenz klopft an die Tür der Demokratie und bietet sich als effiziente Unterstützung an. Doch wo hört die Hilfe auf und wo beginnt der Ersatz? Eine neue Studie, die in Großbritannien und Japan durchgeführt wurde, suchte nach einer Antwort und befragte Tausende von Menschen. Die Ergebnisse sind eindeutig: Wähler wünschen sich Politiker, die KI nutzen, nicht Politiker, die durch KI ersetzt werden.
Die Grenze existiert, und sie ist präzise gezogen.
Das Team TrustTracker Wir befragten 990 Briten und 2.117 Japaner, um herauszufinden, wo die Öffentlichkeit die Grenze zieht, wenn es um KI und Politik geht. In Großbritannien gaben fast die Hälfte der Befragten an, die Idee, dass Abgeordnete KI zur Unterstützung nutzen, nicht zu unterstützen. Auf die Frage, ob sie die Delegation von Entscheidungen an Roboter oder Algorithmen befürworten würden, Die Ablehnungsquote ist auf vier von fünf Personen gestiegen..
In Japan stellt sich die Situation etwas anders dar. Das Land blickt auf eine lange Geschichte mit Automatisierung und Robotik zurück, vom Konzept der Gesellschaft 5.0 bis hin zu Pflegerobotern in Pflegeheimen. Man könnte daher größere Offenheit erwarten. Doch auch hier hat die Öffentlichkeit starken Widerstand gegen die Idee geäußert, dass Maschinen politische Entscheidungen treffen. Hilfe? Vielleicht. Delegation? Niemals.
Wer sagt Ja und wer sagt Nein?
Die Daten offenbaren interessante Muster. Junge Männer stehen dem Einsatz von KI in der Politik positiver gegenüber als Frauen und ältere Menschen. Das ist nicht überraschend: Sie sind mit Technologie aufgewachsen, nutzen sie täglich und erkennen ihre Vorteile. Doch es gibt noch einen weiteren entscheidenden Faktor: das Vertrauen in die Regierung. Wer Institutionen vertraut, ist eher bereit, diese Institutionen auch mithilfe künstlicher Intelligenz zu akzeptieren. Diejenigen, die wenig Vertrauen in die Politik haben, befürchten jedoch, dass KI zu einem undurchsichtigen Werkzeug wird, einem Mittel, um die Verantwortung hinter Algorithmen zu verbergen.
Auch die allgemeine Einstellung gegenüber künstlicher Intelligenz spielt eine Rolle. Wer KI als vorteilhafte Technologie betrachtet und sich in ihrem Einsatz sicher fühlt, ist offener für deren Anwendung durch Parlamentarier. Wer KI hingegen fürchtet, lehnt sie selbst in der Politik ab.
Hinzu kommt eine ideologische Besonderheit. Im Vereinigten Königreich stehen Wähler des rechten politischen Spektrums KI im Parlament positiver gegenüber. In Japan verhält es sich genau umgekehrt: Dort sind Wähler des linken Spektrums aufgeschlossener. Die Gründe für diesen Unterschied sind noch unklar, doch die Erkenntnis ist bedeutsam.
Hilfe ja, Ersatz nie
Die Unterscheidung zwischen Unterstützung und Delegation ist entscheidend. Wähler lehnen KI nicht grundsätzlich ab. Sie akzeptieren, dass Parlamentarier intelligente Werkzeuge nutzen, um Tausende von Dokumenten zu durchforsten, die Auswirkungen eines Gesetzes zu simulieren und verständlichere Entwürfe zu verfassen. Das Problem entsteht, wenn der Algorithmus Entscheidungen anstelle eines Menschen trifft.
Das macht Sinn. Die italienische Handelskammer hat drei Chatbots eingeführt. (Norma, MSE und Depuchat), um die Gesetzgebungsarbeit zu beschleunigen. Norma hilft dabei, regulatorische Präzedenzfälle zu finden. MSE schlägt Änderungen an den Ergänzungen vor. Depuchat Es beantwortet Fragen zur parlamentarischen Tätigkeit. Keines dieser Instrumente ersetzt jedoch das menschliche Urteilsvermögen. Sie sind Werkzeuge, keine Entscheidungsträger. Funktionieren sie wirklich? Liefern sie immer zuverlässige Daten? Können sie manipuliert werden? Können sie sich selbst manipulieren? Das weiß man nicht.
Anna AskaniDer Vizepräsident der Kammer brachte es auf den Punkt: „Es geht nicht darum, die Arbeit der Parlamentarier zu ersetzen, sondern sie zu unterstützen und zu stärken.“ An dem Projekt waren die Polytechnische Universität Mailand, die Universität Roma Tre und das Alma Human AI Consortium beteiligt. Zwei Jahre Arbeit, um etwas zu schaffen, das hilft, ohne sie zu ersetzen. Vielleicht.
Risiko wird Vertrauen genannt.
Das eigentliche Problem, darauf komme ich zurück, ist das Vertrauen. Eine globale Studie von KPMG und der Universität Melbourne Eine Umfrage unter 48.000 Personen in 47 Ländern ergab, dass zwar 66 % der Befragten KI regelmäßig nutzen, 58 % sie aber für unzuverlässig halten. Dies gilt auch für KI und Politik. Wenn die Bürger den Eindruck haben, dass KI menschliches Urteilsvermögen ersetzt, wird ihre Unterstützung schwinden.
Parlamente sind auf Vertrauen und Legitimität angewiesen. Wird KI als Mittel wahrgenommen, Verantwortung zu delegieren oder Entscheidungen hinter undurchsichtigen Algorithmen zu verbergen, kann die öffentliche Gegenreaktion heftig ausfallen. Deshalb ist Transparenz unerlässlich. Die Wähler müssen wissen, wann und wie künstliche Intelligenz eingesetzt wird, und sie müssen darauf vertrauen können, dass die endgültige Entscheidung von einem Menschen getroffen wird.
KI und Politik: Eine mögliche Koexistenz
Künstliche Intelligenz wird ohnehin in der Politik Einzug halten. Sie ist bereits Realität. Die Frage ist nicht, ob, sondern wie. Sorgfältig eingesetzt, kann sie Parlamente effizienter, transparenter und besser in der Lage machen, die Komplexität moderner Gesetzgebung zu bewältigen. Falsch eingesetzt, kann sie Vertrauen und Legitimität untergraben.
Die Botschaft der Wähler ist eindeutig: KI kann beraten, aber nicht befehligen.Es kann Dossiers erstellen, aber keine Gesetze für uns schreiben. Es kann Szenarien simulieren, aber nicht entscheiden, welchem man folgen soll.
Demokratie kann durch Technologie effizienter werden, aber sie muss menschlich bleiben. Für einen Großteil der Bevölkerung existiert diese rote Linie derzeit. Und sie darf nicht überschritten werden.