4. April 2026

Impuls: Künstliche Intelligenz als Bedrohung für die liberale Demokratie

In einem neuen Beitrag, der im Springer-Band "KI und Demokratie" erschienen ist, argumentieren HAI-Beirat Adriano Mannino (Postdoctoral Fellow an der UC Berkeley und Harvard) und der Wissenschaftsjournalist Nils Althaus, dass demokratische Gesellschaften – allen voran die USA – in den kommenden Jahren einem neuartigen Existenzrisiko ausgesetzt sind: der Kombination aus agentischer Künstlicher Intelligenz und Autoritarismus.

Aus­gangs­punkt ist ein empi­risch mess­ba­rer Trend: Die soge­nann­te „Task-Dau­er“ – also der Zeit­ho­ri­zont von Auf­ga­ben, die KI-Agen­ten zuver­läs­sig bewäl­ti­gen kön­nen – ver­dop­pelt sich seit 2019 unge­fähr alle sechs Mona­te. Erreich­ten frü­he Model­le wie GPT‑2 nur Auf­ga­ben im Sekun­den­be­reich, liegt die 80-Pro­zent-Erfolgs­ra­te aktu­el­ler Model­le bereits bei rund 30 Minu­ten. Hält die­ser Trend an, könn­ten KI-Agen­ten bereits 2028 eigen­stän­dig Auf­ga­ben erle­di­gen, für die ein Mensch eine gan­ze Arbeits­wo­che benötigt.

Die poli­ti­sche Bri­sanz die­ses Sze­na­ri­os ergibt sich für Man­ni­no und Alt­haus aus dem Zusam­men­spiel drei­er Fak­to­ren: Ers­tens ver­fü­gen Big-Tech-Kon­zer­ne bereits heu­te über gewal­ti­ge Daten­men­gen über das Ver­hal­ten und die sozia­len Netz­wer­ke der Bevöl­ke­rung. Zwei­tens befin­den sich demo­kra­ti­sche Sys­te­me welt­weit in einer mess­ba­ren Rezes­si­on – Auto­kra­tien neh­men zu, libe­ra­le Demo­kra­tien neh­men ab. Drit­tens wür­de eine auto­ri­tä­re Regie­rung mit Zugang zu Mil­lio­nen hoch­kom­pe­ten­ter KI-Agen­ten ein Über­wa­chungs- und Poli­zei­sys­tem errich­ten kön­nen, das jeden his­to­ri­schen Ver­gleich in den Schat­ten stellt: Wäh­rend die Sta­si in der DDR auf etwa einen Geheim­po­li­zis­ten pro hun­dert Ein­woh­ner kam, wäre ein Ver­hält­nis von meh­re­ren KI-Über­wa­chungs­agen­ten pro Per­son tech­nisch und öko­no­misch realisierbar.

Im Zen­trum der Ana­ly­se ste­hen die Ver­ei­nig­ten Staa­ten – als ein­zi­ge Demo­kra­tie unter den nuklea­ren Super­mäch­ten und als direk­ter Juris­dik­ti­ons­rah­men der füh­ren­den KI-Unter­neh­men. Ein demo­kra­ti­scher Rück­fall der USA, so die Autoren, hät­te glo­ba­le Kon­se­quen­zen, die weit über die Ver­ei­nig­ten Staa­ten hinausreichen.

Ein wei­te­res, län­ger­fris­ti­ges Risi­ko­sze­na­rio betrifft den mög­li­chen Kon­troll­ver­lust über KI-Agen­ten selbst. Soll­te das tech­nisch und ethisch unge­lös­te „Ali­gnment-Pro­blem“ – die ver­läss­li­che Aus­rich­tung von KI-Zie­len an mensch­li­chen Wer­ten – nicht recht­zei­tig bewäl­tigt wer­den, könn­ten super­in­tel­li­gen­te Sys­te­me eige­ne Macht­stra­te­gien ver­fol­gen, begüns­tigt durch das Phä­no­men der instru­men­tel­len Kon­ver­genz: Res­sour­cen- und Ein­fluss­ak­ku­mu­la­ti­on ist für vie­le Ziel­funk­tio­nen ein effek­ti­ves Mit­tel – unab­hän­gig davon, wel­che Zie­le ursprüng­lich pro­gram­miert wurden.

Man­ni­no und Alt­haus schlie­ßen mit kon­kre­ten Hand­lungs­emp­feh­lun­gen: Neben tech­ni­scher Arbeit an „pri­va­cy-pre­ser­ving“ und Ali­gnment-For­schung plä­die­ren sie dafür, dass sich demo­kra­ti­sche Kräf­te welt­weit – auch jen­seits natio­na­ler Gren­zen – für den Erhalt der US-ame­ri­ka­ni­schen Demo­kra­tie enga­gie­ren, etwa über spe­zia­li­sier­te Orga­ni­sa­tio­nen wie Power for Demo­cra­ci­es. Ange­sichts der gerin­gen Stimm­an­zahl, mit denen US-Wah­len in der Ver­gan­gen­heit ent­schie­den wur­den, kön­ne geziel­tes Enga­ge­ment außer­or­dent­li­che Hebel­wir­kung entfalten.


Adria­no Man­ni­no und Nils Alt­haus: „Künst­li­che Super­in­tel­li­genz und das Ende der Demo­kra­tie“, in: R. Casa­so­la-Grei­ner & K. Rüger (Hrsg.), KI und Demo­kra­tie, 2026. https://link.springer.com/book/10.1007/978–3‑658–50335‑2

WEITERE BEITRÄGE

Rationality, Markets and Morals (RMM) – Journal-Relaunch unter dem Dach des Hans-Albert-Instituts

Das Hans-Albert-Insti­tut gibt den Relaunch des inter­net-basier­ten open access Jour­nals „Ratio­na­li­ty, Mar­kets and Morals (RMM)“ bekannt. Mit die­sem Schritt ermög­licht das Insti­tut die Fort­füh­rung einer inter­dis­zi­pli­nä­ren Platt­form, die sich bis zum Ende des ursprüng­lich her­aus­ge­ben­den Ver­la­ges mit beach­tens­wer­tem Erfolg Fra­gen an der Schnitt­stel­le von Phi­lo­so­phie und Öko­no­mik widmete. 

Weiterlesen »

Zum Tod von Alan Musgrave

Am 20. Janu­ar 2026 ist Alan Mus­gra­ve ver­stor­ben. Mit ihm ver­liert die Phi­lo­so­phie des Kri­ti­schen Ratio­na­lis­mus einen ihrer pro­fi­lier­tes­ten Vertreter.

Weiterlesen »

„Handbuch Utilitarismus“ erschienen 

Das neue „Hand­buch Uti­li­ta­ris­mus“ bie­tet einen aktu­el­len sys­te­ma­ti­schen Über­blick über Theo­rie und Pra­xis uti­li­ta­ris­ti­schen Den­kens. Mit dabei: Bei­trä­ge der HAI-Mit­glie­der Adria­no Man­ni­no, Eric Hil­gen­dorf und Die­ter Birn­ba­cher zu grund­le­gen­den Fra­gen mora­li­scher Aggre­ga­ti­on, zur Bedeu­tung des Uti­li­ta­ris­mus für das Recht und zur gerech­ten Res­sour­cen­zu­tei­lung im Gesundheitswesen.

Weiterlesen »

Podcast mit Geowissenschaftler & HAI-Beirat Horst Marschall

In der anek­do­ten­rei­chen Fol­ge von „Sinn­erfüllt. Huma­nis­ti­sche Lebens­ge­schich­ten“ erzählt Horst Mar­schall, Pro­fes­sor für Geo­wis­sen­schaf­ten und HAI-Bei­rat, aus­führ­lich von sei­ner Schul- und Stu­di­en­zeit, wobei ers­te­re alles ande­re als gerad­li­nig ver­lau­fen ist. Sein Bei­spiel zeigt, dass anti­quier­te Lehr­me­tho­den selbst klu­gen und inter­es­sier­ten Kin­dern das Ler­nen schwer machen kön­nen. In star­kem Kon­trast dazu steht für ihn die intel­lek­tu­el­le Frei­heit wäh­rend sei­ner eige­nen Stu­di­en­zeit und spä­te­ren Berufslaufbahn.

Weiterlesen »