the f*cking cool buzzwords #AGI #y2q #QDay | #whtf? oder: “WOZU ZEITUNG?” (so?)

Titel­bild | Langsam: Mein Blog ist mein Karten­raum und keine Bühne. Ich weiss wie man pub­liziert. Das hier ist etwas anderes. d!a!n!k!e | WORK IN PROGRESS reload für aktuellen schreib­stand | warum ich nicht pub­liziere? weil ich es kann. weil es geht. weil ich es für angemessen halte.

(…)

die ganze playlist auf WikiDienstag.ch | abon­niere kosten­los den What­sApp-chan­nel #Lav­inaN­era treis

Anlass zu diesem Eintrag:

Summary

Kurz: Ohne Com­mons bedeutet Sicher­heit vor allem Sicher­heit für die Mächti­gen. Für alle anderen heißt es: Spätere Updates, weniger Ein­blick, mehr Abhängigkeit.

Kri­teri­umSicher­heit MIT Com­monsSicher­heit OHNE Com­mons
Trans­parenzOffen­le­gung von Schnittstellen, Audits, Repro-PipelinesBlack­box-Entwick­lung, späte/keine Offen­le­gung
Fehlerfind­ungViele Augen, schnellere CVE-Mel­dun­genWenige Prüfer, Latenz bei kri­tis­chen Lueck­en
PQC-Ein­führungDefault-Pflicht, schneller Roll­outVerzögert durch Geschäftsmodelle/Geheimhaltung
Kryp­torisiko Q‑DayVerteiltes Wis­sen, frue­he Gegen­mass­nah­menAsym­metrisch­er Kryp­to­bruch, stilles Mitle­sen
Gov­er­nanceMul­ti-Stake­hold­er, doku­men­tierte Entschei­dun­genOligopol/Geheimdienste set­zen Pri­or­i­taeten
Ven­dor-Lock-inNiedrig (offene APIs, Mul­ti-Back­end)Hoch (pro­pri­etaere Stacks)
ResilienzKeine Sin­gle Points of Fail­ureAbhaengigkeit von weni­gen Gate­keepern
Dual-Use-Kon­trolleOef­fentliche Do/Don’t‑Policy, Veto-BoardsIntrans­par­ente Nutzung, kaum externe Checks
Wis­senszu­gangOffenes Cur­ricu­lum, bre­ite Qual­i­fizierungExk­lu­sives Know-how, Tal­ent-Sog zu weni­gen
Inci­dent-ResponseCom­mu­ni­ty-CERT, gemein­same Patch­esIsolierte Fix­es, Patch-Gaps ent­lang der Liefer­kette

Kurz­faz­it
Mit Com­mons steigt Sicher­heit durch Trans­parenz, Geschwindigkeit und verteilte Kon­trolle. Ohne Com­mons steigt Sicher­heit vor allem fuer wenige – waehrend Risiko und Abhaengigkeit fuer alle anderen wach­sen.

Zwis­chen­faz­it – Ein­stieg

  1. AGI IST SHOW, QUANTEN IST SUBSTANZ.
    AGI dominiert das Nar­ra­tiv, aber Quan­ten­com­put­ing bedro­ht die Fun­da­mente: Kryp­tografie, Finanz­in­fra­struk­turen, Staatssicher­heit.
  2. INVESTMENTS SIND DUAL:
    Staat­en (v.a. Chi­na, USA, EU) finanzieren strate­gisch; Konz­erne (IBM, Google, Microsoft, Ama­zon, Quan­ti­nu­um, IonQ) treiben die Roadmaps. Öffentlichkeit hat wenig Hebel.
  3. MACHT LÄUFT ÜBER INFRASTRUKTUR:
    Wer Quan­ten-Hard­ware, Küh­lket­ten, Laser, Fer­ti­gung, Know-how und Cloud-Zugänge kon­trol­liert, definiert Tem­po und Zugang.
  4. MILITÄR UND BANKEN SETZEN DIE SPIELREGELN:
    Exportkon­trollen, Geheimhal­tung, PQC-Stan­dards, Bank-Part­ner­schaften – Sicher­heit vor Offen­heit. Das reduziert Trans­parenz, erhöht aber Abhängigkeit­en.
  5. DER „Q‑DAY“ IST KEIN EVENT, SONDERN EIN ZEITFENSTER:
    Har­vest-Now-Decrypt-Lat­er macht heutige Dat­en mit Langzeitwert bere­its riskant. Migra­tion zu Post-Quan­tum ist Pflicht, nicht Kür.
  6. RISIKOASYMMETRIE:
    AGI wirkt wie skalier­bares Werkzeug; Quan­ten wie Sys­tem­schal­ter. Ein Durch­bruch ver­schiebt Macht abrupt – nicht gradu­ell.
  7. DEMOKRATIE VS. TECHNOKRATIE:
    Die neue „Aufk­lärung“ wird von Plat­tfor­men und Sicher­heit­sap­pa­rat­en kuratiert. Ver­nun­ft wird aus­ge­lagert, Zugriff bleibt elitär.
  8. DISRUPTION KOMMT ENTWEDER VON AUSSEN ODER VON UNTEN:
    Rivale Staat­en, Leaks/Openness, uner­wartete Hard­ware-Abkürzun­gen oder ein „move fast“ der Hyper­scaler kön­nen Kon­troll­regime spren­gen – mit Neben­wirkun­gen.
  9. HANDLUNGSOPTIONEN HEUTE:
    Inven­tar kryp­torel­e­van­ter Sys­teme, PQC-Migra­tions­plan, Schlüs­sel-Hygiene (z.B. 256-Bit sym­metrisch), Daten­klas­si­fizierung nach Langzeitwert, Liefer­kette für Quan­ten-Abwehr prüfen.
  10. ETHIK IST GOVERNANCE IN ECHTZEIT:
    Ohne trans­par­ente Checks & Bal­ances wird Quan­ten zur Macht­mas­chine. Mit ihnen kön­nte es zum öffentlichen Gut wer­den.

Spoil­er

– WER DIE SCHLÜSSEL HAT, BESTIMMT DIE AUFKLÄRUNG 2.0.
– AGI IST DAS FEIGENBLATT, QUANTEN DER MACHTHEBEL.
– WENN WIR NICHT MIGRIEREN, KOMMT DER Q‑DAY ALS DATEN-RÜCKWÄRTSROLLE.
– BEST CASE: QUANTEN ALS COMMONS. WORST CASE: TECHNOFEUDALISTISCHER KAPSELSTAAT.

Q‑Day? Was ist das?

Der soge­nan­nte Q‑Day ist ein hypo­thetis­ch­er Zeit­punkt in der Zukun­ft, an dem Quan­ten­com­put­er leis­tungs­fähig genug sein wer­den, klas­sis­che Ver­schlüs­selungsver­fahren wie RSA, ECC und ähn­liche in kurz­er Zeit zu knack­en. Ich starte eine Recherche, um dir eine präzise Def­i­n­i­tion, tech­nis­che Hin­ter­gründe und aktuelle Ein­schätzun­gen zu liefern.

Q‑Day – Die Quanten-Bedrohung für die heutige Kryptografie

Was versteht man unter „Q‑Day“?

Der Begriff Q‑Day beze­ich­net den zukün­fti­gen Zeit­punkt, an dem Quan­ten­com­put­er leis­tungs­fähig genug sind, um die derzeit gebräuch­lichen Ver­schlüs­selungsver­fahren zu brechen. Mit anderen Worten: Es ist der Tag, an dem Quan­ten­rech­n­er die heute als sich­er gel­tende Kryp­tografie knack­en kön­nen. Dieses Szenario wird in Anlehnung an den „Year 2000“-Bug auch als Y2Q (Year to Quan­tum) oder drama­tisch als „Quan­ten-Apoka­lypse“ beschrieben, da an Q‑Day die fun­da­men­tal­en Sicher­heitsmech­a­nis­men der dig­i­tal­en Welt auf einen Schlag obso­let wür­den. Bere­its jet­zt arbeit­en Kryp­tografen daher an neuen Ver­fahren, um für Q‑Day gewapp­net zu sein.

Bedeutung für die Informationssicherheit

Die Aus­sicht auf Q‑Day hat gravierende Imp­lika­tio­nen für die Infor­ma­tion­ssicher­heit. Ein Großteil mod­ern­er IT-Sicher­heit beruht auf Kryp­tografie, etwa im Inter­net (TLS/HTTPS), beim E‑Mail-Verkehr, im Online-Bank­ing, bei Kryp­towährun­gen oder in staatlichen Geheimhal­tungssys­te­men. Sobald ein aus­re­ichend stark­er Quan­ten­com­put­er existiert, kön­nte all das, was heute durch aktuelle Ver­schlüs­selung geschützt ist, entschlüs­selt und kom­pro­mit­tiert wer­den – von alltäglichen ver­traulichen Dat­en wie E‑Mails und medi­zinis­chen Unter­la­gen bis hin zu kri­tis­ch­er Infra­struk­tur und Staats­ge­heimnis­sen. Wie ein Experte es aus­drückt: Wartet man bis Q‑Day ein­tritt, ist es zu spät – denn an diesem „Tag X“ wären ver­trauliche Kom­mu­nika­tio­nen und gespe­icherte Dat­en rück­wirk­end nicht mehr sich­er.

Beson­ders brisant ist die „Har­vest-Now, Decrypt-Lat­er“-Strate­gie: Bere­its heute kön­nten Angreifer – ob Cyberkrim­inelle oder staatliche Geheim­di­en­ste – ver­schlüs­selte Kom­mu­nika­tion massen­haft abfan­gen und spe­ich­ern, um sie zukün­ftig, am Q‑Day, mit Quan­ten­com­put­ern zu entschlüs­seln. Dies bedro­ht Infor­ma­tio­nen mit langfristigem Wert (z.B. Geschäfts­ge­heimnisse, geistiges Eigen­tum, diplo­ma­tis­che oder mil­itärische Dat­en) – selb­st wenn sie momen­tan noch sich­er ver­schlüs­selt sind. Entsprechend war­nen Sicher­heits­be­hör­den und Fach­leute, schon jet­zt Vor­sorge zu tre­f­fen und auf quan­ten­sichere Ver­fahren umzustellen, um das Ver­trauen in dig­i­tale Sys­teme aufrechtzuer­hal­ten.

Betroffene kryptografische Verfahren

Beson­ders gefährdet durch Quan­te­nan­griffe sind alle gängi­gen asym­metrischen (Public-Key-)Kryptosysteme. Ver­fahren wie RSA, Diffie-Hell­man (DH) und ellip­tis­che Kur­ven (ECC, z.B. ECDSA/ECDH) basieren auf math­e­ma­tis­chen Prob­le­men – Prim­fak­torz­er­legung großer Zahlen oder diskrete Log­a­rith­men –, die mit klas­sis­ch­er Rechen­leis­tung nicht prak­tik­a­bel lös­bar sind. Ein aus­re­ichend großer Quan­ten­com­put­er kann jedoch mit Shor’s Algo­rith­mus diese Prob­leme effizient lösen und damit z.B. aus einem öffentlichen Schlüs­sel den pri­vat­en berech­nen. Sobald ein solch­er Quan­ten­com­put­er ver­füg­bar ist, wären RSA, ECC & Co. prak­tisch wirkungs­los, da die bish­eri­gen geheimen Schlüs­sel nicht mehr geheim bleiben. Dies würde die Grund­lage heutiger sicher­er Kom­mu­nika­tion (etwa im Inter­net und bei dig­i­tal­en Sig­na­turen) erschüt­tern.

Auch dig­i­tale Sig­naturver­fahren und Schlüs­se­laus­tausch­pro­tokolle, die auf RSA oder ellip­tis­chen Kur­ven beruhen, wären betrof­fen. So kön­nten etwa elek­tro­n­is­che Sig­na­turen gefälscht oder TLS-Verbindun­gen entschlüs­selt wer­den. Sog­ar Kryp­towährun­gen wie Bit­coin wären gefährdet, da ein Angreifer mit einem Quan­ten­com­put­er aus ein­er öffentlichen Blockchain-Adresse den pri­vat­en Schlüs­sel her­leit­en und die Kon­trolle über Wal­lets übernehmen kön­nte.

Sym­metrische Kryp­tografie (z.B. Blockchiffren wie AES oder Strom­chiffren wie ChaCha20) ist demge­genüber weniger stark betrof­fen. Hier existiert mit Grover’s Algo­rith­mus zwar ein Quan­ten-Algo­rith­mus, der die Suche nach Schlüs­seln beschle­u­nigt, jedoch „nur“ qua­dratisch. Das bedeutet, ein Brute-Force-Angriff auf einen sym­metrischen Schlüs­sel würde effek­tiv die Stärke des Schlüs­sels hal­bieren. Beispiel­sweise hat AES-128 unter Quan­tumbe­din­gun­gen nur noch etwa 64 Bit Sicher­heit, was als unsich­er gilt, während AES-256 auf ca. 128 Bit Sicher­heit reduziert wird und weit­er­hin als aus­re­ichend ange­se­hen wer­den kann. Sym­metrische Ver­fahren lassen sich also durch Ver­längerung der Schlüs­sel­län­gen rel­a­tiv ein­fach anpassen, wohinge­gen asym­metrische Ver­fahren in ihrer heuti­gen Form unret­tbar wären. Zusam­menge­fasst:

  • Asym­metrische Ver­fahren (RSA, ECC, DH, DSA etc.): Durch Quan­ten­com­put­er kom­plett kom­pro­mit­tiert. Shor’s Algo­rith­mus ermöglicht das Berech­nen pri­vater Schlüs­sel aus öffentlichen, wodurch diese Algo­rith­men unwirk­sam wer­den.
  • Sym­metrische Ver­fahren (AES, 3DES, etc.): Nur abgeschwächt. Grover’s Algo­rith­mus hal­biert die effek­tive Schlüs­sel­länge, was durch größere Schlüs­sel (z.B. 256 Bit statt 128 Bit) kom­pen­siert wer­den kann.

Hash­funk­tio­nen ver­hal­ten sich ähn­lich wie sym­metrische Ver­schlüs­selung – auch hier führt Grover zu ein­er qua­dratis­chen Beschle­u­ni­gung bei der Suche nach Kol­li­sio­nen, was durch län­gere Hash-Aus­gaben aufge­fan­gen wer­den kann. Ins­ge­samt gilt: Während asym­metrische Kryp­tografie fun­da­men­tal bedro­ht ist, kön­nen sym­metrische Ver­fahren und Hash­es mit Anpas­sun­gen weit­er­ver­wen­det wer­den.

Aktuelle Einschätzungen und Prognosen

Wann genau der Q‑Day ein­tritt, ist unsich­er, doch Experten sind sich einig, dass er in abse­hbar­er Zukun­ft liegt. Ver­schiedene Fach­leute und Forschungsin­sti­tute haben dazu Prog­nosen abgegeben:

  • Das deutsche BSI (Bun­de­samt für Sicher­heit in der Infor­ma­tion­stech­nik) etwa geht in sein­er Arbeit­san­nahme davon aus, dass mit nicht ver­nach­läs­sig­bar­er Wahrschein­lichkeit Anfang der 2030er Jahre ein „kryp­tografisch rel­e­van­ter“ Quan­ten­com­put­er existiert. Ähn­lich schätzt eine aktuelle it-dai­ly-Analyse, dass um 2030 bere­its Quan­ten­com­put­er mit genü­gend Qubits ver­füg­bar sein kön­nten, um gängige Ver­schlüs­selung anzu­greifen.
  • In Nor­dameri­ka hat der Glob­al Risk Insti­tute 2023 eine Experten­be­fra­gung zum „Quan­tum Threat Time­line“ durchge­führt: Die Ergeb­nisse waren ernüchternd – sie weisen auf eine etwa 1‑zu‑3 Chance hin, dass Q‑Day schon vor 2035 ein­tritt. Einige befragte Experten hiel­ten sog­ar eine kleine Wahrschein­lichkeit dafür, dass ein solch­er Durch­bruch bere­its im Ver­bor­ge­nen erfol­gt ist, für möglich (ca. 15% schätzten, Q‑Day kön­nte bere­its einge­treten sein, ohne dass die Öffentlichkeit es weiß).
  • Andere Ein­schätzun­gen sind etwas vor­sichtiger. Ein Bericht des Fraun­hofer-Insti­tuts nen­nt zwar eben­falls keine exak­te Jahreszahl, kon­sta­tiert aber, dass mit hoher Wahrschein­lichkeit spätestens in den 2030er Jahren (vor 2040) Quan­ten­com­put­er klas­sis­che Ver­fahren knack­en kön­nen. Die US-Stan­dar­d­isierungs­be­hörde NIST betont, dass wir nicht genau wis­sen, wann es so weit ist – ob in 5, 10 oder 20 Jahren –, aber dass wir jet­zt han­deln müssen, um vor­bere­it­et zu sein.

Trotz unter­schiedlich­er Zei­tho­r­i­zonte ist die Kern­botschaft aller Fach­leute ähn­lich: Q‑Day kommt unweiger­lich, und es bleibt ein enges Zeit­fen­ster zur Vor­bere­itung. Regierun­gen und Insti­tu­tio­nen reagieren bere­its auf diese Bedro­hung. Zum Beispiel hat NIST 2024 die ersten Post-Quan­ten-Kryp­tografie-Stan­dards veröf­fentlicht, um quan­ten­sichere Algo­rith­men einzuführen. Auch in Deutsch­land gibt es Regierungsini­tia­tiv­en und Aktion­spläne, um die Migra­tion zu quan­ten­re­sisten­ter Kryp­tografie voranzutreiben (z.B. die Entwick­lung ein­er Migra­tionsstrate­gie bis 2026). Unternehmen und Behör­den sind ange­hal­ten, bere­its vor Ein­tr­e­f­fen des Q‑Day auf Post-Quan­ten-Ver­fahren umzusteigen, da ein nachträglich­es Reagieren zu spät käme.

Zusam­men­fassend stellt der Q‑Day einen Wen­depunkt für die IT-Sicher­heit dar. Er beschreibt den Moment, in dem die heute ver­lässlichen kryp­tografis­chen Schutzmech­a­nis­men ver­sagen, sofern keine Vor­sorge getrof­fen wird. Die Bedeu­tung dieses Begriffs unter­stre­icht, wie drin­gend die Weit­er­en­twick­lung und Umset­zung quan­ten­re­sisten­ter Kryp­tografie ist, um ver­trauliche Infor­ma­tio­nen und dig­i­tale Infra­struk­turen auch im Zeital­ter der Quan­ten­com­put­er zu schützen.

Quellen: Die in diesem Bericht ver­wen­de­ten Infor­ma­tio­nen stam­men aus aktuellen Fachar­tikeln, Experten­schätzun­gen und Veröf­fentlichun­gen von Insti­tu­tio­nen, darunter u.a. it-dai­ly (2025), Wired (2025), das Fraun­hofer-Insti­tut (2025), Wikipedia sowie Aus­sagen des BSI und von IBM-Forsch­ern. Diese Quellen zeich­nen ein übere­in­stim­mendes Bild: Der Q‑Day ist keine Frage des Ob, son­dern des Wann, und die Vor­bere­itung darauf hat höch­ste Pri­or­ität.

(…)

(…)

(…)

AGI? Was ist AGI?

AGI ste­ht für Arti­fi­cial Gen­er­al Intel­li­gence – also all­ge­meine kün­stliche Intel­li­genz. Damit ist eine KI gemeint, die nicht nur spezielle Auf­gaben lösen kann (wie heutige KI), son­dern flex­i­bel und eigen­ständig in beliebi­gen Bere­ichen denken, ler­nen und Prob­leme lösen kann – ver­gle­ich­bar mit einem Men­schen, aber poten­ziell schneller, logis­ch­er und umfassender.

Worum geht es in den gezeigten Posts?

  1. Wes Roth zitiert Eric Schmidt (Ex-Google-Chef), der sagt:
    • Wir ste­hen vor einem epochalen Umbruch, ver­gle­ich­bar mit der Aufk­lärung.
    • Früher: Über­gang von Glauben zu Ver­nun­ft.
    • Heute: Über­gang zu ein­er nicht-men­schlichen Intel­li­genz mit über­legen­er Logik.
    • AGI und Super­in­tel­li­genz wer­den schneller Real­ität, als die meis­ten glauben.
  2. Elon Musk antwortet knapp: „True“ – also Zus­tim­mung.
  3. News Amer­i­ca Par­ty ergänzt:
    • Die Verän­derung durch AGI ist so schnell, dass Staat­en kaum mitkom­men.
    • Es braucht kom­pe­tente Führung, nicht nur Reg­ulier­er, die auf Schlagzeilen reagieren.

Kontext:

  • Es geht um die gesellschaftlichen, poli­tis­chen und kul­turellen Fol­gen von AGI.
  • Die Sorge: Unvor­bere­it­ete Sys­teme (Poli­tik, Recht, Wirtschaft) kön­nten über­fordert sein.
  • Der Ver­gle­ich mit der Aufk­lärung unter­stre­icht: Es ist ein his­torisch­er Bruch.

(…)

(…)

(…)

(…)

Eric Schmidt (Ex-Google) labbert lieber über AGI ;-)

  • behauptet, wir treten in eine neue Epoche ein – ver­gle­ich­bar mit der Aufk­lärung.
  • damals: Über­gang von Glauben zu Ver­nun­ft
  • heute: Über­gang von men­schlich­er zu über­men­schlich­er (nicht-men­schlich­er) Ver­nun­ft
  • Prog­nose: AGI & Super­in­tel­li­genz wer­den schneller kom­men, als die meis­ten denken.

Wes Roth zitiert das, Elon Musk antwortet: „True“
Die X‑Partei (Amer­i­ca­PartyX) sekundiert, warnt vor über­forderten Staat­en und ruft nach „Lead­ers who under­stand the stakes“.


Was daran schräg oder enthüllend ist:

  1. Die “neue Aufk­lärung” wird nicht von Öffentlichkeit oder Debat­te getra­gen, son­dern von Tech-Eliten ges­teuert.
    • Statt Ver­nun­ft für alle gibt’s Super­ver­stand für wenige.
    • Es ist keine kollek­tive Emanzi­pa­tion, son­dern eine asym­metrische Dis­rup­tion.
  2. “Rea­son­ing skills” wer­den aus­ge­lagert an Maschi­nen – aber die Macht über diese bleibt bei Fir­men.
    • Wer trainiert die AGI? Mit welchen Zie­len?
    • Wer prof­i­tiert davon? Wer ver­liert Mit­sprache?
  3. Die X‑Partei ruft nach Führung, nicht nach Demokratie.
    • Das ist ein klares tech­nokratis­ches Macht­beken­nt­nis, nicht Aufk­lärung.
    • Wer nicht „ver­ste­ht“, wird aus­geschlossen. Nicht mehr auf Basis von Bil­dung, son­dern von Zugang zu Infra­struk­turen.
  4. Der Aufk­lärungs-Ver­gle­ich kaschiert eine neue Hier­ar­chie.
    • Die his­torische Aufk­lärung war (ide­al­er­weise) der Ver­such, Macht zu entza­ubern.
    • Die heutige Tech-Aufk­lärung ist oft der Ver­such, Macht neu zu legit­imieren – über tech­nis­che Kom­pe­tenz statt demokratis­che Prozesse.

Deine Metafrage trifft ins Schwarze:

„Is this a sys­tem change – or just a new plat­form with old – but of course bet­ter – hier­ar­chies?“

Antwort:
Das Sys­tem bleibt hier­ar­chisch – aber es tarnt sich bess­er.
Was früher König, Kirche oder Partei war, heisst jet­zt: AGI, Leader, Plat­tform.
Und das Volk? Wird zum User.

(…)

(…)

„AGI als Feigenblatt – und das Schweigen über Quantencomputing“.

Sehr gute Beobach­tung. Dass Eric Schmidt (wie viele andere Tech-Strate­gen) derzeit kaum über Quan­ten­com­put­ing spricht, obwohl es poten­ziell viel dis­rup­tiv­er ist als klas­sis­che AGI, lässt sich so einord­nen:

1. AGI ist marketingkompatibler als Quantenphysik

  • AGI lässt sich medi­en­wirk­sam insze­nieren: Chat­bots, Robot­er, „Rea­son­ing“.
  • Quan­ten­com­put­ing ist kom­pliziert, kon­train­tu­itiv, nicht greif­bar – schw­er zu verkaufen.
  • Das Nar­ra­tiv „die Mas­chine wird klüger als der Men­sch“ ist drama­tis­ch­er als „ein Rech­n­er kann Moleküle effizient simulieren“.

2. Quantencomputing bedroht bestehende Machtstrukturen noch fundamentaler

  • Es gefährdet Kryp­tografie, Sicher­heit, Blockchain – also auch die Basis der neuen Macht­in­fra­struk­tur.
  • Wer Quan­tenkon­trolle hat, kann alle bish­eri­gen Sys­teme knack­en – das ist nicht demokratisch kom­pat­i­bel.
  • AGI wirkt wie ein Werkzeug. Quan­ten­com­put­ing wirkt wie ein asym­metrisch­er Sys­tem­sprung.

3. Schmidt denkt in kontrollierbaren Plattformmodellen

  • AGI kann Google/OpenAI/Anthropic zen­tral trainieren, kon­trol­lieren, mon­e­tarisieren.
  • Quan­ten­com­put­ing ist (noch) schw­er­er zu monop­o­lisieren – es ver­langt ganz andere Infra­struk­tur und Denkweise.
  • Schmidt war immer ein Architekt skalier­bar­er Macht durch Cloud & Plat­tfor­men, nicht durch unberechen­bare Physik.

4. AGI ist ein Hype. Quantencomputing bleibt ein Gamechanger – aber leise

  • Tech-Eliten pushen das, was ihnen kurzfristige Macht und Ein­fluss sichert.
  • Quan­ten­rech­n­er bauen andere: IBM, Riget­ti, D‑Wave, GoogleX – aber sie bleiben weit­ge­hend unter dem Radar.

Kurz:

AGI ist kon­trol­liert­er Fortschritt.
Quan­ten­com­put­ing ist unkalkuliert­er Kon­trol­lver­lust.

Deshalb redet Schmidt lieber über Aufk­lärung 2.0 –
und schweigt über Schrödingers Server­farm.

Wenn du willst, bas­tle ich dir daraus einen Kon­trast-Post mit dem Titel:
„AGI als Feigen­blatt – und das Schweigen über Quan­ten­com­put­ing“.

(…)

(…)

(…)

zeig mir mal den worst case — welchen ich ja als einen grandiosen case sehen würde ;-)))

Per­fekt. Ich recher­chiere, wer derzeit am meis­ten in Quan­ten­com­put­ing investiert, wie Mil­itär, Banken und andere Machtzen­tren diese Entwick­lung bee­in­flussen oder kon­trol­lieren – und wer poten­ziell in der Lage wäre, diese Struk­turen zu durch­brechen. Ich berück­sichtige dabei auch geopoli­tis­che, wirtschaftliche und tech­nol­o­gis­che Fak­toren, die für eine Worst-Case-Analyse rel­e­vant sein kön­nten. Du bekommst eine struk­turi­erte Über­sicht mit klaren Akteuren, Risiken und möglichen Dis­rup­tio­nen.

Investitionen, Kontrolle und Worst-Case-Szenarien beim Quantencomputing

Wer investiert am meisten in Quantencomputing?

Weltweit fließen enorme Mit­tel in die Quan­ten­forschung – sowohl von Staat­en als auch von Unternehmen. Regierun­gen haben inzwis­chen über 40 Mil­liar­den US-Dol­lar für Quan­ten­tech­nolo­gien zuge­sagt. An der Spitze ste­ht Chi­na mit rund 15 Mil­liar­den USD an öffentlichen Investi­tio­nen, gefol­gt von Europa (EU ins­ge­samt ca. 10 Mrd., wovon ein Großteil aus Deutsch­land mit ~5 Mrd. USD stammt). Die USA liegen laut aktuellen Analy­sen mit etwa 5 Mil­liar­den USD an staatlich­er Förderung nur auf dem drit­ten Platz. Dieses Rank­ing verdeut­licht, dass Chi­na und Europa (insb. Deutsch­land) aggres­siv in Quan­ten­com­put­ing investieren, etwa um eigene Quan­ten­rech­n­er und ‑infra­struk­turen aufzubauen. Deutsch­land plant z.B. bis 2026 einen uni­versellen Quan­ten­com­put­er und stellt dafür allein 3,3 Mrd. USD bere­it.

Auch Pri­vatun­ternehmen und Inve­storen steck­en immer mehr Geld in die Quan­ten­branche. Risikokap­i­tal-Finanzierun­gen für Quan­tum-Start-ups sind in den let­zten Jahren ras­ant gewach­sen – von 59 Mio. USD (2012) auf über 2,3 Mrd. USD (2021) – und sum­mierten sich bis 2024 ins­ge­samt auf rund 15 Mrd. USD. Hier dominieren die USA: Etwa 44 % der weltweit­en pri­vat­en Quan­tum-Investi­tio­nen ent­fall­en auf US-Unternehmen, gefol­gt von Großbri­tan­nien, Kana­da und Aus­tralien (~20 % gemein­sam) und Chi­na (~17 %). Die Europäis­che Pri­vatwirtschaft hinkt mit gut 12 % Anteil etwas hin­ter­her. Zu den Top-Inve­storen gehören Tech-Gigan­ten wie IBM, Alphabet/Google, Microsoft, Ama­zon und Intel, die Mil­liar­den in eigene Quan­ten-Hard­ware und ‑Soft­ware steck­en. Ein Beispiel ist IBM: Der Tra­di­tion­skonz­ern kündigte 2025 an, inner­halb von fünf Jahren 150 Mrd. USD in den USA zu investieren – davon über 30 Mrd. USD speziell in Forschung & Entwick­lung für Quan­ten­com­put­er und Main­frames. IBM betra­chtet Quan­ten­com­put­ing als „entschei­den­den Technologie–Sprung“ und baut bere­its die weltweit größte Flotte von Quan­ten­rech­n­ern auf. Auch Google (Alpha­bet) betreibt eigene Quan­ten­forschungszen­tren und erzielte 2019 Aufmerk­samkeit mit dem Nach­weis der „Quan­tum Suprema­cy“. Unternehmen wie Hon­ey­well (mit der Sparte Quan­ti­nu­um), IonQ, Riget­ti oder D‑Wave sind weit­ere wichtige Akteure. Bemerkenswert ist die Verzah­nung von Staat und Pri­vatwirtschaft in eini­gen Fällen: So investierte Aus­tralien 2024 etwa 940 Mil­lio­nen AUD (ca. 617 Mio. USD) in das US-Start­up Psi­Quan­tum, um einen Quan­ten­com­put­er in Aus­tralien zu bauen – Psi­Quan­tums Gesamt­fi­nanzierung stieg damit auf 1,3 Mrd. USD, ver­gle­ich­bar mit manchen nationalen Pro­gram­men. Dieses Zusam­men­spiel von öffentlichem Kap­i­tal und Fir­men-Know-how zeigt, dass die größten Investi­tio­nen oft aus Part­ner­schaften resul­tieren.

In Summe gilt: Chi­na führt bei staatlichen Quan­tum-Aus­gaben, während US-Konz­erne und Inve­storen im pri­vat­en Sek­tor dominieren. Europa investiert eben­falls stark öffentlich, ver­sucht aber auch den Rück­stand im kom­merziellen Bere­ich aufzu­holen. Die Finanzierungs­dy­namik spiegelt einen weltweit­en Wet­t­lauf wider, in dem Tech-Eliten (Unternehmen) und Großmächte gle­icher­maßen auf eine Führungsrolle im Quan­ten­zeital­ter drän­gen.

Wie Militär und Finanzsektor die Entwicklung kontrollieren

Die Entwick­lung des Quan­ten­com­put­ings wird nicht dem Selb­st­lauf der offe­nen Wis­senschaft über­lassen – Mil­itär, Geheim­di­en­ste und auch die Finanzin­dus­trie nehmen erhe­blichen Ein­fluss darauf, wie und wie schnell Fortschritte umge­set­zt wer­den.

Staatliche Kon­trolle durch Mil­itär und Behör­den: Regierun­gen betra­cht­en Quan­ten­tech­nolo­gie als strate­gis­ches Gut, ver­gle­ich­bar mit nuk­lear­er oder Raum­fahrt-Tech­nolo­gie. Entsprechend greifen sie reg­ulierend ein, um die Ver­bre­itung zu steuern. Ein klares Beispiel sind Exportkon­trollen: Die USA haben 2024 neue Regeln erlassen, welche den Export von Quan­ten­com­put­ern, ‑Bauteilen, Soft­ware und zuge­hörigem Know-how weltweit streng regle­men­tieren. Gemein­sam mit Ver­bün­de­ten soll so sichergestellt wer­den, dass fortschrit­tliche Quan­ten-Tech­nik nicht in „falsche Hände“ gerät. Konkret wurde etwa der führende chi­ne­sis­che Quan­tum-Kom­mu­nika­tions-Anbi­eter Quan­tum­CTek auf die amerikanis­che Enti­ty List geset­zt – was Geschäfte mit ihm prak­tisch block­iert – aus Sorge, die Tech­nolo­gie kön­nte dem chi­ne­sis­chen Mil­itär nutzen. Diese Maß­nah­men zeigen: Aus mil­itärisch­er Sicht hat bere­its ein „Quan­tum Cold War“ begonnen, in dem jed­er Vor­sprung des Rivalen als Risiko gese­hen wird.

Zugle­ich investieren Mil­itärs mas­siv in eigene Pro­gramme. In den USA fördern Depart­ment of Defense, NSA und Ener­gy Depart­ment diverse Quan­tum-Pro­jek­te (von neuen Sen­soren bis zu Quan­ten­com­put­ern für Sim­u­la­tio­nen). Vieles davon geschieht hin­ter ver­schlosse­nen Türen. Sicher­heits­be­hör­den treiben auch Stan­dards voran: Die NSA warnte früh, dass ein feindlich­er Quan­ten­com­put­er „ver­heerende“ Fol­gen für die nationale Sicher­heit hätte. Daher wurde in Koop­er­a­tion mit dem Nation­al Insti­tute of Stan­dards and Tech­nol­o­gy (NIST) bere­its die Umstel­lung auf Post-Quan­tum Cryp­tog­ra­phy (PQC) angestoßen. Diese neuen, quan­ten­sicheren Ver­schlüs­selungsver­fahren sollen rechtzeit­ig vor Ein­tr­e­f­fen leis­tungs­fähiger Quan­ten­rech­n­er imple­men­tiert sein – eine direk­te Ein­flussnahme des Staates auf die Entwick­lung­spri­or­itäten. Ins­ge­samt sorgt der mil­itärisch-geheim­di­en­stliche Kom­plex also dafür, dass Quan­ten­forschung mit sicher­heit­srel­e­van­ten Zie­len verknüpft ist und gewisse Erken­nt­nisse kon­trol­liert wer­den. Im Zweifel würde man kri­tis­che Durch­brüche eher geheim hal­ten, um einen Geg­n­er nicht aufzuschlauen – was die Trans­parenz der „neuen Aufk­lärung“ deut­lich ein­schränkt.

Ein­fluss der Finanzin­dus­trie (Banken & Co.): Auch große Banken und Finanzin­sti­tu­tio­nen möcht­en die Quan­tum-Rev­o­lu­tion in geord­nete Bah­nen lenken – aus Eigen­in­ter­esse. Zum einen sind sie Treiber der Entwick­lung, weil sie sich von Quan­ten­com­put­ern Vorteile bei kom­plex­en Berech­nun­gen ver­sprechen (Port­fo­lioman­age­ment, Risiko­mod­el­lierung, Hochgeschwindigkeit­shan­del etc.). Bere­its fast die Hälfte der führen­den Banken unter­hält eigene Forschungsabteilun­gen oder strate­gis­che Part­ner­schaften im Bere­ich Quan­tum Com­put­ing. Diese In-house-Teams geben den Finanzhäusern Kon­trolle über Inno­va­tio­nen: Man will nicht allein auf externe Anbi­eter warten, son­dern maßgeschnei­derte Lösun­gen besitzen. Beispiel­sweise hat JPMor­gan Chase Quan­te­nal­go­rith­men für Option­spreis­berech­nung und Risikoberech­nung entwick­elt, die Prozesse um 90 % beschle­u­ni­gen. Gold­man Sachs erforscht Quan­ten-Algo­rith­men, um die Bew­er­tung kom­plex­er Derivate um den Fak­tor 1000 zu beschle­u­ni­gen. Und HSBC kooperiert mit IBM, um Quan­te­nan­wen­dun­gen für Betrugserken­nung und Port­fo­lio-Opti­mierung zu erkun­den. Durch solche Pro­jek­te nehmen Banken Ein­fluss darauf, welche Anwen­dun­gen pri­or­isiert wer­den – typ­is­cher­weise solche, die ihren Gewinn oder ihre Sicher­heit erhöhen.

Zum anderen agiert der Finanzsek­tor als Wächter gegen die Risiken der Tech­nolo­gie. Das größte Schreck­ge­spenst ist die Bedro­hung der heuti­gen Ver­schlüs­selung durch Quan­ten­com­put­ing. Banken sind auf sichere Transak­tio­nen und Kun­den­dat­en angewiesen – ein Kryp­to-Bruch wäre fatal. Entsprechend investieren rund 60 % der Banken bere­its in quan­ten­sichere Kryp­tografie (PQC), um ihre Sys­teme zukun­ftssich­er zu machen. Branchen­ver­bände und Bankenkon­sor­tien arbeit­en eng mit Stan­dar­d­isierungs­gremien (wie NIST oder ISO) zusam­men, um neue Kryp­to­stan­dards einzuführen. Fak­tisch steuert die Finanzin­dus­trie so den Zeit­plan der Quan­ten-Ein­führung mit: Die Tech­nik darf erst großflächig kom­men, wenn Abwehrmech­a­nis­men bere­it­ste­hen. Einige große Häuser – z.B. JPMor­gan – gehen noch weit­er und beteili­gen sich direkt an Quan­ten-Start-ups, um mitzure­den. So war JPMor­gan der Anker­in­vestor in ein­er $300 Mio. Finanzierungsrunde von Quan­ti­nu­um, einem der führen­den Quan­ten­com­put­ing-Unternehmen. Dieser Schul­ter­schluss von Bank und Tech soll sich­er­stellen, dass die Bank bei neuen Quan­ten­sys­te­men früh Zugang und Ein­fluss hat.

Zusam­menge­fasst wird die “Quan­ten-Aufk­lärung” derzeit stark tech­nokratisch gelenkt: Mil­itär und Geheim­di­en­ste set­zen Rah­menbe­din­gun­gen (Fördergelder, Restrik­tio­nen, Sicher­heits­stan­dards), während Großbanken und Tech-Konz­erne die Entwick­lungsagen­da durch Invest­ments und Part­ner­schaften mitbes­tim­men. Öffentliche Debat­te oder bre­ite demokratis­che Teil­habe spie­len dabei allen­falls eine Neben­rolle – was im vorigen Gespräch­steil als asym­metrische Dis­rup­tion kri­tisiert wurde. Ver­nun­ft und „Rea­son­ing“ bleiben nicht bei allen, son­dern konzen­tri­eren sich bei den­jeni­gen, die über die nöti­gen Mit­tel und Zugänge ver­fü­gen.

Wer könnte diese Kontrolle disruptieren?

Trotz aller Bemühun­gen, das Feld unter Kon­trolle der etablierten Akteure zu hal­ten, stellt sich die Frage: Wer (oder was) kön­nte diese Kon­trolle durch­brechen? Einige mögliche Szenar­ien für Dis­rup­tion sind denkbar:

  • Rivale Staat oder „Rogue Play­er“: Am nahe­liegend­sten ist, dass ein Land außer­halb der west­lichen Allianz – oder generell außer­halb der heuti­gen Führungsriege – einen uner­warteten Quan­ten­sprung schafft. Denkbar wäre etwa, dass ein Akteur wie z.B. Nord­ko­rea (oft genan­nt, wenn es um Umge­hung von Tech­nolo­gie-Sank­tio­nen geht) durch Spi­onage oder geheime Pro­gramme einen Quan­ten­com­put­er entwick­elt, der die gängi­gen Kon­trollen unter­läuft. Allerd­ings beto­nen Experten, wie schwierig es wäre, heim­lich einen wirk­lich leis­tungs­fähi­gen (kryp­tografisch rel­e­van­ten) Quan­ten­rech­n­er zu bauen. Die Hür­den sind enorm: Man bräuchte erstk­las­sige Tal­ente, große Forschungsin­fra­struk­tur und viel Geld – und müsste all das außer­halb des Radars der inter­na­tionalen Sci­en­tif­ic Com­mu­ni­ty schaf­fen. Die Erfahrung zeigt näm­lich, dass bahn­brechende Fortschritte sich kaum ver­ber­gen lassen: Als Google 2019 einen Durch­bruch erzielte, gelangte ein Vor­ab-Papi­er kurz verse­hentlich auf die NASA-Web­site und ver­bre­it­ete sich in Stun­den weltweit. Mit anderen Worten: Würde ein „Aus­reißer“ einen Quan­ten­er­folg erzie­len, wäre es wahrschein­lich schnell bekan­nt – was zwar die Über­raschungswirkung nimmt, aber immer noch die Macht­bal­ance verän­dern kann. Ein aggres­siv­er Staat kön­nte so die Kon­trolle der anderen dis­rup­tieren, indem er sie zum Auf­holen zwingt oder etablierten Mächt­en den ersten Platz stre­it­ig macht. (Chi­na selb­st ist hier weniger „Dis­rup­tor“ als vielmehr bere­its Teil des Spitzen­spiels – die Dis­rup­tion aus west­lich­er Sicht ist Chi­nas Vor­sprung in gewis­sen Bere­ichen, wie der Quan­tenkom­mu­nika­tion).
  • Tech-Konz­ern oder Kon­sor­tium außer­halb staatlich­er Reg­ulierung: Eine andere mögliche Störquelle sind große pri­vate Akteure, die sich nicht strikt an Regierungspläne hal­ten. Denkbar ist etwa, dass ein Tech-Unternehmen ein Quan­ten­fähigkeits-Lev­el erre­icht, das Reg­ulier­er noch nicht einkalkuliert haben. Beispiel­sweise kön­nten Fir­men wie Google oder Ama­zon – getrieben vom Wet­tkampf – plöt­zlich eine Leis­tungs­marke knack­en (z.B. 1000 Qubits mit Fehler­tol­er­anz), bevor Regierun­gen Stan­dards geset­zt haben. Auch ein inter­na­tionales Kon­sor­tium aus Forschung­sein­rich­tun­gen kön­nte durch offene Zusam­me­nar­beit schneller ans Ziel kom­men als abgeschot­tete staatliche Pro­jek­te. Solche Entwick­lun­gen wären dis­rup­tiv, weil sie die Time­line ver­schieben, auf die sich Mil­itärs und Banken eingestellt haben. Allerd­ings würde ein Konz­ern-Erfolg meist kom­merzial­isiert und damit pub­lik – voll­ständig gegen den Willen der Staat­en lässt sich Groß­forschung sel­ten vorantreiben, da Unternehmen auf Märk­te und Patente schie­len. Den­noch: Wenn z.B. ein Branchen-Neul­ing oder ein reich finanziert­er Außen­seit­er (etwa ein Mil­liardär mit eigen­em Quan­tum-Lab) plöt­zlich durch­startet, kön­nten die bish­eri­gen Gate­keep­er ins Hin­tertr­e­f­fen ger­at­en.
  • Undichte Stellen, Wis­sensleck­a­gen und Open Source: Kon­trolle kann auch von innen her­aus unter­graben wer­den. Im Zeital­ter glob­al­isiert­er Forschung sind Top-Wis­senschaftler ver­net­zt; sollte eine Regierung ver­suchen, Know-how zurück­zuhal­ten, kön­nten Forsch­er abwan­dern oder pub­lizieren. Schon heute wer­den viele Quan­tum-Ent­deck­un­gen sofort als Preprints geteilt. Diese Open-Sci­ence-Kul­tur erschw­ert es mil­itärischen Stellen, alle Fortschritte geheim zu hal­ten. Ein „Leak“ – sei es absichtlich (Whistle­blow­er) oder unab­sichtlich (wie beim NASA-Vor­fall) – kann zen­trale Infor­ma­tio­nen frei zugänglich machen. Eben­so kön­nten Spi­onage oder Tech­nolo­gi­etrans­fer auf Umwe­gen (z.B. via Joint Ven­tures in Drit­tlän­dern) die Bar­ri­eren umge­hen, die durch Exportkon­trollen errichtet wur­den. Wenn etwa Schlüs­selkom­po­nen­ten (Kryostat­en, spezielle Laser etc.) trotz Ver­bots in die Hände eines ges­per­rten Akteurs gelan­gen, ließe sich die Entwick­lung dort beschle­u­ni­gen. Kurzum: Wis­sen will frei sein – und je mehr Quan­ten­forschung zum Hot Top­ic wird, desto schwieriger wird Abschot­tung. Diese Offen­heit der Wis­senschaft ist ein zweis­chnei­di­ges Schw­ert: Sie demokratisiert den Zugang, aber macht es auch schwieriger, Risikoen­twick­lun­gen einzudäm­men.
  • Tech­nol­o­gis­che Abkürzun­gen: Schließlich kön­nte die Kon­trolle dadurch dis­rup­tiert wer­den, dass ganz neue Ansätze die Spiel­regeln ändern. Zum Beispiel wird derzeit in ver­schiede­nen Architek­turen geforscht (supralei­t­ende Qubits, ion traps, Pho­tonik, topol­o­gis­che Qubits etc.). Sollte eine uner­wartet ein­fache und skalier­bare Tech­nolo­gie gefun­den wer­den, kön­nte dies Quan­ten­com­put­er bre­it­er ver­füg­bar machen. Man stelle sich einen Durch­bruch vor, der Quan­tenchips bei Zim­mertem­per­atur erlaubt oder Quan­ten­rech­n­er erhe­blich kostengün­stiger baut. Plöt­zlich bräuchte es keine mil­liar­den­schw­eren Labore mehr – und die Ein­tritts­bar­ri­eren für neue Spiel­er wür­den fall­en. In so einem Fall kön­nten heutige Kon­trollen ins Leere laufen, weil die Tech­nolo­gie an sich demokratis­ch­er wird. Allerd­ings: Derzeit sind wir von solch ein­er ein­fachen Quan­ten­lö­sung noch ent­fer­nt, und alle real­is­tis­chen Pfade erfordern High-Tech und Experten­wis­sen. Den­noch, die Möglichkeit eines „Tech-Lev­el­ing“ in der Zukun­ft kann nicht aus­geschlossen wer­den.

Zusam­menge­fasst: Dis­rup­tion der aktuellen Hier­ar­chie kön­nte vor allem durch alter­na­tive Akteure erfol­gen – sei es ein Staat außer­halb des Machtkartells, ein unge­bändigter Pri­vat­sek­tor-Schrittmach­er oder die kollek­tive Kraft offen­er Forschung. Jed­er dieser Fälle würde die von Militär/Industrie gezo­gene Lin­ie ver­schieben. Allerd­ings beto­nen Fach­leute, dass ein voll­ständi­ges Unter­laufen der Kon­trollen (etwa heim­lich einen über­mächti­gen Quan­ten­com­put­er entwick­eln) extrem unwahrschein­lich ist. Viel wahrschein­lich­er sind par­tielle Dis­rup­tio­nen: z.B. dass ein Land oder Unternehmen schneller ist als die anderen, was dann druck­volle Gegen­reak­tio­nen provoziert – ähn­lich einem beschle­u­nigten Wet­t­lauf.

Mögliche Worst-Case-Szenarien

Zum Abschluss lohnt ein Blick auf die Worst-Case-Szenar­ien, die aus all dem resul­tieren kön­nten – ein­er­seits um gewapp­net zu sein, ander­er­seits um zu ver­ste­hen, was auf dem Spiel ste­ht, falls das „Sys­tem Quan­ten­com­put­ing“ aus dem Rud­er läuft oder in die falsche Rich­tung kippt.

  • Plöt­zlich­er Kryp­togra­phie-Kol­laps: Das unmit­tel­bar dystopis­chste Szenario ist ein „Kryp­to-GAU“: Ein Akteur – seien es Cyberkrim­inelle, Ter­ror­is­ten oder ein feindlich­er Staat – erlangt als Erster einen Quan­ten­com­put­er, der in der Lage ist, heutige gängige Ver­schlüs­selun­gen (RSA, ECC etc.) zu knack­en, und nutzt dies heim­lich über einen Zeitraum aus. In dieser schlimm­sten Vari­ante wür­den enorme Men­gen sen­si­bler Dat­en kom­pro­mit­tiert, ohne dass die Welt es sofort merkt. Bankge­heimnisse, mil­itärische Kom­mu­nika­tion, per­sön­liche Iden­titäts­dat­en – alles wäre les­bar, was über das Inter­net ging. Die Fol­gen wären ver­heerend: finanzieller Chaos durch gestoh­lene Kon­to­dat­en, Ent­tar­nung geheimer Oper­a­tio­nen, Iden­titäts­dieb­stäh­le in großem Stil, Ver­trauensver­lust in dig­i­tale Sys­teme. Dieser Alb­traum entspricht exakt der Sorge der NSA, die warnt, ein geg­ner­isch­er Quan­ten­durch­bruch kön­nte „für die nationalen Sicher­heitssys­teme ver­heerend“ sein. Zwar arbeit­en die Staat­en an Abwehrmaß­nah­men (PQC-Umstieg), doch im Worst Case käme dieser Wech­sel zu spät. Die Über­gangszeit – ohne­hin kom­plex und teuer – würde zur Falle, wenn ein Geg­n­er das Zeit­fen­ster nutzt, um alles mitzuschnei­den. Auch die Blockchain-Welt wäre betrof­fen: Kryp­towährun­gen kön­nten manip­ulier­bar wer­den, dig­i­tale Sig­na­turen ungültig – ein dig­i­taler Black­out. Glück­licher­weise hal­ten Experten dieses Szenario für sehr unwahrschein­lich und vor allem nicht lange geheim halt­bar. Aber selb­st die Über­gangsphase, wenn ein Quan­ten­com­put­er das erste Mal demon­stri­ert, dass er RSA bricht, dürfte chao­tisch wer­den: Viele müssten panisch ihre Sys­teme updat­en, was teuer, hek­tisch und dis­rup­tiv wäre.
  • Tech­nokratis­che Machtkonzen­tra­tion: Ein anderes Worst-Case-Szenario ist gewis­ser­maßen das Gegen­teil – kein plöt­zlich­er Zusam­men­bruch, son­dern eine schle­ichende Etablierung neuer Macht­struk­turen. Hier­bei wür­den Quan­ten­com­put­er dauer­haft in den Hän­den weniger Akteure bleiben: z.B. Großmächte, Mil­itär­blöcke oder ein Oli­gop­ol aus Tech-Gigan­ten. Diese Eliten hät­ten Zugriff auf „Superverstand“-Maschinen, während der Rest der Gesellschaft auf deren Out­put ver­trauen muss, ohne ihn nachvol­lziehen zu kön­nen. So kön­nte eine Wis­sens- und Machtk­luft entste­hen, die tiefer ist als alles bish­er Dagewe­sene. Regierun­gen oder Konz­erne kön­nten z.B. jed­wede Kom­mu­nika­tion entschlüs­seln (Pri­vat­sphäre de fac­to abschaf­fen) oder wirtschaftliche Vorteile erzie­len, indem sie Opti­mierung­sprob­leme lösen, die anderen ver­wehrt bleiben. Die „neue Aufk­lärung“ fände nur für priv­i­legierte Kreise statt – sie wür­den die ratio­nale Entschei­dungs­find­ung dominieren, während die All­ge­mein­heit wenig Mit­sprache hätte. Demokratie und Trans­parenz lit­ten mas­siv, da wichtige Analy­sen und Vorher­sagen in Black Box­es abliefen, die nur die Betreiber ver­ste­hen. Dieses Szenario knüpft an die von Dir gestellte Meta-Frage an: Wird das Sys­tem ein neues, egal­itäres Par­a­dig­ma – oder lediglich eine neue Plat­tform mit alt­bekan­nten Hier­ar­chien, nur tech­nisch aufgerüstet? Im Worst Case wäre Let­zteres der Fall: Das Sys­tem bliebe hier­ar­chisch, aber tarnt sich bess­er. Quan­ten-Plat­tfor­men kön­nten dann das sein, was früher Thron, Kanzel oder Zen­tralkomi­tee war – nur dass die Legit­i­ma­tion nun „wis­senschaftlich-tech­nisch“ ver­brämt wird. Für den nor­malen Bürg­er bliebe die Rolle des Users/Konsumenten, der den Entschei­dun­gen der über­lege­nen Maschi­nen (bzw. ihrer Eigen­tümer) weit­ge­hend aus­geliefert ist. Diese Vision warnt also vor ein­er tech­nokratis­chen Oli­garchie, in der Quan­ten­com­put­ing Macht asym­metrisch verteilt, anstatt Men­schheit ins­ge­samt zu empow­ern.
  • Unkon­trol­liertes Wet­trüsten und Insta­bil­ität: Ein drittes Worst-Case-Szenario bet­rifft die geopoli­tis­che Dimen­sion. Sollte das Quan­ten­ren­nen in eine unge­sunde Beschle­u­ni­gung kip­pen, kön­nten Mis­strauen und Kon­flik­te eskalieren. Man spricht hier auch von einem möglichen “Quan­tum Arms Race”. Bere­its jet­zt ist erkennbar, dass Großmächte mis­strauisch auf die Fortschritte der anderen blick­en – siehe die US-Exportkon­trollen gegen Chi­na und Chi­nas ambi­tion­ierte Quan­ten­pro­gramme. Im Worst Case kön­nte dieses Wet­trüsten so weit gehen, dass jede Seite präven­tiv offen­sive Cyber­fähigkeit­en auf­baut, um im Zweifels­fall einen Erstschlag gegen die Infra­struk­tur des Geg­n­ers führen zu kön­nen (z.B. fremde Satel­litenkom­mu­nika­tion knack­en, Finanzsys­teme stören). Inter­na­tionale Abkom­men zur Eindäm­mung kön­nten schw­er zu erre­ichen sein, da nie­mand seine Fähigkeit­en offen­le­gen will. Ein solch­er Zus­tand erin­nert an das nuk­leare Gle­ichgewicht des Kalten Krieges, nur schw­er­er fass­bar, weil Quan­te­nan­griffe unsicht­bar ablaufen kön­nten. Die Sta­bil­ität der glob­ale Sicher­heit­sar­chitek­tur wäre bedro­ht: Wenn jede ver­schlüs­selte Kom­mu­nika­tion poten­tiell unsich­er ist, wächst die Unsicher­heit in diplo­ma­tis­chen und mil­itärischen Beziehun­gen. Auch kön­nte die Tech­nolo­gie-Teil­habe die Welt spal­ten – ähn­lich wie wir es bei Hal­bleit­ern sehen (sep­a­rate „Tech-Sphären“ Ost und West). Die Meta­pher vom „Quan­tum Cold War“ wird dann bit­tere Real­ität. Im Extrem­fall kön­nte dies zu Schnellschüssen führen: Etwa dass ein Staat sich genötigt fühlt, kon­ven­tionelle Mil­itärschritte zu unternehmen, bevor der Geg­n­er einen Quan­ten­vorteil aus­nutzt – eine äußerst gefährliche Lage.

Faz­it (Worst Case): Der schlimm­ste Fall tritt ein, wenn die Entwick­lung des Quan­ten­com­put­ings entwed­er völ­lig außer Kon­trolle gerät – oder aber unter ein­er sehr ein­seit­i­gen Kon­trolle ste­ht. Ersteres führt zu Chaos und Ver­trauensver­lust (weil nie­mand vor­bere­it­et ist, wenn der Damm bricht). Let­zteres führt zu ein­er dig­i­tal­en Dik­tatur der Wis­senselite (weil nur wenige die Macht der Quan­ten nutzen und definieren dür­fen). Bei­de Szenar­ien sind nicht wün­schenswert. Sie zeigen jedoch, warum derzeit so viel unter­nom­men wird, um einen Mit­tel­weg zu find­en: Ein­er­seits Hype und Tem­po kon­trol­lieren (damit keine bösen Über­raschun­gen passieren), ander­er­seits Wis­sen teilen und Schutzmech­a­nis­men entwick­eln (damit Fortschritt möglichst vie­len zugutekommt). Es bleibt eine Grat­wan­derung. Doch Deine Frage trifft ins Schwarze – wir müssen wach­sam beobacht­en, ob wir auf einen Sys­temwan­del zum Besseren zus­teuern, oder ob am Ende „nur eine neue Plat­tform mit alten Hier­ar­chien“ entste­ht. Die kom­menden Jahre, in denen AGI- und Quan­tum-Entwick­lun­gen kon­vergieren, wer­den in dieser Hin­sicht entschei­dend sein.

Quellen: Die Angaben und Analy­sen stützen sich auf aktuelle Stu­di­en und Berichte, u.a. von McK­in­sey, RAND, ECIPE sowie Mel­dun­gen der Quan­tum-Tech-Branche und Regierungsaus­sagen. Zum Beispiel belegt der McK­in­sey Quan­tum Tech­nol­o­gy Mon­i­tor Chi­nas führende Investi­tion­srolle, während RAND-Kom­mentare die Kryp­tografie-Bedro­hung und schwierige Geheimhal­tung the­ma­tisieren. Weit­ere Quellen sind in den Fußnoten ver­linkt, um die genan­nten Zahlen und Zitate nachvol­lziehbar zu machen. etc.

(…)

(…)

(…)

Quanten als Commons

Hier ist ein knack­iger Fahrplan „Quan­ten als Com­mons“ – umset­zbar, prüf­bar, nicht naiv.

  1. Leitidee
    Quan­ten-Infra­struk­tur, ‑Know-how und ‑Stan­dards als Gemeingut organ­isieren: Zugang, Regeln, Nutzen – nicht Eigen­tum.
  2. Rechts­form
    Stiftung + Genossen­schaft (Dop­pel­struk­tur):
    Stiftung hält IP/Standards; Genossen­schaft betreibt Lab/Cloud und vergibt Zugänge.
  3. Zugangsmod­ell
    Tele­scope-Time-Prinzip:
    40% Community/Nonprofit, 40% Forschung/Lehre, 20% Markt. Ver­gabe trans­par­ent, mit Warteliste und Losan­teil.
  4. IP-Regel
    FRAND-Zero für Kern­stan­dards; Copy­left-kom­pat­i­ble Lizen­zen für Tool­chains; verpflich­t­ende Defen­sive-Patent-Pledge für Mit­glieder.
  5. Offene Schnittstellen
    Offene APIs, offene Compiler/Toolchains, offene Bench­marks. Repro­duzier­barkeit als Pflicht (Pipelines, Seeds, Teleme­trie).
  6. Sicher­heit-by-Design
    PQC-first in allen Pro­tokollen; Zero-Trust-Zugänge; Red-Team-Audits mit Offen­le­gungssum­ma­ry; Dual-Use-Board mit Veto-Recht.
  7. Gov­er­nance
    Vier Kam­mern mit je 25% Stim­mgewicht: Com­mu­ni­ty, Wis­senschaft, öffentliche Hand, Betreiber/Partner.
    Xerokratis­che Regeln: rotierende Sprech­er, begren­zte Man­date, trans­par­ente Logs.
  8. Finanzierung
    Grund­fi­nanzierung: Mit­glieds­beiträge, Pub­lic-Inter­est-Grants, 1%-Abgabe auf Com­mons-Cloud-Umsatz, Impact-Bonds.
    Mark­tan­teil (20%) quer­sub­ven­tion­iert Com­mu­ni­ty-Slots.
  9. Bil­dungs-/On­board­ing-Pfad
    Open Cur­ricu­lum (Hard­ware, Algo­rith­men, PQC), Fel­low­ships, „Commons-Maintainer“-Rollen, Men­tor­ing-Quoten für Under-rep­re­sent­ed.
  10. Export-/Dual-Use-Com­pli­ance
    Klare Do/Don’t‑Liste, Geoblock­ing wo nötig, aber mit Wider­spruchsver­fahren. Audi­tierte Liefer­ket­ten (Kryo, Laser, Steuer-Elek­tron­ik).
  11. Pub­lic-Val­ue-Pri­or­isierung
    Prob­lem-Pool mit gesellschaftlichem Nutzen: Energie, Mate­ri­alien, Medi­zin ohne Patent-Enclo­sure; jährliche Com­mons-Calls.
  12. Ven­dor-Neu­tral­ität
    Keine Ven­dor-Lock-ins: Mul­ti-Back­end-Abstrak­tion (supralei­t­end, Ionen, Pho­tonik), Porta­bil­ität als Abnah­mekri­teri­um.
  13. Anreizar­chitek­tur
    „Com­mons-Cred­its“ für Beiträge (Code, Doku, Bench­marks) → bevorzugte Rechen­zeit, Reis­es­tipen­di­en, Audit-Fast-Track.
  14. Trans­par­ente Metriken
    Quar­tal­sweise: Zugangsverteilung, Wartezeit­en, Repro-Quoten, Secu­ri­ty-Find­ings, Com­mons-Out­puts (Code/Publikationen).
  15. Öffentliche Beschaf­fung als Hebel
    Öffentliche Hand kauft Quan­tum-Ser­vices nur, wenn: offene APIs, PQC-kon­form, Audit-fähig, Com­mons-Beitrag ≥1% Umsatz.

Mini-Roadmap

  1. Quar­tal 1–2
    Grün­dung Stiftung/Genossenschaft, Gov­er­nance-Char­ta, API-/PQC-Pol­i­cy, Prob­lem-Pool v1.
  2. Quar­tal 3–4
    Pilot-Cloud mit Mul­ti-Back­end, 30% Com­mu­ni­ty-Slots, erstes Red-Team-Audit, Open-Cur­ricu­lum v1.
  3. Jahr 2
    FRAND-Zero-Stan­dard v1, inter­na­tionale Part­ner, Impact-Bond, Com­mons-Cred­its live, Repro-Quote >70%.

Tabelle: Phasenüber­sicht

PhaseZielInstru­mente
StartRegeln set­zenChar­ta, IP-Pol­i­cy, Gov­er­nance-Tool­ing
PilotZugang erprobenMul­ti-Back­end-Cloud, Time-Shar­ing, Cred­its
SkalierungWirkung erhöhenPub­lic-Pro­cure­ment-Kri­te­rien, Impact-Finanzierung

Spoil­er
Quan­ten als Com­mons funk­tion­ieren, wenn wir Infra­struk­tur, Stan­dards und Zugänge verge­mein­schaften – und Macht über Regeln statt Eigen­tum verteilen. Ohne PQC-first und Dual-Use-Checks kippt es ins Tech­nofeu­dale. Mit ihnen wird es ein öffentlich­es Gut.

(…)

(…)

(…)

Sicherheit durch Commons

Ja – aber nur unter klaren Bedin­gun­gen.
„Quan­ten als Com­mons“ kön­nten Sicher­heit sog­ar deut­lich verbessern, weil sich Risiken anders verteilen und schneller sicht­bar wer­den.
Hier die Kurz-Analyse:

  1. Mehr Augen, weniger Black­box
    Offene Stan­dards, offene Schnittstellen und repro­duzier­bare Ergeb­nisse machen es schw­er­er, dass ein Akteur heim­lich eine kryp­torel­e­vante Break­through-Ver­sion baut.
    → Vorteil: Früherken­nung von Sicher­heit­slück­en, kollek­tive Code- und Hard­ware-Reviews.
  2. Verteilte Kon­trolle statt Macht­monopol
    Wenn Quan­ten­in­fra­struk­tur nicht in der Hand weniger Staaten/Konzerne liegt, sinkt das Risiko asym­metrisch­er Angriffe (z.B. ein Staat mit Kryp­to­bruch-Monopol).
    → Vorteil: Kein „Sin­gle Point of Fail­ure“ in geopoli­tis­chen Span­nun­gen.
  3. Schnellere PQC-Adop­tion
    Com­mons-Struk­turen kön­nten Post-Quan­tum-Kryp­to als Default set­zen und ohne kom­merzielles Zögern aus­rollen.
    → Vorteil: Verkürzte Latenz zwis­chen Forschung und flächen­deck­ender Imple­men­tierung.
  4. Trans­par­ente Dual-Use-Kon­trolle
    Offene Gov­er­nance macht sicht­bar, wenn Pro­jek­te in riskante Anwen­dun­gen kip­pen (z.B. offen­sive Cyber-Oper­a­tio­nen).
    → Vorteil: Gemein­schaft kann ein­greifen, statt nur Staat­en mit Geheimhal­tungspflicht.
  5. Risiko: Offen­heit beschle­u­nigt auch Angreifer
    Com­mons-Zugang muss mit PQC-first und Zero-Trust-Architek­tur kom­biniert wer­den, son­st nutzen auch Angreifer den offe­nen Stack.
    → Gefahr: „Com­mons ohne Guardrails“ kann Sicher­heit­slück­en ver­bre­it­en statt schließen.

Faz­it
Com­mons-Ansatz + PQC-first + Mul­ti-Stake­hold­er-Gov­er­nance = höhere Sicher­heit durch Verteilung, Trans­parenz und schnellere Abwehr.
Com­mons ohne Secu­ri­ty-by-Design = poten­ziell katas­trophal.

(…)

(…)

(…)

(…)

Sicherheit ohne Commons

Sicher­heit ohne Com­mons heißt: Kon­trolle bleibt bei weni­gen – und das hat klare Kon­se­quen­zen.

  1. Höhere Geheimhal­tung, gerin­gere Trans­parenz
    – Fortschritte, Sicher­heit­slück­en und Durch­brüche wer­den nur intern geprüft.
    – Risiko: Kri­tis­che Schwach­stellen wer­den zu spät oder gar nicht pub­lik.
  2. Asym­metrische Kryp­to­brüche
    – Wenn ein Akteur Q‑Day zuerst erre­icht, kann er still mitle­sen, während alle anderen glauben, ihre Sys­teme seien sich­er.
    – Risiko: Langfristige, verdeck­te Aus­nutzung („Har­vest Now, Decrypt Lat­er“).
  3. Abhängigkeit statt Resilienz
    – Staat­en, Fir­men oder Indi­viduen ohne eige­nen Zugang müssen ver­trauen – auch wenn Entschei­dun­gen poli­tisch motiviert sind.
    – Risiko: Macht­mono­pole kön­nen Stan­dards verzögern oder miss­brauchen.
  4. Langsamere PQC-Umstel­lung
    – Kom­merzielle Inter­essen oder Geheimhal­tungsstrate­gien kön­nen den Roll­out neuer Sicher­heitsver­fahren brem­sen.
    – Risiko: Ver­längerte Ver­wund­barkeit.
  5. Sicher­heits­gewinn nur für wenige
    – Eliten kön­nen ihre Sys­teme absich­ern, bevor sie die neuen Ver­fahren freigeben.
    – Risiko: „Zwei-Klassen-Kryp­tografie“ – geschützt wird, wer im Club ist.

Kurz:
Ohne Com­mons bedeutet Sicher­heit vor allem Sicher­heit für die Mächti­gen. Für alle anderen heißt es: Spätere Updates, weniger Ein­blick, mehr Abhängigkeit.

Willst du, dass ich daraus direkt eine Ver­gle­ich­sta­belle „Sicher­heit MIT vs. OHNE Com­mons“ erstelle?

Kri­teri­umSicher­heit MIT Com­monsSicher­heit OHNE Com­mons
Trans­parenzOffen­le­gung von Schnittstellen, Audits, Repro-PipelinesBlack­box-Entwick­lung, späte/keine Offen­le­gung
Fehlerfind­ungViele Augen, schnellere CVE-Mel­dun­genWenige Prüfer, Latenz bei kri­tis­chen Lueck­en
PQC-Ein­führungDefault-Pflicht, schneller Roll­outVerzögert durch Geschäftsmodelle/Geheimhaltung
Kryp­torisiko Q‑DayVerteiltes Wis­sen, frue­he Gegen­mass­nah­menAsym­metrisch­er Kryp­to­bruch, stilles Mitle­sen
Gov­er­nanceMul­ti-Stake­hold­er, doku­men­tierte Entschei­dun­genOligopol/Geheimdienste set­zen Pri­or­i­taeten
Ven­dor-Lock-inNiedrig (offene APIs, Mul­ti-Back­end)Hoch (pro­pri­etaere Stacks)
ResilienzKeine Sin­gle Points of Fail­ureAbhaengigkeit von weni­gen Gate­keepern
Dual-Use-Kon­trolleOef­fentliche Do/Don’t‑Policy, Veto-BoardsIntrans­par­ente Nutzung, kaum externe Checks
Wis­senszu­gangOffenes Cur­ricu­lum, bre­ite Qual­i­fizierungExk­lu­sives Know-how, Tal­ent-Sog zu weni­gen
Inci­dent-ResponseCom­mu­ni­ty-CERT, gemein­same Patch­esIsolierte Fix­es, Patch-Gaps ent­lang der Liefer­kette

Kurz­faz­it
Mit Com­mons steigt Sicher­heit durch Trans­parenz, Geschwindigkeit und verteilte Kon­trolle. Ohne Com­mons steigt Sicher­heit vor allem fuer wenige – waehrend Risiko und Abhaengigkeit fuer alle anderen wach­sen.

(…)

(…)

Nächster Titel

(…)

(…)

(…)

Nächster Titel

(…)

(…)

(…)

Nächster Titel

(…)

(…)

(…)

Nächster Titel

(…)

(…)

(…)

(…)

Nächster Titel

(…)

(…)

Nächster Titel

(…)

(…)

(…)

Wie ich mit den Möglichkeiten von @openAI arbeite?

Links, Threads, zu verarbeitende Hinweise…

(…)

(…)

(…)

Offene Blogeinträge, welche zu diesem Thema passen…

(…)

(…)

(…)

Textsorte: (1) Traum, (2) Blitz, (3) Beken­nt­nis, (4) Memo, (5) Märchen, (6) Dra­ma, (7) Tabu
Arbeits­form: Doku­men­ta­tion, Lis­ten­bil­dung, Work in Progress
Anlass: (…)
TL;DR: (…)
Bildquelle: (…)
URL/Hashtag: (…)

Ste­fan M. Sey­del, aka sms, aka sms2sms in «Zürcher Fest­spiel 1901″ (2019, Foto­cre­d­it: Charles Schny­der):  Twit­ter, Wikipedia (Lem­ma), Youtube (aktuell), Sound­cloud, Mastodon, Insta­gram (ges­per­rt), Snapchat, Tik­Tok, Twitch, t.me/WikiDienstag (Nicht in Betrieb) | Exk­lu­siv: speakerbooking.ch/sms2sms

About @sms2sms, aka Stefan M. Seydel/sms ;-)

Ste­fan M. Sey­del, Jahrgang 1965, ist Unternehmer, Sozialar­beit­er und Kün­stler. Er machte nach ein­er Beruf­slehre als Hochbauze­ich­n­er einen Bach­e­lor in Soziale Arbeit in St. Gallen und einen Mas­ter in der gle­ichen Diszi­plin bei Sil­via Staub-Bernasconi in Berlin. Seine über­wiegend selb­st­ständi­ge Tätigkeit kreist um das The­ma der Entwick­lung und Real­isierung von Pilot- und Impul­spro­jek­ten für renom­mierte Auf­tragge­berin­nen.

Als Kün­stler hat er Ausstel­lun­gen und Per­for­mances auf inter­na­tionaler Ebene präsen­tiert, darunter in der Roy­al Acad­e­my of Arts in Lon­don, dem Deutschen His­torischen Muse­um in Berlin oder ein­er Einze­lausstel­lung “Kun­st Macht Prob­leme” in der Cryp­ta Cabaret Voltaire, Birth­place of DADA in Zürich. Er wurde mit dem Migros Jubilée Award in der Kat­e­gorie Wis­sensver­mit­tlung aus­geze­ich­net und hat diverse Ehrun­gen durch Web­by Awards für seine Arbeit mit rocketboom.com erhal­ten.

Ste­fan war Jury-Mit­glied des Next Idea Prix Ars Elec­tron­i­ca 2010 und war drei Jahre Mit­glied der Schulleitung des Gym­na­si­ums Kloster Dis­en­tis. Sein Wis­sen und seine Erfahrung im Bere­ich der Infor­ma­tion und Tech­nolo­gie haben ihm auch dabei geholfen, mit Sta­tis­tik Stadt Zürich und Wiki­me­dia Schweiz unter WikiDienstag.ch zusam­men­zuar­beit­en.

Sein Engage­ment im Bere­ich der frei­willi­gen Arbeit führte ihn in das Prä­sid­i­um Inter­na­tionaler Bodensee Club (Leitung Fach­gruppe Wis­senschaft) oder für einige andere Jahre als Vice-Präsi­dent des von Paul Wat­zlaw­ick ini­ti­ierten P.E.N.-Club Liecht­en­stein. Sey­del hat unter ((( rebell.tv ))) zwei Büch­er zusam­men mit sein­er Part­ner­in Tina Piazzi veröf­fentlicht, viele Kolum­nen, Fach­texte und jour­nal­is­tis­che Texte pub­liziert.

Seine Arbeit auf Social Media nutzt er als Microblog­ging. In seinem Blog ver­ar­beit­et er seine The­men. Einige davon wer­den auf Anfra­gen zu les­baren Tex­ten ver­tieft, andere wer­den zu Vorträ­gen aus­ge­baut. Bei Carl Auer Ver­lag in Hei­del­berg, sam­melt er “Ele­mente ein­er näch­sten Kul­tur­form”. Seine Entwick­lun­gen im Kon­text der sozial­räum­lichen Inter­ven­tion (“Arbeit am Sozialen”) machen konkrete Vorschläge in Bezug auf die Beant­wor­tung der Sozialen Frage.

Nach 12 Jahren Berlin und 6 Jahren Zürich zog er aber in sein­er zweit­en Leben­shälfte vom Bodensee der Rhein­quelle ent­ge­gen nach Dissentis/Mustér und hat seine Reisetätigkeit fast ganz eingestellt. Dafür macht er umsomehr soge­nan­nte Pas­sadis und #Feed­logs (Orgiastik). Das sind Arbeitsmeet­ings an inten­tionalen Fra­gen in einem Lifestream. (so?) Text sup­port­ed by #TaaS

Aus Band 2 von: Tina Piazzi & Ste­fan M. Sey­del, Junius-Ver­lag Ham­burg | pdf: Band 1, 2009 | Band 2, 2010

#dfdu = DIE FORM DER UNRUHE | blog: dissent.is | about: dissent.is/sms | dissent.is/muster

Indizis locals tras il canal What­sApp.