Die Geschichte von Stanley Zhong begann als statistisches Rätsel: Ein Schüler aus Palo Alto mit einem gewichteten Notendurchschnitt (GPA) von 4,42, einem ungewichteten GPA von 3,97 und einem SAT-Ergebnis von 1590 Punkten. Zudem hatte er ein Softwareprojekt namens RabbitSign entwickelt, das von Amazon als eines der „effizientesten und sichersten Konten“ gelobt wurde, die man dort je geprüft habe. Dennoch wurde er im Zulassungszyklus 2022–2023 von 16 der 18 Universitäten, an denen er sich beworben hatte, abgelehnt. Er schrieb sich schließlich an der UT Austin ein, verließ die Hochschule jedoch bereits im September 2023, nachdem Google ihm eine Vollzeitstelle als Software-Ingenieur angeboten hatte.
Mittlerweile hat sich der Fall zu einer Grundsatzfrage ausgeweitet. Da Stanley und sein Vater, Nan Zhong, nach eigenen Angaben keine Anwälte fanden, die bereit waren, den Fall zu übernehmen, nutzten sie ChatGPT und Gemini, um eine fast 300-seitige Klageschrift zu recherchieren und zu entwerfen. Die erste Klage gegen das System der University of California (UC) und einzelne Standorte wurde am 11. Februar 2025 eingereicht. Eine zweite Klage gegen die Cornell University folgte Anfang April 2025. Stand heute, dem 12. April 2026, sind beide Verfahren noch anhängig.
Damit ist die Angelegenheit weniger eine abgeschlossene Rechtsgeschichte als vielmehr ein aufschlussreicher Testfall: Nicht nur für Klagen gegen Zulassungsverfahren nach dem Ende der „Affirmative Action“, sondern auch für die Frage, was passiert, wenn KI-Tools für Verbraucher die Hürden senken, um komplexe Diskriminierungsklagen vor Gericht zu bringen.
Was konkret vorgeworfen wird
Die Theorie der Familie Zhong ist simpel, auch wenn der Beweis schwierig sein dürfte. Nachdem Stanleys Ablehnungen im Frühjahr 2023 feststanden, untersuchten sie, was sie als unverhältnismäßig hohe Ablehnungsquoten unter hochqualifizierten asiatisch-amerikanischen Bewerbern ansahen. In ihren Klagen argumentieren sie unter anderem, dass Zhongs Qualifikationen für eine Stelle bei Google ausreichten, aber aus irgendeinem Grund nicht für die Zulassung zum Studium an vielen Spitzenuniversitäten.
Der Fall gegen die UC ist offiziell aktenkundig. Ein Gerichtsbeschluss bestätigt das Aktenzeichen Zhong et al. v. The Regents of the University of California, et al., No. 2:25-cv-00495-DAD-CSK. Es ist jedoch wichtig, den rechtlichen Status zu betonen: Es handelt sich um Behauptungen, nicht um gerichtlich festgestellte Tatsachen. Im November 2025 lehnte der Richter einen Antrag von Nan Zhong auf Sanktionen als verfrüht ab, da das Beweiserhebungsverfahren (Discovery) noch nicht begonnen hatte. Dies ist eine wichtige Einordnung: Der Fall ist aktiv, hat aber noch nicht den Punkt erreicht, an dem die Behauptungen der Familie durch einen vollständigen Austausch von Beweisen geprüft wurden.
Die University of California hat die Vorwürfe zurückgewiesen. Das System erklärte, dass Hautfarbe und ethnische Herkunft seit 1996 aufgrund der Proposition 209 kein Faktor mehr bei der Zulassung seien und dass asiatische Amerikaner im Herbst 2024 36,3 % der Studierenden im Grundstudium ausmachten.
Warum der Harvard-Fall immer wieder zitiert wird
Ein Großteil der öffentlichen Diskussion um Zhongs Klagen bezieht sich auf das Urteil Students for Fair Admissions v. Harvard und den dazugehörigen Fall der University of North Carolina (UNC). Das liegt nicht daran, dass Zhong gegen Harvard klagt – das tut er nicht. Aber die Entscheidung des Supreme Court vom 29. Juni 2023 hat das rechtliche Klima für Klagen gegen Zulassungsverfahren grundlegend verändert, insbesondere wenn es um asiatisch-amerikanische Bewerber und subjektive Bewertungskriterien geht, wie etwa Britannica und Wikipedia erläutern.
In jenem Rechtsstreit warf „Students for Fair Admissions“ (SFFA) Harvard vor, die Rasse als spezifischen und einflussreichen Faktor zu nutzen und asiatisch-amerikanische Bewerber unter anderem durch schlechtere „persönliche Bewertungen“ zu benachteiligen – subjektive Noten für Eigenschaften wie Sympathie, Mut und Freundlichkeit. SFFA behauptete zudem, dass die Zusammensetzung der Jahrgänge einer faktischen Quotenregelung entspreche.
Der Supreme Court erklärte die rassenbezogene Zulassungspraxis von Harvard und UNC schließlich für verfassungswidrig. Eine detaillierte rechtliche Analyse der Urteilsbegründung findet sich in der Duke Undergraduate Law Review.
Dieser Hintergrund ist deshalb so wichtig, weil er zukünftigen Klägern ein Vokabular und eine juristische Strategie lieferte. Das bedeutet jedoch nicht, dass nun jeder abgelehnte Bewerber automatisch einen Fall nach dem Vorbild von Harvard hat.
Die analytische Lücke in Zhongs Klagen
Hier muss zwischen Indizien und Beweisen unterschieden werden.
Die Beweisaufnahme im Harvard-Fall war außergewöhnlich tiefgreifend. Sie umfasste jahrelange interne Daten, sich widersprechende Expertengutachten und detaillierte Modelle darüber, wie Bewerber in akademischen, außerschulischen, sportlichen und persönlichen Kategorien bewertet wurden. Der SFFA-Experte Peter Arcidiacono gab an, eine statistisch signifikante Benachteiligung asiatischer Amerikaner gefunden zu haben. Harvards Experte, David Card, widersprach dem. 2019 entschied die Bezirksrichterin Allison D. Burroughs, dass Harvard asiatische Amerikaner nicht absichtlich diskriminiert habe, räumte jedoch Disparitäten bei den persönlichen Bewertungen ein.
Die Fälle von Zhong gegen die UC und Cornell scheinen sich nach den verfügbaren Informationen noch nicht in diesem Stadium zu befinden. Es gibt keine Hinweise darauf, dass ein Gericht die statistische Theorie der Familie bereits akzeptiert oder diskriminierendes Verhalten festgestellt hat. Es gibt auch keine Belege dafür, dass die Familie spezialisierte juristische KI-Systeme genutzt hat; die Berichterstattung spricht vielmehr von gängigen KI-Modellen für Verbraucher, die für die Recherche und die Formulierung der Texte verwendet wurden.
Das ist ein entscheidender Punkt: Eine Klage zu verfassen und eine Klage zu gewinnen, sind zwei verschiedene Dinge. KI kann beim Ersten sehr viel schneller helfen als beim Zweiten.
Warum KI die Geschichte verändert, auch wenn die Rechtslage gleich bleibt
Das wirklich Neue hier ist nicht, dass eine KI eine versteckte Antwort in den Zulassungsdaten gefunden hätte – dafür gibt es keine Anzeichen. Das Neue ist der prozessuale Aspekt: Die KI hat offenbar zwei Privatpersonen (Pro-se-Litiganten) geholfen, ein kompliziertes, dokumentenintensives Verfahren einzuleiten, nachdem sie keinen rechtlichen Beistand gefunden hatten.
Das senkt die Eintrittshürde, aber nicht die Beweislast.
Für Universitäten bedeutet dies wahrscheinlich eine Zunahme von Klagen, die deutlich professioneller formuliert sind als typische von Laien eingereichte Schriftsätze. Eine fast 300-seitige Einreichung, die mithilfe von ChatGPT und Gemini erstellt wurde, ist dafür bereits ein Vorbote. Gerichte könnten öfter mit umfangreichen Klageschriften, eingebetteten Zitaten und statistischen Argumenten konfrontiert werden, für die man früher eine Anwaltskanzlei oder einen extrem entschlossenen Amateur mit viel Zeit benötigt hätte.
Der Haken bleibt jedoch: KI erleichtert den Zugang zur Klageeinreichung, aber sie schafft keinen Zugang zur Discovery, zu Sachverständigengutachten oder zu zulässigen Beweismitteln. In Diskriminierungsfällen entscheiden oft diese späteren Phasen über den Erfolg. Das gilt besonders für Zulassungsstreitigkeiten, bei denen Schulen auf ganzheitliche Prüfungsverfahren und Bewerberpools verweisen können, die weit über das Profil eines einzelnen herausragenden Lebenslaufs hinausgehen.
Die UC hat eine andere rechtliche Ausgangslage als Harvard
Ein weiterer Grund, diesen Fall nicht überzubewerten: Die University of California prozessiert auf einer anderen Grundlage als Harvard.
Im Harvard-Fall ging es um explizit rassenbezogene Zulassungsrichtlinien. Die UC gibt an, solche Kriterien seit der Proposition 209 im Jahr 1996 nicht mehr anzuwenden. Wenn die Familie Zhong also eine rechtswidrige Diskriminierung nachweisen will, reicht es nicht aus zu sagen, der Supreme Court habe „Affirmative Action“ verboten. Das war in Kalifornien ohnehin schon geltendes Recht. Die schwierigere Frage ist, ob rassenneutrale Systeme in der Praxis dennoch zu unrechtmäßigen Benachteiligungen führen – sei es durch Stellvertreter-Kriterien, subjektive Bewertungen oder die Art der Umsetzung.
Ein öffentliches Dokument könnte hier relevant werden: Ein Bericht des California State Auditor (2019-113) stellte Mängel bei der Überwachung der UC-Zulassungen fest. Unter anderem wurde kritisiert, dass einige Standorte es den Prüfern ermöglichten, Namen und andere persönliche Merkmale zu sehen, und nicht genug unternommen hätten, um Voreingenommenheit zu verhindern. Das ist noch kein Beweis für eine Diskriminierung asiatischer Amerikaner, bietet aber einen konkreteren Ansatzpunkt als die allgemeine Behauptung, dass die Ergebnisse allein schon diskriminierend sein müssen.
Der Google-Aspekt: Eindrucksvoll, aber juristisch begrenzt
Das Detail mit Google ist der Grund, warum diese Geschichte so viel Aufmerksamkeit erregt. Zhong wurde von vielen Top-Unis abgelehnt und dann mit gerade einmal 18 Jahren von Google eingestellt. Die Klagen nutzen diesen Kontrast aggressiv und argumentieren, dass seine Qualifikationen für eine Stelle reichten, die normalerweise Promotionen oder jahrelange Erfahrung erfordert.
Das ist rhetorisch brillant, aber nicht unbedingt ein rechtlicher Maßstab.
Unternehmen und Universitäten wählen nach unterschiedlichen Kriterien, Zeitplänen und Zwängen aus. Ein Jobangebot von Google sagt viel über Zhongs technische Fähigkeiten aus. Es beweist für sich genommen jedoch nicht, dass ein bestimmtes Zulassungsbüro ihn diskriminiert hat. Es gibt bis zum 12. April 2026 auch keine öffentliche Stellungnahme von Google zu den Klagen oder zur Nutzung von KI durch die Familie.
Dennoch hat der Kontrast einen analytischen Nutzen: Er verstärkt die öffentliche Skepsis gegenüber hochgradig subjektiven Zulassungssystemen. Wenn ein Student im selben Jahr Massenabsagen und ein Google-Angebot erhält, fällt es Kritikern leichter zu argumentieren, dass Elite-Universitäten etwas anderes messen als rein akademisches oder technisches Potenzial. Ob dieses „Etwas“ eine rechtswidrige Voreingenommenheit, institutionelle Vorlieben oder einfach nur der Wettbewerb mit tausenden ähnlich außergewöhnlichen Bewerbern ist, bleibt die ungelöste Frage.
Ein kurzer Zeitstrahl
Was als Nächstes zu beobachten ist
Es gibt hier eigentlich drei separate Entwicklungen, die man nicht vermischen sollte.
Erstens den Vorwurf der Diskriminierung im Zulassungsverfahren. Dieser wird mit den Beweisen stehen oder fallen, die der Öffentlichkeit noch nicht vollständig vorliegen. Entscheidend wird sein, ob die Discovery interne Daten, Richtlinien für Prüfer oder statistische Muster hervorbringt, die vor Gericht Bestand haben.
Zweitens die Klagewelle nach dem SFFA-Urteil. Zhongs Fall deutet darauf hin, dass die Entscheidung des Supreme Court von 2023 mehr bewirkt hat, als nur Richtlinien zu ändern. Sie hat Bewerber ermutigt, alte Annahmen darüber zu hinterfragen, was rechtlich anfechtbar ist – selbst an Institutionen, die angeben, die ethnische Herkunft ohnehin nicht mehr zu berücksichtigen.
Drittens die Frage nach KI in der Rechtspflege. Hier ist die Lehre bereits jetzt deutlicher: KI-Tools für Verbraucher machen es für Personen ohne Anwalt einfacher, komplexe Fälle einzureichen und diese länger durchzuhalten. Das bedeutet nicht zwangsläufig, dass die Klagen inhaltlich stärker sind, aber es bedeutet, dass die Gerichte mehr zu tun bekommen werden.
Für den Moment bleibt das Fazit: Betrachten Sie diese Klagen als laufende Tests, nicht als Urteile. Die Dokumente zeigen, wie eine Familie KI nutzt, um eine Theorie über Zulassungs-Bias vor ein Bundesgericht zu bringen. Was sie noch nicht zeigen, ist, ob diese Theorie die harten Phasen eines Prozesses übersteht, in denen geschliffene Formulierungen keine Rolle mehr spielen und nur noch Beweise zählen.
Kommentare