Het verhaal van Stanley Zhong begon als een opmerkelijk incident in de wereld van universitaire toelatingen: een student uit Palo Alto met een weighted GPA van 4.42, een unweighted GPA van 3.97, een SAT-score van 1590 en een softwareproject genaamd RabbitSign dat door Amazon werd geprezen als "een van de meest efficiënte en veilige accounts" die ze hadden beoordeeld. Desondanks werd hij in de cyclus van 2022–2023 door 16 van de 18 universiteiten afgewezen. Hij werd wel toegelaten tot UT Austin en de University of Maryland. Hij schreef zich in bij UT Austin, maar vertrok al snel nadat Google hem in september 2023 een fulltime baan als software engineer aanbood.
Inmiddels is de zaak uitgegroeid tot iets veel groters. Zhong en zijn vader, Nan Zhong, verklaarden dat ze geen advocaten konden vinden die de zaak wilden aannemen. Daarom gebruikten ze ChatGPT en Gemini om onderzoek te doen en een klacht van bijna 300 pagina's op te stellen. De eerste rechtszaak, aangespannen tegen het University of California-systeem en individuele campussen, werd ingediend op 11 februari 2025. Een tweede rechtszaak tegen Cornell volgde begin april 2025. Op 12 april 2026 lopen beide zaken nog steeds.
Dit maakt de kwestie minder een afgeronde juridische procedure en meer een onthullende testcase: niet alleen voor uitdagingen rond toelatingsbeleid na de afschaffing van positieve discriminatie, maar ook voor de vraag wat er gebeurt als AI-tools voor consumenten de drempel verlagen om complexe discriminatieclaims in te dienen.
Wat wordt er feitelijk beweerd
De theorie van de familie Zhong is helder, ook al is het bewijzen ervan complex. Nadat de afwijzingen van Stanley in het voorjaar van 2023 definitief waren, startten ze een onderzoek naar wat zij zagen als disproportioneel hoge afwijzingspercentages onder hooggekwalificeerde Aziatisch-Amerikaanse aanvragers. Hun argument is deels gebaseerd op het feit dat Zhongs kwalificaties voldoende waren voor een rol bij Google, maar blijkbaar niet volstonden voor een bacheloropleiding aan veel topuniversiteiten.
De UC-zaak is officieel geregistreerd onder het nummer Zhong et al. v. The Regents of the University of California, et al., No. 2:25-cv-00495-DAD-CSK. De juridische status is hierbij cruciaal: het gaat nog steeds om beschuldigingen, niet om feiten die door een rechtbank zijn vastgesteld. In november 2025 wees de rechter een verzoek van Nan Zhong om sancties af, omdat dit voorbarig was aangezien de bewijsfase (discovery) nog niet was begonnen. Dit is een belangrijke kanttekening: de zaak is actief, maar de claims van de familie zijn nog niet getoetst aan de hand van een volledige uitwisseling van bewijsmateriaal.
De University of California ontkent de beschuldigingen. Het systeem stelt dat ras sinds 1996 geen factor meer is bij toelatingen vanwege Proposition 209, en dat Aziatische Amerikanen in de herfst van 2024 36,3% van de studentenpopulatie vormden.
Waarom de Harvard-zaak een rol blijft spelen
Veel van de publieke aandacht voor de rechtszaken van Zhong verwijst naar Students for Fair Admissions v. Harvard en de bijbehorende UNC-zaak. Dat komt niet omdat Zhong Harvard aanklaagt — dat doet hij niet — maar omdat de uitspraak van het Hooggerechtshof op 29 juni 2023 het juridische klimaat rond toelatingsbeleid heeft veranderd. Dit geldt met name voor zaken waarbij Aziatisch-Amerikaanse aanvragers en subjectieve beoordelingscriteria betrokken zijn, zoals uitgelegd door Britannica en Wikipedia.
In die eerdere procedure stelde Students for Fair Admissions (SFFA) dat Harvard ras gebruikte als een specifieke en invloedrijke factor en dat Aziatisch-Amerikaanse aanvragers werden benadeeld door lagere "persoonlijke scores" — subjectieve waarderingen voor eigenschappen als sympathie, moed en vriendelijkheid. SFFA beweerde ook dat de samenstelling van de klassen bij Harvard een de facto raciale quota weerspiegelde.
Het Hooggerechtshof oordeelde uiteindelijk dat het rassenbewuste toelatingsbeleid van Harvard en UNC ongrondwettelijk was. De redenen hiervoor waren onder meer het tekortschieten bij strikte toetsing, raciale stereotypering en het ontbreken van een duidelijk eindpunt voor het gebruik van ras. Een juridische analyse van deze redenering is te vinden bij de Duke Undergraduate Law Review.
Deze achtergrond is van belang omdat het toekomstige eisers een vocabulaire en een juridische routekaart bood. Het betekent echter niet dat elke teleurgestelde aanvrager nu automatisch een sterke zaak heeft zoals die tegen Harvard.
Het analytische gat in de rechtszaken van Zhong
Hier ontstaat een belangrijk onderscheid tussen een signaal en een bewijs.
Het dossier tegen Harvard was uitzonderlijk diepgaand. Het bevatte jaren aan interne data, getuigenissen van experts en gedetailleerde modellen over hoe aanvragers werden gescoord op academisch, buitenschools, sportief en persoonlijk vlak. De expert van SFFA, Peter Arcidiacono, stelde een statistisch significante straf vast voor Aziatische Amerikanen in de persoonlijke scores. De expert van Harvard, David Card, betwistte dit. In 2019 oordeelde districtsrechter Allison D. Burroughs dat Harvard niet opzettelijk discrimineerde, hoewel ze verschillen in persoonlijke scores erkende. Het Hooggerechtshof vernietigde het systeem later alsnog op constitutionele gronden.
De zaken van Zhong tegen UC en Cornell lijken zich nog niet in dat stadium te bevinden. Er is geen indicatie dat een rechtbank de statistische theorie van de familie al heeft geaccepteerd. Bovendien is er geen bewijs dat de familie gebruikmaakte van gespecialiseerde juridische AI of eigen modellen voor toelatingsanalyse. De berichtgeving wijst eerder op het gebruik van reguliere AI-modellen voor onderzoek en tekstverwerking.
Dit is essentieel: het schrijven van een klacht is iets heel anders dan het bewijzen ervan. AI kan helpen bij de eerste stap, maar biedt geen garantie voor de tweede.
Waarom AI het verhaal verandert (ook zonder de juridische norm te wijzigen)
Het vernieuwende element is hier niet dat AI een verborgen antwoord in de toelatingsdata heeft gevonden. Het vernieuwende is de procedure: AI heeft twee procederende burgers (pro se) geholpen om een complexe, lijvige zaak op te bouwen nadat ze er niet in slaagden juridische vertegenwoordiging te vinden.
Dit verlaagt de drempel om een zaak te beginnen, maar het verlaagt niet de bewijslast.
Voor universiteiten betekent dit waarschijnlijk dat ze meer klachten zullen ontvangen die er professioneler uitzien dan de gemiddelde zelf ingediende zaak. Een dossier van bijna 300 pagina's, opgesteld met hulp van ChatGPT en Gemini, is daar een duidelijk teken van. Rechtbanken zullen vaker te maken krijgen met eisers die aankomen met lange klaagschriften, bronvermeldingen en statistische argumenten waarvoor vroeger een advocatenkantoor nodig was.
Er zit echter een addertje onder het gras. AI vergemakkelijkt de toegang tot het indienen van een zaak, maar biedt geen toegang tot de fase van bewijsgaring (discovery), getuigen-deskundigen of toelaatbaar bewijsmateriaal. In discriminatiezaken bepalen juist die latere stadia of een rechtszaak standhoudt.
UC heeft een andere juridische positie dan Harvard
Een andere reden om niet te snel conclusies te trekken uit deze zaak: de University of California bevindt zich juridisch op een ander terrein dan Harvard.
De Harvard-zaak draaide om expliciet rassenbewust beleid. UC stelt dat ras al niet meer wordt meegewogen sinds Proposition 209 dit in 1996 verbood. Als de familie Zhong onrechtmatige discriminatie wil bewijzen, is het niet genoeg om te wijzen op het verbod op positieve discriminatie door het Hooggerechtshof; dat was in Californië immers al de wet. De moeilijkere vraag is of rassen-neutrale systemen in de praktijk nog steeds tot onrechtmatige bevoordeling of benadeling leiden via subjectieve beoordelingen of andere omwegen.
Een relevant document hierbij zou een rapport van de California State Auditor (2019-113) kunnen zijn. Hierin werden zwakheden in het toelatingsproces van UC geconstateerd, waaronder het feit dat sommige beoordelaars namen en andere persoonlijke kenmerken konden inzien. Dit is geen bewijs van anti-Aziatische discriminatie, maar het biedt een specifiekere onderzoeksvraag dan de algemene stelling dat de uitkomst van toelatingen op zichzelf discriminerend moet zijn.
De Google-invalshoek: opvallend, maar beperkt
Het detail over Google zorgt ervoor dat dit verhaal breed wordt opgepikt. Zhong werd afgewezen door topuniversiteiten, maar werd kort na zijn 18e verjaardag aangenomen door Google als fulltime software engineer. De klachten gebruiken dit contrast agressief: zijn kwalificaties waren goed genoeg voor een rol waarvoor vaak een PhD of jarenlange ervaring vereist is.
Dat is retorisch sterk, maar juridisch gezien zijn de twee niet direct vergelijkbaar.
Bedrijven en universiteiten selecteren op basis van verschillende criteria, termijnen en beperkingen. Een aanbod van Google zegt veel over de technische vaardigheden van Zhong, maar bewijst op zichzelf niet dat een toelatingsbureau heeft gediscrimineerd. Er is tot op heden (12 april 2026) ook geen publieke verklaring van Google over de rechtszaken of over het gebruik van AI door de familie.
Toch scherpt het contrast de publieke scepsis over subjectieve toelatingssystemen aan. Als een student van massale afwijzingen direct doorstroomt naar een ingenieursfunctie bij Google, is het voor critici makkelijker om te beweren dat universiteiten naar iets anders kijken dan puur academisch of technisch talent. Of dat "iets" nu onwettige vooringenomenheid, institutionele voorkeuren of simpelweg de enorme concurrentie is, blijft de onbeantwoorde vraag.
Een kort overzicht van de tijdlijn
Waar we nu op moeten letten
Er spelen hier drie afzonderlijke verhalen die niet met elkaar verward moeten worden.
Ten eerste is er de claim over discriminatie bij toelating. Dit staat of valt met bewijs dat het publiek nog niet volledig heeft gezien. Het belangrijkste is of de bewijsfase interne data of patronen naar boven brengt die in de rechtszaal standhouden.
Ten tweede is er de golf van rechtszaken na de SFFA-uitspraak. De zaak-Zhong suggereert dat de uitspraak van 2023 meer heeft gedaan dan alleen beleid veranderen; het heeft aanvragers aangemoedigd om aannames over wat juridisch aanvechtbaar is te heroverwegen.
Ten derde is er de kwestie van AI in de rechtspleging. Hier is de les al duidelijker: AI-tools maken het makkelijker voor burgers zonder advocaat om complexe zaken in te dienen en vol te houden. Dit betekent niet dat de claims sterker zijn, maar wel dat de rechtbanken het drukker zullen krijgen.
De praktische les voor nu is helder: beschouw deze rechtszaken als lopende tests, niet als vonnissen. De documenten laten zien hoe een familie AI gebruikt om een theorie over toelatingsbias voor de federale rechter te krijgen. Of die theorie de zware fase van bewijsvoering overleeft, moet nog blijken.
Reacties