L'histoire de Stanley Zhong a d'abord été perçue comme une anomalie statistique des admissions universitaires : un étudiant de Palo Alto affichant une moyenne pondérée (GPA) de 4,42, une moyenne non pondérée de 3,97, un score de 1590 au SAT, et créateur d'un projet logiciel nommé RabbitSign qu'Amazon a qualifié d'un des comptes « les plus efficaces et sécurisés » jamais examinés. Pourtant, il a essuyé des refus de la part de 16 des 18 universités sollicitées lors du cycle 2022-2023. Admis à l'UT Austin et à l'Université du Maryland, il a finalement quitté les bancs de l'UT Austin après avoir reçu une offre de poste d'ingénieur logiciel à temps plein chez Google en septembre 2023.
Aujourd'hui, l'affaire prend une ampleur systémique. Stanley Zhong et son père, Nan Zhong, affirment n'avoir trouvé aucun avocat prêt à porter l'affaire. Ils ont donc utilisé ChatGPT et Gemini pour effectuer des recherches et rédiger une plainte de près de 300 pages. Le premier recours, visant le système de l'Université de Californie (UC) et plusieurs de ses campus, a été déposé le 11 février 2025. Une seconde plainte contre Cornell a suivi début avril 2025. En date du 12 avril 2026, ces deux procédures sont toujours en cours.
Cela transforme ce récit en un cas d'école révélateur : non seulement pour les contestations post-discrimination positive, mais aussi pour observer ce qui se produit lorsque les outils d'IA grand public réduisent le coût d'engagement de poursuites complexes pour discrimination.
Ce qui est réellement allégué
La théorie de la famille Zhong est simple, même si sa démonstration l'est moins. Après la finalisation des refus au printemps 2023, ils ont enquêté sur ce qu'ils considèrent comme des taux de rejet disproportionnés chez les candidats d'origine asiatique hautement qualifiés. Leurs arguments reposent en partie sur le fait que les compétences de Zhong étaient suffisantes pour un poste d'ingénieur chez Google, mais apparemment insuffisantes pour une admission en premier cycle dans de nombreuses institutions d'élite.
Le dossier contre l'UC est bien réel et enregistré. Une ordonnance du tribunal confirme l'intitulé Zhong et al. v. The Regents of the University of California, et al., No. 2:25-cv-00495-DAD-CSK. Toutefois, le statut juridique est ici primordial : il s'agit d'allégations et non de faits établis par une cour. En novembre 2025, le juge a rejeté une motion de sanctions déposée par Nan Zhong, la jugeant prématurée car la phase de communication des pièces (discovery) n'avait pas encore commencé. C'est un rappel à la réalité nécessaire : l'affaire est active, mais n'a pas encore atteint le stade où les affirmations de la famille sont testées par un échange complet de preuves.
De son côté, l'Université de Californie nie ces allégations. Le système universitaire a déclaré que la race n'est plus un facteur d'admission depuis 1996 en raison de la Proposition 209, et que les Américains d'origine asiatique représentaient 36,3 % de sa population étudiante à l'automne 2024.
Pourquoi l'affaire Harvard est-elle omniprésente ?
Le cadrage médiatique entourant les procès de Zhong renvoie souvent à l'affaire Students for Fair Admissions v. Harvard et au cas connexe de l'UNC. Ce n'est pas parce que Zhong poursuit Harvard — ce n'est pas le cas — mais parce que la décision de la Cour suprême du 29 juin 2023 a modifié le climat juridique des admissions, en particulier pour les candidats d'origine asiatique confrontés à des critères d'examen subjectifs, comme l'expliquent Britannica et Wikipedia.
Dans ce litige, l'association Students for Fair Admissions (SFFA) alléguait qu'Harvard utilisait la race comme un facteur d'admission spécifique et influent, et que les candidats asiatiques étaient pénalisés par des « notations personnelles » (personal ratings) plus faibles — des scores subjectifs liés à des qualités comme l'amabilité, le courage ou la gentillesse. La SFFA affirmait également que la composition des promotions d'Harvard reflétait un équilibre racial de fait.
La Cour suprême a finalement jugé les pratiques d'admission tenant compte de la race d'Harvard et de l'UNC inconstitutionnelles, citant des problèmes de non-respect du contrôle étroit (strict scrutiny), des stéréotypes raciaux et l'absence d'un terme défini à l'usage du critère racial. Une analyse juridique du raisonnement de la majorité est détaillée par la Duke Undergraduate Law Review.
Ce contexte est crucial car il a fourni aux futurs plaignants un vocabulaire et une feuille de route juridique. Cependant, cela ne signifie pas que chaque candidat déçu dispose désormais d'un dossier comparable à celui d'Harvard.
La faille analytique dans les poursuites de Zhong
C'est ici que la distinction entre un signal et une preuve prend toute son importance.
Le dossier Harvard était d'une profondeur exceptionnelle. Il comprenait des années de données internes, des témoignages d'experts contradictoires et une modélisation détaillée de la manière dont les candidats étaient évalués (académique, extrascolaire, sportif, personnel). L'expert de la SFFA, Peter Arcidiacono, affirmait avoir trouvé une pénalité statistiquement significative contre les Américains d'origine asiatique. L'expert d'Harvard, David Card, contestait cela, affirmant qu'aucun effet négatif significatif n'apparaissait lorsque le modèle était correctement spécifié. En 2019, la juge de district Allison D. Burroughs avait tranché qu'Harvard ne pratiquait pas de discrimination intentionnelle, tout en reconnaissant des disparités dans les notations personnelles. La Cour suprême a néanmoins invalidé le cadre général pour des motifs constitutionnels.
Les dossiers de Zhong contre l'UC et Cornell ne semblent pas, d'après les éléments disponibles, en être à ce stade. Rien n'indique qu'un tribunal ait pour l'instant validé la théorie statistique de la famille ou conclu à une conduite discriminatoire. De plus, aucun élément ne prouve que la famille ait utilisé des systèmes d'IA juridique spécialisés ou des modèles propriétaires d'analyse des admissions. Les rapports décrivent plutôt l'utilisation de modèles grand public pour la recherche et la rédaction.
C'est un point capital : rédiger une plainte et prouver une plainte sont deux tâches différentes. L'IA peut aider à accomplir la première bien plus rapidement que la seconde.
Pourquoi l'IA change la donne, même sans modifier le droit
L'élément de nouveauté ici n'est pas que l'IA aurait découvert une vérité cachée dans les données d'admission. Rien ne l'indique publiquement. La nouveauté est procédurale : l'IA semble avoir aidé deux plaideurs agissant sans avocat (pro se) à monter un dossier complexe et documenté après avoir échoué à obtenir une représentation juridique.
Cela abaisse une barrière à l'entrée, mais n'allège pas la charge de la preuve.
Pour les universités, cela signifie probablement une multiplication de plaintes bien plus soignées que les recours habituels déposés par des particuliers. Un document de 300 pages produit avec l'aide de ChatGPT et Gemini en est déjà le signe. Les tribunaux pourraient voir affluer des plaignants munis de plaintes fleuves, de citations intégrées et d'arguments statistiques qui nécessitaient autrefois un cabinet d'avocats ou un amateur extrêmement déterminé disposant de beaucoup de temps.
Mais il y a un bémol. L'IA facilite l'accès au dépôt de plainte ; elle ne facilite pas l'accès à la phase de communication des pièces, aux témoignages d'experts ou aux preuves admissibles. Dans les affaires de discrimination, ce sont ces étapes ultérieures qui déterminent la survie d'une action en justice. C'est particulièrement vrai pour les admissions, où les établissements peuvent invoquer l'examen holistique, les contraintes institutionnelles et des bassins de candidats bien plus denses que n'importe quel CV individuel.
L'UC a une posture juridique différente de celle d'Harvard
Une autre raison de ne pas surinterpréter cette affaire : l'Université de Californie ne plaide pas sur le même terrain qu'Harvard.
Le cas d'Harvard portait sur des politiques d'admission explicitement fondées sur la race. L'UC affirme ne plus prendre en compte la race depuis que la Proposition 209 l'a interdit en 1996. Si la famille Zhong tente de prouver une discrimination illégale, le défi n'est pas simplement de dire que « la Cour suprême a banni la discrimination positive ». C'était déjà la loi en Californie. La question plus ardue est de savoir si des systèmes neutres produisent toujours des biais illégaux dans la pratique, que ce soit par des critères indirects (proxies), l'examen subjectif ou les modalités de mise en œuvre.
Un document public pourrait s'avérer pertinent : un rapport de l'Auditeur de l'État de Californie (2019-113) avait relevé des faiblesses dans la surveillance des admissions de l'UC, notant que certains campus permettaient aux évaluateurs de voir les noms et attributs personnels, sans mesures suffisantes contre les biais. Ce n'est pas une preuve de discrimination anti-asiatique, mais cela offre une piste d'enquête plus spécifique que l'affirmation générale selon laquelle des résultats d'admission d'élite seraient intrinsèquement discriminatoires.
En d'autres termes, la version juridique la plus solide de ce procès ne serait pas « Stanley était trop qualifié pour être rejeté ». De nombreux étudiants exceptionnels sont refusés par des écoles ultra-sélectives. La version plus durable devrait démontrer comment un système censé être aveugle à la race a traduit des évaluations subjectives en un désavantage mesurable.
Chronologie succincte
Ce qu'il faut surveiller
Il y a ici trois histoires distinctes qu'il convient de ne pas confondre.
Premièrement, l'allégation de discrimination dans les admissions. Elle dépendra de preuves que le public n'a pas encore vues. Le point clé sera de savoir si la phase de communication des pièces produit des données internes, des guides pour les évaluateurs ou des modèles statistiques capables de résister à l'examen d'un tribunal.
Deuxièmement, la vague de litiges post-SFFA. L'affaire Zhong suggère que la décision de 2023 de la Cour suprême a fait plus que changer les politiques. Elle a encouragé les candidats à remettre en question de vieilles certitudes sur ce qui peut être contesté, même dans des institutions affirmant ne plus tenir compte de la race.
Troisièmement, la question de l'IA dans le contentieux. Sur ce point, la leçon est déjà plus claire. Les outils d'IA grand public semblent faciliter le dépôt de plaintes complexes par des personnes non assistées d'avocats. Cela ne rend pas les arguments plus solides, mais cela promet un encombrement accru des tribunaux.
Pour ceux qui tentent d'analyser la situation aujourd'hui, la conclusion pratique est prudente : considérez ces procès comme des tests en cours, et non comme des verdicts. Ces dossiers montrent comment une famille utilise l'IA pour porter une théorie de biais devant un tribunal fédéral. Ce qu'ils ne montrent pas encore, c'est si cette théorie peut survivre aux étapes les plus rudes du litige, là où la rédaction soignée s'efface devant la force brute des preuves.
Commentaires