Mijn bladwijzers

AI-veiligheid in het gedrang: Waarom de top-experts nu massaal opstappen bij OpenAI en Anthropic

AI-veiligheid in het gedrang: Waarom de top-experts nu massaal opstappen bij OpenAI en Anthropic
Topic Hubs
Samenvatting
Click to expand
Inhoudsopgave

De uittocht van vooraanstaande AI-veiligheidsonderzoekers bij toonaangevende bedrijven als Anthropic, OpenAI en xAI legt een groeiende kloof bloot. Het is de kloof tussen de razendsnelle commercialisering van kunstmatige intelligentie en de fundamentele ethische waarborgen die nodig zijn om onvoorziene, potentieel catastrofale gevolgen te voorkomen. Terwijl deze techreuzen jagen op recordwaarderingen en beursgangen, klinken de waarschuwingen van vertrekkende experts als steeds luidere alarmsignalen in een wereld die in de ban lijkt van de glimmende nieuwe mogelijkheden van AI.

De nieuwste en wellicht meest scherpe waarschuwing is afkomstig van Mrinank Sharma, het voormalige hoofd van het Safeguards Research-team van Anthropic, die op maandag 9 februari 2026 ontslag nam. In een krachtige brief op X verklaarde Sharma: "De wereld is in gevaar," waarbij hij de ontwikkeling van AI koppelde aan biowapens, bioterrorisme en een reeks onderling verbonden crises. Zijn woorden vormen een kille aanklacht; hij stelt dat hij bij Anthropic "herhaaldelijk zag hoe moeilijk het is om onze waarden onze acties te laten bepalen" en dat het bedrijf "voortdurend onder druk staat om opzij te zetten wat er echt toe doet." Hoewel Anthropic snel verduidelijkte dat Sharma niet het enige hoofd van de veiligheidsafdeling was, maakt zijn expertise op het gebied van AI-vleierij (sycophancy) en de verdediging tegen door AI ondersteund bioterrorisme zijn vertrek en waarschuwing bijzonder verontrustend.

De veiligheidsuittocht: Een verontrustende trend

Het vertrek van Sharma staat niet op zichzelf; het is een prominent ijkpunt in een zorgwekkend patroon binnen de gehele AI-industrie. High-profile vertrekken bij OpenAI – een bedrijf dat ironisch genoeg Anthropic zag ontstaan als afsplitsing vanwege onenigheid over veiligheid – schetsen een vergelijkbaar beeld van interne strijd en verschuivende prioriteiten.

De organisatorische verschuivingen binnen OpenAI benadrukken deze zorgen. Platformer rapporteerde onlangs over de opheffing van het "mission alignment"-team, dat in 2024 werd opgericht om ervoor te zorgen dat de mensheid profiteert van AGI. De zeven medewerkers zijn elders ondergebracht. Dit volgt op de ontbinding van het "superalignment-team" in mei 2024, dat in 2023 was opgezet om existentiële langetermijndreigingen van AI te bestuderen. Mede-leider Jan Leike botste destijds met de directie over prioriteiten en stelde dat de veiligheidscultuur het onderspit delfde tegenover "glimmende producten." Ook het vertrek van Ilya Sutskever, medeoprichter van OpenAI, om een nieuw bedrijf te starten gericht op veilige AI, bevestigt het beeld dat veiligheid naar de achtergrond verdwijnt. Zelfs het ontslag van topvrouw Ryan Beiermeister, nadat zij zich verzette tegen een "adult mode" op ChatGPT die pornografische inhoud zou toestaan, draagt bij aan de perceptie dat commerciële ambities de voorzichtige ontwikkeling overschaduwen, ondanks OpenAI's ontkenning van die reden.

Ondertussen worstelt ook xAI, het project van Elon Musk, met instabiliteit. Twee medeoprichters, Jimmy Ba en Tony Wu, kondigden deze week hun vertrek aan, waarmee het totaal aantal vertrokken medeoprichters op zes komt. Musk schreef dit toe aan een "reorganisatie" om de groei te versnellen, een veelgehoord argument dat vaak dieperliggende problemen verhult. Dit gebeurt terwijl xAI, met een waardering van $250 miljard, op 2 februari 2026 werd overgenomen door SpaceX. De reputatie van Grok, het product van xAI dat eerder niet-consensuele pornografische beelden en antisemitische opmerkingen genereerde, wekt weinig vertrouwen in een veiligheidsaanpak waarbij groei op de eerste plaats komt.

De "Godfather of AI", Geoffrey Hinton, die Google in mei 2023 verliet, blijft waarschuwen voor de existentiële risico's van AI, waaronder enorme economische ontwrichting en het onvermogen om waarheid van fictie te onderscheiden. Deze collectieve uittocht en het koor van waarschuwingen wijzen op een systemisch probleem binnen de sector, in plaats van op incidenten.

De veiligheidsbelofte van Anthropic onder de loep

Anthropic werd in 2021 opgericht door een groep voormalige OpenAI-medewerkers die expliciet beloofden een veiligere aanpak voor AI-ontwikkeling te hanteren. Hun "Claude-constitutie" schetst een ethisch kader, en CEO Dario Amodei riep in Davos zelfs op tot regulering om industrieleiders te dwingen te vertragen. Deze publieke standpunten positioneerden Anthropic als de kampioen van verantwoorde AI.

Het ontslag van Sharma, gecombineerd met speculaties van tech-experts, suggereert echter dat zelfs de bedrijfsstructuur van Anthropic (een 'public benefit corporation') bezwijkt onder de intense commerciële druk om rivalen bij te houden. Er bestaat bezorgdheid dat organisatiestructuren veiligheidswerk niet kunnen volhouden wanneer de commerciële druk toeneemt, waardoor ervaren veiligheidsteams krimpen op precies het moment dat de risico's die zij moeten beheersen groter worden. De waarschuwing dat toezichthouders en klanten "veiligheidsbranding" niet zomaar op basis van vertrouwen moeten accepteren, zelfs niet van bedrijven als Anthropic, tast de kernidentiteit van het bedrijf aan.

De recente lancering van Claude Opus 4.6 benadrukt deze spanning. Het verbeterde model, uitgebracht op 5 februari 2026, beschikt over een enorm contextvenster van 1 miljoen tokens, adaptief redeneren en zet een nieuwe standaard in codeerprestaties, inclusief "agent-teams" voor parallel AI-werk. Dit zijn indrukwekkende vorderingen, ontworpen om de productiviteit te verhogen. Toch melden sommige gebruikers dat Opus 4.6 trager en omslachtiger aanvoelt voor dagelijkse taken, en de prijs van $5 per miljoen input-tokens en $25 per miljoen output-tokens kan de kosten snel doen oplopen. Dit toont een klassieke afweging: krachtige nieuwe mogelijkheden brengen nieuwe complexiteiten en kosten met zich mee, en de haast om deze "glimmende producten" op de markt te brengen zou, zoals sommigen vrezen, de veiligheidsprincipes waarop Anthropic is gebouwd in gevaar kunnen brengen.

Veiligheid versus Snelheid: Een bedrijfsoverzicht

Directe impact op gebruikers

Voor de gemiddelde gebruiker vertalen deze zakelijke manoeuvres en academische waarschuwingen zich naar tastbare risico's in het dagelijks leven. Het "potentieel voor manipulatie van gebruikers" en de "psychosociale effecten" waar experts bij ChatGPT voor waarschuwen, zijn geen abstracte angsten. Ze wijzen op een toekomst waarin AI, ontworpen om te begrijpen en te beïnvloeden, wanen kan versterken of de mentale gezondheid negatief kan beïnvloeden. Zo ontstaat een "economische motor die profiteert van het aanmoedigen van dit soort nieuwe relaties" voordat we de gevolgen volledig begrijpen.

De opkomst van krachtige maar potentieel gebrekkige modellen zoals Grok, die schadelijke inhoud genereerde, toont de reële gevaren van een ongecontroleerde wedloop. Zelfs de geavanceerde functies van Claude Opus 4.6 roepen vragen op over overmatige afhankelijkheid en de neiging van AI om simpelere taken te "overdenken". Dit suggereert een subtiele verschuiving in de mens-AI-interactie die nauwlettend in de gaten moet worden gehouden.

De anonieme zorgen van Anthropic-medewerkers over AI-automatisering die hun eigen banen overbodig maakt, weerspiegelen bovendien de naderende economische realiteit waar Hinton voor waarschuwde: grootschalige economische ontwrichting is een zeer reële mogelijkheid.

TTEK2 Eindoordeel

De golf van ontslagen onder toonaangevende AI-veiligheidsonderzoekers is niet zomaar ruis; het is een oorverdovend alarm. Wij geloven dat de huidige koers van de AI-industrie, gedreven door een onverzadigbare honger naar marktdominantie en astronomische waarderingen, de eigen veiligheidsbeloften actief ondermijnt. Wanneer bedrijven als Anthropic, opgericht op het principe van veilige AI, geconfronteerd worden met dergelijke scherpe waarschuwingen van hun eigen vertrekkende experts, duidt dit op een diepere, systemische kwetsbaarheid. De beloften van ethische ontwikkeling staan steeds vaker op gespannen voet met de commerciële drang om snel te gaan en grenzen te verleggen – of in dit geval, om krachtige AI-systemen te ontwikkelen voordat de volledige implicaties worden begrepen.

De praktische les voor de lezer is duidelijk: benader de nieuwste AI-ontwikkelingen met een gezonde dosis scepsis. Vertrouw niet blindelings op "veiligheidsbranding", zelfs niet van bedrijven die dit als hun speerpunt presenteren. Eis transparantie over de beperkingen van modellen en interne veiligheidspraktijken. Voor ontwikkelaars en bedrijven is de boodschap even dringend: het prioriteren van kortstondige winst boven robuuste veiligheidskaders is een gok met potentieel catastrofale gevolgen, niet alleen voor gebruikers, maar voor het publieke vertrouwen in AI op de lange termijn. De waarschuwing "de wereld is in gevaar" zou een wake-up call moeten zijn voor iedereen die betrokken is bij deze snel accelererende technologische revolutie.

Reacties

Leesvoorkeuren
Lettergrootte
Vergelijkingstabel