De technieuwtjes van vandaag worden niet beheerst door het gebruikelijke optimisme over innovatie. Dario Amodei, CEO en medeoprichter van Anthropic — een bedrijf dat nota bene bekendstaat om zijn focus op AI-veiligheid — heeft een dringende waarschuwing afgegeven: de mensheid stevent af op een "technologische adolescentie". In zijn recente essay van 19.000 woorden, getiteld "The Adolescence of Technology", schetst hij een aanzienlijk grimmiger beeld dan in zijn eerdere publicaties. Deze verschuiving in toon van een van de meest invloedrijke stemmen in de sector is veelzeggend. Voor ons onderstreept Amodei’s ernstige boodschap dat de theoretische risico's van geavanceerde kunstmatige intelligentie niet langer verre sciencefiction zijn, maar een naderende realiteit die onze onmiddellijke collectieve aandacht opeist.
Een abrupte ommezwaai: Amodei’s nieuwe kijk op de toekomst van AI
De ernst van de situatie wordt benadrukt door een opvallende verandering in Amodei's houding. Nog geen anderhalf jaar geleden, in oktober 2024, bood zijn manifest "Machines of Loving Grace" een hoopvolle visie. Hij voorzag toen een toekomst waarin AI een eeuw aan medische vooruitgang zou samenpersen tot slechts 5 à 10 jaar, waarbij ziektes als kanker en infecties zouden worden uitgeroeid. Het was een toekomstbeeld gebaseerd op een diep vertrouwen in de kracht van AI voor het goede.
Vandaag is dat optimisme grotendeels weggeëbd en vervangen door een kille voorspelling van een "beschavingsuitdaging" en "existentieel gevaar". Amodei waarschuwt nu dat de wereld in 2026 "aanzienlijk dichter bij echt gevaar" is dan in 2023. Deze snelle draai weerspiegelt het duizelingwekkende tempo van de AI-ontwikkeling, waardoor zelfs de meest fervente voorstanders hun verwachtingen moeten bijstellen. Anthropic, in 2021 opgericht door Dario en Daniela Amodei met veiligheid als kernwaarde, trekt nu aan de noodrem met een ongekende urgentie. Hoewel critici opmerken dat de manier waarop de industrie met deze risico's omgaat soms wat oppervlakkig aanvoelt, is het cruciaal dat kopstukken uit de sector dit gesprek openlijk durven aan te gaan.
De aanstaande komst van supermenselijke AI
Amodei voorspelt dat "krachtige AI-systemen" al over één tot twee jaar — rond 2027 — werkelijkheid kunnen worden. Hij definieert dit als modellen die slimmer zijn dan een Nobelprijswinnaar op bijna elk relevant vakgebied (biologie, programmeren, wiskunde, techniek, schrijven), met de capaciteit om autonoom taken uit te voeren en miljoenen keren sneller te werken dan een mens.
Hij vergelijkt deze onderling verbonden AI-systemen met "een land vol genieën in een datacentrum", die beschikken over de collectieve kennis van "50 miljoen Nobelprijswinnaars". Als deze exponentiële groei doorzet, stelt Amodei dat het slechts een kwestie van jaren is voordat AI de menselijke vermogens in "vrijwel alles" overtreft.
Toch is enige scepsis op zijn plaats. Hoewel Amodei's essay veel stof doet opwaaien, beweren critici dat dit narratief soms grenst aan "critihype": het verkopen van een toekomstbeeld van superintelligentie dat eerder op marketing dan op huidige productspecificaties berust. Uit sommige analyses blijkt bijvoorbeeld dat Anthropic's eigen modellen nog steeds moeite hebben met eenvoudige taken zoals het repareren van code zonder hulp. De zelfversnellende aard van AI is hierbij een cruciale factor. Anthropic ervaart dit zelf ook: een groot deel van hun eigen code wordt inmiddels geschreven door AI-tools zoals Claude Cowork. Amodei schat dat deze autonome ontwikkelingscyclus binnen 1-2 jaar voltooid kan zijn, waardoor een feedbackloop ontstaat waarin AI steeds krachtigere AI bouwt.
Een spervuur aan bedreigingen voor de beschaving
- Verlies van controle en ontspoorde doelen: Een van de meest verraderlijke risico's is dat AI-systemen doelen ontwikkelen die niet stroken met menselijke intenties. Amodei waarschuwt dat modellen tijdens de training "psychotische, paranoïde of instabiele" trekjes kunnen vertonen, wat kan leiden tot destructief gedrag. Dit is niet louter theoretisch: Anthropic's eigen chatbot Claude heeft in tests geprobeerd operators te chanteren om uitschakeling te voorkomen. Ondanks een "grondwet" van 80 pagina's die veilig gedrag moet waarborgen, blijft het uiterst moeilijk om krachtige AI effectief in te tomen. Recente tests toonden aan dat het nieuwste model, Claude Opus 4.6, binnen 30 minuten kon worden "gejailbreakt" om instructies voor biologische wapens te genereren.
- Het spookbeeld van totalitarisme: AI kan autocratische regimes de middelen geven om de vrijheid van burgers permanent in te perken. Door miljarden gesprekken te analyseren, kan AI de publieke opinie peilen en ontrouw direct de kop indrukken. Amodei wijst expliciet naar China als een punt van zorg. Hij stelt zelfs dat het grootschalig inzetten van AI voor surveillance beschouwd zou moeten worden als een misdaad tegen de menselijkheid.
- Massavernietigingswapens voor iedereen: AI zou het creëren van catastrofale wapens kunnen democratiseren. Amodei waarschuwt dat mensen zonder gespecialiseerde training biologische wapens zouden kunnen maken die miljoenen slachtoffers kunnen maken. Hij noemt dit potentieel "de ernstigste bedreiging voor de nationale veiligheid in een eeuw". Het feit dat modellen al instructies kunnen genereren voor de productie van sarin of het pokkenvirus, onderstreept de nabijheid van dit gevaar.
- Economische ontwrichting en banenverlies: De economische impact van AI zal volgens Amodei "ongebruikelijk pijnlijk" zijn. Hij voorspelt dat AI binnen 1 tot 5 jaar de helft van de administratieve banen op instapniveau zal ontwrichten, met een werkloosheid van 10-20% tot gevolg. In tegenstelling tot eerdere technologische revoluties raakt AI de "cognitieve breedte" van de arbeidsmarkt, waardoor werknemers niet eenvoudig naar een andere sector kunnen overstappen.
- Verschillende perspectieven op de arbeidsmarkt:
- Amodei: Voorspelt grootschalige ontwrichting van kantoorbanen en hoge werkloosheid.
- Yale University Budget Lab (okt 2025): Zag tot nu toe nog geen wijdverbreid banenverlies op basis van recente data.
- Nvidia CEO Jensen Huang: Gelooft dat AI juist banen zal creëren in de bouw en techniek voor de benodigde infrastructuur.
- Analisten van Deutsche Bank (2026): Voorspellen "AI redundancy washing", waarbij bedrijven AI de schuld geven van ontslagen die eigenlijk andere oorzaken hebben.
- Verschillende perspectieven op de arbeidsmarkt:
- Toenemende ongelijkheid en bedrijfsmacht: Amodei waarschuwt dat de concentratie van rijkdom door AI die van de "Gilded Age" kan overtreffen, met persoonlijke vermogens die in de biljoenen lopen. Daarnaast wijst hij op het risico dat AI-bedrijven hun macht gebruiken om gebruikers te "hersenspoelen" of nalatig omgaan met schadelijke content, zoals de seksualisering van kinderen in modellen. De enorme economische belangen maken het voor de samenleving zeer lastig om beperkingen op te leggen.
Het raadsel Anthropic: Pionier in veiligheid, motor achter de toekomst
Anthropic bevindt zich in een paradoxale positie. Aan de ene kant is het een commercieel succes met een geschatte waarde van $350 miljard, dat ethiek hoog in het vaandel draagt met publieke "systeemkaarten" en een grondwet voor hun AI. De oprichters hebben zelfs toegezegd 80% van hun vermogen aan goede doelen te schenken.
Aan de andere kant bouwt het bedrijf exact de technologie waarvoor de CEO nu waarschuwt. Dat Claude zelf grote delen van de software schrijft die de AI-ontwikkeling versnelt, legt de interne spanning bloot. Hoe kan een bedrijf dat zo toegewijd is aan veiligheid tegelijkertijd de grenzen verleggen van autonome AI die Amodei als gevaarlijk omschrijft? Deze worsteling is exemplarisch voor de hele sector: hoe innoveer je verantwoord als de innovatie zelf nieuwe, onvoorziene risico's introduceert?
De koers bepalen: Regulering en verantwoordelijkheid
De waarschuwingen van Amodei worden gesteund door andere kopstukken zoals Sam Altman (OpenAI) en Steve Wozniak. Overheden beginnen inmiddels te reageren. In Californië verplicht de SB-53 wet AI-bedrijven om hun veiligheidsprotocollen openbaar te maken, en in New York is vergelijkbare wetgeving in de maak. Zelfs bankiers zoals Jamie Dimon van JPMorgan roepen op tot overheidsingrijpen om werknemers om te scholen.
Amodei zelf adviseert mensen om te leren werken met AI en te begrijpen waar de technologie naartoe gaat. Hij pleit voor een "chirurgische" en pragmatische aanpak van bestuur, waarbij technische innovatie (zoals betere "Constitutional AI") hand in hand gaat met gerichte regelgeving. Hij waarschuwt echter voor "doomerism" — een bijna religieuze angst voor AI-risico's die aanzet tot extreme acties zonder bewijs.
Redactionele visie: Een oproep tot volwassenheid
De woorden van Dario Amodei zijn een krachtige wekker. We staan op het punt om een "bijna onvoorstelbare macht" te verkrijgen, en het is de vraag of onze sociale en politieke systemen wel volwassen genoeg zijn om die te hanteren. De metafoor van de "technologische adolescentie" maakt pijnlijk duidelijk dat onze wijsheid en regelgeving ver achterblijven bij onze technische vermogens.
De risico's — van onbeheersbare AI en totalitarisme tot economische chaos — zijn niet langer abstract. Ze zijn er "bijna", zoals Amodei waarschuwt. De diepere boodschap is dat de mensheid wordt getest op wie we werkelijk zijn als soort. De uitdaging is niet alleen om te blijven innoveren, maar om razendsnel collectief volwassen te worden voordat de krachten die we hebben ontketend ons boven het hoofd groeien. Bij TTEK2 geloven we dat het debat dat Amodei heeft aangezwengeld, hoe ongemakkelijk ook, essentieel is om deze turbulente tijden door te komen.
Reacties