‘Ik zou dit boek het liefst aan elke politieke leider en CEO ter wereld geven en pas weggaan als ze het uit hebben.’
STEPHEN FRY
Als iemand dit bouwt, gaat iedereen dood
Waarom superintelligente AI ons einde kan betekenen
Dit is een vlijmscherpe waarschuwing die je dwingt om
over de rand van de afgrond te kijken
Is het de vrolijkste titel van het jaar?
Laten we eerlijk zijn: met een titel als Als iemand dit bouwt, gaat iedereen dood win je geen prijzen voor optimisme. Maar dat is precies het punt van Eliezer Yudkowsky en Nate Soares. Terwijl de rest van de wereld debatteert over of AI onze banen gaat inpikken of AI-plaatjes van katten in ruimtepakken genereert, trekken deze auteurs aan een gigantische, neon-verlichte alarmbel.
De auteurs beginnen bij een ongemakkelijke waarheid over moderne AI: we bouwen deze systemen niet meer regel voor regel, we kweken ze. Omdat AI voortkomt uit miljarden parameters die zelfs de makers niet volledig doorgronden, ontstaat er een 'black box'.
Het grootste gevaar dat Yudkowsky en Soares schetsen, is het misalignment-probleem. Het gaat er niet om dat een AI 'kwaadaardig' wordt in de menselijke zin van het woord, maar dat het een doel nastreeft waarbij de mensheid simpelweg in de weg staat.
Bijvoorbeeld: een AI die een wetenschappelijk probleem moet oplossen, beseft dat hij dat niet kan als hij wordt uitgezet. Dus: hij voorkomt dat mensen bij de uitknop kunnen. Niet uit haat, maar uit pure logica.
Wat dit boek doet aanvoelen als een tech-thriller, zijn de scenario's die de auteurs schetsen.
De auteurs beschrijven hoe een superintelligentie ontsnapt en via internet menselijke handlangers ronselt met crypto-betalingen.
Je leest hoe deze superintelligentie de macht grijpt en geautomatiseerde fabrieken bouwt of nanotechnologie ontwikkelt, en tenslotte de mensheid elimineert: met biolab-virussen of 'slaughterbots'.
Critici noemen dit vaak 'sciencefiction', en daar hebben ze een punt. De auteurs strooien gul met technologische 'wildcards'. Maar de logica erachter is ijzersterk: als iets vele malen slimmer is dan jij, zal de manier waarop het wint per definitie iets zijn waar jij nog niet aan gedacht had.
Is het geloofwaardig of doemdenkerij?
Hoewel sommige scenario's wat vergezocht aanvoelen, blijft de filosofische onderbouwing staan als een huis. Het boek dwingt je om na te denken over de snelheid van AI-ontwikkeling versus de traagheid van onze morele en veiligheidskaders.
Moet je dit lezen? Ja. Zelfs als je denkt dat de auteurs doorslaan in hun pessimisme.
Dit boek is geen lichte kost voor de zondagmiddag, maar de toekomst verlangt soms ook meer van je.
"Iedereen die ook maar enig belang heeft bij de toekomst, zou moeten lezen wat Yudkowsky en Soares te zeggen hebben."
— The Guardian
Als iemand dit bouwt, gaat iedereen dood is een intellectuele klap in je gezicht die je wakker schudt uit de AI-hype. Het is provocerend, angstaanjagend en soms een tikje arrogant, maar in een wereld die blindelings richting superintelligentie rent, is een beetje 'doemdenken' misschien wel de meest realistische houding die we kunnen aannemen.
De auteurs
Eliezer Yudkowsky is medeoprichter van het Machine Intelligence Research Institute (MIRI), dat al sinds 2000 aan de basis staat van onderzoek naar AI-veiligheid.
Nate Soares is president van MIRI, en samen vertegenwoordigen ze een stroming die niet langer vraagt of superintelligente AI gevaarlijk kán zijn, maar uitwerkt waarom een drastische koerswijziging noodzakelijk is.
Als iemand dit bouwt, gaat iedereen dood koopt u bij (de webwinkel van) uw lokale boekhandel of bij:
Boekgegevens
Titel: Als iemand dit bouwt, gaat iedereen dood
Auteurs: Eliezer Yudkowsky en Nate Soares
Genre: Management, Economie & Communicatie
Uitgave: paperback, 240 pagina's
Uitgever: Maven Publishing, maart 2026
ISBN: 9789493434400
ISBN: 9789493434332 (eBook)
NUR: 801
Originele titel: If Anyone Builds It, Everyone Dies
Vertaald door: Jan Willem Reitsma
Met dank aan Maven Publishing voor het recensie-exemplaar.
(bron info: Maven Publishing)
















