‘Wie vertaalt bepaalt!’ De rol van AI als Bijbelvertaler getest
Is er in de afgelopen twee jaar een technologische ontwikkeling geweest die meer stof heeft doen opwaaien dan ChatGPT en andere AI-toepassingen? Vraag het ChatGPT en je krijgt het bescheiden antwoord dat kwantumcomputing en biotechnologie minstens zo belangrijk zijn. Voor de toekomst van vertalen is kunstmatige intelligentie echter dé nieuwe ontwikkeling. Op het terrein van Bijbelvertalen is er veel te doen over AI-toepassingen die het vertaalwerk ondersteunen, verbeteren en mogelijk versnellen. Het is veelbelovend én omstreden. Welke taken kun je uitbesteden en welke niet? Waar zijn de modellen goed in en waar schieten ze tekort?
Een goede manier om erachter te komen is door het uit te proberen. Daarom hebben we enkele experimenten op dit gebied ondernomen. In een vorige bijdrage over AI (MAW oktober 2024
Samenvatting
Dit artikel presenteert enkele eerste resultaten uit een praktijkonderzoek naar de rol van AI bij Bijbelvertalen. De onderzoekers testten AI- taalmodel Claude bij het vertalen van deuterocanonieke teksten in BGT- stijl via twee benaderingen: volledig geautomatiseerde vertaling en AI als ondersteunend hulpmiddel. Claude produceerde binnen korte tijd vertalingen met verrassend goede resultaten. Toch bleek het taalmodel soms nog tekort te schieten in consistentie, natuurlijke formulering en contextuele samenhang. Vertaalvoorbeelden uit Susanna, Sirach en 1 Makkabeeën illustreren waar mens en machine verschillende keuzes maken. Het onderzoek bevestigt dat AI effectief kan assisteren bij specifieke taken zoals letterlijke vertalingen, contextanalyse, en vertaalsuggesties maar dat de menselijke vertaler essentieel blijft voor regie en eindverantwoordelijkheid.
Opzet
Onze verkenning was een samenwerking van NBG, UU en de VU- onderzoeksgroep Digital Approaches to Sacred Texts (DAST). We gebruikten het taalmodel van de Amerikaanse start-up Anthropic. Hun Claude 4.0 Sonnet-taalmodel kan namelijk worden gekoppeld aan achtergrondinformatie zoals woordenlijsten, commentaren en vertaalrichtlijnen.
Betrokkenen: Wim Otte (UU), die het initiatief nam, het project opzette en bleef meewerken, Roemer Voorwinden, student-assistent vanuit de VU, die zorgde voor de uitvoering en verslaglegging, Matthijs de Jong, vanuit het NBG betrokken als BGT-vertaler en vanuit de VU-onderzoeksgroep DAST betrokken als hoogleraar Bijbelvertalen. Op de achtergrond betrokken waren Willem van Peursen, hoofd van de VU-onderzoeksgroep DAST, Jaap Groen, AI-specialist NBG en Stefan van Dijk, manager Ontwikkelen en Uitgeven bij het NBG.
We gingen aan de slag met teksten uit de deuterocanonieke boeken, omdat daar relatief weinig Nederlandse vertalingen van beschikbaar zijn. Door deze focus is er minder kans dat het taalmodel voorkennis heeft van (lastige) vertaalkeuzes.
We gaven de opdracht om te vertalen in de stijl van de Bijbel in Gewone Taal (BGT), omdat we daarvoor over uitgebreide woordenlijsten, voorbeelden en methodiek beschikken. Als basis voor instructie van het taalmodel maakte Wim Otte een instructieset van 5000 gematchte voorbeeldzinnen uit het Griekse Nieuwe Testament gekoppeld aan de BGT-vertaling.
Claude als Bijbelvertaler
Het eerste wat we wilden testen: wat is de kwaliteit van de best mogelijke, volledig door AI gegenereerde vertaling in BGT-stijl? We lieten Claude in drie fasen zo’n vertaling opbouwen, waarbij we het verhaal van Susanna en gedeelten uit Jezus Sirach en 1 Makkabeeën als basis namen.
Stap 1: Vertaling
De Griekse tekst wordt als input ingevoerd en het model levert een vertaling in BGT-stijl. De specialistische kennis waarmee Claude werkt, bestaat uit de instructieset van 5000 voorbeeldzinnen, plus een lijst van de woorden die in de BGT mogen worden gebruikt. Deze eerste stap leverde verrassend goede resultaten op, maar er bleef een zekere onvoorspelbaarheid in zitten.
Stap 2: Titelkopjes en perikopen
Als tweede stap voegden we de door Claude vertaalde passages bijeen tot een groter geheel en boden dat opnieuw aan, met een nieuwe opdracht: in deze tweede fase moest de vertaalde tekst ingedeeld worden in perikopen, elk voorzien van een kopje. Dit bleek lastiger: de resultaten waren inconsistenter dan die van fase 1. Zo kreeg de scène waarin Jojakim, de man van Susanna, geïntroduceerd wordt bijvoorbeeld het kopje ‘Er woonde een man in Babylon’ – geen weergave van de kern van het verhaal. Door dezelfde tekst meermaals aan te bieden wist Claude zijn resultaten te verbeteren.
Stap 3: Controle met behulp van BGT-methodiek
In de derde fase ging Claude aan het werk met een aantal hoofdstukken uit het BGT- methodeboek Hoe vertaal je de Bijbel in gewone taal? Het model kreeg de opdracht om met deze kennis te reflecteren op de eerder gemaakte vertaling. Claude kreeg zo handvatten om kritisch te kijken naar de duidelijkheid van de tekst: Is het taalgebruik helder? Moet er nog iets explicieter worden gemaakt? Is de samenhang goed? Dit leverde verrassend scherpe observaties op, al waren de resultaten wisselend van kwaliteit.
Aanvankelijk voegden we nog een vierde fase toe, waarin Claude de vertaling moest controleren op culturele aspecten. Zijn er bij de formulering in eenvoudige taal niet per ongeluk ook culturele elementen uit onze tijd de tekst binnengeslopen? Als ‘prompt’ (opdracht) gaven we een toelichting op een aantal opvallende culturele verschillen tussen de Bijbelse context en de onze, inclusief concrete voorbeelden.
Deze opdracht bleek te hoog gegrepen. In plaats van mee te denken volgens de aangegeven lijnen begon Claude overijverig de door ons genoemde cultuurverschillen in de vertaling terug te lezen. Een van de aandachtspunten die wij meegaven was, bijvoorbeeld, ‘houd rekening met de collectieve oriëntatie van de Bijbelse cultuur (clan, familie) tegenover onze individuele cultuur’. Op basis daarvan stelde Claude voor om in Sirach 14:3 een verbetering door te voeren: ‘Voor iemand die gierig is, is geld niet goed’ moet worden: ‘Voor iemand die gierig is, is geld niet goed voor zijn familie.’
Dit legt bloot wat ook, zij het in mindere mate, in de eerste drie fasen meespeelt: het taalmodel levert bruikbare vertaalsuggesties bij het uitvoeren van directe opdrachten en helder geformuleerde regels, maar veel minder bij het toepassen van richtlijnen en principes. Door onze opdrachten te verbeteren, werden ook de resultaten beter.
De grootste zwakte blijft het gebrek aan consistentie: er is geen garantie dat een bepaald Grieks tekstfragment tweemaal op dezelfde manier wordt vertaald. In onze tests bleek wel dat een tweede vertaling van een passage over het algemeen een stuk beter was dan de eerste. Het loonde dus om een tekstfragment tweemaal achter elkaar de procedure te laten doorlopen (een derde of vierde keer maakte het niet evident beter). Een probleem was echter dat die tweede versie hier en daar ook zinnen kon bevatten die juist slechter waren dan in de eerste versie.
Uiteindelijk namen we de proef op de som. We namen onze tekstselectie, Sirach 14:1-19 en 34:1-12, 1 Makkabeeën 1:11-53 en het verhaal van Susanna (Toevoegingen aan Daniël 2:1-64). We doorliepen in Claude de drie bovengenoemde stappen, tweemaal per tekst. Zo kregen we van alles twee AI-versies. Op basis daarvan stelden wij zelf één eindversie samen, waarbij we omwille van het experiment onze eigen inbreng zo beperkt mogelijk hielden: versie 2 is het uitgangspunt; incidentele zinnen uit versie 1 kunnen daarin worden ingevoerd, maar zonder verdere aanpassingen; als controletekst mag alleen de letterlijke vertaling worden gebruikt.
Met deze procedure konden we binnen enkele uren een AI-versie van onze tekstselectie produceren waarin het grootste manco (inconsistentie) behoorlijk is opgevangen en waarbij de menselijke inbreng beperkt blijft tot een redactionele ingreep van tekstsamenstelling. De snelheid waarmee je met deze procedure een vertaling kunt produceren is ongekend. Maar wat is de kwaliteit ervan? Die is, menen wij, zeker niet slecht. Toch kan er geen sprake van zijn dat een langs deze procedure gemaakte tekst gepubliceerd zou worden als de BGT-vertaling van de deuterocanonieke boeken.
Met deze procedure lever je binnen een dagdeel de hoeveelheid tekst op waar een vertaler volgens de richtlijnen van het BGT-project ongeveer een week aan zou hebben gewerkt.
De lezer kan zich hierover zelf een oordeel vormen. Want onze tekstselectie was niet willekeurig gekozen – we hadden van deze deuterocanonieke teksten al een menselijke BGT-vertaling klaarliggen, die een paar jaar geleden gemaakt werd voor een nieuwe uitgave van de Startbijbel. Na deze korte beschrijving is het tijd om naar enkele resultaten te kijken. We willen u als lezer uitdagen om de machine te ontmaskeren. De voorbeelden laten zien waar de beperkingen van Claude en andere grote taalmodellen liggen.
Vertaalvoorbeelden
Voorbeeld 1: Susanna vers 5-6
In dit voorbeeld wordt in de menselijke vertaling een typische BGT-keuze gebruikt die Claude niet bleek op te pikken uit de voorbeeldteksten. Het betreft een woord in vers 5a. In vers 5b speelt een stijlkwestie. En in vers 6 gaat het om de opbouw van informatie.
5 In dat jaar werden twee oude mannen uit het volk als rechters aangesteld. De Heer had over hen gezegd: ‘Slechte mensen uit Babel zijn rechters geworden. Het zijn mannen die lijken te zorgen voor het volk.’ 6 Deze mannen kwamen vaak in het huis van Jojakim. Mensen met een rechtszaak gingen naar hen toe.
5 In dat jaar werden er twee leiders van het volk als rechter aangesteld. Over hen had de Heer gezegd: ‘In Babel wordt mijn wet aan de kant gezet. Het zijn de leiders die dat doen, rechters die zogenaamd mijn volk leiden.’ 6 Die twee mannen waren vaak in het huis van Jojakim. Daar spraken ze recht. Iedereen die een rechtszaak had, kwam naar hen toe.
Voorbeeld 2: Susanna vers 19-21
Voor een vertaler is het altijd complex om te bepalen of informatie impliciet of expliciet vertaald moet worden. Vaak valt er voor beide wat te zeggen, maar hier nemen mens en machine verschillende beslissingen.
19 Zodra de meisjes weg waren, kwamen de twee leiders tevoorschijn. Ze renden naar Susanna toe 20 en zeiden: ‘De poort van de tuin is dicht en niemand kan ons zien. Wij willen jou! Kom bij ons liggen, verzet je niet! 21 Anders zeggen we dat er een jonge man bij je was, en dat je daarom de meisjes hebt weggestuurd.’
19 Toen de meisjes weg waren, kwamen de twee leiders tevoorschijn. Ze renden naar Susanna toe. 20 Ze zeiden: ‘De deuren van de tuin zijn dicht, niemand kan ons zien. We hebben zin in seks met jou. Doe maar wat we willen, dan zeggen we niets. 21 Maar als je niet doet wat we willen, dan zullen we zeggen dat je een jonge man bij je had. En dat je daarom de meisjes hebt weggestuurd.’
Voorbeeld 3: Susanna vers 32
Hoewel de kwaliteit van Claude over het algemeen goed is, komen er toch soms ongelukkige formuleringen uit. Waar blijkt dat hier?
32 De slechte leiders zeiden dat ze haar sluier af moest doen, want ze droeg een sluier. Ze wilden haar mooie gezicht zien.
32 Ze droeg een sluier voor haar gezicht. Maar de twee slechte mannen zeiden: ‘Doe haar die sluier af!’ Zo konden ze nog eens van haar genieten.
Voorbeeld 4: Susanna vers 35
Dit is een voorbeeld op detailniveau. De vertalingen lijken elkaar nauwelijks te ontlopen, toch zie je hier juist een typisch verschil tussen Claude en de mens. Welk verschil?
35 Susanna huilde en keek op naar de hemel, want in haar hart vertrouwde ze op de Heer.
35 Huilend keek Susanna omhoog naar de hemel, want in haar hart bleef ze vertrouwen op de Heer.
Voorbeeld 5: Susanna vers 54-55
Dit voorbeeld is lastig in te leiden zonder het antwoord weg te geven. Het voorbeeld laat zien dat mens en machine een tekst heel verschillend lezen.
54 Goed, jij zegt dat je Susanna gezien hebt. Vertel me dan eens: onder wat voor boom heb je haar gezien met die jonge man?’ De man antwoordde: ‘Onder een beuk.’ 55 Toen zei Daniël: ‘Om deze leugen zul je sterven. Want een engel van God heeft al opdracht gekregen om jou kapot te beuken!’
54 Nu zeg je dat je Susanna met die jonge man hebt gezien. Vertel me eens: onder welke boom heb je hen samen gezien?’ De man zei: ‘Onder een mastiekboom.’ 55 Daniël zei: ‘Je liegt! Nu moet jij sterven! God zal een engel sturen om je in twee stukken te hakken.’
Voorbeeld 6: Sirach 34:2-3
Poëzie zoals in Sirach is complex voor iedere vertaler en daar vormt Claude geen uitzondering op. Welke vertaling lijkt de bedoeling beter uit te drukken?
2 Wie in zijn dromen gelooft,
lijkt op iemand die een schaduw wil pakken,
of de wind wil vangen.
3 Wat je in een droom ziet, is niet echt,
net zoals je gezicht in een spiegel niet echt is.
2 Als je vertrouwt op dromen,
dan lijk je op iemand die een schaduw wil pakken
of de wind wil vangen.
3 In dromen zie je dingen die niet echt zijn.
Het is net als wanneer je in een spiegel kijkt:
je ziet een gezicht, maar dat ben je niet echt zelf.
Het verschil tussen de twee versies is soms maar klein. Toch hebben beide vertalingen duidelijk een eigen profiel. De menselijke vertaling is beeldender, de formulering is natuurlijker en de vertaling weerspiegelt de contextuele samenhang beter. De AI-vertaling is meer beschrijvend, minder samenhangend en minder natuurlijk. Die verschillen treden nog scherper aan de dag als je grotere tekstgehelen vergelijkt, waarvoor hier de ruimte ontbreekt (maar zie de oproep onder dit artikel).
Uitslag van de zes voorbeelden: (1) Claude // menselijke vertaler; (2) menselijke vertaler // Claude; (3) Claude // menselijke vertaler; (4) Claude // menselijke vertaler; (5) menselijke vertaler // Claude; (6) menselijke vertaler // Claude.
Claude als assistent
Na de proef met een AI-gegenereerde vertaling, testten we een tweede aanpak: het taalmodel als assistent. We ontwikkelden een werkproces in vijf stappen. Allereerst werd Claude aan het werk gezet. Bij stap 1 krijgt Claude een Grieks vers en levert een letterlijke vertaling plus een BGT-voorbeeldvertaling, op basis van de instructieset van 5000 voorbeeldzinnen en de BGT-woordenlijst (dus dezelfde ‘expert knowledge’ als bij de eerste proef ). Daarbij kan de vertaler Griekse woorden markeren waarop Claude een nadere toelichting geeft.
Stap 2 draait om contextanalyse. Op basis van een uitgebreid Bijbelcommentaar zet Claude puntsgewijs op een rijtje wat je moet weten over de tekst om die te kunnen vertalen, en welke impliciete betekenis op de achtergrond meespeelt.
Op basis van dit voorwerk maakt de menselijke vertaler vervolgens een eigen BGT-vertaling van het vers (stap 3). Bij onze proef bleek dat het voorwerk van Claude nog een te smalle basis was: vergelijking met andere (niet Nederlandse) vertalingen en grasduinen binnen het BGT-corpus op zoek naar vergelijkbare frases waren ter aanvulling nodig. Toch levert deze aanpak – met een bij het project passende voorbeeldvertaling en een beknopte inhoudelijke uitleg – een duidelijke efficiëntiewinst op.
Daarna volgden twee stappen van controle. Bij stap 4 controleert Claude de voorlopige vertaling op BGT-woordgebruik en stelt verbeteringen voor. In onze proef lukte het niet goed om deze stap op orde te krijgen, maar in theorie zou dit een goede aanvulling zijn. Bij stap 5 controleert het model of de vertaling voldoet aan de BGT-methodiek en stelt mogelijke verbeteringen voor. Ook als het merendeel ervan onbruikbaar is, kan de menselijke vertaler snel precies die suggesties eruit halen die een daadwerkelijke verbetering opleveren. Deze stap werkte in onze proef al goed.
Sterktes en zwaktes van de gebruikte werkwijze
Omdat het taalmodel gebaseerd is op taal- en patroonherkenning, vormt een letterlijke vertaling vanuit het Grieks voor Claude geen probleem. Daarnaast kan het taalmodel verschillende stijlen of rollen aannemen, zoals vertalingen genereren in eenvoudige taal of op een specifieke toon. Hoe duidelijker de instructies zijn, hoe beter de vertaling. Met name de instructieset van 5000 voorbeeldzinnen zorgde ervoor dat Claude een bruikbare voorbeeldvertaling kan aanleveren.
Verder is Claude bijzonder geschikt voor het verwerken en analyseren van grote hoeveelheden tekst. Het kan vanuit commentaren en andere naslagwerken effectief de relevante informatie voor een specifiek Bijbelvers selecteren en overzichtelijk presenteren. Dat levert een aanzienlijke tijdbesparing op. Ook voor het bijstellen van vertalingen biedt Claude bruikbare suggesties, bijvoorbeeld door te wijzen op mogelijk te complexe woorden of constructies. Het opdelen van tekst in perikopen met titelkopjes erboven lukt redelijk, mits de instructies duidelijk zijn.
Interessant is dat het model goed uit de voeten kan met moderne culturele gevoeligheden. Dit bleek bijvoorbeeld bij het werk aan het verhaal van Susanna, waar een ‘male gaze’ nadrukkelijk aanwezig is (we zien Susanna door de ogen van de twee leiders als een seksuele prooi) en Susanna als vrouwelijke hoofdpersoon een beperkte ‘agency’ (handelingsvermogen) heeft. Vandaag de dag vinden we het belangrijk dat een vertaling die ‘male gaze’ niet onnodig uitvergroot en Susanna’s handelingsvermogen niet onnodig verkleint.
Claude is goed in staat om dergelijke gevoelige punten te benoemen, precies te identificeren op welke woorden het vastzit, of welk van de vertaalalternatieven op dit punt het beste scoort. Anderzijds lijkt Claude vooralsnog niet goed in staat om tegelijkertijd de grens van wat ‘mag’ in een vertaling in acht te nemen. Dat vraagt dus om een vertaler die die grens bewaakt, de regie houdt, en haar of zijn voordeel doet met dit soort kritische suggesties.
Claude is dus zeer geschikt als assistent, maar de menselijke vertaler moet de regie houden. De menselijke vertaler brengt iets in dat Claude niet kan bieden: inzicht in de contextuele samenhang, inlevingsvermogen in de situatie, en aanvoelen wat natuurlijk klinkt in een gegeven context. Daarbij kan een taalmodel als Claude gericht worden ingezet voor deeltaken.
Vervolgonderzoek
Deze bevindingen vormen pas het begin. Er zijn verschillende zaken die om nader onderzoek vragen. Met de huidige opzet kan Claude geen volwaardige BGT-vertaling afleveren. Maar stel dat we de vertalingen door het taalmodel, zoals besproken in het eerste deel van dit artikel, beschouwen als werkvertaling waarmee een vertaler aan de slag gaat, dan kunnen twee procedures met elkaar worden vergeleken.
Top-down: de vertaler krijgt een complete AI-vertaling om minutieus door te werken en te verbeteren. Bottom-up: de vertaler krijgt per vers een voorbeeldvertaling plus inhoudelijke toelichting en bouwt zelf stap voor stap de vertaling op.
Welke procedure werkt het beste, is het meest efficiënt en het prettigst voor de vertaler? Een groter opgezet onderzoek, bij voorkeur over enkele jaren wanneer meer Bijbelvertalers ervaring hebben opgebouwd met AI-ondersteund vertalen, zou daarover meer duidelijkheid kunnen verschaffen. Ook het experimenteren met de inzet van taalmodellen is nog lang niet uitgeput, omdat de technische ontwikkelingen doorgaan en de modellen steeds verbeterd worden.
Slotbeschouwing
Dit artikel behandelt de praktische mogelijkheden van een taalmodel in het Bijbelvertalen. De fundamentele ethische en hermeneutische vragen uit het vorige artikel blijven daarbij onverkort van kracht.
We ondernemen deze kleinschalige experimenten omdat we zowel de potentie zien als de gevaren. AI-toepassingen zullen hoe dan ook een grote rol gaan spelen in het Bijbelvertalen. Wat zijn daarbij de voordelen en wat de valkuilen? Hoe houden we als mens de regie en zorgen we ervoor dat de hulpmiddelen het werk ook echt ten goede komen? Het is van groot belang dat dergelijke vragen vanuit wetenschappelijke reflectie én vanuit de praktijk worden onderzocht.
Roemer Voorwinden is student theologie aan de Vrije Universiteit Amsterdam.
Dr. Wim Otte is PKN-predikant en hoofddocent klinische epidemiologie aan de Universiteit Utrecht.
Prof. dr. Matthijs de Jong is hoofd Bijbelvertalen bij het NBG en bijzonder hoogleraar Bijbelvertalen aan de Vrije Universiteit.
Lezersoproep
Wie het leuk vindt om de complete AI-vertaling van Susanna (Toevoegingen aan Daniël 2:1-64), Sirach 14:1-19 en 34:1-12 en 1 Makkabeeën 1:11-53 mee te lezen, en om de versies van mens en taalmodel te identificeren, te vergelijken en er feedback op te geven, kan zich melden bij het MAW-redactiesecretariaat, Yvonne Zwart. Je krijgt dan de teksten toegestuurd met daarbij een formulier om je feedback te geven.
Bronvermelding
Roemer Voorwinden, Wim Otte en Matthijs de Jong, '"Wie vertaalt bepaalt!" De rol van AI als Bijbelvertaler getest' in: Met Andere Woorden 44/2 (oktober 2025), 37-45.
Vakblad Met andere woorden
Met Andere woorden is hét tijdschrift dat je up-to-date houdt over het vertalen van de Bijbel. Ook biedt Met Andere Woorden inspirerende artikelen op het snijvlak van vertalen en Bijbeluitleg.
