web analytics

Ai ai ai! Reactie op het ATLAS/ATLF-manifest

In 2002 mocht ik een jaar lang een gastcolumn voor Filter schrijven. Ik besloot die te wijden aan een onderwerp dat de gemoederen bezighield: de opmars van vertaalmachines. Had Philipstopman Cor Boonstra niet al in 1996 of 1997 voorspeld dat machines binnen een paar jaar tijd volledig zelfstandig zouden kunnen vertalen? Om de ernst van het onderwerp wat te relativeren koos ik voor de ludieke vorm van de neprecensie, zonder overigens aan te nemen dat de Filter-lezers die serieus zouden nemen: alleen al de naam van de machine, Tovertaal® (‘de TOtale VERTAALoplossing’), leek me ironisch genoeg om elk misverstand bij voorbaat weg te nemen, en anders zouden de toon van het verslag en vooral ook de concrete ‘testresultaten’ dat wel doen, dacht ik. Maar ik vergiste me: veel lezers namen mijn vertaalmachine serieus, collega Nelleke van Maaren schreef er zelfs over in het Lira bulletin, en ook de laatste alinea van de laatste column (waarin ik meld dat het programma ook kan schrijven: ‘Deze vier tests zijn door het programma zelf geschreven. Ik ben Tovertaal.’) hielp nog niet iedereen uit de boze droom.

Uit mijn ironie bleek al wel dat ik zo mijn twijfels had bij Boonstra’s voorspelling. Natuurlijk zou er vast ooit een tijd komen waarin machines veel betere Proustvertalingen zouden kunnen maken dan de beste menselijke vertaalteams, en natuurlijk leek dat me op termijn een grote bedreiging voor onze beroepsgroep, maar ik had niet de indruk dat het water ons al aan de lippen stond. Sterker nog, ook de specialisten op het gebied van automatische vertaling dachten niet dat het zo snel zou gaan, ze dachten om precies te zijn zelfs dat de menselijke vertaler vanwege zijn kennis van de wereld nooit overbodig zou worden. Enter Google Translate, DeepL en recentelijk ChatGPT. De eerste twee zijn vertaalmachines op basis van neurale netwerken, de derde een algemene chatbot op basis van een zogeheten ‘groot taalmodel’; alle drie zijn ze kunstmatig intelligent en leveren ze een output van verbluffende kwaliteit, waarover waarschijnlijk alleen Cor Boomstra zich niet verbaast. Of misschien is kwaliteit niet helemaal het juiste woord, want alle drie blinken ze ook uit in absurde missers, die de output zonder menselijke tussenkomst voorlopig nog volstrekt onbruikbaar maken – behalve voor situaties (en dat zijn er heel veel) waar ‘ongeveer begrijpen wat er staat’ voldoende is.

Dat alles roept een heel cluster van ethische, esthetische en economische vragen op. Gaan we onze verwachtingen van (en eisen aan) vertalingen niet geleidelijk omlaagschroeven als we de hele tijd met matige machinevertalingen worden geconfronteerd? Wordt de verleiding voor commerciële partijen (inclusief uitgeverijen) niet heel groot om een matige maar goedkope machinevertaling te verkiezen boven een goede maar dure menselijke vertaling? Levert vluchtige (economisch rendabele) menselijke postediting van machinevertalingen niet per definitie een vlak, zouteloos eindproduct op? En is die vluchtige postediting niet zo geestdodend dat de beroepsgroep binnen korte tijd zal leeglopen, of in elk geval geen creatief talent meer zal aantrekken, met alle gevolgen van dien voor de kwaliteit van het resultaat? Voldoen machinevertalingen eigenlijk wel aan de eisen van het auteursrecht? En vooral: kunnen we het ons als mensheid wel permitteren om het begrijpen van menselijke taal over te laten aan niet-mensen? Wat doen we onszelf aan als we de vormen van menselijke expressie (beeld, klank, taal) overlaten aan machines die helemaal niets uitdrukken, maar alleen kunnen doen alsof?

Al die vragen komen in het door Carlijn Brouwer vertaalde ATLAS/ATLF-manifest uitvoerig aan de orde, en het antwoord van de twee verenigingen is ondubbelzinnig: het menselijke vertalen moet worden beschermd tegen de AI-dreiging. ‘Het is nog niet te laat om artistieke beroepen te beveiligen tegen generatieve algoritmen,’ luidt de samenvattende slogan op de eerste bladzijde, en na een uitbreide rondgang rond alle aspecten van het vraagstuk komt het manifest met een aantal concrete aanbevelingen: de overheid zou geen steun moeten geven aan bedrijven die uit winstbejag voor automatische vertalingen kiezen, schrijvers zouden contractueel moeten eisen dat hun werken door menselijke vertalers worden vertaald, en er zou in elk geval volledige transparantie (in de vorm van een verplichte vermelding in het boek) over het gebruik van automatische vertalingen moeten zijn.

Dat lijken mij zinnige aanbevelingen, en het menselijk-ethische uitgangspunt is meer dan sympathiek, maar is het genoeg, en is het realistisch? Ik heb zelf als experiment mijn laatste grote Houellebecq-vertaling, Vernietigen, laten voorvertalen door DeepL, en inderdaad geconstateerd dat het programma een vlakke, zouteloze tekst vol grote en vooral kleine fouten voortbrengt ­– waaraan ik veel meer moet doen dan aan mijn eigen ruwe kladvertalingen, met als gevolg dat het totale vertaalproces me ongeveer evenveel tijd kostte als wanneer ik DeepL niet zou hebben ingeschakeld. Toch was het gebruik ervan niet zinloos: in plaats van eerst maandenlang alleen maar te typen om die ruwe kladvertaling af te krijgen, kon ik meteen vanaf dag 1 in het Nederlands gaan nadenken over stijl, klank en ritme. DeepL was dus een instrument zoals ook elektronische naslagwerken, CAT-tools, internet en tekstverwerkers dat zijn, en ik vind dat ik zelf moet kunnen bepalen of ik er wel of niet gebruik van maak; iedereen mag me afrekenen op het eindresultaat.

Maar DeepL bestaat nog maar sinds 2017, Google Translate gebruikt pas sinds 2016 AI en de jongste loot aan de stam, ChatGPT, is nog maar sinds 2022 actief. Als we zien waartoe die programma’s nu al in staat zijn, is het dan niet wat naïef om te denken dat ze over tien, twintig, dertig jaar nog steeds ‘mechanische interpretaties’ en ‘afgevlakte, gestandaardiseerde doelteksten’ zullen voortbrengen? Neem bijvoorbeeld het fragment van de 19de-eeuwse filosoof Auguste Comte dat ik Tovertaal® had laten vertalen in mijn tweede column, maar dan nu herschreven door ChatGPT 4 (met als opdracht: verheven stijlregister, en de spelling van 1850):

‘Daar de huwelykse band voornamelijk gestoeld is op genegenheid en dankbaarheid, is dezelve vooral bestemd om, enkel door het bestaan daarvan, al onze teederste gevoelens van affectie te bevredigen, zonder acht te slaan op eenige notie van een standvastige, voortgezette zamenwerking naar welk doel dan ook, buiten het in stand houden der verbintenis zelve. Doch, in het ongelukkige geval waar de verdeling der taken het eenig overblijvende verbindend beginsel mogt zyn, neigt de huwelykse band onvermijdelijk naar een simpel vennootschap, en meestal zal het dan niet lang toeven zyn eer de band in den grond zyner essentie uiteenrafelt.’

Er zitten wat foutjes en onhandigheden in, de ouderwetse spelling lijkt niet helemaal consequent, maar vlak of zouteloos kun je het onmogelijk noemen. Auteursrechtelijk gezien levert het een dubbele aporie op: het programma is geen ‘maker’, dus deze tekst zou vrijelijk door iedereen mogen worden gereproduceerd en geëxploiteerd – ware het niet dat het corpus waarmee GPT is gevoed hoogstwaarschijnlijk (zoals wordt betoogd in een aantal recente rechtszaken) wél voor een deel auteursrechtelijk beschermd is, waardoor het geproduceerde fragment dus potentieel als plagiaat moet worden beschouwd. Maar hoeveel vertalers zouden de verleiding kunnen weerstaan om toch van dit fenomenale hulpmiddel gebruik te maken? Totdat natuurlijk het moment gekomen is waarop zijzelf niet meer nodig zijn, of zijn verworden tot hulpmiddelen in dienst van de machine.

Mij persoonlijk lijkt het ATLAS/ATLF-manifest zowel te optimistisch als te pessimistisch. Het is te pessimistisch wanneer het aanneemt dat AI-vertalingen per definitie tot middelmatige doelteksten zullen blijven leiden. Vooral door de dialoogfunctie en het gespreksgeheugen van chatbots als ChatGPT kan de mens achter de knoppen het programma tot grote hoogten opstuwen, waardoor er in zekere zin dus sprake is van metacreativiteit: de mens verzint niet de woorden, maar wel de regels waaraan die woorden moeten voldoen. Juist vanwege die enorme metacreatieve potentie, die het hele literaire en artistieke veld volledig op zijn kop dreigt te zetten, lijkt het manifest me tegelijk veel te optimistisch wanneer het stelt dat het nog niet te laat is om de macht van AI in te dammen. Christopher Nolan heeft in interviews rond de verschijning van Oppenheimer meermalen een vergelijking gemaakt tussen de uitvinding en ingebruikname van de atoombom en die van AI: in beide gevallen is er een vóór en een na, je kunt niet meer doen alsof de uitvinding er niet is. Indammen kunnen we het niet meer, we kunnen alleen proberen er verantwoordelijk mee om te gaan. En hopen dat ook de ander dat uit eigenbelang zal doen.

[Geschreven voor Filter 30:3, najaar 2023]

Geef een reactie

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

Deze site gebruikt Akismet om spam te verminderen. Bekijk hoe je reactie-gegevens worden verwerkt.