Miljoenen Boeken Vernietigd door AI-bedrijf Anthropic: Ethische Vragen Rijzen
Amsterdam, donderdag, 26 juni 2025.
Een controversiële stap van AI-bedrijf Anthropic leidt tot debat: miljoenen boeken werden vernietigd om de AI-assistent Claude te trainen. Dit besluit, hoewel legaal onder ‘fair use’, roept ethische vragen op over duurzaamheid en cultureel erfgoed. De zaak kwam aan het licht in een rechtszaak waarbij rechter William Alsup op 24 juni 2025 oordeelde dat de methode transformeerend was en toelaatbaar binnen de wet. Terwijl het bedrijf zich voorbereidt op verdere juridische uitdagingen, blijft de discussie over de balans tussen technologische vooruitgang en behoud van culturele waarden voortduren.
Omvang van de Keuze en de Rol van ‘Fair Use’
AI-bedrijf Anthropic heeft miljoenen boeken aangekocht en vernietigd nadat ze gedigitaliseerd zijn voor de training van hun AI-model, Claude [1]. Deze stap maakt deel uit van een toenemende trend van bedrijven die fysieke informatie omzetten naar digitale data om geavanceerde AI-systemen te ontwikkelen. De rechtbankclassificeerde deze werkwijze als ‘fair use’, vooral omdat de boeken legaal waren aangeschaft [2]. Rechter William Alsup benadrukte dat Anthropic’s doel niet was om de originele werken te vervangen, maar om iets nieuws, zoals een AI-model, te creëren [2].
Waarom Miljoenen Boeken?
De immense vraag naar hoogwaardige data in de AI-sector is een grote drijvende kracht achter de beslissing van Anthropic. Taalmodellen zoals Claude vereisen data van miljoenen woorden om intelligent en samenhangend te kunnen communiceren [1]. Fysieke boeken, vaak professioneel geredigeerd, dragen bij aan een grotere betrouwbaarheid en coherentie in AI-systemen in tegenstelling tot willekeurige online teksten [1]. Het destructief scannen van boeken, hoewel controversieel, bood een efficiënte manier om snel toegang te krijgen tot een grote hoeveelheid kwalitatieve data [2].
Ethische Dilemma’s en Cultureel Erfgoed
De vernietiging van boeken roept belangrijke ethische vragen op over duurzaamheid en behoud van cultureel erfgoed. Critici wijzen erop dat er meer behoudende methoden beschikbaar zijn, zoals gedigitaliseerde technieken die geen fysieke exemplaren vernietigen, bijvoorbeeld wat universiteiten zoals Harvard doen [1]. Verder wordt de vraag gesteld of dergelijke praktijken culturele waarden ondermijnen in een digitale race naar technologische superioriteit. Terwijl Anthropic’s aanpak is vergeleken met ruimtebesparende digitalisering, blijft de vraag hoe ver bedrijven kunnen gaan zonder cultureel verlies [2].
Toekomstige Juridische Uitdagingen
Naast de gewonnen rechtszaak onder ‘fair use’, staat Anthropic nog steeds voor juridische uitdagingen in verband met het gebruik van piratenkopieën voor AI-training. Er is een aparte rechtszaak gepland in december 2025, waarin de rechtmatigheid van het gebruik van dergelijke auteursrechtelijk beschermde werken centraal zal staan [3]. Deze dreigende rechtszaken kunnen de juridische landschappen voor andere AI-bedrijven beïnvloeden, omdat ook andere grote spelers, zoals OpenAI en Microsoft, met vergelijkbare kwesties te maken hebben [3].
De Impact Op De Gebruiker
Hoewel de legaliteit en ethiek van Antropic’s benadering bediscussieerd kunnen worden, valt de impact op de eindgebruiker niet te onderschatten. AI-modellen zoals Claude, die op hoogwaardige data zijn getraind, bieden gebruikers toegang tot geavanceerde, responsieve digitale assistentie [1]. Deze ontwikkelingen verhogen de efficiëntie van zoekopdrachten, verbeteren interacties met technologie, en bieden nieuwe mogelijkheden, vooral in combinatie met toepassingen als GitHub Copilot [4].