Apple se confruntă în SUA cu un nou proces, după ce doi autori americani, Grady Hendrix şi Jennifer Robertson, au dat în judecată compania acuzând-o că a folosit cărţi piratate pentru a-şi antrena modelele de inteligenţă artificială. Acţiunea, depusă în California de Nord, solicită atât despăgubiri financiare, cât şi distrugerea completă a seturilor de date obţinute ilegal.
Conform documentelor depuse la tribunal, Apple ar fi folosit Books3, o colecţie masivă de cărţi piratate, pentru dezvoltarea modelelor lingvistice OpenELM şi Foundation Language Models. Biblioteca ar conţine mii de opere protejate prin copyright, distribuite ilegal online.
Hendrix, autor de bestselleruri horror, şi Robertson, cunoscută pentru lucrările sale de non-ficţiune, susţin că informaţiile provin chiar din date publice publicate de Apple. Ei cer nu doar compensaţii, ci şi ştergerea dataset-urilor derivate, pentru a preveni folosirea ulterioară a materialelor piratate. Dacă procesul va fi transformat într-o acţiune colectivă, sute sau mii de autori s-ar putea alătura, amplificând presiunea asupra companiei.
Cazul se înscrie într-un val mai larg de procese intentate marilor companii din domeniul AI. De curând, Anthropic a recunoscut că a folosit materiale protejate de drepturi de autor pentru a-şi antrena chatbot-ul Claude şi a acceptat să plătească 1,5 miliarde de dolari pentru a încheia un proces colectiv. În SUA, giganţi precum OpenAI, Microsoft, Meta, Stability AI, Google şi Midjourney se confruntă deja cu litigii similare. În paralel, Uniunea Europeană a adoptat Legea AI, care impune standarde mai stricte privind transparenţa şi licenţierea datelor.
Experţii juridici avertizează că aceste procese ar putea remodela industria: dacă instanţele stabilesc că folosirea materialelor piratate este ilegală, companiile vor fi obligate să achiziţioneze licenţe sau să creeze seturi de date proprii, ceea ce ar creşte costurile şi ar încetini inovaţia.
Pentru Apple, recunoscută pentru politica sa de confidenţialitate, acuzaţiile reprezintă o lovitură de imagine. Compania nu a emis încă un răspuns oficial, dar dacă va pierde procesul, ar putea fi obligată să plătească daune semnificative şi să şteargă complet datele folosite, afectând direct proiectele sale AI. În plus, un precedent favorabil autorilor ar putea deschide calea pentru alte acţiuni similare în întreaga industrie.
Pe termen lung, analiştii cred că aceste conflicte ar putea avea un efect pozitiv: ar încuraja transparenţa, standardizarea şi compensaţiile corecte pentru creatori, consolidând încrederea publicului în tehnologiile AI.